반응형

IBM Spectrum Scale(GPFS)란 무엇인가?

IBM Spectrum Scale(구 GPFS, General Parallel File System)은 IBM이 개발한 고성능 병렬 분산 파일 시스템입니다. 수천 개의 노드가 동시에 하나의 파일 시스템에 접근할 수 있으며, HPC(고성능 컴퓨팅), 빅데이터 분석, AI 워크로드 환경에서 폭넓게 사용됩니다. 페타바이트 규모의 데이터를 안정적으로 처리할 수 있다는 점이 핵심 강점이지만, 그만큼 성능 문제가 발생했을 때 원인을 찾는 과정이 복잡합니다.

이 글에서는 실무 운영 환경에서 바로 적용할 수 있는 Spectrum Scale 성능 모니터링 방법과 자주 발생하는 문제의 트러블슈팅 접근법을 정리합니다.

기본 상태 점검 명령어

Spectrum Scale 문제가 발생하면 가장 먼저 클러스터 전체의 기본 상태를 확인해야 합니다.

클러스터 및 노드 상태 확인

mmgetstate -a                  # 전체 노드의 GPFS 데몬 상태 확인
mmlscluster                    # 클러스터 기본 정보 출력
mmlsnode -a                    # 노드 목록 및 역할 확인
mmdiag --network               # 네트워크 연결 상태 진단

mmgetstate -a 실행 시 노드 상태가 active가 아닌 arbitrating이나 down으로 표시된다면 해당 노드부터 우선 점검해야 합니다.

파일 시스템 상태 확인

mmlsfs all                     # 전체 파일 시스템 설정 정보
mmlsmount all -L               # 마운트 상태 및 마운트된 노드 확인
mmlsdisk  -L          # 디스크(NSD) 상태 확인
mmdf                  # 파일 시스템 사용량 확인

mmlsdisk에서 디스크 상태가 failed 또는 missing으로 표시되면 즉각 스토리지 레이어를 점검해야 합니다. 이 상태가 지속되면 데이터 접근 불가 또는 성능 급저하로 이어집니다.

성능 모니터링: mmpmon 활용

Spectrum Scale의 핵심 성능 모니터링 도구는 mmpmon입니다. 실시간으로 I/O 통계를 수집하고 분석할 수 있습니다.

기본 I/O 통계 수집

echo "io_s" | mmpmon -p -r 0   # 전체 I/O 통계 출력
echo "fs_io_s" | mmpmon -p -r 0  # 파일 시스템별 I/O 통계
echo "nsd_io_s" | mmpmon -p -r 0  # NSD(디스크)별 I/O 통계

출력 항목 중 주목해야 할 값은 다음과 같습니다.

  • _br_ / _bw_: 읽기/쓰기 바이트 수 (처리량 확인)
  • _rdc_ / _wrc_: 읽기/쓰기 요청 횟수
  • _oc_: open 호출 횟수 (메타데이터 부하 지표)
  • _cc_: close 호출 횟수

주기적 통계 수집 스크립트

실시간 추이를 보려면 일정 간격으로 mmpmon을 반복 실행해 비교하는 방식이 효과적입니다.

#!/bin/bash
while true; do
  echo "=== $(date '+%Y-%m-%d %H:%M:%S') ==="
  echo "fs_io_s" | mmpmon -p -r 0 | grep "_fs_io_s_"
  sleep 10
done

이 스크립트를 백그라운드로 실행하면서 성능 이슈 발생 전후 값을 비교하면 어느 파일 시스템에서 부하가 집중되는지 빠르게 파악할 수 있습니다.

메타데이터 성능 문제 진단

Spectrum Scale 환경에서 성능 저하의 원인 중 상당수는 메타데이터 병목입니다. 특히 소용량 파일이 수백만 개 이상 존재하거나, open/stat/readdir 호출이 집중될 때 발생합니다.

메타데이터 관련 점검

mmlsconfig  | grep -i meta  # 메타데이터 설정 확인
mmlsfileset  -L             # 필레셋 구성 확인
echo "io_s" | mmpmon -p -r 0 | grep _oc_  # open 호출 횟수 확인
  • 메타데이터 전용 NSD가 분리되어 있는지 확인 (메타데이터와 데이터 디스크 분리는 성능의 핵심)
  • inode 크기 설정이 워크로드에 적합한지 검토 (기본값 4096 bytes)
  • 디렉터리 내 파일 수가 수십만 개를 넘는 경우 해시 디렉터리 구조 적용 검토

네트워크 성능 문제 진단

GPFS는 노드 간 통신에 인터커넥트 네트워크를 적극 활용합니다. InfiniBand 또는 이더넷 성능 저하가 전체 파일 시스템 성능에 직접 영향을 줍니다.

네트워크 진단 명령어

mmdiag --network               # 클러스터 내 노드 간 네트워크 연결 진단
mmnetverify                    # 네트워크 성능 검증 (패킷 손실, 대역폭)
mmlsconfig | grep subnets      # 서브넷 구성 확인

InfiniBand 환경이라면 별도로 ibstat, perfquery 명령어로 포트 상태와 오류 카운터를 확인하고, 오류 카운터가 지속적으로 증가하면 케이블 또는 HCA 교체를 검토해야 합니다.

자주 발생하는 문제와 해결 방법

1. 파일 시스템 마운트 불가

  • mmgetstate -a로 모든 노드 데몬 상태 확인
  • 쿼럼(Quorum) 미달 여부 점검 — 전체 노드의 과반수 이상이 active 상태여야 마운트 가능
  • /var/adm/ras/mmfs.log.latest 로그에서 구체적 오류 메시지 확인

2. 특정 노드에서 성능 저하

  • 해당 노드의 CPU, 메모리, 네트워크 사용률 확인 (top, sar, ss)
  • mmdiag --network로 해당 노드의 네트워크 연결 상태 점검
  • pagepool 설정 확인: mmlsconfig | grep pagepool (권장값: 물리 메모리의 25~50%)

3. 디스크 응답 지연

  • mmlsdisk -L로 NSD 상태 확인
  • 스토리지 컨트롤러 레벨에서 I/O 대기 시간(latency) 별도 모니터링
  • NSD 서버 노드 부하 집중 여부 확인 후 NSD 서버 분산 검토

핵심 로그 파일 위치

트러블슈팅 시 반드시 확인해야 하는 로그 파일 경로입니다.

  • /var/adm/ras/mmfs.log.latest: GPFS 데몬 메인 로그 (가장 중요)
  • /var/adm/ras/mmfs.log.previous: 이전 로그 (재시작 전 이벤트 추적)
  • /var/log/messages: 커널 및 시스템 레벨 이벤트 확인

마무리

IBM Spectrum Scale은 강력한 만큼 운영 복잡도도 높습니다. 평소에 mmpmon으로 베이스라인 성능 수치를 축적해두는 것이 가장 중요합니다. 문제가 발생했을 때 비교할 기준값이 없으면 트러블슈팅 시간이 크게 늘어납니다. 클러스터 상태 점검, 성능 통계 수집, 로그 분석을 루틴화하면 대부분의 문제를 조기에 발견하고 대응할 수 있습니다.

반응형
반응형

1. 신규 디스크 준비 & NSD 생성

  1. 스토리지에서 1 TB LUN을 호스트에 매핑
  2. AIX에서 cfgmgr로 신규 hdisk 인식
  3. NSD 정의용 파일 작성(nsd_file)
/dev/hdiskXX:nsd_new01:::dataAndMetadata:1

   4. NSD 생성

mmcrnsd -F nsd_file

  5. 파일시스템에 추가

mmadddisk <filesystem> nsd_new01
  1. 다수의 디스크를 병렬로 추가할 때는 mmadddisk -r 5 옵션으로 추가/재밸런스 동시에 수행 가능

2. 제거 대상 디스크 I/O 중지

  • 파일시스템당 LUN이 약 70 개라면 한 번에 1 개씩 suspend하여 동작 확인 → 이후 5~10 개씩 묶어 진행
  • Suspend 명령
mmchdisk <filesystem> suspend -d <nsd_old##>
  • mmlsdisk <filesystem> -L 로 상태가 suspended인지 확인

3. 데이터 재밸런스

mmrestripefs <filesystem> -r
  • mmrestripefs -r 는 suspend된 디스크를 제외하고 데이터를 균등하게 재분배
  • 진행 상태는 mmdf <filesystem> -r 또는 mmrestripefs -q 로 모니터링

4. 파일시스템에서 디스크 삭제

재밸런스가 완료된 뒤:

mmdeldisk <filesystem> <nsd_old##>
  • mmlsdisk로 status=deleted 확인

5. NSD 정의 삭제

mmdelnsd <nsd_old##>

6. AIX 장치 제거

rmdev -dl <hdiskXX>
  • ODM에서 삭제된 뒤 lsdev -Cc disk 로 사라졌는지 재확인
  • 다중경로(MPIO) 사용 시 lsmpio 또는 lspath로 경로가 남아 있지 않은지 점검

7. 마무리 점검 리스트

점검명령기대 결과
파일시스템 상태 mmlsfs <filesystem> -f 삭제한 NSD 미표시
디스크 목록 mmlsdisk <filesystem> status=ok 디스크만 존재
클러스터 헬스 mmhealth node show 모든 노드 OK
 

실전 팁

  • 백업: 명령 실행 전 mmlsbkpfs 로 구성 백업을 남겨두면 롤백 가능성이 높아집니다.
  • 병렬 처리: 대량 디스크 삭제 시 mmchdisk -a suspend 후 mmrestripefs -p <num_threads> 로 속도 향상.
  • 로그: /var/adm/mmfs/log 경로나 /tmp/mmfs.* 파일을 모니터링해 이상 여부 즉시 파악.
반응형
반응형

서버 보안을 강화하기 위해 PermitRootLogin no 설정을 적용하면, root 계정으로 직접 SSH 접속이 차단됩니다. 이 경우 GPFS(IBM Spectrum Scale)를 운영하기 위해 sudo를 활용해야 합니다. 이번 글에서는 GPFS에서 PermitRootLogin이 "No"로 설정된 경우 Sudo를 이용한 운영 방법을 정리해 보겠습니다.


사전작업

gpfsadmin계정 gpfs 그룹 생성

# id gpfsadmin
uid=208(gpfsadmin) gid=202(gpfs)

 

1. Sudo 구성 및 설정

1) Sudo 설치

GPFS에서 sudo를 사용하려면 먼저 패키지를 설치해야 합니다.

sudo-1.8.15-1noldap.aix6.1.ppc.rpm

2) sudoers 파일 수정

visudo 명령어를 사용하여 /etc/sudoers 파일을 편집합니다.

root    ALL=(ALL) ALL
Defaults env_keep += "MMMODE environmentType GPFS_rshPath GPFS_rcpPath mmScriptTrace GPFSCMDPORTRANGE GPFS_CIM_MSG_FORMAT"
%gpfs ALL=(ALL) PASSWD: ALL, NOPASSWD: /usr/lpp/mmfs/bin/mmremote, /usr/bin/scp, /bin/echo, /usr/lpp/mmfs/bin/mmsdrrestore
Defaults:%gpfs !requiretty

⚠️ 중요:

  • IBM Storage Scale 5.1.0 이상에서는 scp, echo, mmsdrrestore를 sudoers에 추가할 필요 없음
  • GPFS 관련 환경 변수를 유지하도록 Defaults env_keep 설정 추가

3) sudoers 파일 권한 변경 (보안 설정 필수)

sudoers 파일 수정 후 보안을 위해 읽기 전용으로 설정해야 합니다.

chmod 0440 /etc/sudoers

잘못된 권한 설정 시 sudo가 정상적으로 동작하지 않을 수 있습니다.


2. SSH 및 SCP 래퍼 스크립트 테스트

IBM Spectrum Scale에서는 원격 쉘 실행을 위한 sudo 래퍼 스크립트(sshwrap, scpwrap)를 제공합니다. 정상적으로 동작하는지 확인해야 합니다.

1) sshwrap 테스트

sudo /usr/lpp/mmfs/bin/mmcommon test sshwrap nodeName

출력 예시:

mmcommon test sshwrap: Command successfully completed

2) scpwrap 테스트

sudo /usr/lpp/mmfs/bin/mmcommon test scpwrap nodeName

출력 예시:

mmcommon test scpwrap: Command successfully completed

이 과정에서 문제가 발생하면 sudoers 설정이 올바르게 적용되었는지 다시 확인해야 합니다.


3. GPFS 클러스터 설정 및 운영

1) 신규 클러스터 생성 (PermitRootLogin no 환경에서)

GPFS 클러스터를 새로 생성할 경우 --use-sudo-wrapper 옵션을 추가해야 합니다.

sudo /usr/lpp/mmfs/bin/mmcrcluster --use-sudo-wrapper -N /home/gpfsadmin/node.txt -C aix72 -A

2) 기존 클러스터를 sudo 래퍼 방식으로 변경

이미 운영 중인 클러스터가 있다면, 아래 명령어로 sudo 래퍼를 적용할 수 있습니다.

sudo /usr/lpp/mmfs/bin/mmchcluster --use-sudo-wrapper

3) 설정 확인

GPFS 클러스터가 sudo 래퍼를 정상적으로 사용하는지 확인하려면 다음 명령어를 실행합니다.

sudo /usr/lpp/mmfs/bin/mmlscluster

4) CCR 설정 변경 (필요 시)

일부 환경에서는 ccrEnabled 값을 변경해야 할 수도 있습니다.

sudo /usr/lpp/mmfs/bin/mmchcluster ccrdisable

정리 및 결론

  • PermitRootLogin no 설정 시 GPFS 운영자는 root 계정 대신 sudo를 활용해야 함
  • /etc/sudoers 파일을 수정하고 권한을 0440으로 변경하여 보안 강화
  • GPFS 환경 변수 유지 설정 추가 (Defaults env_keep 설정 활용)
  • IBM Spectrum Scale sudo 래퍼(sshwrap, scpwrap) 정상 작동 여부 확인 필수
  • 기존 클러스터는 --use-sudo-wrapper 옵션을 사용하여 sudo 방식으로 변환 가능

💡 Tip: mmlscluster 실행 결과에서 "sudo 래퍼 설정이 적용됨" 문구를 꼭 확인하세요! 🚀

#mmlscluster
GPFS cluster information
========================
  GPFS cluster name:         rpodbd_cluster.rpodbd01
  GPFS cluster id:           5439007699037552173
  GPFS UID domain:           rpodbd_cluster.rpodbd01
  Remote shell command:      sudo wrapper in use
  Remote file copy command:  sudo wrapper in use
  Repository type:           CCR

 

반응형
반응형

IBM AIX 환경에서 GPFS(General Parallel File System), 현재의 IBM Spectrum Scale을 제거하는 방법을 정리해볼게요. GPFS는 고성능 병렬 파일 시스템으로, 많은 기업에서 클러스터 환경에서 활용하지만, 특정 환경에서 제거해야 할 필요가 생길 수도 있어요.

아래 단계에 따라 안전하게 GPFS를 제거하는 방법을 설명해드릴게요.



1. 모든 GPFS 파일 시스템 언마운트

먼저, 시스템에 마운트된 모든 GPFS 파일 시스템을 언마운트해야 해요.

# 모든 GPFS 파일 시스템 언마운트
mmumount -a /gpfs1
mmumount -a /gpfs2
# 필요에 따라 추가적인 파일 시스템 언마운트

2. GPFS 파일 시스템 삭제

언마운트한 후에는 GPFS 파일 시스템 자체를 삭제해야 해요.

# GPFS 파일 시스템 삭제
mmdelfs gpfs1
mmdelfs gpfs2
# 필요에 따라 추가적인 파일 시스템 삭제

3. NSD(Network Shared Disk) 삭제

파일 시스템을 삭제한 후에는 해당 파일 시스템에서 사용하던 NSD를 삭제해야 해요.

# NSD 삭제
mmdelnsd nsd1
mmdelnsd nsd2
# 필요에 따라 추가적인 NSD 삭제

4. GPFS 데몬 종료

NSD 삭제 후, GPFS 데몬을 종료해야 해요.

# GPFS 데몬 종료
mmshutdown -a

5. Tiebreaker 디스크 삭제

Tiebreaker 디스크를 사용 중이라면, 삭제 전에 GPFS 데몬을 종료하고 설정을 변경해야 해요.

# GPFS 데몬 종료
mmshutdown -a

# Tiebreaker 관련 설정 변경
mmchconfig tiebreakerDisks="no"

설정 변경 후, Tiebreaker 디스크를 삭제하세요.

# Tiebreaker 디스크 삭제
mmdelnsd tiebreakerDiskName

6. 노드 삭제

클러스터에서 모든 노드를 제거해야 해요.

# 노드 삭제
mmdelnode -a

7. GPFS 관련 디렉터리 정리

패키지를 제거한 후에도 일부 설정 파일이나 로그 파일이 남아 있을 수 있어요.
필요에 따라 아래 디렉터리를 정리하면 돼요.

rm -rf /var/mmfs
rm -rf /usr/lpp/mmfs

 


8. GPFS 패키지 제거

AIX 시스템에서 GPFS(Spectrum Scale) 패키지를 제거하려면 installp 명령어를 사용하면 돼요.

smit

Software Installation and Maintenance >  Software Maintenance and Utilities  > Remove Installed Software
또는
smit remove


########################################################################
#  PREVIEW only? (remove operation will NOT occur)     no                                                                                                                  +
#  REMOVE dependent software?                          yes 
########################################################################
gpfs 검색 후 gpfs 패키지 제거

 

 


마무리

GPFS(Spectrum Scale) 제거 작업을 진행하기 전에 반드시 백업을 확인해야 해요.
또한, 클러스터 환경에서 운영 중이라면, 모든 노드에서 GPFS 구성이 올바르게 정리되었는지 점검하는 게 중요해요.

필요한 경우, GPFS 재설치를 위해 관련 패키지를 미리 준비해두는 것도 좋은 방법이에요.
IBM 공식 문서를 참고하면 더욱 정확한 정보를 얻을 수 있어요.

반응형
반응형

기존에 gpfs 구성이 되어있다. 

gpfs 영역 /app 2000GB 증설


1. 스토리지에서 lun 할당
xxx_share_vol_26 ~45

2. 서버 현재 pv확인
[root@xxx01:/]lspv
hdisk0          00ce2f578532e28b                    rootvg          active
hdisk1          00ce2f57d8bfebb2                    swvg            active
hdisk2          00ce2f57d8bfebdb                    swvg            active
hdisk3          00ce2f57abe8c760                    tbnsd1
hdisk4          00ce2f57abe8c78a                    tbnsd2
hdisk5          00ce2f57abe8c7b4                    tbnsd3
hdisk6          00ce2f57abe8c7de                    app_nsd01
hdisk7          00ce2f57abe8c808                    app_nsd02
hdisk8          00ce2f57abe8c832                    app_nsd03
hdisk9          00ce2f57abe8c85c                    app_nsd04
hdisk10         00ce2f57abe8c887                    app_nsd05
hdisk11         00ce2f57abe8c8b1                    app_nsd06
hdisk12         00ce2f570608599a                    app_nsd07
hdisk13         00ce2f5706086419                    app_nsd08
hdisk14         00ce2f5706086d93                    app_nsd09
hdisk15         00ce2f570608799a                    app_nsd10
hdisk16         00ce2f5748137973                    app_nsd11
hdisk17         00ce2f57481379b3                    app_nsd12
hdisk18         00ce2f57481379ec                    app_nsd13
hdisk19         00ce2f5748137a2f                    app_nsd14
hdisk20         00ce2f5748137a70                    app_nsd15
hdisk21         00ce2f5748137aab                    app_nsd16
hdisk22         00ce2f5748137ae2                    app_nsd17
hdisk23         00ce2f5748137b22                    app_nsd18
hdisk24         00ce2f5748137b61                    app_nsd19
hdisk25         00ce2f5748137b9a                    app_nsd20


3. fc path 하드웨어 재인식

    cfgmgr -vl fcs1; cfgmgr -vl fcs3


4.  각 노드별로 추가된 disk pv =yes

chdev -l hdisk26 -a pv=yes 
chdev -l hdisk27 -a pv=yes 
chdev -l hdisk28 -a pv=yes 
chdev -l hdisk29 -a pv=yes 
chdev -l hdisk30 -a pv=yes 
chdev -l hdisk31 -a pv=yes 
chdev -l hdisk32 -a pv=yes 
chdev -l hdisk33 -a pv=yes 
chdev -l hdisk34 -a pv=yes 
chdev -l hdisk35 -a pv=yes 
chdev -l hdisk36 -a pv=yes 
chdev -l hdisk37 -a pv=yes 
chdev -l hdisk38 -a pv=yes 
chdev -l hdisk39 -a pv=yes 
chdev -l hdisk40 -a pv=yes 
chdev -l hdisk41 -a pv=yes 
chdev -l hdisk42 -a pv=yes 
chdev -l hdisk43 -a pv=yes 
chdev -l hdisk44 -a pv=yes 
chdev -l hdisk45 -a pv=yes 

 

5.  cd /var/mmfs/etc
vi app_2000G_app.txt

/dev/hdisk26:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd21
/dev/hdisk27:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd22
/dev/hdisk28:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd23
/dev/hdisk29:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd24
/dev/hdisk30:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd25
/dev/hdisk31:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd26
/dev/hdisk32:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd27
/dev/hdisk33:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd28
/dev/hdisk34:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd29
/dev/hdisk35:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd30
/dev/hdisk36:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd31
/dev/hdisk37:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd32
/dev/hdisk38:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd33
/dev/hdisk39:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd34
/dev/hdisk40:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd35
/dev/hdisk41:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd36
/dev/hdisk42:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd37
/dev/hdisk43:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd38
/dev/hdisk44:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd39
/dev/hdisk45:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd40


6. mmcrnsd -F ./app_2000G_app.txt

 

7. mmadddisk /dev/app -F ./app_2000G_app.txt

GPFS: 6027-531 The following disks of app will be formatted on node xxx02:
    app_nsd21: size 104857600 KB
    app_nsd22: size 104857600 KB
    app_nsd23: size 104857600 KB
    app_nsd24: size 104857600 KB
    app_nsd25: size 104857600 KB
    app_nsd26: size 104857600 KB
    app_nsd27: size 104857600 KB
    app_nsd28: size 104857600 KB
    app_nsd29: size 104857600 KB
    app_nsd30: size 104857600 KB
    app_nsd31: size 104857600 KB
    app_nsd32: size 104857600 KB
    app_nsd33: size 104857600 KB
    app_nsd34: size 104857600 KB
    app_nsd35: size 104857600 KB
    app_nsd36: size 104857600 KB
    app_nsd37: size 104857600 KB
    app_nsd38: size 104857600 KB
    app_nsd39: size 104857600 KB
    app_nsd40: size 104857600 KB
Extending Allocation Map
Checking Allocation Map for storage pool system
GPFS: 6027-1503 Completed adding disks to file system app.
mmadddisk: 6027-1371 Propagating the cluster configuration data to all
  affected nodes.  This is an asynchronous process.


[root@xxx01:/var/mmfs/etc]mmdf /dev/app
disk                disk size  failure holds    holds              free KB             free KB
name                    in KB    group metadata data        in full blocks        in fragments
--------------- ------------- -------- -------- ----- -------------------- -------------------
Disks in storage pool: system (Maximum disk size allowed is 1.2 TB)
app_nsd01           104857600       -1 yes      yes         8365056 (  8%)      26813984 (26%)
app_nsd02           104857600       -1 yes      yes         8465920 (  8%)      26065520 (25%)
app_nsd03           104857600       -1 yes      yes         8088064 (  8%)      26130688 (25%)
app_nsd04           104857600       -1 yes      yes         8176640 (  8%)      26392320 (25%)
app_nsd05           104857600       -1 yes      yes         8171008 (  8%)      27328720 (26%)
app_nsd06           104857600       -1 yes      yes         8230400 (  8%)      26214656 (25%)
app_nsd07           104857600       -1 yes      yes          696832 (  1%)      39799472 (38%)
app_nsd08           104857600       -1 yes      yes          759808 (  1%)      37066608 (35%)
app_nsd09           104857600       -1 yes      yes          712192 (  1%)      37374512 (36%)
app_nsd10           104857600       -1 yes      yes          703488 (  1%)      40563808 (39%)
app_nsd11           104857600       -1 yes      yes        43102720 ( 41%)       3749840 ( 4%)
app_nsd12           104857600       -1 yes      yes        43127296 ( 41%)       3768288 ( 4%)
app_nsd13           104857600       -1 yes      yes        43124736 ( 41%)       3750608 ( 4%)
app_nsd14           104857600       -1 yes      yes        43133952 ( 41%)       3762480 ( 4%)
app_nsd15           104857600       -1 yes      yes        43147776 ( 41%)       3746224 ( 4%)
app_nsd16           104857600       -1 yes      yes        43160576 ( 41%)       3764496 ( 4%)
app_nsd17           104857600       -1 yes      yes        43165696 ( 41%)       3755456 ( 4%)
app_nsd18           104857600       -1 yes      yes        43170816 ( 41%)       3777248 ( 4%)
app_nsd19           104857600       -1 yes      yes        43291136 ( 41%)       3758384 ( 4%)
app_nsd20           104857600       -1 yes      yes        43585536 ( 42%)       3745024 ( 4%)
app_nsd21           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd22           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd23           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd24           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd25           104857600       -1 yes      yes       104854528 (100%)           496 ( 0%)
app_nsd26           104857600       -1 yes      yes       104854528 (100%)           496 ( 0%)
app_nsd27           104857600       -1 yes      yes       104854528 (100%)           496 ( 0%)
app_nsd28           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd29           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd30           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd31           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd32           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd33           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd34           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd35           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd36           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd37           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd38           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd39           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd40           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
                -------------                         -------------------- -------------------
(pool total)       4194304000                            2581478912 ( 62%)     351338256 ( 8%)

                =============                         ==================== ===================
(total)            4194304000                            2581478912 ( 62%)     351338256 ( 8%)

Inode Information
-----------------
Number of used inodes:        60087378
Number of free inodes:         3463086
Number of allocated inodes:   63550464
Maximum number of inodes:     63550464
[root@xxx01:/var/mmfs/etc]df -gt
Filesystem    GB blocks      Used      Free %Used Mounted on
/dev/hd4          20.00      0.72     19.28    4% /
/dev/hd2          30.00      4.66     25.34   16% /usr
/dev/hd9var       20.00      0.47     19.53    3% /var
/dev/hd3          10.00      1.75      8.25   18% /tmp
/dev/hd1          20.00      0.01     19.99    1% /home
/dev/hd11admin      0.50      0.00      0.50    1% /admin
/proc                 -         -         -    - /proc
/dev/hd10opt       5.00      0.59      4.41   12% /opt
/dev/livedump      0.50      0.00      0.50    1% /var/adm/ras/livedump
/dev/ibmlv        20.00      3.83     16.17   20% /ibm
/dev/swlv         55.00     37.50     17.50   69% /sw
/dev/swloglv     100.00     63.91     36.09   64% /log
/dev/veritaslv      5.00      2.59      2.41   52% /veritas
/dev/app        4000.00   1538.11   2461.89   39% /app

반응형
반응형

hacmp 구성 중 
ERROR: Interface <<iplabel>> (<<ipaddr>>) is not
 configured in AIX on node: <<nodename>>
 Please check to ensure the interface is properly
 defined to AIX. If the 'smitty chinet' and change
 network interface: <<en#>> to the above IP
 definition.

에러가 발생하게 된다면 

 

해결방법
A possible workaround is to remove the odmcache directory
/var/hacmp/odmcache/* and retry verification.

/var/hacmp/odmcache/* 을 지우고 다시 실행해본다.

해당 부분 동일 증상일때 재부팅 후 해결했다.

 

관련 URL : 

www.ibm.com/support/pages/apar/IJ02957

반응형

'IT > aix' 카테고리의 다른 글

IBM GPFS(Spectrum Scale) 파일시스템 제거 방법  (0) 2025.02.26
gpfs 파일시스템 증설  (0) 2020.12.28
aix 6.1.9.3 -> 6.1.9.12 SP update  (0) 2020.11.02
nmon 사용법 및 cron  (0) 2018.12.03
유저당 process 수 지정하기  (0) 2018.08.24
반응형

 

에서 SP 해당하는 버전 선택 후 다운로드

 

 

www.ibm.com/support/fixcentral/

 

 

 

서비스팩 6100-09-12-1846을 다운로드받는다.

 

6100 은 6.1 aix 버전을 의미한다.

 

09는 TL(Technology Level) 티엘이라고 한다. 

TL 버전을 올리게 되면 소프트웨어와 하드웨어 신규 서비스가 추가된다.

 

12는 SP(Service Pack)에스피 라고 한다.

보안관련 사항이나 다른 어플리케이션과 충돌 혹은 AIX bug등을 모아둔것을 Service Pack이라한다.

버그패치라고 봐도 무관하다.

 

마지막 1846은

앞두자리는 년도 뒤에 두자리는 주차라는것이다

2018년도 46주차에 나온 버전을 의미한다.

 

다운로드를 받아 버전을 올릴서버에 파일을 올려준다.

다운로드 받은 파일의 용량을 확인 후 비어있는곳에 올려둔다.

이번건 5GB 정도 된다.

 

SP version 올리는 명령어

1. oslevel -s     --- 현재버전 확인

2. 설치파일이 있는 디렉토리에서 inutoc . 실행  ---- 인스톨 리스트 제작

3. smit installp

 PREVIEW only             --- 실체 설치 하지 않고 제대로 설치가 되는지 test

 COMMIT software update?    --- Commit 는 기존의 파일들을 지우고 작업하는것으로 no로 선택

 Accept New license agrements ---YES

 SAVE Replace file --- YES

 

4. 업데이트 후 

 oslevel -s --- 제대로 올라갔는지 버전 확인

 

기타 명령어

instfix -i | grep ML  --- 수정사항이 시스템에 설치 되어있는지 확인

lppchk -v ---필수 파일셋 중에 빠진게 있는지 확인

특정 ML에서 누락된 file 찾을 경우

instfix -ivk 6100-08_AIX_ML | grep not | grep ":" --- 확인 후 파일셋 다운로드

 

버전이 그래도 안올라왔다면 추가 SP 누락도 확인필요

instfix -i | grep SP

instfix -ivk 61-09-121846_SP | grep not | grep ":" ---로 확인이 필요

패키지가 없다면 추가설치를 해야한다.

 

패키지 검색 링크 https://www.ibm.com/resources/mrs/assets/DownloadList?source=aixbp&lang=en_US

 

****************************************************************************************************

이번 버전업을 하면서 openssh.msg.en_US 가 누락되어있다고 나왔다.

확인을 해 보니 단순한 메시지 파일로 SP가 안올라간거로 보였다.

하여 해당 파일셋 삭제 후 진행했을때 정상적으로 올라옴

****************************************************************************************************

반응형

'IT > aix' 카테고리의 다른 글

gpfs 파일시스템 증설  (0) 2020.12.28
PowerHA 시 Interface is not configured in AIX 에러 발생 시  (0) 2020.11.12
nmon 사용법 및 cron  (0) 2018.12.03
유저당 process 수 지정하기  (0) 2018.08.24
aix vg lv 생성  (0) 2018.08.24
반응형

 nmon 명령

대화식 모드의 플래그

대화식 모드에서는 다음 플래그를 사용할 수 있습니다.

항목 설명

-s < seconds > 화면을 갱신하는 간격입니다. 디폴트 값은 2초입니다.

-c < count > 화면을 갱신해야 하는 횟수입니다.

-g < filename > filename 매개변수를 사용하여 지정할 수 있는 사용자 정의 디스크 그룹을 포함하는 파일입니다. 이 파일의 각 행은 그룹 이름으로 시작합니다. 이 하드 디스크 리스트에서는 뒤에 그룹 이름이 오며 이는 간격으로 구분됩니다. 이 파일은 최대 64개의 디스크 그룹을 포함할 수 있습니다. 하나의 하드 디스크는 여러 디스크 그룹에 속할 수 있습니다.

-b 열람을 흑백 모드로 표시합니다.

-B 열람에 상자를 포함시키지 않습니다. 기본적으로 이 명령은 상자를 표시합니다.

-h 도움말 정보를 표시합니다.

-k < disklist > 디스크 리스트에 있는 디스크만 보고합니다.

-i 최상위 스레드 레벨 CPU 사용량을 보고합니다.

 

 

ex) nmon s 10 c 100 f

10초 단위로 100번 성능을 측정 후 파일로 출력

ex) nmon s 10 c 8640 f

하루동안 10초단위로 성능을 측정

ex) nmon -f -d -t -m /tmp/nmonfile -s 600 -c 144 &

/tmp/nmonfile 디렉토리에 600초 간격으로 144번 파일로 결과 저장

 

 

nmon 자동화

 

임의로 shell 파일로 만든다.

#!/bin/bash

cd /home/nmonout

/<nmon_dir>/nmon f d t s 300 c 144

 

#crontab e에서 등록한다.

 분    시간    날짜    달    요일

15      3        *        *       *       : 매일 3시 15분에 실행

5        9        *        *       6       : 매주 금요일 9시 5분에 실행

 

nmon analyzer 파일 분석

Download :

https://www.ibm.com/developerworks/community/wikis/home?lang=en#!/wiki/Power+Systems/page/nmon_analyser


다운 받은 후 nmon 툴을 통해 내려받은 파일을 선택 후 저장하면 확인 할 수 있다.

반응형

'IT > aix' 카테고리의 다른 글

PowerHA 시 Interface is not configured in AIX 에러 발생 시  (0) 2020.11.12
aix 6.1.9.3 -> 6.1.9.12 SP update  (0) 2020.11.02
유저당 process 수 지정하기  (0) 2018.08.24
aix vg lv 생성  (0) 2018.08.24
aix etherchannel구성방법  (0) 2018.08.24
반응형

# lsattr -El sys0 -a maxuproc

maxuproc 128 Maximum number of PROCESSES allowed per user True


현재 유저당 128개로 제한을 두고있다.


변경방법은 2가지가 있다. 1. smit을 이용한 방법과 명령어를 이용하는 방법이 있다.


1. 명령어를 이용한 방법


# chdev -l sys0 -a maxuproc=40960

sys0 changed



2. smit을 이용한 방법

System Environments


Change / Show Characteristics of Operating System


 Maximum number of PROCESSES allowed per user       [40960]


로 수정할 수 있다.

반응형

'IT > aix' 카테고리의 다른 글

aix 6.1.9.3 -> 6.1.9.12 SP update  (0) 2020.11.02
nmon 사용법 및 cron  (0) 2018.12.03
aix vg lv 생성  (0) 2018.08.24
aix etherchannel구성방법  (0) 2018.08.24
hmc 에서 터미널 종료  (0) 2018.08.16

+ Recent posts