반응형

IBM Spectrum Scale(GPFS)란 무엇인가?

IBM Spectrum Scale(구 GPFS, General Parallel File System)은 IBM이 개발한 고성능 병렬 분산 파일 시스템입니다. 수천 개의 노드가 동시에 하나의 파일 시스템에 접근할 수 있으며, HPC(고성능 컴퓨팅), 빅데이터 분석, AI 워크로드 환경에서 폭넓게 사용됩니다. 페타바이트 규모의 데이터를 안정적으로 처리할 수 있다는 점이 핵심 강점이지만, 그만큼 성능 문제가 발생했을 때 원인을 찾는 과정이 복잡합니다.

이 글에서는 실무 운영 환경에서 바로 적용할 수 있는 Spectrum Scale 성능 모니터링 방법과 자주 발생하는 문제의 트러블슈팅 접근법을 정리합니다.

기본 상태 점검 명령어

Spectrum Scale 문제가 발생하면 가장 먼저 클러스터 전체의 기본 상태를 확인해야 합니다.

클러스터 및 노드 상태 확인

mmgetstate -a                  # 전체 노드의 GPFS 데몬 상태 확인
mmlscluster                    # 클러스터 기본 정보 출력
mmlsnode -a                    # 노드 목록 및 역할 확인
mmdiag --network               # 네트워크 연결 상태 진단

mmgetstate -a 실행 시 노드 상태가 active가 아닌 arbitrating이나 down으로 표시된다면 해당 노드부터 우선 점검해야 합니다.

파일 시스템 상태 확인

mmlsfs all                     # 전체 파일 시스템 설정 정보
mmlsmount all -L               # 마운트 상태 및 마운트된 노드 확인
mmlsdisk  -L          # 디스크(NSD) 상태 확인
mmdf                  # 파일 시스템 사용량 확인

mmlsdisk에서 디스크 상태가 failed 또는 missing으로 표시되면 즉각 스토리지 레이어를 점검해야 합니다. 이 상태가 지속되면 데이터 접근 불가 또는 성능 급저하로 이어집니다.

성능 모니터링: mmpmon 활용

Spectrum Scale의 핵심 성능 모니터링 도구는 mmpmon입니다. 실시간으로 I/O 통계를 수집하고 분석할 수 있습니다.

기본 I/O 통계 수집

echo "io_s" | mmpmon -p -r 0   # 전체 I/O 통계 출력
echo "fs_io_s" | mmpmon -p -r 0  # 파일 시스템별 I/O 통계
echo "nsd_io_s" | mmpmon -p -r 0  # NSD(디스크)별 I/O 통계

출력 항목 중 주목해야 할 값은 다음과 같습니다.

  • _br_ / _bw_: 읽기/쓰기 바이트 수 (처리량 확인)
  • _rdc_ / _wrc_: 읽기/쓰기 요청 횟수
  • _oc_: open 호출 횟수 (메타데이터 부하 지표)
  • _cc_: close 호출 횟수

주기적 통계 수집 스크립트

실시간 추이를 보려면 일정 간격으로 mmpmon을 반복 실행해 비교하는 방식이 효과적입니다.

#!/bin/bash
while true; do
  echo "=== $(date '+%Y-%m-%d %H:%M:%S') ==="
  echo "fs_io_s" | mmpmon -p -r 0 | grep "_fs_io_s_"
  sleep 10
done

이 스크립트를 백그라운드로 실행하면서 성능 이슈 발생 전후 값을 비교하면 어느 파일 시스템에서 부하가 집중되는지 빠르게 파악할 수 있습니다.

메타데이터 성능 문제 진단

Spectrum Scale 환경에서 성능 저하의 원인 중 상당수는 메타데이터 병목입니다. 특히 소용량 파일이 수백만 개 이상 존재하거나, open/stat/readdir 호출이 집중될 때 발생합니다.

메타데이터 관련 점검

mmlsconfig  | grep -i meta  # 메타데이터 설정 확인
mmlsfileset  -L             # 필레셋 구성 확인
echo "io_s" | mmpmon -p -r 0 | grep _oc_  # open 호출 횟수 확인
  • 메타데이터 전용 NSD가 분리되어 있는지 확인 (메타데이터와 데이터 디스크 분리는 성능의 핵심)
  • inode 크기 설정이 워크로드에 적합한지 검토 (기본값 4096 bytes)
  • 디렉터리 내 파일 수가 수십만 개를 넘는 경우 해시 디렉터리 구조 적용 검토

네트워크 성능 문제 진단

GPFS는 노드 간 통신에 인터커넥트 네트워크를 적극 활용합니다. InfiniBand 또는 이더넷 성능 저하가 전체 파일 시스템 성능에 직접 영향을 줍니다.

네트워크 진단 명령어

mmdiag --network               # 클러스터 내 노드 간 네트워크 연결 진단
mmnetverify                    # 네트워크 성능 검증 (패킷 손실, 대역폭)
mmlsconfig | grep subnets      # 서브넷 구성 확인

InfiniBand 환경이라면 별도로 ibstat, perfquery 명령어로 포트 상태와 오류 카운터를 확인하고, 오류 카운터가 지속적으로 증가하면 케이블 또는 HCA 교체를 검토해야 합니다.

자주 발생하는 문제와 해결 방법

1. 파일 시스템 마운트 불가

  • mmgetstate -a로 모든 노드 데몬 상태 확인
  • 쿼럼(Quorum) 미달 여부 점검 — 전체 노드의 과반수 이상이 active 상태여야 마운트 가능
  • /var/adm/ras/mmfs.log.latest 로그에서 구체적 오류 메시지 확인

2. 특정 노드에서 성능 저하

  • 해당 노드의 CPU, 메모리, 네트워크 사용률 확인 (top, sar, ss)
  • mmdiag --network로 해당 노드의 네트워크 연결 상태 점검
  • pagepool 설정 확인: mmlsconfig | grep pagepool (권장값: 물리 메모리의 25~50%)

3. 디스크 응답 지연

  • mmlsdisk -L로 NSD 상태 확인
  • 스토리지 컨트롤러 레벨에서 I/O 대기 시간(latency) 별도 모니터링
  • NSD 서버 노드 부하 집중 여부 확인 후 NSD 서버 분산 검토

핵심 로그 파일 위치

트러블슈팅 시 반드시 확인해야 하는 로그 파일 경로입니다.

  • /var/adm/ras/mmfs.log.latest: GPFS 데몬 메인 로그 (가장 중요)
  • /var/adm/ras/mmfs.log.previous: 이전 로그 (재시작 전 이벤트 추적)
  • /var/log/messages: 커널 및 시스템 레벨 이벤트 확인

마무리

IBM Spectrum Scale은 강력한 만큼 운영 복잡도도 높습니다. 평소에 mmpmon으로 베이스라인 성능 수치를 축적해두는 것이 가장 중요합니다. 문제가 발생했을 때 비교할 기준값이 없으면 트러블슈팅 시간이 크게 늘어납니다. 클러스터 상태 점검, 성능 통계 수집, 로그 분석을 루틴화하면 대부분의 문제를 조기에 발견하고 대응할 수 있습니다.

반응형
반응형

1. 신규 디스크 준비 & NSD 생성

  1. 스토리지에서 1 TB LUN을 호스트에 매핑
  2. AIX에서 cfgmgr로 신규 hdisk 인식
  3. NSD 정의용 파일 작성(nsd_file)
/dev/hdiskXX:nsd_new01:::dataAndMetadata:1

   4. NSD 생성

mmcrnsd -F nsd_file

  5. 파일시스템에 추가

mmadddisk <filesystem> nsd_new01
  1. 다수의 디스크를 병렬로 추가할 때는 mmadddisk -r 5 옵션으로 추가/재밸런스 동시에 수행 가능

2. 제거 대상 디스크 I/O 중지

  • 파일시스템당 LUN이 약 70 개라면 한 번에 1 개씩 suspend하여 동작 확인 → 이후 5~10 개씩 묶어 진행
  • Suspend 명령
mmchdisk <filesystem> suspend -d <nsd_old##>
  • mmlsdisk <filesystem> -L 로 상태가 suspended인지 확인

3. 데이터 재밸런스

mmrestripefs <filesystem> -r
  • mmrestripefs -r 는 suspend된 디스크를 제외하고 데이터를 균등하게 재분배
  • 진행 상태는 mmdf <filesystem> -r 또는 mmrestripefs -q 로 모니터링

4. 파일시스템에서 디스크 삭제

재밸런스가 완료된 뒤:

mmdeldisk <filesystem> <nsd_old##>
  • mmlsdisk로 status=deleted 확인

5. NSD 정의 삭제

mmdelnsd <nsd_old##>

6. AIX 장치 제거

rmdev -dl <hdiskXX>
  • ODM에서 삭제된 뒤 lsdev -Cc disk 로 사라졌는지 재확인
  • 다중경로(MPIO) 사용 시 lsmpio 또는 lspath로 경로가 남아 있지 않은지 점검

7. 마무리 점검 리스트

점검명령기대 결과
파일시스템 상태 mmlsfs <filesystem> -f 삭제한 NSD 미표시
디스크 목록 mmlsdisk <filesystem> status=ok 디스크만 존재
클러스터 헬스 mmhealth node show 모든 노드 OK
 

실전 팁

  • 백업: 명령 실행 전 mmlsbkpfs 로 구성 백업을 남겨두면 롤백 가능성이 높아집니다.
  • 병렬 처리: 대량 디스크 삭제 시 mmchdisk -a suspend 후 mmrestripefs -p <num_threads> 로 속도 향상.
  • 로그: /var/adm/mmfs/log 경로나 /tmp/mmfs.* 파일을 모니터링해 이상 여부 즉시 파악.
반응형
반응형

안녕하세요! 😊 이번에는 IBM AIX 환경에서 GPFS(General Parallel File System), 현재는 IBM Spectrum Scale로 알려진 파일 시스템을 설치하는 방법을 안내해드릴게요. 이 과정은 두 대의 서버를 기반으로 진행하며, 각 단계별로 상세히 설명해드릴게요.


1. 사전 준비

1.1. 서버 목록

설치를 진행할 두 대의 서버는 다음과 같아요:

  • 오라클 개발 서버 01
  • 오라클 개발 서버 02

1.2. SSH 키 생성 및 배포

두 서버 간 패스워드 없이 통신하기 위해 SSH 키를 생성하고 배포해야 해요.

# SSH 키 생성
ssh-keygen -t rsa

# 생성된 공개 키를 authorized_keys에 추가
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

이 과정을 두 서버 모두에서 수행하고, 각 서버의 ~/.ssh/authorized_keys 파일에 상대 서버의 공개 키를 추가해주세요.


2. GPFS 패키지 설치

2.1. 패키지 다운로드 및 압축 해제

IBM에서 제공하는 GPFS(Spectrum Scale) 패키지를 다운로드하여 각 서버의 동일한 디렉터리에 저장해주세요. 예를 들어, /tmp/download 디렉터리에 Spectrum_Scale_Standard-5.0.1.0-ppc64-AIX-install.tgz 파일을 저장했다면, 다음과 같이 압축을 해제합니다:

# 압축 해제
gzip -dc Spectrum_Scale_Standard-5.0.1.0-ppc64-AIX-install.tgz | tar xvf -

2.2. 패키지 설치

압축을 해제하면 여러 개의 파일셋이 생성돼요. 이를 설치하기 위해 smit 유틸리티를 사용합니다:

# smit 인터페이스 실행
smit installp
  • INPUT device / directory for software: 패키지가 있는 디렉터리 경로를 입력 (예: /tmp/download)
  • SOFTWARE to install: _all_latest 선택
  • ACCEPT new license agreements?: yes로 변경

나머지 옵션은 기본값으로 두고 설치를 진행해주세요.

설치가 완료되면 다음 명령어로 설치된 패키지를 확인할 수 있어요:

# 설치된 GPFS 패키지 확인
lslpp -l | grep -i gpfs

3. 클러스터 구성

3.1. 노드 리스트 작성

클러스터를 구성할 노드들의 정보를 담은 파일을 생성해야 해요. 예를 들어, /var/mmfs/etc/node.list 파일을 생성하고 다음과 같이 작성합니다:

rpodbd01:quorum-manager
rpodbd02:quorum-manager

3.2. NSD(Network Shared Disk) 정의

GPFS에서 사용할 디스크를 정의하는 파일을 생성합니다. 예를 들어, /var/mmfs/etc/data.txt 파일을 생성하고 다음과 같이 작성합니다:

/dev/hdisk0:rpodbd01::dataAndMetadata::data_nsd01:

또한, Tiebreaker 디스크를 정의하는 /var/mmfs/etc/tie.txt 파일도 생성합니다:

/dev/hdisk3:rpodbd01,rpodbd02::dataAndMetadata::tbnsd1:
/dev/hdisk4:rpodbd01,rpodbd02::dataAndMetadata::tbnsd2:
/dev/hdisk5:rpodbd01,rpodbd02::dataAndMetadata::tbnsd3:

3.3. 클러스터 생성

다음 명령어를 통해 클러스터를 생성합니다:

# 클러스터 생성
mmcrcluster -n /var/mmfs/etc/node.list -p rpodbd01 -C rpodbd_cluster

생성 후 라이선스를 수락합니다:

# 라이선스 수락
mmchlicense server --accept -N rpodbd01
mmchlicense server --accept -N rpodbd02

3.4. 클러스터 시작

클러스터를 시작하려면 다음 명령어를 사용합니다:

# 클러스터 시작
mmstartup -a

3.5. NSD 생성

정의한 NSD를 생성합니다:

# 데이터 NSD 생성
mmcrnsd -F /var/mmfs/etc/data.txt

# Tiebreaker NSD 생성
mmcrnsd -F /var/mmfs/etc/tie.txt

Tiebreaker 디스크를 설정합니다:

# Tiebreaker 디스크 설정
mmchconfig tiebreakerDisks="tbnsd1;tbnsd2;tbnsd3"

3.6. 파일 시스템 생성

마지막으로, GPFS 파일 시스템을 생성합니다:

# 파일 시스템 생성
mmcrfs /data /dev/data_nsd01 -F /var/mmfs/etc/data.txt -A yes -B 512k -N 50000

생성된 파일 시스템을 마운트하려면 다음 명령어를 사용합니다:

# 파일 시스템 마운트
mmmount /data

마무리

이제 IBM AIX 환경에서 GPFS(Spectrum Scale) 설치 및 구성이 완료되었어요! 😊 각 단계별로 차근차근 진행하시면 무리 없이 설정하실 수 있을 거예요. 설치 과정 중 문제가 발생하거나 추가적인 도움이 필요하시면 언제든지 문의해주세요.

반응형
반응형

IBM AIX 환경에서 GPFS(General Parallel File System), 현재의 IBM Spectrum Scale을 제거하는 방법을 정리해볼게요. GPFS는 고성능 병렬 파일 시스템으로, 많은 기업에서 클러스터 환경에서 활용하지만, 특정 환경에서 제거해야 할 필요가 생길 수도 있어요.

아래 단계에 따라 안전하게 GPFS를 제거하는 방법을 설명해드릴게요.



1. 모든 GPFS 파일 시스템 언마운트

먼저, 시스템에 마운트된 모든 GPFS 파일 시스템을 언마운트해야 해요.

# 모든 GPFS 파일 시스템 언마운트
mmumount -a /gpfs1
mmumount -a /gpfs2
# 필요에 따라 추가적인 파일 시스템 언마운트

2. GPFS 파일 시스템 삭제

언마운트한 후에는 GPFS 파일 시스템 자체를 삭제해야 해요.

# GPFS 파일 시스템 삭제
mmdelfs gpfs1
mmdelfs gpfs2
# 필요에 따라 추가적인 파일 시스템 삭제

3. NSD(Network Shared Disk) 삭제

파일 시스템을 삭제한 후에는 해당 파일 시스템에서 사용하던 NSD를 삭제해야 해요.

# NSD 삭제
mmdelnsd nsd1
mmdelnsd nsd2
# 필요에 따라 추가적인 NSD 삭제

4. GPFS 데몬 종료

NSD 삭제 후, GPFS 데몬을 종료해야 해요.

# GPFS 데몬 종료
mmshutdown -a

5. Tiebreaker 디스크 삭제

Tiebreaker 디스크를 사용 중이라면, 삭제 전에 GPFS 데몬을 종료하고 설정을 변경해야 해요.

# GPFS 데몬 종료
mmshutdown -a

# Tiebreaker 관련 설정 변경
mmchconfig tiebreakerDisks="no"

설정 변경 후, Tiebreaker 디스크를 삭제하세요.

# Tiebreaker 디스크 삭제
mmdelnsd tiebreakerDiskName

6. 노드 삭제

클러스터에서 모든 노드를 제거해야 해요.

# 노드 삭제
mmdelnode -a

7. GPFS 관련 디렉터리 정리

패키지를 제거한 후에도 일부 설정 파일이나 로그 파일이 남아 있을 수 있어요.
필요에 따라 아래 디렉터리를 정리하면 돼요.

rm -rf /var/mmfs
rm -rf /usr/lpp/mmfs

 


8. GPFS 패키지 제거

AIX 시스템에서 GPFS(Spectrum Scale) 패키지를 제거하려면 installp 명령어를 사용하면 돼요.

smit

Software Installation and Maintenance >  Software Maintenance and Utilities  > Remove Installed Software
또는
smit remove


########################################################################
#  PREVIEW only? (remove operation will NOT occur)     no                                                                                                                  +
#  REMOVE dependent software?                          yes 
########################################################################
gpfs 검색 후 gpfs 패키지 제거

 

 


마무리

GPFS(Spectrum Scale) 제거 작업을 진행하기 전에 반드시 백업을 확인해야 해요.
또한, 클러스터 환경에서 운영 중이라면, 모든 노드에서 GPFS 구성이 올바르게 정리되었는지 점검하는 게 중요해요.

필요한 경우, GPFS 재설치를 위해 관련 패키지를 미리 준비해두는 것도 좋은 방법이에요.
IBM 공식 문서를 참고하면 더욱 정확한 정보를 얻을 수 있어요.

반응형
반응형

기존에 gpfs 구성이 되어있다. 

gpfs 영역 /app 2000GB 증설


1. 스토리지에서 lun 할당
xxx_share_vol_26 ~45

2. 서버 현재 pv확인
[root@xxx01:/]lspv
hdisk0          00ce2f578532e28b                    rootvg          active
hdisk1          00ce2f57d8bfebb2                    swvg            active
hdisk2          00ce2f57d8bfebdb                    swvg            active
hdisk3          00ce2f57abe8c760                    tbnsd1
hdisk4          00ce2f57abe8c78a                    tbnsd2
hdisk5          00ce2f57abe8c7b4                    tbnsd3
hdisk6          00ce2f57abe8c7de                    app_nsd01
hdisk7          00ce2f57abe8c808                    app_nsd02
hdisk8          00ce2f57abe8c832                    app_nsd03
hdisk9          00ce2f57abe8c85c                    app_nsd04
hdisk10         00ce2f57abe8c887                    app_nsd05
hdisk11         00ce2f57abe8c8b1                    app_nsd06
hdisk12         00ce2f570608599a                    app_nsd07
hdisk13         00ce2f5706086419                    app_nsd08
hdisk14         00ce2f5706086d93                    app_nsd09
hdisk15         00ce2f570608799a                    app_nsd10
hdisk16         00ce2f5748137973                    app_nsd11
hdisk17         00ce2f57481379b3                    app_nsd12
hdisk18         00ce2f57481379ec                    app_nsd13
hdisk19         00ce2f5748137a2f                    app_nsd14
hdisk20         00ce2f5748137a70                    app_nsd15
hdisk21         00ce2f5748137aab                    app_nsd16
hdisk22         00ce2f5748137ae2                    app_nsd17
hdisk23         00ce2f5748137b22                    app_nsd18
hdisk24         00ce2f5748137b61                    app_nsd19
hdisk25         00ce2f5748137b9a                    app_nsd20


3. fc path 하드웨어 재인식

    cfgmgr -vl fcs1; cfgmgr -vl fcs3


4.  각 노드별로 추가된 disk pv =yes

chdev -l hdisk26 -a pv=yes 
chdev -l hdisk27 -a pv=yes 
chdev -l hdisk28 -a pv=yes 
chdev -l hdisk29 -a pv=yes 
chdev -l hdisk30 -a pv=yes 
chdev -l hdisk31 -a pv=yes 
chdev -l hdisk32 -a pv=yes 
chdev -l hdisk33 -a pv=yes 
chdev -l hdisk34 -a pv=yes 
chdev -l hdisk35 -a pv=yes 
chdev -l hdisk36 -a pv=yes 
chdev -l hdisk37 -a pv=yes 
chdev -l hdisk38 -a pv=yes 
chdev -l hdisk39 -a pv=yes 
chdev -l hdisk40 -a pv=yes 
chdev -l hdisk41 -a pv=yes 
chdev -l hdisk42 -a pv=yes 
chdev -l hdisk43 -a pv=yes 
chdev -l hdisk44 -a pv=yes 
chdev -l hdisk45 -a pv=yes 

 

5.  cd /var/mmfs/etc
vi app_2000G_app.txt

/dev/hdisk26:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd21
/dev/hdisk27:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd22
/dev/hdisk28:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd23
/dev/hdisk29:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd24
/dev/hdisk30:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd25
/dev/hdisk31:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd26
/dev/hdisk32:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd27
/dev/hdisk33:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd28
/dev/hdisk34:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd29
/dev/hdisk35:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd30
/dev/hdisk36:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd31
/dev/hdisk37:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd32
/dev/hdisk38:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd33
/dev/hdisk39:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd34
/dev/hdisk40:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd35
/dev/hdisk41:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd36
/dev/hdisk42:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd37
/dev/hdisk43:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd38
/dev/hdisk44:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd39
/dev/hdisk45:xxx01-gpfs,xxx02-gpfs::dataAndMetadata::app_nsd40


6. mmcrnsd -F ./app_2000G_app.txt

 

7. mmadddisk /dev/app -F ./app_2000G_app.txt

GPFS: 6027-531 The following disks of app will be formatted on node xxx02:
    app_nsd21: size 104857600 KB
    app_nsd22: size 104857600 KB
    app_nsd23: size 104857600 KB
    app_nsd24: size 104857600 KB
    app_nsd25: size 104857600 KB
    app_nsd26: size 104857600 KB
    app_nsd27: size 104857600 KB
    app_nsd28: size 104857600 KB
    app_nsd29: size 104857600 KB
    app_nsd30: size 104857600 KB
    app_nsd31: size 104857600 KB
    app_nsd32: size 104857600 KB
    app_nsd33: size 104857600 KB
    app_nsd34: size 104857600 KB
    app_nsd35: size 104857600 KB
    app_nsd36: size 104857600 KB
    app_nsd37: size 104857600 KB
    app_nsd38: size 104857600 KB
    app_nsd39: size 104857600 KB
    app_nsd40: size 104857600 KB
Extending Allocation Map
Checking Allocation Map for storage pool system
GPFS: 6027-1503 Completed adding disks to file system app.
mmadddisk: 6027-1371 Propagating the cluster configuration data to all
  affected nodes.  This is an asynchronous process.


[root@xxx01:/var/mmfs/etc]mmdf /dev/app
disk                disk size  failure holds    holds              free KB             free KB
name                    in KB    group metadata data        in full blocks        in fragments
--------------- ------------- -------- -------- ----- -------------------- -------------------
Disks in storage pool: system (Maximum disk size allowed is 1.2 TB)
app_nsd01           104857600       -1 yes      yes         8365056 (  8%)      26813984 (26%)
app_nsd02           104857600       -1 yes      yes         8465920 (  8%)      26065520 (25%)
app_nsd03           104857600       -1 yes      yes         8088064 (  8%)      26130688 (25%)
app_nsd04           104857600       -1 yes      yes         8176640 (  8%)      26392320 (25%)
app_nsd05           104857600       -1 yes      yes         8171008 (  8%)      27328720 (26%)
app_nsd06           104857600       -1 yes      yes         8230400 (  8%)      26214656 (25%)
app_nsd07           104857600       -1 yes      yes          696832 (  1%)      39799472 (38%)
app_nsd08           104857600       -1 yes      yes          759808 (  1%)      37066608 (35%)
app_nsd09           104857600       -1 yes      yes          712192 (  1%)      37374512 (36%)
app_nsd10           104857600       -1 yes      yes          703488 (  1%)      40563808 (39%)
app_nsd11           104857600       -1 yes      yes        43102720 ( 41%)       3749840 ( 4%)
app_nsd12           104857600       -1 yes      yes        43127296 ( 41%)       3768288 ( 4%)
app_nsd13           104857600       -1 yes      yes        43124736 ( 41%)       3750608 ( 4%)
app_nsd14           104857600       -1 yes      yes        43133952 ( 41%)       3762480 ( 4%)
app_nsd15           104857600       -1 yes      yes        43147776 ( 41%)       3746224 ( 4%)
app_nsd16           104857600       -1 yes      yes        43160576 ( 41%)       3764496 ( 4%)
app_nsd17           104857600       -1 yes      yes        43165696 ( 41%)       3755456 ( 4%)
app_nsd18           104857600       -1 yes      yes        43170816 ( 41%)       3777248 ( 4%)
app_nsd19           104857600       -1 yes      yes        43291136 ( 41%)       3758384 ( 4%)
app_nsd20           104857600       -1 yes      yes        43585536 ( 42%)       3745024 ( 4%)
app_nsd21           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd22           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd23           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd24           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd25           104857600       -1 yes      yes       104854528 (100%)           496 ( 0%)
app_nsd26           104857600       -1 yes      yes       104854528 (100%)           496 ( 0%)
app_nsd27           104857600       -1 yes      yes       104854528 (100%)           496 ( 0%)
app_nsd28           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd29           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd30           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd31           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd32           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd33           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd34           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd35           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd36           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd37           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd38           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd39           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
app_nsd40           104857600       -1 yes      yes       104855040 (100%)           496 ( 0%)
                -------------                         -------------------- -------------------
(pool total)       4194304000                            2581478912 ( 62%)     351338256 ( 8%)

                =============                         ==================== ===================
(total)            4194304000                            2581478912 ( 62%)     351338256 ( 8%)

Inode Information
-----------------
Number of used inodes:        60087378
Number of free inodes:         3463086
Number of allocated inodes:   63550464
Maximum number of inodes:     63550464
[root@xxx01:/var/mmfs/etc]df -gt
Filesystem    GB blocks      Used      Free %Used Mounted on
/dev/hd4          20.00      0.72     19.28    4% /
/dev/hd2          30.00      4.66     25.34   16% /usr
/dev/hd9var       20.00      0.47     19.53    3% /var
/dev/hd3          10.00      1.75      8.25   18% /tmp
/dev/hd1          20.00      0.01     19.99    1% /home
/dev/hd11admin      0.50      0.00      0.50    1% /admin
/proc                 -         -         -    - /proc
/dev/hd10opt       5.00      0.59      4.41   12% /opt
/dev/livedump      0.50      0.00      0.50    1% /var/adm/ras/livedump
/dev/ibmlv        20.00      3.83     16.17   20% /ibm
/dev/swlv         55.00     37.50     17.50   69% /sw
/dev/swloglv     100.00     63.91     36.09   64% /log
/dev/veritaslv      5.00      2.59      2.41   52% /veritas
/dev/app        4000.00   1538.11   2461.89   39% /app

반응형

+ Recent posts