¼Ö¶ó¸®½º T5220 ¿¡·¯ÇÏµå ±³Ã¼ °ü·Ã ¹®ÀÇ

   Á¶È¸ 2696   Ãßõ 0    

 안녕하십니까? 솔라리스 T5220 서버에서 하드 하나가 에러가 나서 교체해야할 상황입니다.

HP서버는 에러난 하드만 교체하면 자동 리빌드 되는데 인터넷을 뒤적여 보니 솔라리스는 자동으로 되는게 아닌거 같네요..

서버는 T5220 이고 2.5인치 하드 8개 로 구성되어있는데 레이드1로 2개 나머지 6개가 레이드5 구성인것 같습니다.

문제가된 하드는 하드 6개로 구성된 하드중 하나입니다.

서버의 uname 정보입니다.

# uname -a
SunOS cms 5.10 Generic_138888-06 sun4v sparc SUNW,SPARC-Enterprise-T5220


첫째 질문. 해당 솔라리스는 운영중인 상태에서 하드 교체해도 되는지 아니면 전원 내리고 하드 교체해야 되는지요?


둘째. iostat -E 명령어로 보니 하드는 ST914602SSUN146G 인것 같은데 가지고 있는 하드중 동일한 146G의 ST9146803SS 제품을 가지고 있습니다.  6G 10K 동일한거 같은데 이걸로 교체해도 문제 없을지요?


셋째. 하드를 교체후에 어떤작업을 해야 하는지요? metastat 보면 [호출:metareplace d100 c1t5d0s0 <새 장치>] 부분이 있던데 교체해서 새장치를 연결해 주는 것 같은데 자동으로 장치가 인식해서 생기는 건지요?

자동으로 생기지 않으면 어떤식으로 해야하는지 열려주시기 바랍니다.


솔라리스는 초보라 고수분들의 의견 부탁드립니다.


이래는 현재 설정되어있는 정보입니다.

# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       0. c1t0d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@0/pci@0/pci@2/scsi@0/sd@0,0
       1. c1t1d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@0/pci@0/pci@2/scsi@0/sd@1,0
       2. c1t2d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@0/pci@0/pci@2/scsi@0/sd@2,0
       3. c1t3d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@0/pci@0/pci@2/scsi@0/sd@3,0
       4. c1t4d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@0/pci@0/pci@2/scsi@0/sd@4,0
       5. c1t5d0 <drive type unknown>
          /pci@0/pci@0/pci@2/scsi@0/sd@5,0
       6. c1t6d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@0/pci@0/pci@2/scsi@0/sd@6,0
       7. c1t7d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>


# metastat -p
d4 -m d14 d24 1
d14 1 1 c1t0d0s4
d24 1 1 c1t1d0s4
d3 -m d13 d23 1
d13 1 1 c1t0d0s3
d23 1 1 c1t1d0s3
d1 -m d11 d21 1
d11 1 1 c1t0d0s1
d21 1 1 c1t1d0s1
d0 -m d10 d20 1
d10 1 1 c1t0d0s0
d20 1 1 c1t1d0s0
d100 -r c1t2d0s0 c1t3d0s0 c1t4d0s0 c1t5d0s0 c1t6d0s0 c1t7d0s0 -k -i 64b <- c1t5d0s0  이놈이 문제의 하드인듯합니다.

# metastat
d4: 이중화
    서브미러 0: d14
      상태: 확인        
    서브미러 1: d24
      상태: 확인        
    전달: 1
    읽기 옵션: roundrobin (기본값)
    쓰기 옵션: parallel (기본값)
    크기: 167252736 블록(79 GB)

d14: d4의 Submirror
    상태: 확인        
    크기: 167252736 블록(79 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t0d0s4          0     아니          확인    예


d24: d4의 Submirror
    상태: 확인        
    크기: 167252736 블록(79 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t1d0s4          0     아니          확인    예


d3: 이중화
    서브미러 0: d13
      상태: 확인        
    서브미러 1: d23
      상태: 확인        
    전달: 1
    읽기 옵션: roundrobin (기본값)
    쓰기 옵션: parallel (기본값)
    크기: 20494464 블록(9.8 GB)

d13: d3의 Submirror
    상태: 확인        
    크기: 20494464 블록(9.8 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t0d0s3          0     아니          확인    예


d23: d3의 Submirror
    상태: 확인        
    크기: 20494464 블록(9.8 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t1d0s3          0     아니          확인    예


d1: 이중화
    서브미러 0: d11
      상태: 확인        
    서브미러 1: d21
      상태: 확인        
    전달: 1
    읽기 옵션: roundrobin (기본값)
    쓰기 옵션: parallel (기본값)
    크기: 16790400 블록(8.0 GB)

d11: d1의 Submirror
    상태: 확인        
    크기: 16790400 블록(8.0 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t0d0s1          0     아니          확인    예


d21: d1의 Submirror
    상태: 확인        
    크기: 16790400 블록(8.0 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t1d0s1          0     아니          확인    예


d0: 이중화
    서브미러 0: d10
      상태: 확인        
    서브미러 1: d20
      상태: 확인        
    전달: 1
    읽기 옵션: roundrobin (기본값)
    쓰기 옵션: parallel (기본값)
    크기: 81937152 블록(39 GB)

d10: d0의 Submirror
    상태: 확인        
    크기: 81937152 블록(39 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t0d0s0          0     아니          확인    예


d20: d0의 Submirror
    상태: 확인        
    크기: 81937152 블록(39 GB)
    스트립 0:
        장치       시작 블록    Dbase         상태 Reloc 핫 스패어
        c1t1d0s0          0     아니          확인    예


d100: RAID
    상태: 관리 필요    
    호출: metareplace d100 c1t5d0s0 <새 장치>
    인터레이스: 64 블록
    크기: 1425942528 블록(679 GB)
원래의 장치:
    크기: 1425959360 블록(679 GB)
        장치       시작 블록    Dbase         상태 Reloc  핫 스패어
        c1t2d0s0      21002      아니         확인    예
        c1t3d0s0      21002      아니         확인    예
        c1t4d0s0      21002      아니         확인    예
        c1t5d0s0      21002      아니         관리    
        c1t6d0s0      21002      아니         확인    예
        c1t7d0s0      21002      아니         확인    예

Device Relocation Information:
Device   Reloc  Device ID
c1t1d0   예     id1,sd@n5000cca0008ef9cc
c1t0d0   예     id1,sd@n5000cca000909644
c1t2d0   예     id1,sd@n5000c50012dbecf7
c1t3d0   예     id1,sd@n5000c50012dc0d8b
c1t4d0   예     id1,sd@n5000c50012dc675b
c1t5d0   예     id1,sd@n5000c50012dc6827
c1t6d0   예     id1,sd@n5000c50012dbf223
c1t7d0   예     id1,sd@n5000c50012dc067f






노순기
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
½±°Ô ºÁ¼­..

¼Ö¶ó¸®½º°¡ ÇØ ÁÖ´Â °ÍÀº ¾ø°í ¹°·ÁÀÖ´Â ·¹À̵å ÄÁÆ®·Ñ·¯°¡ ÇؾßÇÒ ÀÓ¹«ÀÔ´Ï´Ù.
¼Ö¶ó¸®½º¿¡¼­ ÄÁÆ®·Ñ·¯·Î ¿¬°áÇÏ´Â toolÀÌ ÀÖ´ÂÁö È®ÀÎ.
ÄÁÆ®·Ñ·¯°¡ lsi Ãâ½ÅÀ̸é.    Megaraid Storage Manager°¡ ÀÖ´ÂÁö
¾Æ´Ï¸é Booting ½Ã¿¡ LSI Webbios¿¡ µé¾î °¥ ¼ö ÀÖ´ÂÁö..

¾Æ´Ï¸é ´Ù¸¥ ÄÁÆ®·Ñ·¯¶ó¸é ±× ÄÁÆ®·Ñ·¯¿¡ ¸Â°Ô ¸ÞÀÎÅͳͽº ÇÁ·Î¼¼½º°¡ ÀÖÀ» °Ì´Ï´Ù.
LSI Logic SAS1068E SAS/SATA Controller ÀÌ°Å ¸Â³ª¿ä?
     
¼­¹ö°¡ ¸Õ°÷¿¡ À־ Á÷Á¢ Á¢±ÙÇϱä Èûµé°í SSH·Î È®ÀÎÇß½À´Ï´Ù.
 prtdiag -v ¸í·É¾î·Î È®ÀÎÇغ¸´Ïscsi-pciex1000,58 LSI,1068E Á¸ÀçÇÕ´Ï´Ù.

========================= IO ±¸¼º =========================
            IO                                                                                       
Location    Type  Slot Path                                          Name                      Model 
----------- ----- ---- --------------------------------------------- ------------------------- ---------
.........................
MB/PCIE      PCIE  MB                    /pci@0/pci@0/pci@2/scsi@0        scsi-pciex1000,58 LSI,1068E
MB/PCIE3    PCIE    3 /pci@0/pci@0/pci@8/pci@0/pci@a/SUNW,XVR-300@0              SUNW,XVR-300 SUNW,375-+
     
https://kyumdoctor.tistory.com/83 ¿©±âº¸´Ï MSM À̶ó´Â°Ô HPÀÇ smart storage administrator °°Àº °Å °°Àºµ¥
¹®Á¦ÀÇ ¼Ö¶ó¸®½º¿¡ MSMÀÌ ¾øÀ¸¸é ¼³Ä¡Çؼ­ ÇÏµå ³Ö¾î¼­ ó¸®Ç϶ó´Â ¸»¾¸ÀÎ°Í °°³×¿ä..
´ÙÀ½ÁÖ¿¡ Á÷Á¢ °¡¼­ Çѹø È®ÀÎÇØ º¸°Ú½À´Ï´Ù.
¼úÀÌ 2021-06
¼Ö¶ó¸®½º´Â Çϵå¿þ¾îº¸´Ü ¼ÒÇÁÆ®·¹ÀÌµå »ç¿ëÇÒ°Å °°Àºµ¥¿ä.
ZFS ½ÃÃÊÀÌ´Ï...
¸®½Ç¹ö ¸í·É¾î »õ·Î¿î µð½ºÅ© ÀåÄ¡·Î ÃÄÁÖ¸é ¸®ºôµå µÉ°Ì´Ï´Ù.
UI¿¡¼­ ÇÏ°í ½ÍÀ¸¸é napp-it ¼³Ä¡Çϸé UI¿¡¼­ ¸®ºôµå °¡´ÉÇÕ´Ï´Ù.
     
napp-it´Â zfs ÆÄÀÏ ½Ã½ºÅÛ¸¸ Áö¿øÇϴ°Š¾Æ´Ñ°¡¿ä?
zpool status ¸í·É¾î·Î È®ÀÎÇØ º¸´Ï "»ç¿ëÇÒ ¼ö ÀÖ´Â Ç®ÀÌ ¾ø½À´Ï´Ù."¶ó°í ³ª¿À³×¿ä..
/etc/vfstab À» º¸´Ï ufs ·Î µÇ¾îÀִ°Š°°±¸¿ä..

https://www.solanara.net/solanara/svm ¿©±â »çÀÌÆ® º¸´Ï SVMÀ» ÀÌ¿ëÇؼ­ ¾Æ·¡Ã³·³ ·¹À̵å5 ÇÑ°Í °°½À´Ï´Ù.
metainit  d100 -r c1t2d0s0 c1t3d0s0 c1t4d0s0 c1t5d0s0 c1t6d0s0 c1t7d0s0 -k -i 64b <- ¤Ñmetastat -p

c1t5d0s0  ÀÌÀåÄ¡°¡ ¿¡·¯³­ ÇϵåÀε¥ ¸®ºôµå ¸í·É¾î¸¦ ¾î¶»°Ô ÇؾßÇÒÁö ¸ð¸£°Ú³×¿ä..
¹°¸® Çϵ带 ±³Ã¼ÇÏ°í ¾Æ·¡¸í·É¾î¸¦ Ä¡¸é ¸®ºôµù µÇ´ÂÁö?
metareplace d100 c1t5d0s0 

¾Æ´Ï¸é ´Ù¸¥ ¸í·É¾î·Î ÀåÄ¡¸¦ Áö¿ì°í ´Ù½Ã Çϵå ÀνĽÃÄѼ­
metattach d100 »õÇϵåÀåÄ¡¸í
ÀÌ·±½ÄÀ¸·Î ÇؾßÇÏ´ÂÁö ¸ð¸£°Ú³×¿ä.
https://flyyunha.tistory.com/entry/SVM-Raid-5
¿©±âº¸´Ï RAID5 Àå¾Öó¸® ¹æ¹ýÀÌ Àֳ׿ä..
ÀÌ°É ÀÌ¿ëÇؼ­ ó¸®ÇغÁ¾ß ÇÒ°Å °°½À´Ï´Ù.

µµ¿òÁֽŠºÐµé²² °¨»çµå¸³´Ï´Ù.


QnA
Á¦¸ñPage 722/5696
2014-05   5030088   Á¤ÀºÁØ1
2015-12   1566638   ¹é¸Þ°¡
2022-12   2602   cho609495
2020-02   2602   »õ·Î¿îÂ÷¿ø
2021-05   2602   ÇູÇϼ¼
2021-01   2602   ºñ¿¤À̺ê
2021-11   2602   osthek83
2022-04   2602   »ßµ¹À̽½ÇÄÀÌ
2019-08   2602   ±Ç¼ø±Ô
2019-03   2603   »ßµ¹À̽½ÇÄÀÌ
2021-09   2603   ´þ¼®
2021-04   2603   Sstar
2022-12   2603   LevinF
2019-12   2603   °Ü¿ï³ª¹«
2020-11   2604   ºí·ç¿µ»ó
2023-09   2604   ¹Ì´ã
02-03   2604   ºòÇÈí
2023-02   2604   ¸·¿ï¾ú¾î¿ä
2019-04   2604   ¶¥ºÎÀÚ
2021-08   2604   ¿µ»êȸ»ó
2020-06   2604   ÁÒ½´¾Æ
2019-08   2604   µà¾ó¸Ç