ÆÄÀϼ­¹ö º´¸ñ

   Á¶È¸ 3718   Ãßõ 0    

안녕하세요. 밑도 끝도 없는 초보 관리자입니다. 


파일서버 병목 때문에 질문 드립니다. 운용중인 파일서버는 다음과 같습니다.

Epyc 64 cores, 256GB, 2x 12G SAS HBA, 2x JBOD (120 * 10 TB HDD), Infiniband 100G.

software RAID10 89T 3개 (EXT4), RAID6 107T (EXT4), RAID6 (XFS) 그리고 몇몇 디스크는 스페어로 그리고 나머지는 아직 셋업을 안했습니다.

NFS over RDMA 로 헤드/로긴노드(1개), 그리고 8개 계산노드에 NFS 마운트하여 사용하고 있습니다.


대부분의 작업은 일반적으로 계속 읽고 쓰기가 쉬지 않고 반복이 됩니다. 파일 갯수도 많고 파일 용량도 큽니다. 그러다가 한 번 hang 걸리면 답이 없더라구요. 어떤 식으로 사전에 i/o 과부하 걸리는 것을 피할 수 있을까요? 관리자도 사용자도 둘다 그렇게 스마트하지 않습니다 ㅠ.ㅠ


용량 문제도 있고 현재는 파일서버 터지면 답이 없는 상황입니다. 파일서버를 추후에 혹은 곧 확충해야 합니다. 어떤 방식으로 하는 것이 좋을까요? 글러스터 얘기를 들은 적이 있긴 합니다. 파일 서버 확장은 글타래를 새로 파야 하지 않나 싶긴 하네요. 


정말 밑도끝도 없어서 자그마한 조언도 큰 도움이 될 것 같습니다. 자그마한 힌트라도 주시면 열심히 찾아보겠습니다.  

버팔로윙
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú¹®Çü 2019-11
2x 12G SAS HBA

¾î´À ȸ»ç ·¹À̵å Ä«µåÀΰ¡¿ä??
     
          
¹Ú¹®Çü 2019-11
Çϵå¿þ¾î ij½¬°¡ ¾ø´Â HBA¿¡ ¼ÒÇÁÆ®¿þ¾î ·¹ÀÌµå ¿£Áø ¿Ã¸®¼Ì³ªº¸³×¿ä??

µ¨À̳ª ¼ÒÇÁÆ®¿þ¾î ·¹À̵å Á¦Á¶»ç¿¡¼­´Â ÀÌ ¹®Á¦¿¡ ´ëÇÏ¿© ¸ð¶ó°í À̾߰¡ Çϳª¿ä??
               
º° ´Ù¸¥ ¾ê±â´Â ¾ø¾ú½À´Ï´Ù. óÀ½¿¡ ÁÖ¹®ÇßÀ» ¶§¶û °èȹÀÌ Á¶±Ý ´Þ¶óÁ®¼­ »ý±ä ¹®Á¦ÀÎ °Í °°½À´Ï´Ù¤Ð.¤Ð ¼ÒÇÁÆ®¿þ¾î ·¹À̵å´Â mdadm À» »ç¿ëÇؼ­ ±¸¼ºÇß½À´Ï´Ù. HBA ¸¦ ¹Ù²ÙµçÁö Çϵå¿þ¾î ·¹À̵åÄ«µå¸¦ Ãß°¡ÇÏ´Â °ÍÀÌ ÁÁÀ»±î¿ä? µ¥ÀÌÅÍ°¡ ¸¹ÀÌ Â÷ ÀÖ´ÂÁö¶ó À籸¼º ÇÏ´Â °ÍÀÌ Å« ÀÏÀÌ µÉ °Í °°³×¿ä. ¾îÂ÷ÇÇ ÀÏÀÌ Ä¿Áø »óŶó ¼ö½ÀÇÏ´Â °Í¿¡ Àü³äÇؾ߰ڳ׿ä.
                    
¹Ú¹®Çü 2019-11
º¸Åë Àú·± ¼ÒÇÁÆ®¿þ¾î ·¹ÀÌµå ¿£ÁøÀ» ¿Ã¸®¸é ¿¬»ê ºÎÇÏ°¡ CPUÂÊ¿¡ °©´Ï´Ù..

±×¸®°í Àú·¸°Ô ¸¹ÀÌ Çϵ带 ´Þ°Ô µÇ¸é Çϵå 1°³ °íÀ峪¼­ ±³Ã¼¸¦ Çصµ ¸®ºôµù ½Ã°£ÀÌ 2ÁÖÀÏ ÀÌ»ó °É¸±µíÇÕ´Ï´Ù.. (ÇغÁ¾ß ¾Ë°ÚÁö¸¸)

°¡Àå ÃÖ½ÅÀÇ °¡Àå ºü¸¥ ij½¬ ´Þ¸° Çϵå¿þ¾î ·¹À̵å Ä«µå¸¦ ¹Ú¾Æµµ ¸¸Á·ÇÒ¸¸Å­ ¼º´É °³¼±ÀÌ µÉÁö´Â ´©±¸µµ ¸ð¸£¸ç ½ÇÁ¦ ÀÛ¾÷ÇغÁ¾ß ¾Ð´Ï´Ù..

Àú´Â ¸®´ª½º Àß ¸ð¸£Áö¸¸ mdadmÀº ºÎÆÃÇÏµå ¹Ì·¯¸µ ÇÏ´Â Á¤µµ¿¡¼­ »ç¿ë µÇ´Â °ÍÀ¸·Î ¾Ë°í ÀÖ½À´Ï´Ù..
                         
Áö±Ý »óȲ¿¡¼­ ÇÒ ¼ö ÀÖ´Â ÁÁÀº ¹æ¹ýÀÌ ¹«¾ùÀÌ ÀÖÀ»±î¿ä? ¼­¹ö È®ÃæÇÏ°í µð½ºÅ© ´õ »ç´Â °Í¿¡´Â º¸½º¿¡°Ô Å« ºÎ´ãÀº ¾Æ´Ñ °Í °°±ä ÇÕ´Ï´Ù. ÆÄÀÏ ¼­¹ö 2´ë Á¤µµ ´õ »ç¼­ ±Û·¯½ºÅÍ·Î ÀüȯÇÑ´Ù¸é Å« µµ¿òÀÌ µÉ±î¿ä? hbaµµ ij½¬°¡ ÀÖ´Â °ÍÀ¸·Î ¾÷±×·¹À̵å Çϱ¸¿ä.

±×·¸°Ô °£´ÜÇÑ Áú¹®ÀÌ ¾Æ´Ï¶ó´Â °ÍÀº ¸î ´Þ °í»ýÇØ°¡¸é¼­ ¹è¿ì±ä ÇßÁö¸¸ Áú¹®À» ÇÏ·Á´Ï ÀÌ·¸°Ô ´Ü¼øÇØÁ®¹ö¸®³×¿ä^^;; ¿ô°í À־ ¿ô´Â°Ô ¾Æ´Ï¶ó´Â°Ô Âü ¾ÈŸ±õ½À´Ï´Ù.
                         
¹Ú¹®Çü 2019-11
¿ì¼± µ¥ÀÌÅÍ ¹é¾÷ Á¤µµ

±× ¿Ü ½Ã½ºÅÛÀÌ DELL À̴ϱî

DELLÀÇ ±â¼úÁö¿øÂÊ¿¡ ¹®ÀÇÇÏ¿© 12G¿¡ °¡Àå ÃֽŠ°¡Àå ij½¬ ¸Þ¸ð¸®°¡ Å« ·¹À̵å Ä«µå¿Í HDD¸¦ BMT¿ëÀ¸·Î ´ë¿© ¹Þ¾Æ

ÇöÀç ¿ÜÀåÀ¸·Î µÈ ½ºÅ丮Áö¸¦ »©°í BMT Çغ»´Ù...

DELLÀº °¡°ÝÀº ºñ½ÎÁö¸¸ ¼º´ÉÀÌ ¾î´À Á¤µµ °³·±Æ¼µÈ EMC ³ª EqualLogic ÀÇ Áß´ëÇü RAID Àåºñ°¡ ÀÖ½À´Ï´Ù..

ÀÌ°ÍÀ» ´ë¿© Çؼ­ BMT Çغ¸°í ¸Â´Â Àåºñ¸¦ ã¾Æ¾ß ÇÒ µíÇÕ´Ï´Ù..


100G ÀÎÇǴϺ¥µå¸¦ ´Ù ¹Þ¾ÆÁÙ Àåºñ´Â ÈçÄ¡ ¾ÊÀ» µíÇÕ´Ï´Ù..

100G Á¤µµ¸¦ ¹ÞÃÄ ÁÖ´Â ½ºÅ丮Áö´Â NVME¸¦ ¿©·¯°³ ¹­Àº °ÍÀ̳ª °¡´ÉÇÑ µíÇѵ¥ ´ë¿ë·® ±¸ÇöÀÌ Èûµì´Ï´Ù..
                         
¹Ú¹®Çü 2019-11
µ¥ÀÌÅÍ ¸Á½ÇÇÏ°í ¹é¾÷ÀÌ ¾øÀ¸¸é º¸Åë ´ã´çÀÚ´Â ¸îÀÏ Á¤½ÅÀÌ ³¯¶ó°©´Ï´Ù..
ÆÄÀϼ­¹ö free -h Çϸé
mem total: 257G memused: 7.1G free 817M, buff/cache 243G, available Àº 238G ÀÔ´Ï´Ù.

ÆÄÀϼ­¹ö, °è»ê³ëµåÀÇ sar³ª iostatÀÇ iowait ·Î ÆÇ´ÜÇØ¾ß ÇÑ´Ù¸é ¾î´À Á¤µµ·Î ¿Ã¶ó°¡¾ß »ç¿ëÀÚÀÇ ÀÛ¾÷À» Á¦ÇÑ ÇØ¾ß ÇÒ±î¿ä?

io¸ð´ÏÅ͸µ (±×¸®°í ÀϹÝÀûÀÎ ¸ð´ÏÅ͸µ) ÅøÀÌ ÀÖ´Ù¸é ÃßõÇØÁֽøé Àß Ã£¾Æº¸°Ú½À´Ï´Ù.
2x JBOD (120 * 10 TB HDD) ÀÏ´Ü NLSAS³ª SATA·Î º¸ÀÔ´Ï´Ù.  SAS 10k rpmÀÌ»óÀÌ ±ÇÀå µË´Ï´Ù. ¸®´ª½º EXTÆÄÀÏ ½Ã½ºÅÛ Async¸¶¿îÆ®ÀÌ°í ´ë¿ë·® ½ºÅ丮Áö ÆÄÀϽýºÅÛ¿¡ ºñÈ¿À² ÀÔ´Ï´Ù. ÇÏÀ̺긮µå½ºÅ丮Áö ¿¡¼­¿Í  °°Àº ÀûÀýÇÑ Ä³½ÌÀ̳ª ¹öÆÛ¸µÀÌ ÇÊ¿äÇغ¸ÀÔ´Ï´Ù.
     
¸ð½º¿ùµå´Ô ´äº¯ °¨»çµå¸³´Ï´Ù. NLSAS 7.2k ÀÔ´Ï´Ù. Optane memory cache °°Àº °ÍÀ» ¸»¾¸ÇϽô °ÍÀΰ¡¿ä? CentOS ¿¡¼­ µÇ´ÂÁö ã¾Æº¸°Ú½À´Ï´Ù. Çϵ带 ¸ù¶¥ ±³Ã¼ÇÒ ¼ö ¾øÀ¸´Ï ÀÏ´Ü ±×·± ¹æÇâÀ¸·Î ¾Ë¾ÆºÁ¾ß°Ú³×¿ä.
          
ZFS ½ºÅ丮Áö¿¡¼­ º¸ÀÌ´Â SSDij½¬ °°Àº°ÍÀ» ¸»¾¸µå¸³´Ï´Ù
´ä±ÛÀÌ ±æ¾îÁ®¼­ ±×·±Áö ¸®ÇÃÀ» °ðÀå ´Þ ¼ö ¾ø¾î µû·Î ´ä´Ï´Ù.
-------------
¿ì¼± µ¥ÀÌÅÍ ¹é¾÷ Á¤µµ
±× ¿Ü ½Ã½ºÅÛÀÌ DELL À̴ϱî
DELLÀÇ ±â¼úÁö¿øÂÊ¿¡ ¹®ÀÇÇÏ¿© 12G¿¡ °¡Àå ÃֽŠ°¡Àå ij½¬ ¸Þ¸ð¸®°¡ Å« ·¹À̵å Ä«µå¿Í HDD¸¦ BMT¿ëÀ¸·Î ´ë¿© ¹Þ¾Æ
ÇöÀç ¿ÜÀåÀ¸·Î µÈ ½ºÅ丮Áö¸¦ »©°í BMT Çغ»´Ù...
--------------------

³× µ¨ÂÊ¿¡ ¹®ÀÇÇغ¸°Ú½À´Ï´Ù. °¡Àå ij½¬ ¸Þ¸ð¸®°¡ Å« ·¹À̵å Ä«µå ¹®ÀÇÇغ¸°Ú½À´Ï´Ù. ´äº¯ ³Ê¹«³Ê¹« °¨»çµå¸³´Ï´Ù.
     
SLC SSDij½ÌÀ» Àû¿ëÇغ¸´Â °Íµµ ¹æ¹ýÀÔ³ª´Ù. ¼³¸¶ Àú±â 12G HBA°¡ ij½¬µµ ¾ø´Â ¸ðµ¨Àΰ¡¿ä? µ¨ H8x0 ·¹À̵å ÄÜÆ®·Ñ·¯ ¼º´É Àß³ª¿É´Ï´Ù¸¸.
          
¹Ú¹®Çü 2019-11
ij½¬ ¾ø´Â ¸ðµ¨ ¸Â½À´Ï´Ù..

¸µÅ©¿¡ HBA¶ó°í ³ª¿É´Ï´Ù..
               
±×·³ µ¨ H8X0 ·¹À̵å ÄÁÆ®·Ñ·¯·Î °¥¾ÆŸ°í SLC SSD ij½ÌÂÊÀ¸·Î ¾Ë¾Æº¸°Ú½À´Ï´Ù. ·¹À̵å ÄÁÆ®·Ñ·¯·Î °¥¾ÆÅ» ¶§´Â µ¥ÀÌÅÍ ´Ù ¹é¾÷ÇÏ°í ´Ù½Ã ¼Â¾÷, ±×¸®°í µ¥ÀÌÅÍ ´Ù µ¹·Á³ö¾ß°ÚÁö¿ä? ¸ÁÇß³×¿ä ¤Ð.¤Ð
                    
¹Ú¹®Çü 2019-11
±×°Ô µ¥ÀÌÅÍ°¡ Ä¿Áú¼ö·Ï »ó´çÈ÷ ±«·Î¿î ÀÏÀÌÁö¸¸

ÀçÀÏ ³ªÀº ¹æ¹ýÀÔ´Ï´Ù..

¿ì¼± ¹é¾÷ºÎÅÍ Ã¶ÀúÈ÷ Çϼ¼¿ä..

ÀÛ¾÷ÇÏ´Ù°¡ ½Ç¼ö·Î ´Ù ³¯·Á¸Ô´Â °æ¿ìµµ ÀÖÀ»¼ö ÀÖÀ¸´Ï±î¿ä..

µ¶¸³ÀûÀÎ 3Â÷ ¹é¾÷±îÁö ÇÏ¸é µ¥ÀÌÅÍ ¸Á½Ç À§ÇèÀÌ ¸¹ÀÌ ÁÙ¾îµç´Ù°í ÇÕ´Ï´Ù..

±×·¯³ª Å« µ¥ÀÌÅ͸¦ °¡Áö½Å ºÐµéÀº Çö½ÇÀÌ ±×·¸Áö ¸øÇÏÁÒ..
                         
IBM À̳׿ä. ÀÌ¹Ì ¹ö¸° ¸ö. ¾î¼°Ú½À´Ï±î. Á¦°¡ Áû¾îÁú ¸òÀÎ °Í °°½À´Ï´Ù^^;; Áö³­ ÁÖ¿¡´Â Å×ÀÌÇÁ µå¶óÀÌºê »ç¶ó°í ÇÏ´õ¶ó±¸¿ä. ´É·Âµµ ¾ÈµÇ´Âµ¥ ÀÏ ¹ú¾î±â ½È¾î¼­ ¿ÀÁ÷ Ŭ¶ó¿ìµå Çߴµ¥ Å×ÀÌÇÁ µå¶óÀÌºê »ç¾ßÇÒÁöµµ ¸ð¸£°Ú³×¿ä^^;;;
¹Ú¹®Çü 2019-11
DELL ¿µ¾÷ ´ã´çÀÚÇÑÅ× Á×°Ú´Ù°í ÇØ°áÇÒ ¼ö ÀÖ´Â ¼Ö·ù¼ÇÀÌ ¾ø³Ä°í ¹°¾îº¸¼¼¿ä..

https://www.dell.com/learn/us/en/04/campaigns/dell-raid-controllers
     
Á¦ ¸íÁÙÀÌ Dell ¿¡ ´Þ·ÁÀÖ´Â °Í °°½À´Ï´Ù. Áß¿äÇÑ ÀÚ·á´Â MS Azure ¿¡ °ð ´Ù ¿Ã·Áº¸³¾ ¿¹Á¤ÀÔ´Ï´Ù. µ¨ ¿µ¾÷ ´ã´ç¿¡°Ô È®ÀÎÇغÁ¾ß°Ú³×¿ä¤Ð.¤Ð
¹Ú¹®Çü 2019-11
±× ¿Ü ¼­¹ö¿Í ½ºÅ丮Áö¸¦ ¿©·¯°³ ÇÏ°í ³×Æ®¿öÅ©·Î ¹­¾î¼­ Àüü¸¦ °¡»óÈ­ ½ºÅ丮Áö·Î ÇÏ´Â ¹ýÀÌ Àִµ¥

±× ¼Ö·ù¼ÇÀ» °³¹ß ÆǸŠÇϽô ºÐÀÌ ÀÌ »çÀÌÆ®¿¡ °è½Ê´Ï´Ù..

http://www.2cpu.co.kr/freeboard_2011/1055569?&sfl=wr_name%2C1&stx=epowergate&sop=and
     
SAN virtualization ¸»¾¸ÇϽô°ǰ¡¿ä? »çÁø¿¡¼­ºÎÅÍ Æ÷½º°¡ ³ÑÄ¡³×¿ä. ÀÇ·ÚÇÏ°í ½ÍÁö¸¸ º¸½º °èÁ¤À» »ç¿ëÇÒ ¶§ Çб³¿Í °è¾àµÈ ¸î¸î ƯÁ¤ÇÑ º¥´õ¿¡ ¹­¿©ÀÖ´Â µí ÇÕ´Ï´Ù. Á×À¸³ª »ç³ª µ¨ ¿µ¾÷ »ç¿ø¿¡°Ô »ì·Á´Þ¶ó°í Çؾ߰ڳ׿ä.
¹Ú¹®Çü 2019-11
ºñ½ÁÇѵ¥  FC ½ºÀ­Ä¡´Â ¾È ¾²´Â µíÇÕ´Ï´Ù..

DELL·Îµµ Á¤ ´äÀÌ ¾øÀ¸¸é ¹æ¹ýÀÌ ¾ø´ÂÁö ¹®ÀÇ¶óµµ ÇغÁ¾ßÁÒ..
     
°¨»çÇÕ´Ï´Ù. ¿ä³ðÀ¸·Î µ¨ ¿µ¾÷»ç¿ø°ú ¾ê±â¸¦ ÇغÁ¾ß°Ú³×¿ä.
          
¾Ö½Ã´çÃÊ µ¨¿¡¼­ HBA·Î´Â ³ë´äÀ̶ó´Â »óȲÀ» ¾Ë·ÁÁá¾î¾ß ÇÑ´Ù°í »ý°¢µÇ³×¿ä. ÀÎÇǴϹêµå 100G¿¡ ij½¬µµ ¾÷´Â ½ºÅ丮Áö¶ó. ÀÎÇǴϹêµå°¡ µ¥ÀÌŸ°¡ ´Þ¶ó°í ³î°í ÀÖ´Â »óȲÀ¸·Î º¸ÀÔ´Ï´Ù. ¤¾¤¾
¹Ú¹®Çü 2019-11
ÀÎÇǴϺ¥µå¿¡¼­´Â °è¼Ó µ¥ÀÌÅÍ°¡ ½×ÀÌ°í

¸®´ª½º´Â ±×°ÍÀ» ´çÀå ³õÀ»µ¥°¡ ¾ø¾î¼­ ¸Þ¸ð¸®¿¡ ÀûüÁßÀÌ°í

Çϵå´Â ´À¸®±â¿¡ ±×³É ²Ù¿ª²Ù¿ª Àϸ¸ ÇÏ´Â ÁßÀÔ´Ï´Ù..

Áß°£¿¡ ÀÎÇÇ´Ï º¥µå ²÷¾îµµ ¸Þ¸ð¸®¿¡ ÀÖ´Â µ¥ÀÌÅÍ°¡ Çϵå·Î °¡¾ß Çϱ⿡ Çϵå´Â

¾î´À Á¤µµ °è¼Ó ¾ï¼¼½º ÇÒ °Ì´Ï´Ù..

»ç°í ¾È ³­ °ÍÀÌ Èñ¾ÈÇÕ´Ï´Ù..
     
ÀÎÇǴϹêµå´Â µ¥ÀÌŸ°¡ ´Ù ÇÁ·Î¼¼½ÌÇÏ°í ³î°í ÀÖ´Â »óȲÀÌ ¸ÂÀ»°Í °°½À´Ï´Ù¸¸, ´ë½Å ¾¾Ç»¿Í ¸Þ¸ð¸®/Çϵ尡 ¿­ÀÏÇÏ´Â »óȲÀÌÁö¿ä.
          
cpu ´Â ¿©À¯°¡ ÀÖ´Â °Í °°Àºµ¥ Çϵ尡 ½¬Áö ¾Ê°í ÀÖ´Â °Í °°¾Æ¿ä. ·¥Àº available ÇÑ °Í Áß¿¡¼­ ´ëºÎºÐ buff/cache ·Î °ÅÀÇ ÀâÇô ÀÖ°í free´Â 1±â°¡ À̳»¿¡¿ä. SwapÀº 256±â°¡Áß 4±â°¡Á¤µµÀԴϵð.
               
±×³ª¸¶ SATA°¡ ¾Æ´Ï°í NLSAS¶ó¼­ ±×Á¤µµ °Ú³×¿ä. ½º¿ÒÀ» ´ëºÎºÐ Àá½ÄÇÑ°Ç ÀÌ¹Ì ÇàÀÌ °É·È¾ú°Å³ª ÇàÀÌ °É¸° »óÅ·ΠºÁ¾ßÇϰڳ׿ä. 4±â°¡°¡ ³²Àº°É·Î ¾´°ÍÀÌ ¸Â³ª¿ä?
                    
mem total: 257G
mem used: 6.1G
free 668M
shared 8.3M
buff/cache 244G
available Àº 239GÀÔ´Ï´Ù.
Swap Àº used free ´Ù ÇÕÃļ­ 4±â°¡°¡ ¾ÈµÇ±¸¿ä.
epowergate 2019-11
÷ºÎÅÍ ³Ê¹« À߸øµÇ¾î À־ ¹¹¶ó°í ¸»¾¸µå¸®±â°¡ ¾î·Æ³×¿ä.
¹»Çصµ ¾ÈµÉ°Ì´Ï´Ù.
±×³É h840À¸·Î ¹Ù²Ù½Ã°í hdd 15°³ ´ÜÀ§·Î raid6·Î ¹­¾î¼­ »ç¿ëÇϼ¼¿ä.
±¦ÇÑ cache °°Àº°Å »ç¿ëÇÏÁö ¸¶½Ã°í¿ä
Gluster, ceph, lustre µî À߸ø»ç¿ëÇϽøé Á¹¾÷ À綧 ¸øÇÒ¼öµµ ÀÖ½À´Ï´Ù.
     
ÀÏ´Ü h840 »ç¼­ raid À籸¼º Çؼ­ ½á¾ß°Ú³×¿ä. ´äº¯ °¨»çµå¸³´Ï´Ù.
          
µ¨ ¿ÀǸŴÏÁ®°¡ ¸®´ª½º¸¦ Áö¿øÇÕ´Ï´Ù¸¸ °³ÀÎÀûÀ¸·Î ¸®´ª½º ÆÄÀÏ ½Ã½ºÅÛÀÌ ÆÛÆ÷¸Õ½º°¡ ¾È³ª¿Í¼­ ºñÃßÀÔ´Ï´Ù
               
±×·¯¸é ¾î¶² ÆÄÀÏ ½Ã½ºÅÛÀÌ ÁÁÀ»±î¿ä?
                    
´ë¼¼´Â ZFS ÀÌÁÒ ¤¾
                         
³× ¾Ë¾ÆºÁ¾ß°Ú³×¿ä. Á¶¾ð °¨»çµå¸³´Ï´Ù.
¹Ú¹®Çü 2019-11
H840¿¡ ¹Þµ¥¸®ÆÑÀÌ ¿É¼ÇÀ̶ó¸é ±×°Íµµ °°ÀÌ ³Ö¾î Áà¾ß ÇÕ´Ï´Ù..

BBU¶ó ºÒ¸®´Âµ¥ ÃæÀüÁö ŸÀÔ°ú ÄÁµ§¼­ ŸÀÔÀÌ ÀÖÀ» °Ì´Ï´Ù..



Àß ÇØ°áµÇ±â¸¦ ±â¿øÇÕ´Ï´Ù..
BBU ±âº»À¸·Î µû¶ó ¿É´Ï´Ù
¼úÀÌ 2019-11
ZFSµµ º°·Î ÃßõÇØÁÖ°í ½ÍÁö ¾Ê³×¿ä.
µ¥ÀÌÅÍ°¡ ¸¹ÀÌ ½×ÀÌ¸é ½×Àϼö·Ï ±Ø¾ÇÀÇ ¾²±â¼Óµµ¸¦ º¸¿©ÁÖ´Â°Ô ZFSÀÔ´Ï´Ù. ±×¸®°í ZFS´Â ÀÚÁÖ È£ÃâÇÏ´Â µ¥ÀÌÅÍÀÏ°æ¿ì È¿°ú°¡ ÁÁÁö ·£´ýÇüÀ¸·Î ÀÐ°í ¾²°í Áö¿öÁö°í ÇÏ´Â°Ç ¿ÀÈ÷·Á ¿ªÈ¿°ú¸¦ ºÒ·¯¿É´Ï´Ù.
ZFS¿¡¼­ À©µµ¿ì ½ºÅ丮Áö·Î ¹Ù²Ù°Ô µÈ ÀÌÀ¯µµ ´Ù ¿©±â¿¡ ÀÖ¾ú½À´Ï´Ù.
¼ÒÇÁÆ®·¹ÀÌµå ¾µ·Á¸é SSD³ª NVME¶û Ç»ÀüÇؾߵö´Ï´Ù. ¾î¼³ÇÁ°Ô Çß´Ù°£ ¾Æ¿ì ¼Óµµ Áö¶ö¸Â¾Æ¿ä.
±×¸®°í ÆÄÀϼ­¹ö´Â ¸Þ¸ð¸® °ÅÀÌ ¾È¾¹´Ï´Ù. ZFS °°Àº ¸Þ¸ð¸® Àбâij½¬ÇüÀ̳ª »ç¿ëÇÏÁö º¸ÅëÀº ¾È½á¿ä.
óÀ½ºÎÅÍ ¼³°è ¹Ì¾²ÀΰŠ¶â¾î°íÄ¡´Â°Íµµ ½±Áö ¾ÊÀ»µí ½Í³×¿ä. ¿Ö Àú·¸°Ô ±¸¼ºÇß´ÂÁöµµ ÀÌÇØ°¡ ¾È°¡°í NFS¸¦  ²À ½á¾ß ÇÏ´ÂÁöµµ Àǹ®ÀÌ °¡³×¿ä.
     
´äº¯ °¨»çµå¸³´Ï´Ù. nfs ´ë¾ÈÀº ¹¹°¡ ÀÖÀ»±î¿ä?

ij½Ã ÀÖ´Â hba¸¦ ºÙÀÌ´Â °Í ¿Ü¿¡ ÇÒ ¼ö ÀÖ´Â ÀÏÀº ¹¹°¡ ÀÖÀ»±î¿ä?
epowergate 2019-11
1. À§ ½Ã½ºÅÛ¿¡¼­ ZFS ¹Ù·Î »ç¿ëÇϽøé Àç¾Ó ¹ß»ýÇÕ´Ï´Ù.
2. ÆÄÀϽýºÅÛÀº ¸ð¸£´Â°Å »ç¿ëÇϴ°Š¾Æ´Õ´Ï´Ù.
3. È®½ÅÀÌ ¾ø°Å³ª ¸ð¸£½Ã¸é ÆÄÀϽýºÅÛÀº OS°¡ Default·Î »ç¿ëÇϴ°Š»ç¿ëÇÏ¼Å¾ß ÇÕ´Ï´Ù.  Àú´Â EXT4 Ãßõ.  XFS´Â ¾ÆÁ÷µµ ¸ð¸£°ÚÀ½
4. NFSoverRDMA´Â ÁÁ¾Æº¸ÀÌÁö¸¸ È®½Å ¾øÀ¸½Ã¸é »ç¿ëÇÏÁö ¾Ê´Â°Å ÃßõÇÕ´Ï´Ù.  ¾î´À½ÃÁ¡ºÎÅÍ stale ¿¡·¯ ¹ß»ýÇϱ⠽ÃÀÛÇÏ¸é ¸ðµç client ¸®ºÎÆà ÇؾßÇÕ´Ï´Ù.  °ÅÀÇ ¸ÅÀÏ..
5. ±× Á¤µµ ±Ô¸ð¸é ÀÚÀßÇÑ ±â¼ú·Î ÇØ°á¸øÇÕ´Ï´Ù.  Àý´ë¸øÇÕ´Ï´Ù.  SSD Cache, cache ¸¹Àº raid controller, ¸Þ¸ð¸® cache, ... ¸ðµÎ »ç¿ëÇÏ½Ã¸é ¾ÊµË´Ï´Ù.
±×³ª¸¶ Ãßõµå¸®´Â ¹æ¹ýÀº
1. SSD (SAS ŸÀÔ)·Î journal device »ç¿ë.  °¡´ÉÇϸé lun´ç 1°³¾¿.  jouirnal deviceµµ mirror ±¸¼º.  Çʼö!!!
2. raid controllerÀÇ ¸Þ¸ð¸®´Â Àå¾Ö¹ß»ý½Ã recovery¿ëÀÌ´Ù¶ó°í »ý°¢.  Raid LUN ¼³Á¤½Ã No Cache, DirectIO  ¸ðµå·Î ¼³Á¤
3. Linux Kernel¿¡ dirty_ratio=20, dirty_background_ratio=20, swapness=0 ·Î ¼³Á¤
4. Disk Scheduler´Â noop
ÀÔ´Ï´Ù.  ÀÌ·¸°Ô ÇÏ¸é ¼º´É¶§¹®¿¡ ±³¼ö°¡ ¹¹¶ó°í ÇÏ´ø µ¥ÀÌÅÍ ³¯¾Æ°¡¼­ Á¹¾÷¸øÇÏ´Â ÀÏÀº ¾øÀ»°Ì´Ï´Ù. 
¹é¾÷Àº ¾Ë¾Æ¼­
±¸±Û¿¡¼­ ¹¹¶ó°í ÇÏ´ø Ã¥ÀÓÁöÁö ¸øÇÒ »ç¶÷µéÀÌ Çϴ¸» µèÁö ¸¶½Ã°í °¡Àå ¾ÈÁ¤ÀûÀÎ ¹æ¹ýÀ¸·Î Çϼ¼¿ä.
     
´äº¯ °¨»çÇÕ´Ï´Ù. ÇöÀç raid volumeÀÌ 6°³´Ï±î ssd 6°³¸¦ »ç¾ß°Ú³×¿ä. CentOS µðÆúÆ®°¡  xfs ±âµµ ÇÏ°í Å« º¼·ýÀÌ ÇÊ¿äÇؼ­ µð½ºÅ© 13°³¾¿ raid6 Çؼ­ µÎ º¼·ýÀ» ÇÕÃijõÀº »óÅÂÀÔ´Ï´Ù. (151T) ³ª¸ÓÁö´Â ext4 ·Î µÇ¾î ÀÖ±¸¿ä.

scheduler ±×¸®°í parameter´Â ¹Ù²ã³ö¾ß°Ú³×¿ä. Dell h840»ç¼­ RAID ¼¼Æõµ ±×·¸°Ô Çؾ߰ڽÀ´Ï´Ù.
´Ù¸¥ ÂÊÀ¸·Î Çؼ®ÇØ º¸°í ½Í½À´Ï´Ù..

½Ã½ºÅÛ¿¡ Àü¼Û¼Óµµ°¡ ´À¸° °ÍÀÌ ¾Æ´Ï¶ó..

Hang ÀÌ °É¸°´Ù¸¦ º¸°í Çؼ®ÇØ º¾´Ï´Ù..
½Ã½ºÅÛÀÌ ´À¸° °ÍÇÏ°í´Â Â÷¿øÀÌ ´Ù¸¨´Ï´Ù..

1. ¼­·Î µ¿ÀÛÇÏ°íÀÚ ÇÏ´Â firmware ÀÇ ºÎÁ¶È­...
2. °ú¿­·Î ÀÎÇÑ Malfunction.
ÀÌ·¸°Ô Á¦½ÃÇØ º¸°í ½Í³×¿ä...

±×¸®°í ÀÌ·± ¹®Á¦´Â Á¤½Ä ±â¼úÁö¿ø ¹ÞÀ¸¼Å¾ß ÇÒ °Í °°½À´Ï´Ù...

System Health Check Analyzing Report ÀÛ¾÷ ÈÄ Á¶Ä¡ ±îÁö Àü¹®°¡ÀÇ ¼Õ±æÀÌ ÇÊ¿äÇØ º¸ÀÔ´Ï´Ù.
     
hang °É·ÁÀÖÀ» ¶§µµ ¸®¼Ò½ºÀÇ Å« º¯È­´Â ¾ø¾ú°Åµç¿ä. Àü¹®°¡ÀÇ ¼Õ±æÀÌ ÇÊ¿äÇÑ°Ç È®½ÇÇϳ׿ä.
°ËÀºÄá 2019-11
ÁÁÀº ´ñ±ÛµéÀÌ ¸¹¾Æ¼­ ÀÌ°ÍÀú°Í °øºÎÇØ°©´Ï´Ù.
     
Àúµµ ÀÌ·¸°Ô µµ¿ò ¹Þ´Â°Ô ³Ê¹«³Ê¹« °¨»çÇϳ׿ä.
epowergate 2019-11
»ý°¢³­±è¿¡
HANGÀÌ ¹ß»ýÀ» ÇÒ ¼ö Àִµ¥ ÀÌ°Ô ½Ã½ºÅÛ¿¡¼­ ¸»ÇÏ´Â HANGÀÎÁö ¾Æ´Ï¸é ±×³É ´À³¦»ó HANGÀÎÁö¸¦ ±¸ºÐÇÏ´Â°Ô ½±Áö ¾Ê½À´Ï´Ù.
º¸Åë IO ¶§¹®¿¡ HANGÀÌ °É¸®¸é KERNEL ¸Þ½ÃÁö ¹ß»ýÇÕ´Ï´Ù.  120ÃÊ µ¿¾È ÀÀ´äÀÌ ¾ø´Ù ¹¹ ÀÌ·±Á¾·ùÀÇ ¸Þ½ÃÁö ÀÔ´Ï´Ù.
IO HANGÀ» ÇØ°áÇÏ´Â ½¬¿î ¹æ¹ýÀº drop_cache 3 ÇϽøé 100% Ç®¸³´Ï´Ù.  ¹°·Ð 1½Ã°£ À̳»¿¡ ´Ù½Ã ¹ß»ýÇÕ´Ï´Ù.  drop_cacheÇÏ¸é ¶Ç Ç®¸³´Ï´Ù.
ÀúÈñ °í°´Áß¿¡ drop_cache¸¦ 10ºÐ¸¶´Ù cron¿¡ ³Ö°í ÇϽôºР°è½Ê´Ï´Ù. 
ÀÌ ¹æ¹ýÀº Áßµ¶¼º ¾ø´Â ÁøÅëÀç ¸Â´Â Ã³¹æÀ̶ó ÇÒ ¼ö ÀÖÀ»°Í °°½À´Ï´Ù¸¸ ¿øÀÎÀ» Á¦°ÅÇÏÁö´Â ¸øÇÕ´Ï´Ù.

¸î°¡Áö ÆÁÀº RAID Controller¿¡ BBU ÀÖ´Ù¸é barrier off Çϼŵµ ¹«¹æÇÕ´Ï´Ù.  ÀÌ·¸°Ô ÇϽøé IO HANG ¹ß»ýÇÒ °¡´É¼º ÇöÀúÈ÷ ³·¾ÆÁý´Ï´Ù.
dirty_ratio=5, dirty_background_ratio 2·Î Çϼŵµ IO HANG ¹ß»ý °¡´É¼º ³·¾ÆÁý´Ï´Ù.
´õ È®½ÇÇÑ ¹æ¹ýÀº MEMORY¸¦ 4G ¶Ç´Â 8G·Î ³·Ãß¼¼¿ä.  IO HANG °ÅÀÇ ¹ß»ýÇÏÁö ¾Ê½À´Ï´Ù.
±×¸®°í FILE ¼­¹ö¿¡¼­´Â Àý´ë·Î SWAP »ç¿ëÇÏ½Ã¸é ¾ÊµË´Ï´Ù.  file corruption ¹ß»ýÇÒ ¼ö ÀÖ½À´Ï´Ù.

¾î·Á¿î°Ç (¾Æ´Ï¸é ´õ ½¬¿î°Ç) IO HANGÀÌ ¾Æ´Ï¶ó FILE Service (NFS ¼­¹ö)°¡ HANGÀÌ °É¸®´Â °Ì´Ï´Ù.
ÁøÂ¥ HANGÀÌ °É¸°´Ù¸é
1. topµîÀ» º¸¸é nfsdÀÇ cpu »ç¿ëÀ²ÀÌ ³ôÀ»°ÍÀÌ°í (iowaitÀº ³·°í)
2. client¿¡¼­ stale¿¡·¯°¡ ¹ß»ý
ÇÒ°Ì´Ï´Ù.
´ëºÎºÐ ¿øÀÎÀº file system¿¡ ¹«¸®ÇÏ°Ô tuningÀ» ÇÏ·Á°í µé¾úÀ»¶§ ¹ß»ýÇÕ´Ï´Ù.
¾Æ´Ï¸é client¿¡¼­ »ç¿ëÇÏ´Â ÇÁ·Î±×·¥ÀÌ ±×Áö°°ÀÌ ¸¸µé¾îÁ®µµ ¹ß»ýÇÕ´Ï´Ù.
¼­¹ö¿¡ memory error ¹ß»ýÇϸé 100% ¹ß»ý ÇÕ´Ï´Ù
°¡Àå Áß¿äÇÑ°Ç nfs ¼­¹ö¿¡¼­ ¼º´ÉÀ» À§Çؼ­ async, no_subtree_check, wdelay ³Ö´Â°æ¿ì°¡ ¸¹½À´Ï´Ù.
¹«½¼ ¹è¯ÀÎÁö ¸ð¸£°Ú½À´Ï´Ù.
À§ 3°³ ¿É¼ÇÁß¿¡ 1°³¶óµµ »ç¿ëÇϸ鼭
1) HANGÀÌ °É¸°´Ù
2) ¸®ºÎÆÃÈÄ ÆÄÀÏÀÌ ¸Á°¡Á³´Ù
3) CLIENT ¿©·¯´ë°¡ µ¿½Ã¿¡ IO¸¦ ÇÒ¶§ ÆÄÀÏÀÇ Á¤ÇÕ¼ºÀÌ ±úÁø´Ù
µîÀÇ ºÒÆòÀ» ÇÏ¸é ¾ÊµË´Ï´Ù. 
±×³É ´ç¿¬ÇÑ °Ì´Ï´Ù.
ÇÏ·ç¿¡ ¼ö½Ê¹ø¾¿ µé¾î¿Í¼­ ±ÛÀ» È®ÀÎÇÕ´Ï´Ù. ´ñ±Û ³Ê¹« °¨»çÇÕ´Ï´Ù. ÇϳªÇϳª ã¾Æº¸°í ÀÖ½À´Ï´Ù.


QnA
Á¦¸ñPage 1573/5685
2015-12   1505411   ¹é¸Þ°¡
2014-05   4969085   Á¤ÀºÁØ1
2013-11   3714   °¡ºü·Î±¸³ª
2019-02   3714   ¼­¹öÇÏ°ÅÆÄ
2018-07   3714   ¼Ö³»À½
2014-04   3714   ¹ÚÇö±Ù
2020-08   3714   ±æ°¡´ø´ººñ
2019-06   3714   ÀßÇÏÀÚ
2023-10   3714   ½Åµµ¿ì
2015-08   3714   ±èȲÁß
2017-12   3714   ¾ÈÇü°ï
2018-03   3714   ¼ºÈ£
2020-07   3714   ¹Ì´ã
2016-05   3714   ¿µÈ¥Ãµ»ç
2017-10   3714   °í±â³óºÎ
2019-10   3714   ÇâÄ®
2020-06   3714   °Ü¿ï³ª¹«
2018-05   3714   ±è°Ç¿ì
2022-03   3715   VSPress
2014-07   3715   ºñÁµå
2017-08   3715   ÇູÇϼ¼
2015-10   3715   waitfor