Á¦ ¿ëµµ¿¡ RAID°¡ ²À ÇÊ¿äÇÑÁö Á¶¾ðºÎŹµå¸³´Ï´Ù.

blackra1n   
   Á¶È¸ 4691   Ãßõ 0    

기존에 소규모 클러스터 시스템을 운용중인데 하드가 하나씩 맛이가더니 이제 완전 싹 교체해줘야하는 경우가 발생하네요..
시스템 구성을 간략히 말씀드리자면, 마스터는 OS용으로 1TB HDD 그리고 사용자 공간용으로 2TB HDD를 raid 1로 구성해서 HDD는 총 4개 (1TB x 2, 2TB x 2) 를 쓰고있습니다.
raid도 따로 카드를 쓰는건 아니고 보드에서 제공해주는 software raid 사용하고 있습니다.
OS는 CentOS이고 10~15명의 사용자가 마스터로 접속해서 프로그램 컴파일을 주로하고 연결되어있는 노드들로 프로그램을 무지막지하게 실행시킵니다.
노드들은 약 12대 정도이고 하드디스크없이 마스터로 부터 OS 이미지를 랜부팅을 통해 부팅을해서 단순 프로그램 실행용으로 돌리고 있습니다.
마스터에 달려있는 2TB 사용자공간이 NFS로 모든 노드가 공유하고 있구요.
3년째 굴리고 있는데 몇달전부터 하드가 하나 맛이간뒤로 점차 하나씩 차례로 죽어가는것 같습니다.
시스템이 전부 일반 조립 데스크탑 부품으로 저렴하게 구축한거라 내구성이 확실히 떨어지나 봅니다.
HDD는 전부 일반 데스크탑용 시게이트 제품입니다.
이번에 큰맘먹고 HDD는 히타치 서버용으로 2TB 두개 4TB 두개 구매해놓았구요 교체하면서 아예 OS도 우분투로 갈아업고 전체적으로 싹 다시 구축할 예정입니다.
24시간 365일 돌아가야하고 (실험실입니다.) 무엇보다 사용자들 데이터가 날라가면 개개인의 연구에 치명적이라 raid가 필수인데 다시 raid 1을 꼭 써야하나 싶습니다.
같은데이타를 분산해서 저장하니까 하드의 스트레스는 동일한걸로 생각되는데 그래서 비슷한 시기에 하드가 하나씩 죽어나가는것 같습니다.
데이타도 날아가지 않게 잘 보존가능하면서 하드 내구성에도 도움이되는 raid 방식 조언 부탁드립니다~!
raid는 0하고 1밖에 안써본 초보라 실제 경험에 의한 조언이 많은 도움이 될것 같습니다 ^^
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú¹®Çü 2014-10
¿ì¼± µ¥ÀÌÅ͹é¾÷¿ë ¼­¹ö(PC)°¡ ÇÑ´ë ÇÊ¿äÇÒ µíÇÏ°í

±â¾÷¿ë Çϵå·Î ¹Ù²Ù¾îµµ ºÎÇÏ°¡ ½ÉÇѵ¥ ij½¬¸Þ¸ð¸®°¡ ¾ø´Â ¿Âº¸µå ·¹À̵å¹æ½ÄÀ» »ç¿ëÇϸé
Á¶±Ý ´õ ¿À·¡ ¹öƼÁö¸¸ ºñ½ÁÇÑ »óȲÀ¸·Î ¿É´Ï´Ù.

µ¥ÀÌÅÍ°¡µé¾î ÀÖ´Â Çϵ带 ij½¬¸Þ¸ð¸®°¡ ÀÖ´Â ·¹À̵å Ä«µå(Çѵ·ÇÕ´Ï´Ù.Adaptec/LSI)·Î ¿¬°áÇÏ´øÁö

¿ÜÀå·¹À̵å½Ã½ºÅÛ(Å«µ· µé¾î°©´Ï´Ù)À¸·Î Çϸé ij½¬¸Þ¸ð¸®·Î ÀÎÇÏ¿© Çϵ忡 ¹«¸®°¡ ´ú°¡°í ¼Óµµµµ
»¡¶óÁý´Ï´Ù.

Çϵ带 4°³ ÀÌ»ó ´Þ¾Æ¼­ 1+0ÀÇ ¹æ½ÄÀ» »ç¿ëÇϸé ÁÁ½À´Ï´Ù.
°øµ¹ÀÌ 2014-10
¹Ú¹®Çü´Ô ¸»¾¸´ë·Î ´Ù¸¥ ¹Ú½º¿¡ ¹é¾÷ÇÏ´Â°Ô ÃÖ¿ì¼±ÀÔ´Ï´Ù.
RAID 1±îÁöÇÏ¸é ´ÜÀÏ µð½ºÅ© °íÀå½Ã ¾î´ÀÁ¤µµ ¹æ¾î°¡ µÇ´Â¼ÀÀ̱¸¿ä.
RAID 10±îÁöÇÏ¸é ´ÜÀÏ µð½ºÅ© °íÀå½Ã ¾î´ÀÁ¤µµ ¹æ¾îµÇ°í Àбâ/¾²±â ¼º´Éµµ ¿Ã¶ó°©´Ï´Ù.
1°³ Çϵ忡 ÁýÁߵǴø IO°¡ 2°³ÀÌ»óÀ¸·Î ³ª´² µé¾î°¡´Ï µð½ºÅ© ¼ö¸íµµ ´Ã¾î³¯Å×±¸¿ä.
blackra1n 2014-10
´äº¯ °¨»çµå¸³´Ï´Ù.
Áö±Ý ±¸¼º¿¡¼­ ÃÖÀûÀº ¹Ú¹®Çü´ÔÀÌ ¸»¾¸ÇϽŴë·Î ij½¬¸Þ¸ð¸® ÀÖ´Â ·¹À̵åÄ«µå ´Þ¾Æ¼­ ¾²´Â°Í °°³×¿ä.
·¹À̵åÄ«µå ´Þ¸é ¾²±â¹æ½ÄÀº writebackÀ¸·Î ÇÏ°í ¹èÅ͸® ´Þ¾ÆÁÖ¸é µÉ±î¿ä?
     
³×...writeback À¸·Î ÇϽðí...¹èÅ͸® Çʼö·Î ´ÞÀ¸¼Å¾ßÇϱ¸¿ä.
¹é¾÷Àåºñ (¿ÜÀåÇϵå Á¤µµ¶óµµ) Çϳª ´õ µÎ½Ã°í...¼ö½Ã·Î ¹é¾÷ ¹Þ¾ÆÁֽðí...
µÎ ÀåÄ¡ÀÇ ¿ë·®À» Ä¿¹öÇÒ ¼ö ÀÖ´Â...Àڱ׸¶ÇÑ UPS µµ Çϳª ´Þ¾ÆÁÖ½Ã¸é ´õ ÁÁ±¸¿ä. (¹èÅ͸®·Î ij½¬ µ¥ÀÌÅÍ´Â º¸È£ÇÒ ¼ö ÀÖÁö¸¸ Çϵåµð½ºÅ© º¸È£´Â ¸øÇϴϱî¿ä)

Å« ¿ë·®ÀÌ ÇÊ¿äÄ¡ ¾ÊÀ¸½Ã¸é 4T Çϳª ¹ÝÇ°ÇϽðí Çϳª´Â ¹é¾÷¿ëÀ¸·Î µ¹¸®½Ã°í...Ãß°¡·Î 2T 4°³·Î raid 10 À» ²Ù¹Ì½Ã´Â°Ô ¼º´É°ú ¾ÈÁ¤¼º¸é¿¡¼­ ´õ ³´½À´Ï´Ù.

raid 10 À» ¾²´Â°Å¸é...·¹À̵åĨ¼ÂÀÌ ÇÏ´Â ÀÏÀÌ ¸¹Áö ¾Ê½À´Ï´Ù.
°í¼º´É ·¹À̵åÄ«µå´Â ¹ß¿­¹®Á¦°¡ ÀÖÀ¸´Ï...Áß°£±Þ Á¤µµ·Î ÇϽô °Íµµ ºñ¿ëÃø¸é¿¡¼­´Â À¯¸®ÇÕ´Ï´Ù.
LSI Á¦Ç°À» ¿¹·Î µéÀÚ¸é 9260 (ȤÀº 9261...·¹À̾ƿô¸¸ ´Ù¸£°í ¼º´ÉÀº °°½À´Ï´Ù) Á¤µµ¸é µË´Ï´Ù.

Ãß°¡·Î LSI ÀÇ °æ¿ì...CacheCade Pro ¿É¼ÇÀ» ±¸¸ÅÇϽøé SSD ¸¦ ij½¬·Î »ç¿ëÇÏ°Ô ¼¼ÆÃÇÒ ¼ö ÀÖÀ¸¸ç...ÀÌ °æ¿ì Àб⠼ӵµ°¡ ºñ¾àÀûÀ¸·Î »¡¶óÁý´Ï´Ù¸¸...SSD ÀÇ ¼ö¸í ¹®Á¦·Î ÀÎÇØ ÁÖ±âÀûÀ¸·Î ±³Ã¼ÇØÁÖ¾î¾ßÇϹǷΠºñ¿ëÀÌ »ó½ÂÇÒ ¼ö ÀÖ½À´Ï´Ù.
Âü°í·Î 9260 ¿ë CacheCade ´Â À̺£ÀÌ¿¡¼­ ´ë·« $100 Á¤µµ¿¡¼­ ±¸¸Å°¡´ÉÇÕ´Ï´Ù.

¾Æ´äÅØ¿¡µµ À¯»çÇÑ ±â´ÉÀÌ ÀÖ°í...ÇØ´ç±â´ÉÀº ¾Æ´äÅØ ÂÊÀÌ Á» ´õ ¿ì¼öÇÑ ¸ð¾çÀÔ´Ï´Ù¸¸...Àú´Â ¾Æ´äÅØ ÂÊÀº Àß ¸ô¶ó¼­...........¹Ú¹®Çü´Ô²² ¿©Â庸¼¼¿ä~ ^^
¹Ú¹®Çü 2014-10
ÀüüÀûÀÎ Çϵå¿þ¾î »ç¾ç¹× OS¸¦ °¡¸£ÃÄ ÁÖ½Ã¸é ´ë·« ¾µ¸¸ÇÑ ·¹À̵å Ä«µå¸¦ ¼Ò°³ Çص帱 ¼ö ÀÖ½À´Ï´Ù.
Ä«ÇÁÄ« 2014-10
RAID ½Ã½ºÅÛÀÇ ´ëÀüÁ¦´Â "RAID´Â ¹é¾÷ÀÌ ¾Æ´Ï´Ù"
'24½Ã°£ 365ÀÏ µ¹¾Æ°¡¾ßÇÏ°í'°¡ RAIDÀÇ ÀÌÀ¯ÀÌ°í,
'¹«¾ùº¸´Ù »ç¿ëÀÚµé µ¥ÀÌÅÍ°¡ ³¯¶ó°¡¸é °³°³ÀÎÀÇ ¿¬±¸¿¡ Ä¡¸íÀûÀ̶ó'´Â ¹é¾÷ÀÔ´Ï´Ù.
±Ô¸ð°¡ ²Ï ÀÖ´Â »çÀÌÆ®¿¡¼­µµ RAID ±¸ÃàÇÏ°í ¹é¾÷Àº ÀüÇô ½Å°æµµ ¾È¾²´Â °÷ÀÌ ¸¹¾Æ °¡²û ³î¶ø´Ï´Ù.
RAID´Â RAID´ë·Î, ¹é¾÷Àº µû·Î µ¹¸®¼Å¾ß°ÚÁö¿ä.
Àè¿Â 2014-11
Ä«ÇÁÄ«´Ô ¸»´ë·Î ¹é¾÷À» º°µµ·Î °¡Á®°¡´Â°Ô ´õ ³ªÀ»°Í °°½À´Ï´Ù.
Â÷¶ó¸® hdd¸¦ ÇÑ°³´õ Ãß°¡ÇϽðí zfs·Î raidz2³ª raidz3°°Àº°É ¾²½Ã´Â°Ô ´õ ³ª¾Æº¸À̱ä ÇÕ´Ï´Ù.


QnA
Á¦¸ñPage 4857/5684
2015-12   1495413   ¹é¸Þ°¡
2014-05   4958943   Á¤ÀºÁØ1
2017-01   5228   AplPEC
2020-07   3913   Çã¹®¼ö
2021-12   3606   ÇÁ¶û
2016-01   4987   Àü¼³¼ÓÀǹ̡¦
2013-04   18548   ÃÖ¿µ¹Î
2018-03   7392   ºí·ç¿µ»ó
2021-12   1919   ±Ã±¸
2019-05   2648   ÇູÇϼ¼
2023-07   1856   ¹Ì´ã
2004-01   9310   À¯À缺
2016-02   6840   ¹Ð¿ì
2014-10   4692   blackra1n
2023-07   1643   ºí·ç¸ð¼Ç
2013-05   9984   ȸ¿øK
2017-01   4065   Áú¹®Çлý
2018-03   4374   À¸¶óÂ÷Â÷Â÷
2006-09   4621   Â÷Çõ±Ù
2016-02   5013   ÃÖµÎÄ¡
2019-05   3729   ±è»óÇõ2
2023-08   1904   °ËÀºÄá