Windows ÀúÀå¼Ò °ø°£(storage spaces)ÀÇ dual parity¿Í raid 6

   Á¶È¸ 21868   Ãßõ 0    


Windows 저장소 공간에서 parity라고 부르는 것은 raid 5와 비슷한 것입니다.

parity를 사용하려면 HDD가 최소 3개가 있어야 합니다. 그리고 공간은 hdd 갯수에서 하나를 뺀 만큼 사용할 수 있습니다. raid 5도 똑같죠.


parity나 raid 5에서는 디스크 하나가 고장나더라도 계속 돌아가죠. 새 디스크를 넣으면 리빌드 해 줍니다. 그러나 리빌드 하기 전에 하드디스크 하나가 더 고장난다면 방법이 없죠. raid 6는 두개가 고장나더라도 상관 없습니다.


raid 6를 사용하려면 하드디스크가 최소 4개가 있어야 합니다. 공간은 hdd 갯수에서 2개를 뺀 만큼. hdd 4개를 raid 6로 묶는 사람은 별로 없을 겁니다. 4개라면 raid 10을 사용하는 것이 보통.


저장소 공간의 dual parity도 raid 6와 마찬가지일 것 같죠?

근데 아닙니다. dual parity를 사용하기 위한 최소 hdd 갯수는 7개입니다. 그리고 7개를 dual parity를 사용하여 묶으면 공간은 4개분 밖에 안나옵니다.

dual paity는 raid 6와 비슷한 것일텐데 왜 hdd 5개나 6개로는 할 수 없다는 거냐? 그리고 하드디스크 하나 분량의 공간은 어디로 도망간 것이냐?

dual parity가 아니라 triple parity인 것이냐?


이게 참 궁금했습니다. 저와 같은 의문을 가졌던 다른 사람들도 있었고요.

결론적으로 parity는 raid 5와 비슷한 것이지만 dual parity는 raid 6와는 많이 다른 것입니다.

dual parity는 LRC Erasure Coding이라는 것을 사용한다고 합니다.


[자료] LRC Erasure Coding in Windows Storage Spaces

http://goo.gl/ZVnvqP


이걸 보면 LRC Erasure Coding이라는 것은 대략 raid 50 + global parity라고 할 수 있겠습니다.

장점으로는 rebuild시 부담이 raid 5나 raid 6에 비해 훨씬 적다는 것입니다. raid 60에 비해서는 공간 낭비가 훨씬 적다는 점도 있습니다.


의문이 다 풀린 것은 아닙니다.

dual parity 최소 구성이 디스크 7개인데, parity로 사용되는 것 제외하고 4개 분의 공간만을 사용할 수 있다는데...

(3개 raid 5) + (3개 raid 5) +  global paity

이렇게 2way로 되는 것인지? 이렇다면 7개 묶으면 사용 공간이 4개분 남는다는 것이 이해가 가는데 정말 그런지?

그러면 8개로 dual parity는 구성할 수 없는가? global parity 하나 빼면 7개가 남으니 2 way로는 안되는 것 아닌가? 만일 1way로 한다면 3개 분 공간을 쓸 필요가 없지 않은가? 1way가 된다면 hdd 5개로 local parity 하나 global parity 하나 하여 3개 분량 공간을 사용할 수 있지 않은가?(raid 6처럼)


자세한 것은 모르겠습니다.

하여간 dual parity는 LRC Erasure Coding이라는 것을 사용하여 hdd 최소 7개가 있어야 구성할 수 있다는 것. 3개 공간이 parity 용도로 사용되어 4개 분 공간 밖에 남지 않는다는 것. 


* 링크된 pdf 파일에 parity용 hdd가 따로 있는 것처럼 그려져 있지만 설명하기 위해 그렇게 한 것이고, raid 5나 raid 6처럼 parity가 여러 디스크에 분산되어 있을 것 같습니다. global parity란 것도 실제로는 분산되어 있을 것 같은데, 실상은 어떤지 모르겠네요.



Æи®Æ¼ ¿¬»êÀ» ÇÏ°ÔµÇ¸é ¾²±â ¼Óµµ°¡ ¸Å¿ì ´À·ÁÁöÁö ¾Ê½À´Ï±î.
RAID 5 / 6 ¿¡ À̾߱âµÇ´Â È­ÀÌƮȦ Çö»óµµ ¾ø´Ù°í º¸±â ¾î·Á¿ï °Í °°½À´Ï´Ù.

°³ÀÎÀûÀ¸·Î´Â RAID 1ÀÌ º¸ÆíÀûÀ¸·Î Á¦ÀÏ ¹«³­ÇÏ°í,
¼Óµµ°¡ ÇÊ¿äÇÏ´Ù¸é RAID 10 À» ¾²´Â °ÍÀÌ ³´Áö ¾ÊÀ»±î »ý°¢ÇÕ´Ï´Ù.
     
ĵÀ§µå 2016-03
Àúµµ ±×·¸°Ô »ý°¢Çߴµ¥¿ä
¸·»ó Æи®Æ¼¸¦ »ç¿ëÇØ º¸´Ï ¸ø¾µ Á¤µµ´Â ¾Æ´Ï´õ±º¿ä.

ÇöÀç À¢µð ±×¸° 6°³
4T 4T 3T 3T 2T 2T ¸¦ Æи®Æ¼ ¸ðµå·Î »ç¿ëÁßÀÔ´Ï´Ù.
Æò±Õ 150MB/S ³ª¿Í¿ä.

¹°·Ð ½ÉÇøðµå(RAID 0)À¸·Î Çϸé 300MB/S ³ª¿É´Ï´Ù.

Àúµµ ´Ù¸¥»ç¶÷µéÇÑÅ× ÃßõÀº 1À̳ª 10À¸·Î Çϱä Çϴµ¥
¸·»ó Àú´Â Áß¿äÇÏÁö ¾ÊÀº µ¥ÀÌÅÍ¿¡´Â raid 5¸¦ ¾²°í
Áß¿äÇÑ ºÎºÐ¿¡ ÇÑÁ¤Çؼ­ 1À̳ª 10À¸·Î ¾²°Ô µÇ³×¿ä... ¤¾¤¾
          
ÀÌ°Ç °³ÀÎÀÇ ¼±ÅÃÀÌ¶ó ¹¹¶ó À̾߱âÇϱ⠾î·Æ½À´Ï´Ù.

¾Æ´äÅØ 5 / 7 ¾²´Âµ¥
RAID 5 ´Ù ±ú°í
RAID 1·Î ÁË´Ù ¹Ù²å½À´Ï´Ù.
               
RAID5´Â ¾µ ÀÌÀ¯°¡ ¾ø´Â ¼¼»óÀÌ ¹ú½á ¸î³âÀü¿¡ ¿Ô½À´Ï´Ù...
RAID¸¦ ±×´ÙÁö ¼±È£ÇÏÁö ¾Ê´Â 1ÀÎÀÔ´Ï´Ù ¤¾¤¾
                    
µ¿°¨ÇÕ´Ï´Ù.

1À» °Å´Â ÀÌÀ¯´Â
ÀÛÀº ÆÄÀϵéÀ» ¸¹Àº µ¥ÀÌÅͶó ±×·¸½À´Ï´Ù.

°£È¤, ÇÏµå ¹èµå·Î ÆÄÀÏ Çѵΰ³°¡ ±úÁö´Â °ÍÀ» ·¹À̵å 1ÀÏ °æ¿ì´Â ¾î´ÀÁ¤µµ ¿¹¹æÀÌ °¡´ÉÇϱ⠶§¹®ÀÔ´Ï´Ù.


¾Æ ¹é¾÷Àº ´Ù½Ã ·¹À̵å 1·Î ÀÌÁßÈ­ Çؼ­ ¹é¾÷ÇÏ°í ÀÖ½À´Ï´Ù.
                         
¹Ì·¯´Â ÇؾßÁÒ... ÆÛÆ÷¸Õ½ºÇâ»óµµÀÖ°í... ±×³ª¸¶ ÃÖ°í·Î ¾ÈÀüÇÏ°í...

±×¸®°í ¼¼°è´Â Ŭ·¯½ºÅ͸µÀ¸·Î °¡°í ÀÖÁÒ... HA
¸Â½À´Ï´Ù.

¹Ì·¯´Â ±âº»Àε¥ Çϵ尡 2°³ ÇÊ¿äÇÏ´Ï °³Àλç¿ëÀÚµéÀº Àß ÇÏÁö ¾Ê´Â °æÇâÀÌ ÀÖ´õ¶ø´Ï´Ù.

¸ÞÀο¡ ¹Ì·¯ Çϳª
¹é¾÷ ¼­¹ö¿¡ ¹Ì·¯ Çϳª ¸¦ ±âº»À¸·Î

°¡Àå Áß¿äÇÑ µ¥ÀÌÅÍ´Â
½Ì±Û·Î Çϳª ´õ ¹é¾÷ÇØ ³õ½À´Ï´Ù.
     
*ºñ¹Ð±ÛÀÔ´Ï´Ù
          
¾¾½ºÅÛ¿¡´Â ¹Ì·¯ ¹é¾÷Àº ±×³ÉÁ¤µµ¸é ¸¸Á·ÀÌÁÒ Àú´Â...

ÇÏÁö¸¸ Á¤¸» ¾¾½ºÅÛÀ» ¸¸µé¶ó°í Çϸé... °¡°Ý¿¡ Á¦¾à¾øÀÌ... ¹Ì·¯¾¾½ºÅÛ µÎ°³·Î fail over¸¦ ¼±È£ ÇÕ´Ï´Ù...
               
¹é¾÷ ¹®Á¦´Â Ç×»ó ºñ¿ë ¹®Á¦ ¾Æ´Ï°Ú½À´Ï±î...

¹Ì·¯ µÎÁ¶¿¡ ½Ì±Û ¹é¾÷Àº ´Ü Çϳª¸¸ ÇÏ°í ÀÖ½À´Ï´Ù.


Á¦¸ñPage 21/55
2015-12   1535913   ¹é¸Þ°¡
2014-05   5000048   Á¤ÀºÁØ1
2013-02   22397   ȸ¿øK
2013-10   22353   È­¶õ
2013-07   22302   ¹Ú¹®Çü
2016-02   22283   ĵÀ§µå
2023-02   22198   ACACIA
2022-09   22180   Å¿µÆÄÆÄ
2013-03   22155   ÇÏÀÌ¿£µå
2014-02   22151   ±è¹ÎöGC
2017-03   22147   freefree
2012-01   22075   ¼ö¼®¿¬±¸¿ø
2018-05   21917   isahsi
2016-03   21869   °£Àå°ÔÀå
2022-05   21841   CandleNo1
2015-08   21838   ¸¸³âÃʺ¸
2013-10   21774   anh
2013-10   21764   ¸í¼ºÈ£
2014-02   21563   ȸ¿øK
2014-12   21427   JCnetwork
2016-08   21420   ĵÀ§µå
2013-02   21399   ȸ¿øK