NVME ³ª U2 °°Àº °í¼ÓÀÇ ÀúÀåÀåÄ¡´Â ¾î¶² ¹æ¹ýÀ¸·Î ¹­´Â °ÍÀÌ ÁÁÀ»±î¿ä?

   Á¶È¸ 1682   Ãßõ 0    

RAID 를 사용하면 작은 크기나 랜덤 억세스가 낮아져서 도리어 속도에 손해가 된다는 의견들이 있네요.

그러면 어떤 방법으로 묶어서 사용을 해야 하나요?

2TB NVME 8개를 가지고 개인용 스토리지 서버를 만들어 보려는데 참 어렵네요.


일단 제가 해본 방법은 Unraid 란 OS 를 사용해 본것입니다. 

unraid 가 JBOD 와 Parity 기능을 합친 것이라고 하네요. 각각의 SSD 들의 용량을 통일하지 않아도 되고 parity 복구 방법도 그리 어렵지 않아서 괜찮았는데, 사전 설치된 정보를 얻고자 검색을 해보니 SSD 나 NVME 를 Array 로 묶었을때 Trim 기능이 안되서 SSD 에서 wearing? 으로 인한 문제가 발생할 수 있다고 하네요. (정확히 wearing 이 무슨 의미인지 모르겠어요.) 

또 Parity 를 일반 하드로 사용하면 속도가 확 느려지기에 SSD 나 NVME 를 Array 만든 의미가 없어지는 문제도 있구요. 그렇다고 NVME 로 사용하면 내구성이 괜찮을지 의문이 걱정스럽구요.

그래서 결국 trim 이나 쓰기 내구성에 문제가 적을  U.2 SSD 를 몽땅 주문해서 용량을 확보하긴 했습니다만, Unraid 를 계속 사용하는 것이 맞는지 확신을 못하겠습니다. 

(엔터프라이즈 급 SSD 라면 trim 이나 전원으로 인한 데이터 문제 가능성이 적기에 문제 없다는 의견이 있어서요), 

추가로 unraid 보단 ZFS 를 사용하는 Proxmox 가 더 낫다는 의견도 있고 그러네요.

영어로 찾아 본것들이라서 비전문가인 제가 읽고 안 것이 맞는지도 확신이 안들어 2CPU 의 전문가분들께 또 질문을 올려봅니다. 

다수의 NVME 나 U2 SSD 를 어떤 식으로 묶어서 사용하는 것이 간단하고 효율적인 방법일까요?


PS : 다수의 컴퓨터(5대)에서 공통으로 사용할 자료를 서버에 두고 10기가 통신선으로 연결을 해서 각각의 클라이언트 PC 에서 OS 용 이외의 저장장치는 제거할 목적입니다. SMB 와 iSCSI 를 사용할 것 같습니다.

ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú¹®Çü 01-02
NVME µð½ºÅ© (M.2 /U.2)¸¦ RAID·Î ¹­´Â ¹æ¹ýÀº ½ÇÁ¦ ¸î°¡Áö ¾ø½À´Ï´Ù..

1. VROC : ÀÎÅÚ ½ºÄÉÀÏ·¯ºí ÇÁ·Î¼¼¼­¿¡¼­¸¸ Áö¿øµÇ´Â ½Ã½ºÅÛ ´ÜÀ§ÀÇ ¼ÒÇÁÆ®¿þ¾î ·¹ÀÌµå ¹æ½ÄÀÔ´Ï´Ù..
              ±×³ª¸¶ °¡°ÝÀÌ Àú·ÅÇÏ´Ù°í º¼¼öµµ ÀÖ°í ¸®´ª½ºµµ Áö¿øÇÏ°í RAID 5µµ Áö¿øÇؼ­ ¾Æ¸¶ ÀÌ°ÍÀÌ ÀçÀÏ ÀϹÝÀûÀ¸·Î ¸¹ÀÌ »ç¿ëµÇ¾úÀ» °ÍÀÔ´Ï´Ù..

2. RAID CARD : LSI RAID CARD Áß ÃÖ½ÅÇü Á¦Ç°µéÀÌ Áö¿øÇÕ´Ï´Ù.. Ä«µå¿Í ÄÉÀÌºí °¡°Ýµµ ²Ï µÇ°í ±¸Çϱâ Á» Èûµé°Í ÀÔ´Ï´Ù..
                      ADAPTEC ÃֽŠÁ¦Ç°µµ NVME Áö¿øÇÏ´Â Á¦Ç°ÀÌ ÀÖÁö¸¸ ½ÇÁ¦ Æȸ®´ÂÁö´Â ¸ð¸£°Ú½À´Ï´Ù..
                      ÀÌ ¹æ½ÄÀº Çϵå¿þ¾î ·¹ÀÌµå ¹æ½ÄÀÌÁö¸¸ Ä«µå 1ÀåÀÌ Áö¿øÇÒ¼ö ÀÖ´Â NVME µå¶óÀÌºê °¹¼ö°¡ 4°³Á¤µµ·Î Àû´Ù´Â°Ô ´ÜÁ¡ÀÔ´Ï´Ù..

3.GPU RAID CARD : SupremeRAID ¶ó°í GPU Ä«µå¸¦ RAID ¿£ÁøÀ¸·Î ÇÑ Á¦Ç°ÀÌ ÀÖ½À´Ï´Ù.. ±¹³» ÃÑÆÇÀÌ ÀÖ½À´Ï´Ù..
                            ¼º´ÉÀº ¾Æ¸¶ Áö±Ý±îÁö ³ª¿Â ¹æ½ÄÁß¿¡¼­´Â ÀçÀÏ ÁÁ´Ù¶ó°í ÇÒ¼öµµ ÀÖ½À´Ï´Ù..
                            ÀÌ Á¦Ç°°ú ȣȯµÇ´Â ¸¶´õº¸µå³ª ½Ã½ºÅÛÀÌ ÇÊ¿äÇÕ´Ï´Ù..
                            ±¹³» ÃÑÆÇ¿¡¼­´Â Ä«µå ´ÜÇ°À¸·Î ÆǸÅÇÏÁö ¾Ê°í ½Ã½ºÅÛ ´ÜÀ§·Î ÆǸÅÇÑ´Ù°í µé¾ú½À´Ï´Ù..
                              RAID °Ô½ÃÆÇÀ̳ª BMT °Ô½ÃÆÇ¿¡ °¡½Ã¸é °ü·Ã °Ô½Ã¹°ÀÌ ¸î°³ ÀÖ½À´Ï´Ù..


°³ÀÎÀûÀ¸·Î º¸±â¿¡´Â NVME °¡ ½Å±â¼úÀÌ°í ¿ö³« °í¼ÓÀ̱⿡ °Å±â¿¡ ¸Â´Â RAID ¼Ö·ù¼ÇÀº ¾ÆÁ÷Àº ¹ÌÈíÇÏ°í ´õ ¸¹ÀÌ °³¹ßµÇ¾î¾ß ÇÏÁö ¾ÊÀ»±î »ý°¢ÇÕ´Ï´Ù..
epowergate 01-02
"Ä«´õ¶ó"´Â ¹«½ÃÇÏ½Ã°í ¸î °¡Áö Çغ¸½Ã¸é¼­ ¿ëµµ¿¡ Á¦ÀÏ ÀûÇÕÇÑ ¹æ¹ýÀ» ÅÃÇϽô °É ÃßõÇÕ´Ï´Ù
https://www.asustor.com/ko/product?p_id=80
M.2 NAS´Â ¾î¶°¼¼¿ä
12½½·Ô°ú 6½½·Ô Â¥¸® Àֳ׿ä
À¯Æ©ºê¿¡ ¸®ºäµµ ¸î°³ ÀÖ½À´Ï´Ù
VROCÀÌ Á¦ÀÏ ³ªÀ»µí Çϳ׿ä
PCIe3.0 4¹è¼Ó¿¡ ´Ù ¹­¾îÁÖ°í..
ZFS À¸·Î ¹­¾îÁÖ¸é ±×¸¸ÀÔ´Ï´Ù..
¼º´ÉÀº ´ë¸¶¿Õ..
20GB/S .. Ä¿¹öÇÏ·Á¸é.. 200GbE ¸¦ ½á¾ßÇÔ...


QnA
Á¦¸ñPage 330/5686
2015-12   1519958   ¹é¸Þ°¡
2014-05   4983973   Á¤ÀºÁØ1
2023-07   1682   ¹Ú¹®Çü
2023-09   1682   ¸®Àå´Ô
2023-07   1682   ºí·ç¸ð¼Ç
2022-02   1682   ÀÌÁöÆ÷Åä
2021-10   1682   osthek83
2022-10   1683   ¹üÀÌ´Ô
2022-04   1683   ±â¹¦ÇÑ»ýÈ°
01-02   1683   Å¿µÆÄÆÄ
2022-11   1683   LevinF
2023-11   1683   starname
2023-04   1683   ÄÚÄí
2023-05   1683   NiteFlite9
2022-08   1683   ¿µ»êȸ»ó
2023-06   1684   ÀüÁø
2023-03   1684   Chobo01
2023-05   1684   VSPress
2021-10   1684   ·¹¹ÝÅͽº
2022-04   1684   NaHS
2021-10   1684   junhua
2023-04   1684   chotws