Raid6 VS RAID10+핫스페어

Sikieiki   
   조회 6010   추천 0    

해놀로지에 3TB 5장을 raid 5묶으려니 동일주차 3대 + 동일주차2대

의 상황에서 raid5 묶으면 동일주차 2개가 한번에 폭사할것같아 무섭네요


그래서 6나 10을 생각중입니다만

개인 사용자 (사용할때만 켜고 끄는 상황 사용시간은 전체적으로 4000시간대) 의 상황에서 어느것이 현명한 생각일까요....


2cpu의 현명한 선경지명을 알고싶습니다...!!

Yesterday is history, tomorrow is a mystery, So Today is a present
짧은글 일수록 신중하게.
제온프로 2021-06
Raid 5+1 이나 Raid 6 중에 고려해 보심이..
주차 달라도 문제 없습니다. Spec만 같으면.

자주 살피고 관심이 많으시면 Raid 5 도 무방하겠습니다.

속도는 Raid5  가 가장 빨라서 1기가 네트워크 망에도 좀 더 잇점이 있어 보입니다.
Raid 10+1 은 용량,속도  둘다 손실이 너무 크네요..

중요한 DB가 있는 서버들이 Raid 10을 많이 사용합니다.
     
Sikieiki 2021-06
10기가 랜을 구축해놓았습니다....하아...하하.....
          
제온프로 2021-06
아이... 그러면 Raid5 지라..!!
박문형 2021-06
우선 RAID 레벨의 구성 및 특성을 잘 모르시는 듯합니다..

그리고 RAID 장비는 한번 키면 최대한 계속 켜두고 사용하는 것이 좋습니다..

(RAID 장비는 껐다 켰다 하면 레이드가 풀리거나 하는 문제가 있을 수 있습니다..데이터 날라가도 되면 겄다 켰다 해도 됩니다..)

그것을 위하여 핫스왑베이 /리던던트 파워 /리던던트 레이드 콘트롤러 등을 사용합니다..

그리고 캐쉬 메모리에 데이터가 날라가지 말라고 BBU가 있고  제가 아는 RAID 제조사에서는 BBU도 오래 돌리면 받데리가 나가고 썩으니

아예 UPS를 달아서 최대한 안 꺼지게 하는 것이 재일 낫다라고 말합니다..
     
Sikieiki 2021-06
안끄고 쓰는것이 정석인것은 잘 이해하고있다고 생각합니다만.....
그러기에는 전기세와 소음이....(눈물)
술이 2021-06
헤놀로지는 소프트레이드이기에 10으로 구성해야됩니다. 레이도5 구성하는 순간 쓰기속도 헬입니다. SSD 두개 달아서 캐쉬 넣어줘야 하는데 더 귀찮아지죠. 10으로만 써야합니다.
     
Sikieiki 2021-06
벤치마킹을 한번 알아봐야겠습니다..... 답변감사합니다....
     
dateno1 2021-06
아뇨

2.5" HDD같은거 4개로 구성해도 300메가쯤 간단하게 나옵니다

소프트 레이드의 성능은 기본 그걸 처리하는 시퓨 성능입니다
맑은여름 2021-06
Xpenology를 베어메탈로 사용하신다면, 하드웨어에서 레이드 후 디스크 장착하시지 말고,
위에 술이님 얘기주신것 처럼 개별로 인식시켜, Xpenology 에서 소프트레이드 구성하십시요.
그리고 저역시 추천은 무조건 RAID10 을 추천합니다.

만약 ESXi 또는 Proxmox 등을 사용하신다면, 하드웨어단에서 레이드후 Xpenology에서 사용하셔도 괜찮습니다.
다만 레이드의 경우 상기와 마찬가지로 RAID5 보다는 RAID10을 추천 드립니다.

RAID6는 실운용서버 용도 보다는, 백업을 위한 스토리지서버로 사용하시거나.
서버관리가 귀찮을때 사용하시기 바랍니다. ^^;;
     
Sikieiki 2021-06
모두 해놀 상의 소프트 레이드입니다...
5개....를 아낌없이 쓴다 생각하면 6인데 음.....데이터 저장용으로만 쓴다면 6를 써도 될지....고민이네요
박문형 2021-06
RAID 0 :stripping
RAID 1 : mirroring
RAID 1+0 : mirroring + stripping
RAID 5 : parity + stripping
RAID 6 : parity + parity + stripping

의미를 잘 생각해 보시고

데이터 복구를 위한 페리티를 계산하기 위해서는 프로세서가 빠르던지 아니면 XOR 엔진이 들어간 전용 프로세서가 있어야 하는데

RAID 5는 페리티 계산을 한 번 하지만 RAID 6는 페리티 계산을 두 번합니다..

그래서 RAID 5는 디스크가 1개 고장이 나도 동작하고 RAID 6는 디스크가 2개 고장이나도 동작합니다..
 
이 때 동작은 하지만 데이터 생성은 CPU(프로세서)가 하기에 CPU에 부하가 많이 걸리고 레이드 볼륨의 동작도 아주 느려집니다..


헤놀리지 같은 경우 모든 프로세싱은 X86 CPU에서 나오기에 그리고 전용 프로세서라고 보기 힘들기에 RAID 5혹은 6를 사용하게 되면

퍼포먼스가 안 좋아지게 됩니다..


캐쉬 메모리가 들어간 하드웨어 레이드 카드 나 레이드 장비는 레이드 전용 프로세서를 사용하기에 소프트웨어적인 레이드를 사용하는 것보다

성능이 좋습니다.. 물론 그만큼 더 비쌉니다..
이선호 2021-06
개인적으로 겨우 5개 가지고 RAID6까지 갈 필요는 없다는 생각입니다.
RAID는 절대 백업의 개념이 아니니 5를 묶든 6을 묶든 2차 백업은 생각하시는게 좋습니다.
저같으면 HW RAID카드 중고로 저렴하게 업어와 HW RAID를 묶고 그 위에 헤놀이든 ESXI든 올릴 것 같습니다. 성능차이가 매우 심하지요.
     
dateno1 2021-06
NAS OS는 기본 하드웨어 레이드 금지입니다 (종류 상관없이 대부분 해당됨)

덤으로 가상화랑 친하지도 않습니다

차라리 그냥 서버OS 설치후 직접 파일 공유 서비스 돌리는게 낫죠
          
이선호 2021-06
당연하죠. NAS OS들이 단가때문에 HW RAID 자체를 채용하지 않으니까요.
HW RAID를 "금지" 하는게 아니라 돈 때문에 SW를 쓰는겁니다.
헤놀 상에서도 모니터링도 불가능하며, 로그 확인하려면 재부팅을 하거나 따로 매니지포트 있는 제품을 써야겠지요.
하지만, 속도가 월등하며 장애 발생시 비프음으로 확인할 수 있고, 리빌딩 자체가 훨씬 빠르기 때문에 개인용도로 쓰기에는 괜찮다고 하는 것이지요.
ZFS처럼 Paritiy 계산과 I/O, 무결성 확인에 모든 CPU 자원을 쏟을 게 아닌 다목적/가정용 NAS라면 HW RAID를 쓰지 말아야 할 이유가 전혀 없습니다.

2. 가상화와 HW RAID가 친하지 않다는 얘기는 처음 듣네요. 드라이버 잘 나오고 잘 굴러갑니다. 애초에 스토리지 서버가 아닌이상에야 내장레이드 or SW Raid로 충분하고, R5,R6이상을 쓸 이유가 없는것이죠. 특별한 경우를 제외하고는 HW RAID를 올리고 ESXi를 쓰는 경우는 거진 홈서버지요. 어차피 DB서버나 대부분의 경우에는 R1이나 R10으로 충분하니까요.
또한 Paritiy 계산을 위한 CPU, 캐시메모리가 없을 뿐이지 대다수 서버에 들어가는 온보드 LSI 칩셋, HBA카드 또한 원칙적으로는 HW RAID에 가깝습니다. ROC는 아니지만 HW Assisted SW RAID인만큼 HW RAID를 불러오는것과 엄청난 차이를 보이지는 않습니다.

3. 서버 OS 설치 후 파일 공유 서비스를 올리는게 나쁜 선택은 아니나, 홈서버 유저에게 헤놀만큼 편한 NAS OS가 없지요.
               
dateno1 2021-06
1. 돈만으로 금지하는것 아닙니다

OS만 따로 팔거나, 심지어는 오픈소스로 공짜로 유포중인 NAS OS계열도 하드웨어 레이드를 추천하지 않습니다

그리고 모니터링 불가능한게 꽤 심한 문제에요

쓰다보면 디스크 불량 생길 수 도 있는데, 그때 경고를 못 받으면 교체 시기를 놓쳐서 레이드가 허용하는 수치 이상의 문제가 생길 수 도 있습니다

보통 하드웨어 레이드 카드를 써도 자체적 LED라도 하나 붙어있으면 다행인 수준입니다 (비프 나게 하는 핀은 있어도 부저 없는 경우가 대부분)

다목적 NAS라면 넉넉한 사항을 맞추기떄문에 오히려 HW RAID를 안 써도 성능 문제 안 생깁니다

지금 저전력인 T계열 써도 충분한 성능이 나와서 디스크 한계에 가까운 성능 뽑아내고 있습니다

2. 가상화랑 하드웨어 레이드가 안 친한게 아니라 가상화랑 NAS계열 OS가 안 친한겁니다

xpenology 포럼에만 가봐도 가상화는 비추라고 보란듯이 명시되어져있습니다 (물른 전용 게시판도 있긴합니다)

실재로 사용중 이유없이 깨져버렸다는분도 많습니다

3. 참고로 하드웨어 레이드 + 시놀을 돌리는것자체가 비추다보니 성능 문제를 신경 쓰면 차라리 다른 OS 가라고 한것뿐입니다 (가장 간단하게 시퓨 업글하면 해결됩니다)

물른 설치는 조금 더 귀찮지만 단순 파일 공유용 서버라면 그닥 어려울것도 없습니다
                    
이선호 2021-06
NAS OS 계열도 마찬가지지요. 어차피 틈새시장에 가까운 용도니까요.
디스크 불량시 비프음은 당연히 납니다. 요즘 SAS 12Gbps에서는 부저가 기본적으로 빠지고 따로 달아야 하는 경우도 있지만, 부저를 안달아서 생기는 문제는 제조사가 책임지기 어려워지지요.
HW RAID카드에 LED가 크게 필요 없는 이유는 관리 SW와 부저의 이유가 큽니다.
두번째로 1Gbe 혹은 1Gbe 듀얼 정도의 다목적 NAS에 HW RAID가 필요 없다는 점은 동의합니다. 아톰 CPU로도 200MBps는 충분히 뽑아낼 수 있기 때문이죠. 2Gbps LAN이라고 해봤자 250MBps밖에 안되지 않습니까. 문제는 리빌딩시입니다. SW RAID가 HW RAID 대비 최소 3배 이상의 시간을 소요하지요. 요즘 8TB 이상의 HDD를 쓰는게 전혀 이상하지 않은 시대인데 1주일 넘게 디스크를 100% 쓰고 있다? 위험하죠.

일반적인 NAS O.S중에 해놀을 이길만한 것은 없다는걸 아시리라 생각하기에 다른 OS는 논외로 하겠습니다. 윈도우로 갈까요? 아니면 해킨을 갈까요... 그리고 서버를 여러대 굴릴 수 있다면 네이티브가 제일 좋지요. 전력소모나 비용 등 때문에 가상화로 가는 것이지...
솔직히 가상화로 헤놀을 돌린다고 문제될 점은 전혀 모르겠습니다. 2년 이상 빡세게 테스트 해봐도 마찬가지이구요.
                         
dateno1 2021-06
부저 번들로 안 줬던걸로 기억합니다 (벤더사 서버등 사면 달려있는것 보는게 대부분인데, 베터리는 있어도 부저 있는 경우는 잘 없음)

저거 이외의 문제로 UPS 부재시 케쉬 메모리 증발 문제나 ZFS등을 쓰는경우 일부 기능은 하드웨어 레이드 쓰면 못 쓰는 문제도 있습니다

또한 SSD Cache를 다는경우 하드웨어 RAID로 묶은 디스크 플을 대상으로 지정하면 성능 향상폭이 너무 낮은것도 문제가 됩니다

RAID5정도라면 아톰같은 저사항이 아닌 이상 시퓨 성능보다는 디스크 속도가 더 문제라고 생각합니다 (용량 증가에 비해 속도는 그닥 안 빨라져서 디스크 용량/쓰기 속도가 고용량 디스크는 이미 위험한 수준입니다)

시놀이 좋긴하지만, 설치가 좀 귀찮다는걸 제외하면 솔직히 뭘 써도 파일 공유정도의 목적은 별 어려움 없이 구축 가능하니 이걸 난이도라 부르진 않겠습니다 (특히 FreeNAS처럼 NAS OS로서 나온 물건은 설명서대로 깔기만 하면 딱히 큰 문제 없이 설치 완료 됩니다)

OS를 개발하는쪽에서 비추하는것도 있지만, 가상화를 비추하는 이유중 하나는 가상화의 원칙중 하나가 올인원 금지란점입니다

가상화가 리소스 사용 효율이나 관리 편의를 높여주는건 사실이지만, 그것만 고려해서 모든 컴을 몰아넣는건 절대 금지 사항중 하나입니다

오히려 가상화 서버의 데이터를 백업해야할 NAS가 가상화 서버에 들어가 있는것도 넌센스지만, 하나의 서버에 너무 많은 역활을 줬을때 장애 발생하면 생기는 업무마비 비율등의 문제나 데이터 손실시 발생하는 위험성을 고려하면 어느정도는 분산해야 합니다 (가끔 있는 가상화 탈출 가능한 보안상의 문제는 업데이트등 꼬박꼬박한다고 가정해서 무시합니다)

시놀을 가상화했을떄 괜찮은분들은 괜찮은데, 안 괜찮은분들은 어느날 VM껏다 켜니 제대로 작동 안 하고 깨졌다라던가, 부트했는데 RAID (왜 호스트 RAID를 했는데 또 VM에 불과한 시놀을 다시 그렇게 했는지 이해불능이지만)가 꺠져서 복구가 안 된다등의 증세를 호소하는 분들이 계시더군요

분명히 환경이 고정되어서 낮아야하는데 이상하게 가상화하는 경우 이런 애기하는 비율이 상당히 높습니다

또한 가상화 서버랑 저장용 서버는 추구해야할 하드웨어적 스팩의 방향성이 상당히 다릅니다

너무 다른 방향성의 서버를 하나의 하드웨어로 구현할려고하면 효율이 나빠지거나, 특정 리소스가 부족하거나, 오버 스팩이 되어서 과도한 비용등이 드는 경우도 많습니다 (아는분중 1분도 파일 서버랑 웹서버랑 잡다한 가상 돌리는 서버를 통합해서 구축했던데, 이런 문제에 시달려서 맨날 놀렸습니다)
dateno1 2021-06
동일 주차라고 동시에 사망하는일 없습니다

기본 하드의 내구성은 운빨 랜덤입니다

멀쩡하면 20만시간도 버티지만, 안 멀쩡하면 20분도 못 버팁니다
ZSNET5 2021-06
하드디스크는 생명체와 같아서, 태어나는 순서는 있어도 저세상에 가는 순서는 없습니다. ㅎㅎ
동일 환경에서 10년 이상 멀쩡하게 동작하기도 하고, 한달만에 죽어나가기도 합니다.
경험상 RAID-5 구성을 사용할 때, 두개의 HDD가 죽어서 데이터가 Loss되는 가장 큰 원인은, 1개의 HDD 가 Fail된 것을 인지하지 못하고 방치하다가 하나가 더 죽는 경우입니다.
결국 제대로 점검하지 않고 방치할 때 생기는 문제라는 것이고.... 주기적인 점검없이 방치해서 생기는 문제는 RAID-6가 아니라 RAID-6 할아버지가 와도 방법이 없습니다.
PS. 보통 이렇게 사고난 현장에는 백업도 없더이다.
     
dateno1 2021-06
보통 그거때문에 핫스페어 두긴하는데, 데이터 꺠는곳은 그걸 다 쓰다못해 허용 수치 이상으로 디스크 고장날때까지 방치해두더군요 (...)

1년에 1개씩 디스크가 고장났다고 가정해도 핫스페어 2개 + RAID6의 허용치 2개면 4년은 괜찮은데도 데이터 깨먹는 구재불능은 뭔짓해도 못 살려줘요


QnA
제목Page 754/5726
2014-05   5249056   정은준1
2015-12   1774350   백메가
2021-06   2398   Sikieiki
2021-06   2798   구차니
2021-06   5080   inquisitive
2021-06   2173   헥사코어
2021-06   2718   누구일까
2021-06   3147   SecondToNone
2021-06   4299   무쏘뿔처럼
2021-06   4601   VSPress
2021-06   2822   재원
2021-06   3678   lico98
2021-06   4882   돌풍감자
2021-06   1868   원상현
2021-06   2540   네이쳐
2021-06   2856   까치산개꿀탱
2021-06   2963   zestyus
2021-06   3261   inquisitive
2021-06   2375   황진우
2021-06   2310   Sakura24
2021-06   3845   비가내리는
2021-06   6011   Sikieiki