[질문] 서비스 서버 <> 서버간 의 고효율 인터페이스? 구성?
* 가정 / 기초 조건
1) 가상화 호스트 서버 12345 ... + 스토리지
2) 1랙당 호스트는 15대 + 스토리지 2대 로 확장시
3) 운영시 빈도 예상 : Read 8 / Write 2
4) 15 + 2 ( HA )
5) 호스트 서버가 죽으면, 내부 VM 들은 타서버로 자동으로 옮겨진다.(실제 서버가 죽는게 아니기 때문에, 잘안된다는데...)
6) 팜당 5m 이내 , 기본 같은랙 / IDC
상황에서, 궁금한건... 1,5 발생시,
연결의 형태?구성?이 '가성비'가 좋을까요?
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
1) infiniband 10G + iSCSI or ... + 전용
2) infiniband 40G + iSCSI or ... + 전용
4) 1G eth x 4ea Trunk + UTP 5E or 6 케이블
5) SAN 4G + 광
6) SAN 8G + 광
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
1) 창조주(우리)가 인간(서비스서버)을 만들고, 혈관을 어떤걸로 할까? 생각하는 느낌 입니다.
현재, 제 생각? 으로는 '인피니밴드'로 다 묶자
근데? 이거 괜찮을까? 호스트쪽은 10G / 스토리지쪽은 40G ?
나중에 I/O 커져서 뜯어내느니, 시작부터...
2) " 일반, UTP 로도 10G TCP ( 순차 )나와요
왜 굳이, 다른거 써요? " 지인말
근데, 10G 랜카드가 열많이 나요.( 멈칫 )
... 이분입에서, 이정도면 용광로 인듯 싶고
다, 방열판이 좋은거로 달렸다 ㅡㅡ 무섭다
3) 지나가는 짧은 질문?
왜 광케이블은 대다수가 '주황색' 일까요?
업링크는 파랑, 옆랙업링싱크는 녹색, 등등
이쁘게 하고싶은데... 변태인가? CAT6 케이블도 색색 이쁜데, 예전에 이걸로 함 ㅋ
항상 궁금한게 많은 촌구석 김포서, 서버하는 닌겐입니다 항상 감사드립니다.
ㅜㅜ
CPU와 CPU를 이어준다는 것에서는 인피니벤드가 재일 좋다라고 볼수 있습니다만
재대로 셋팅할려면 공부도 많이 해야하고 (국내 재대로 셋팅하는 사람 잘 없습니다.. [ 잘 안보인다고 봐야죠])
OS지원도 우선은 서버 OS만 지원 된다라고 볼수 있습니다..
그 외 인피니밴드는 재대로 된 제조사가 1개 입니다..
어떤 프로그램이 돌아가느냐 어떤 서버를 사용하느냐 등등 여러 조건에 따라서 네트웍 I/O는 결정해야 하지 않을까 생각합니다..
https://www.youtube.com/watch?v=X4pz-e3MWzw
https://www.youtube.com/watch?v=RG9JUX2NHvw
어느 분 제품인지는 잘 아실 것입니다..
목표는 최소의 상면에 가성비 입니다.
IDC 안기고(IPMI API), IDC 돈 덜내고,장애나도 자동 입니다
멜라녹스등 회사 가 문제가 아닌, 6가지중의 효율성 입니다
IDC 서비스 목적이라면 전통적인 이더넷 1G /10G/25G/40G/100G 쪽으로 큰 가닥을 잡는게 좋다라고 봅니다..
Ethernet 방식이 가장 전송 효율이 떨어짐에도 가성비가 높은 건
기존의 인프라를 그대로 사용할 수 있다는 장점과 중복투자에 대한 부담이 없다라는 것입니다.
원래 표준이라는 것은 가장 좋은 것은 아니지만 가장 일반적으로 저렴한 것이 선택되어지는 것이죠.
단순하다는 것은 그만큼 관리의 효율이 좋다는 것이고 투자에 대한 부분도 부분이지만 관리에 대한 측면도 고려되니까요.
네트웍도 따로 분리하시는 것이 좋을 것 같습니다.
스토리지 - 서버는 광으로
서버 - 서버는 뭐로 해도 큰 차이 없슴 입니다.
스토리지 네트웍용 인피니밴드 40G , 데이터 네트웍은 SDN까지 고려했을 경우에 10G로 서로 분리하는게 제일 좋습니다.
관리 네트웍을 안만들면, 보안 이슈가 있을 것 같습니다.
서버간
서버-스토리지
관리목적 네트웍