[VMWare] 호스트 3대와 iscsi 스토리지 연결중에 vSwitch 구성 관련 문의 드립니다.

   조회 29161   추천 0    

 안녕하세요 문특 기존에 업체에서 VM 구성한 부분에서 의구심이 들어서 구성을 변경해 볼까 합니다.

현재 호스트3대와 MD3200i 스토리지와 iscsi 로 연결 되어 있습니다.

여기서 스토리지야 L2 스위치에 각 포트별로 연결하면 되는거고....호스트에서 vSwitch 당 물리NIC 할당하고 VMK 지정 후 ip 할당하여 연결 해놨습니다.

현재구성에서 변경할 구성으로 구성을 해도 티밍처럼 동작하지 않을까요?? 페일백 활성화 하고 둘다 Active로 구성하면 두개의 구성 차이가 없지 않을까 싶은데 어떨까요? 업체에서 저렇게 구성한 이유가 있을까요??

아참 그리고. 호스트에서 포트를 2개를 써서 운영하고 있는데 여기서 스토리지와 동일하게 2포트 추가로 총 4포트 운영시에 성능적으로 크게 차이가 날까요?


배워보자 it
흥마 2023-06
기본적으로 둘다 구성이 가능 하며, Teaming 설정 방법과 Subnet이 단일이냐 복수냐에 따라서 세부 설정만 다르게 하면 됩니다.
https://docs.vmware.com/kr/VMware-vSphere/7.0/com.vmware.vsphere.storage.doc/GUID-4C19E34E-764C-4069-9D9F-D0F779F2A96C.html
에 문서를 참고 하시면 여러 예시로 구성 방법에 대해서 잘 나와있으니 참고 하시면 됩니다.

추가 케이블 포설로 Bandwidth을 추가가 당연히 효과가 있지만, 그에 필요한 조건은 과연 스토리지 디스크 속도가 그 만큼이 나오냐 입니다.
디스크 속도가 그 정도 안 나오면 추가 안 하시는게 Overhead 측면에서 좋습니다.

주의 사항:
- 단일 Subnet인 경우에는 Port binding 활성화, 복수 Subnet 인경우에는 Port Binding 비 권장.
- Multi-Path로 동작 하기 때문에 Failover 사용 금지(현재 테스트 구성 기준에서는 Teaming을 Active-Unused, Unused-Active 로 설정)
- ESXi에서 기본으로 Round-Robin 설정이 안 되어 있기 때문에 별도 설정 필요. (Volume Path에서 (I/O)가 정상적으로 표시 되어 있는지 확인 필수)
     
전산직딩 2023-06
주의사항에서 하단의 라운드로빈의 경우 설정을 해놓았습니다. 기존부터 되어 있었구요.
멀티패스로 동작한다는 말씀이 현재구성에서는 페일로버를 구성을 하면 안된다는건지요??

만약에 단순히 ESXI에서 하나의 스위치를 아래와 같이 설정하면 분산시스템???(메뉴얼에서)에 의해 2port로 VM이 분배되어 통신한다고 적혀있는데 이때는 페일백 설정으 아니오로 해야될까요?
기본적으로 페일백은 예로 설정 되어 있습니다.
          
흥마 2023-06
iSCSI는 물리 NIC 1개에는 1개의 IP만 사용 되어야 합니다. 그래서 Failover을 하면 안 됩니다.
기존 구성은 vSwitch에 하나의 pNIC만 있기 때문에 Failover 대상이 없지만,
테스트 구성에서는 Failover을 하면 안 되기 때문에 vPG의 Teaming 정책에서 A/U, U/A 구성을 해서 Failover을 방지 해야 합니다.


제목Page 9/130
2015-12   1746748   백메가
2014-05   5217209   정은준1
2023-06   8092   archetype
2023-06   13410   osthek83
2023-06   14833   회상2
2023-06   23111   osthek83
2023-06   24432   osthek83
2023-06   25085   포병
2023-05   29162   전산직딩
2023-05   25300   sdlfkjwer
2023-05   22853   개발자는개…
2023-05   18072   방랑자7
2023-05   19554   흐으음
2023-05   20911   RHNS
2023-05   19485   서버같은인생
2023-05   17661   포병
2023-05   20573   김현린
2023-05   15942   winner712
2023-05   15742   전산직딩
2023-05   11279   폴리76
2023-05   10539   송주환
2023-05   15994   호야리1