레노버 TS-140을 기반으로 구성은 아래와 같습니다.
cpu : i3 4330
raid card : adaptec 5805
hdd : 180GB (SSD - 운영체제 설치용)
120GB (SSD - RDM 설정 테스트용)
3TB * 4 (RAID 5 - RDM 데이터 저장용)
180GB를 메인으로 ESXI를 설치하고 이 디스크에 윈도우 8.1과 우분투를 설치했습니다.
기존에 QNAP 나스를 우분투로 대체를 할 예정하고 레이드로 묶은 하드를 마운트 시킬 예정입니다.
vSphere에서 passthrough로 연결하려 했지만 해당 기능이 비활성화되어 있어서 포기하고 RDM으로
진행하기로 방향을 잡았습니다.
레이드 카드를 구하는데 시간이 좀 걸려서 테스트 차원에서 120기가 하드를 RDM 연결을 진행해봤고
이상없이 우분투에 마운트까지 성공을 했었습니다.
이번주 레이드 카드가 도착해서 RDM을 등록하려는데 난관에 부딪치고 있습니다.
GPT 파티션은 partedUtil을 이용하려 했지만 결국 윈도우에서 diskpart로 해결했습니다.
다음 과정인 vmkfstools로 RDM을 등록하려는데
호출한 명령어는
vmkfstools -z "/vmfs/devices/disks/vml.0000000000766d686261313a303a30:2" "/vmfs/volumes/datastore1/RDM/RAID.vmdk" -a lsilogic
이고 아래와 같은 오류가 나오고 있습니다.
Option --adaptertype is deprecated and hence will be ignored
Failed to create virtual disk: Operation not permitted (65545)
이틀간 짧은 영어로 열심히 구글링을 했는데 해결책은 못찾았네요.
1. 발번역으로 찾은게 2TB 이상의 하드를 RDM 연결하려면 passthrough 를 지원해야 한다는것 같은데 이게 맞는건가요??
2. 하드 디스크의 passthrough를 위해서는 꼭 vt-d를 지원하는 cpu로 교체가 필요한지도 문의 드립니다.
3. 그리고 하드를 RDM으로 연결하려는 이유는 운영체제를 설치한 디스크에 문제가 생겼을때 데이터를 저장하는 디스크에는
최대한 적은 영향을 받고 복원의 용이함을 위해서인데 제가 생각한게 맞는지도 문의드립니다.
고수님들의 많은 가르침 부탁드립니다.
긴 글 읽어주셔서 감사합니다.
"/vmfs/devices/disks/vml.0000000000766d686261313a303a30:2"
이부분이 잘못된거 같습니다.
일반적으로 RDM대상되는 디스크의 본체는 :2 같이 붙지가 않거든요..
:1 :2는 보통 파티셔닝되면서 생기는것 같고 :5 가 전체 용량 대상이더라고요
물론 RDM은 :숫자 가 붙지 않은 원래 디스크의 alias 로 해야합니다.
따라서..
vmkfstools -z "/vmfs/devices/disks/vml.0000000000766d686261313a303a30" "/vmfs/volumes/datastore1/RDM/RAID.vmdk" -a lsilogic
이렇게 해보셔야 할겁니다.
ls -lrth /vmfs/devices/disks/
하셔서 용량하고 비교해가며 보시면 눈에 확들어오실겁니다~ 해보시고 안되시면 다시 말씀주세요~
호출 결과는
Option --adaptertype is deprecated and hence will be ignored
Failed to create virtual disk: Invalid argument (1441801).
입니다.
혹시나하고 옵션값을 -z에서 -r로 바꿔봐도 역시나 안되고 메뉴얼을 봐도 해결책을 모르겠네요.
다시 한번 조언 부탁드립니다.
맛점하세요~
ls -lrth /vmfs/devices/disks/
ls -lrth /vmfs/volumes/datastore1/RDM/
두개 결과 한번 찍어주시겠어요?
total 18139230616
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343130303034575931323037474e2020494e54454c20:2 -> t10.ATA_____INTEL_SSDSC2BW120A4_____________________CVDA410004WY1207GN__:2
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343130303034575931323037474e2020494e54454c20:1 -> t10.ATA_____INTEL_SSDSC2BW120A4_____________________CVDA410004WY1207GN__:1
lrwxrwxrwx 1 root root 72 Mar 25 21:57 vml.010000000043564441343130303034575931323037474e2020494e54454c20 -> t10.ATA_____INTEL_SSDSC2BW120A4_____________________CVDA410004WY1207GN__
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:9 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:9
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:8 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:8
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:7 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:7
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:6 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:6
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:5 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:5
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:3 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:3
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:2 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:2
lrwxrwxrwx 1 root root 74 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20:1 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:1
lrwxrwxrwx 1 root root 72 Mar 25 21:57 vml.010000000043564441343032343032393431383032474e2020494e54454c20 -> t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__
lrwxrwxrwx 1 root root 21 Mar 25 21:57 vml.0000000000766d686261313a303a30:2 -> mpx.vmhba1:C0:T0:L0:2
lrwxrwxrwx 1 root root 21 Mar 25 21:57 vml.0000000000766d686261313a303a30:1 -> mpx.vmhba1:C0:T0:L0:1
lrwxrwxrwx 1 root root 19 Mar 25 21:57 vml.0000000000766d686261313a303a30 -> mpx.vmhba1:C0:T0:L0
-rw------- 1 root root 111.4G Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BW120A4_____________________CVDA410004WY1207GN__:2
-rw------- 1 root root 350.0M Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BW120A4_____________________CVDA410004WY1207GN__:1
-rw------- 1 root root 111.8G Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BW120A4_____________________CVDA410004WY1207GN__
-rw------- 1 root root 2.5G Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:9
-rw------- 1 root root 286.0M Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:8
-rw------- 1 root root 110.0M Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:7
-rw------- 1 root root 250.0M Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:6
-rw------- 1 root root 250.0M Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:5
-rw------- 1 root root 160.3G Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:3
-rw------- 1 root root 4.0G Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:2
-rw------- 1 root root 4.0M Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__:1
-rw------- 1 root root 167.7G Mar 25 21:57 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__
-rw------- 1 root root 8.2T Mar 25 21:57 mpx.vmhba1:C0:T0:L0:2
-rw------- 1 root root 128.0M Mar 25 21:57 mpx.vmhba1:C0:T0:L0:1
-rw------- 1 root root 8.2T Mar 25 21:57 mpx.vmhba1:C0:T0:L0
[
total 0
입니다.
신경써주셔서 감사합니다.^^
보통은 t10.ATA_____INTEL_SSDSC2BF180A4_____________________CVDA402402941802GN__ 처럼
대용량 디스크도 잡힌게 보여야는데..
ls 결과에는 vmhba1 의 정보로 해서 보이네요...레이드 카드에 따라 다른건가..
vsphere -> 구성 -> 스토리지어댑터 -> adaptec 5805 항목에서
세부정보에 ID 가 어떻게 보이는지 확인해보시겠어요?
혹시
vsphere -> 구성 -> 스토리지 추가 에서 일부라던지 전체를 스토리지로 추가해놓으신건 아니시죠?
스토리지 어댑터 내용은 아래와 같습니다.
이름 : Local Adaptec Disk (mpx.vmhba1:C0:T0:L0)
런타임 이름 : vmhba1:C0:T0:L0
작동 상태 : 마운트됨
LUN : 0
유형 : disk
드라이브 유형 : 비SSD
전송 : 병렬 SCSI
용량 : 8.17TB
소유자 : NMP
하드웨어 가속 : 지원되지 않음
감사합니다.
에러내용이 옵션관련이니.. 혹시 모르니
vmkfstools -z /vmfs/devices/disks/vml.0000000000766d686261313a303a30 /vmfs/volumes/datastore1/RDM/RAID.vmdk -a lsilogic
" " 빼고 한번 해보셨나요? 안하셨으면 한번..
말씀대로 빼고도 안되네요...
주말에 ESXI 설치부터 다시 해봐야겠네요.
최후에는 E3 cpu 하나 사서 패스쓰루를 시도하는......
계속 답변 달아주셔서 감사합니다~
혹가능하시면 쪽지로 연락바랍니다~
뭔가 호환성 문제 아닐까요?
최후에는 주말에 처음부터 차근 차근 해봐야겠네요.
답변 감사합니다. ^^
다음부턴 조금 돈을 더 쓰시더라도 hp나 dell 서버로 가시는게
마음이 더 편합니다.
조언 감사합니다.~~