[VMWare] esxi + RDM ¿¡¼­ Àǹ®Á¡ÀÌ ÀÖ½À´Ï´Ù.

   Á¶È¸ 8121   Ãßõ 0    

hp microserver gen8에 p410으로 하드 4개를 raid5로 구성하였습니다.

(* 하드 고장시에도 하드 교체를 위해 재부팅 이외에는 윈도7과 xpenology가 멈추지 않게 하기 위해 raid5를 구성했습니다. )

sd card에는 esxi 5.1을 설치 했구요.

그후 vclient로 두개의 가상머신을 설치하려 합니다.

하나는 xpenology 이고, 하나는 windows 7 입니다.

데이터스토어에 가상디스크로 xpenology를 구동했으나 파일 전송 속도가 10mb/s 정도밖에 안나와서 RDM을 구상하였습니다.

그런데 궁금한것이, 저는 raid5로 묶여 있기 때문에 rdm도 디스크 하나로 구성될것인데요, 

만약 xepnology에서 raid5 부분을 사용하게 된다면, 윈도7에서는 어떻 부분으로 저장하게 되느냐 하는것입니다.

즉, raid5로 묶인것을 하나의 디스크로 본다면, 파티션? 을 나눌수 있는가 하는것입니다.

현재는 1T*2 4T*2를 레이드5로 묶어서 사용가능공간이 3T 밖에는 없지만 추후 1T 디스크들을 4T로 바꿔서 용량을 늘릴 계획 입니다.

그렇다면, 디스크를 교체하여 총 용량이 증가되었을때 xpenology에서 사용 가능공간이 늘어나는지도 궁금합니다.


요약:
1) raid5 + esxi + xpenology에서 rdm 구성시 파티셔닝? 을 통해 xpenology에서 사용할 공간과 윈도에서 사용할 공간을 구분지어 할당할수 있는가?

2) 추후 raid의 용량 증가시 쉽게 가상 시스템들의 용량을 키울수 있는가? 입니다.


1번 질문은 어떻게 해야 되는지 감이 안옵니다...




ÀçÈ£ 2015-08
RDMÀº À̸§ ±×´ë·Î VM¿¡ (=Raw Device Mapping) µð¹ÙÀ̽º¸¦ ±×´ë·Î ¸ÊÇÎÇÕ´Ï´Ù.
ÇØ´çµÇ´Â VMÀÌ »ç¿ëÁßÀ̶ó¸é VMKernelÀ̳ª ´Ù¸¥ VMÀº ±× µð¹ÙÀ̽º¿¡ ÀÏÀý Á¢±ÙÇÒ ¼ö ¾ø°Ô µË´Ï´Ù.
¸¸¾à RAID5·Î µÈ ³í¸® º¼·ýÀ» Xpenology¿¡ ¸ÊÇÎÇÑ´Ù¸é Windows 7Àº ¾µ ¼ö ÀÖ´Â µð½ºÅ©°¡ ¾ø¾îÁö´Â °ÍÀÔ´Ï´Ù.

¸¸¾à Windows 7¿¡µµ RDMÀ¸·Î µð¹ÙÀ̽º¸¦ ¸ÊÇÎÇØÁÖ°í ½Í´Ù¸é RAID ³í¸® º¼·ýÀ» 2°³·Î ¸¸µé°í °¢°¢ÀÇ VM¿¡ ¸ÊÇÎÇØ¾ß ÇÒ °ÍÀÔ´Ï´Ù.
     
öÀÌ´Ô 2015-08
¾Æ ±ÛÄï¿ä...

Ȥ½Ã ¸»¹Ì¿¡ ¾²½Å ·¹ÀÌµå ³í¸®º¼·ýÀ» µÎ°³ ¸¸µé¾î¾ß ÇÑ´Ù¸é

ÃÖ¼Ò µð½ºÅ©°¡ 6°³´Â ÇÊ¿äÇÏ´Ù´Â ¸»¾¸À̽ÃÁÒ? (·¹À̵å5 ±¸¼ºÇϴµ¥ ÃÖ¼Ò 3°³ÀÇ µð½ºÅ©°¡ ÇÊ¿äÇϴϱî...)

¾Æ´Ï¸é 2°³ÀÇ ³í¸® º¼·ýÀ̶ó´Â°Ô µð½ºÅ© 4ÀåÀ¸·Î ±¸¼ºµÈ ·¹À̵å5¿¡¼­ ¸¸µé¼ö Àִ°ǰ¡¿ä...?
          
stone92 2015-08
³× µð½ºÅ© 4ÀåÀ¸·Î ±¸¼ºµÈ Raid5º¼·ýÀ» ³í¸®ÀûÀ¸·Î ¾ó¸¶µçÁö ¸¹ÀÌ ³ª´²¼­ »ç¿ëÇÒ ¼ö ÀÖ½À´Ï´Ù.
³ª´²Áø ³í¸® º¼·ýÀº OS¿¡¼­´Â  °¢°¢ ´ÜÀÏ µð½ºÅ©·Î ÀνÄÀÌ µË´Ï´Ù.
               
öÀÌ´Ô 2015-08
¾Ñ! ³í¸®º¼·ýÀº Á¦°¡ µü ¿øÇÏ´ø°ÍÀε¥ esxi¿¡¼­ ¸¸µå´Â ¹æ¹ýÁ» ¾Ë¼ö ÀÖÀ»±î¿ä?
                    
ÀçÈ£ 2015-08
³í¸® º¼·ýÀº RAIDÀÇ Æß¿þ¾î ¸Þ´º¿¡¼­ RAID Array¸¦ »ý¼ºÇÒ ¶§ ÁöÁ¤ÇÏ´Â °ÍÀÔ´Ï´Ù. ESXi¿¡¼­ »ý¼ºÇÏ´Â °ÍÀÌ ¾Æ´Õ´Ï´Ù.
Áö¿øÇÏ´Â ÃÖ´ë ³í¸® º¼·ýÀÇ °³¼ö¿¡ ´ëÇؼ­´Â RAID Ä«µåÀÇ ½ºÆå¿¡ µû¶ó Â÷ÀÌ°¡ ÀÖ½À´Ï´Ù. (¾Æ¿¹ Áö¿øµÇÁö ¾Ê´Â °æ¿ìµµ ÀÖ½À´Ï´Ù.)

´ç¿¬ÇÑ À̾߱âÀÌÁö¸¸ ±âÁ¸¿¡ »ý¼ºµÈ ³í¸® º¼·ýÀÇ Å©±â¸¦ Á¶Á¤Çϰųª ¿©·¯°³·Î ºÐ¸®ÇÒ·Á¸é ±âÁ¸ º¼·ýÀ» »èÁ¦ÇØ¾ß ÇÕ´Ï´Ù.
                         
öÀÌ´Ô 2015-08
¾Æ ACU¿¡¼­ ¸¸µå´Â°ÍÀ̾ú±º¿ä.

ÀÏ´Ü ·¹À̵å 5·Î ³õ°í, ³í¸® º¼·ýÀ» 2°³ ¸¸µé¾ú½À´Ï´Ù.

±×¸®°í ESXI Á¢¼ÓÇÏ´Ï µð½ºÅ©°¡ 2°³ º¸À̳׿ä. °¢°¢ µð½ºÅ©¿¡ µ¥ÀÌÅÍ ½ºÅä¾î¸¦ ¸¸µé°í

http://blog.klumblr.com/entry/ESXi-RDM

À§ ¸µÅ©¿¡ ³ª¿Â ¹æ¹ý¿¡ µû¶ó °¡»óÇϵå ÆÄÀÏÀ» ¸¸µé¾ú½À´Ï´Ù.

ÇÏÁö¸¸ SSH¿¡¼­

Failed to reopen virtual disk: Failed to lock the file (16392).

¶ó°í ³ª¿À°í ÆÄÀÏÀº »ý¼ºµÇÁö¸¸ °¡»ó¸Ó½ÅÀ» ½ÃÀÛÇÒ¼ö ¾ø´Â »óÅÂÀÔ´Ï´Ù.

ÇØ´ç µð½ºÅ© À§¿¡ µ¥ÀÌÅͽºÅä¾î¸¦ ¸¸µé°í ´Ù½Ã ±× µð½ºÅ©¸¦ ÂüÁ¶? ÇÏ°Ô Çؼ­ ¹®Á¦°¡ »ý±ä°Ç ¾Æ´Ñ°¡ »ý°¢ÁßÀä,

¸¸¾à ±×·¸´Ù¸é µ¥ÀÌÅͽºÅä¾î¿ë µð½ºÅ©°¡ Çϳª ´õ ÀÖ¾î¾ß ÇÑ´Ù´Â ¸»ÀÌ µÇ´Âµ¥..

µ¥ÀÌÅͽºÅä¾îÀÇ Å©±â¿¡ »ó°ü¾øÀÌ RDM ¿ë·®À» ´Ù »ç¿ëÇÒ¼ö ÀÖ´Ù¸é, µ¥ÀÌÅÍ ½ºÅä¾î¿ëÀ¸·Î ¾µ¼ö ÀÖ°Ô ÀÛÀº ³í¸®º¼·ýÀ» Çϳª ´õ ¸¸µé¸é µÇÁö ¾Ê³ª »ý°¢ÇÏ°í ÀÖ½À´Ï´Ù.

Á¦ »ý°¢ÀÌ ¸ÂÀ»±î¿ä? ±× ÀÛÀº ³í¸® º¼·ýÀÇ Å©±â´Â ¾ó¸¶³ª Àâ¾Æ¾ß ÇÒÁö¿ä..
öÀÌ´Ô 2015-08
ÇØ°áµÇ¾ú½À´Ï´Ù~~

µð½ºÅ© 4°³¸¦ ·¹À̵å5·Î Àâ°í ³í¸®º¼·ý 4°³ ¸¸µé¾ú½À´Ï´Ù.

Çϳª´Â ºÎÆÿë sd ´ë½ÅÀ̱¸¿ä, Çϳª´Â µ¥ÀÌÅͽºÅä¾î¿ëÀÌ°í ³ª¸ÓÁö µÎ°³´Â RDM¿ëÀÔ´Ï´Ù

rdm¿¡ xpenology¿Í À©µµ7À» »ç¿ëÇÒ ¿¹Á¤ÀÔ´Ï´Ù.

ºÎÆÃ¿ë º¼·ýÀº ACU¿¡¼­ ºÎÆà °ü·Ã üũ ÇÏ´Â°Ô À־ üũ Çß´õ´Ï ºÎÆà Àß µË´Ï´Ù

ºÎÆÿëÀº 8±â°¡, µ¥ÀÌÅͽºÅä¾î¿ëÀº 16±â°¡, ³ª¸ÓÁö´Â ÇÊ¿ä¿¡ µû¶ó Å©±â¸¦ Àâ¾Ò½À´Ï´Ù.

ÀÌÁ¦ ³²Àº°Ç, ÃßÈÄ ¿ë·®Å« Çϵå·Î ±³Ã¼½Ã È®ÀåµÈ Å©±â¿¡ ¸ÂÃç ³í¸®º¼·ý È®ÀåÇÏ´Â ¹æ¹ý°ú xpenology¿¡¼­ º¼·ý È®ÀåÇÏ´Â ¹æ¹ý¸¸ ã¾Æ³»¸é µÇ°Ú½À´Ï´Ù.

¸¹ÀÌ °¡¸£ÃÄ Áּż­ °¨»çÇÕ´Ï´Ù


Á¦¸ñPage 80/129
2015-12   1568720   ¹é¸Þ°¡
2014-05   5032341   Á¤ÀºÁØ1
07-04   8094   Á¤Ã¢Áø
2014-04   8096   ºü½Ã¿Â
2016-03   8108   ¼®½º
2016-08   8111   ³Ä¿ËÀÌ
2018-09   8112   Ä«Ä«µÎ
2016-04   8114   ¾Æ¸®¿¡³ªÀÌ
2018-10   8117   osthek83
2014-07   8119   Å×µ¹¾ÆÀÌ
2019-05   8121   o²¨º¡ÀÌo
2015-08   8122   öÀÌ´Ô
2016-08   8140   ¸¼Àº¿©¸§
2015-07   8140   Àá¸øÀÌ·é
2016-03   8143   ĵÀ§µå
2018-06   8150   ddeell
2015-09   8153   Àü¼³¼ÓÀǹ̡¦
2016-10   8154   ÄÄÃʺ¸¿¡¿ä
2017-03   8162   ±èÀçÈÆ1
2014-09   8163   ¼­¿ï»ç¶÷
2015-12   8171   öÀÌ´Ô
2018-07   8171   ŲÀö