½Ã³î·ÎÁö ³ª½º Çϵ带 ÄÄÇ»ÅÍ¿¡¼­ ±×´ë·Î Àо±â

   Á¶È¸ 3130   Ãßõ 0    

https://michaelheap.com/mount-synology-hdd-under-linux/ (4178)

사용중인 운영체제가 리눅스일때만 가능합니다.

소프트레이드기능 활성화된 커널 쓰는 리눅스 배포본 + 커널의 디스크 구성 설정제어하는 LVM툴과 레이드 기능을 제어하는 mdadm 툴 관련 패키지가 설치되어 있어야 합니다.

어지간한 배포판이라면 다 되겠지만 혹시 커널이 관련 기능이 없다면 옵션 추가해서 커널 컴파일하고, mdadm, LVM 도 패키지로 설치하거나 없다면 컴파일해서 설치하시면 됩니다.


읽을 때는 다음 순서대로 합니다.


1) USB 외장하드에 나스하드 달아서 컴퓨터 연결 (하드렉에 꽂아도 됩니다)


2) 하드 인식된 후 /dev/md127 있는지 확인해서 있다면 닫습니다.

 mdadm --stop /dev/md127


3) 나스 하드를 '하드 1개만 있는 가상의' 레이드로 활성화 시킵니다.

 mdadm --assemble --run /dev/md0 /dev/sdX5

* 시놀로지 나스 하드는 파티션이 1,2,5번 3개가 생기는데, 가장 큰 5번에 데이터가 저장되어 있습니다. sdX는 시스템에 따라 다르니 dmesg로 확인해서 쓰면 됩니다.


4) /dev/md0를 mount 시도해서 성공하면 그대로 읽고 쓰면 됩니다.

 만일 마운트 시도했는데 LVM2_Members 머시기 메시지 나온다면 레이드 안에 LVM이 설정되어 있는 것입니다.

 이때는 vgdisplay, lvdisplay로 확인하고 (VG이름은 보통 vg1000이고, LV이름은 /dev/(VG이름)/ 아래에 있습니다.)  /dev/md0 대신 LV이름으로 마운트하시면 됩니다.


하드 뺄 때는 다음과 같이 합니다.


1) 마운트한 파티션 언마운트.


2) LVM일 경우 나스하드의 LVM을 비활성화합니다. (LVM지우는게 아니라 해당 파티션을 LVM으로 쓰지 않도록 조치하는 것임.)

 lvchange -an /dev/(VG이름)/(LV이름)

vgchange -an /dev/(VG이름)


3) mdadm으로 활성화된 레이드를 끕니다. (디스크의 레이드 정보 날리는게 아닙니다. 커널이 해당 파티션을 레이드 장치로 인식하지 않고 일반 하드디스크로 인식하도록 바꾸는겁니다)

mdadm --stop /dev/md0


여기까지 하면 하드 전원 종료하고 뽑을 수 있습니다.

USB외장하드면 전원 끄고 하드 진동 멈추면 뽑으면 되고, 하드랙에 꽂았다면 dmesg로 하드의 scsi id 4자리 알아내서 다음과 같이 하시면 하드가 멈추는데 완전히 멈출때까지 기다렸다 빼면 됩니다.


echo "scsi remove-single-device X:X:X:X" > /proc/scsi/scsi



회사에 있는 시놀로지 나스 하드가 배드섹터 작렬해서 꺼낸 뒤에 테스트삼아 해 봤는데 잘 보입니다. (물론 데이터는 새 하드로 이전 복구했습니다)

나중에 파일 몇개 깨졌다는 말 나왔을 때 이런식으로 마운트해서 확인할 생각입니다.

Written by the Black Knight of Destruction
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
system32 2023-09
À©µµ¿ì¿¡¼­µµ ·¹À̵带 ±¸¼ºÇÏÁö ¾Ê¾Ò´Ù¸é ext2fsd·Î ÀνÄÀÌ °¡´ÉÇÕ´Ï´Ù
     
dateno1 2023-09
RAID ±¸¼ºÇسù¾îµµ ·¹ÀÌµå º¹±¸¿ë ¼ÒÇÁÆ®¶ó¸é µð½ºÅ© µ¿½Ã¿¡ ´Ù ºÙÀ̸é ÀÐÀ» ¼ö ÀÖ½À´Ï´Ù

ÀÌ¿Ü¿¡ RAID ±¸¼º ¾È µÈ°æ¿ì Linux ReaderÂÊÀ» ´õ ÃßõÇÕ´Ï´Ù (Ä¿³Î µå¶óÀ̹ö ¾È ±ò¸®´Ï ½Ã½ºÅÛ ÁöÁ®ºÐÇØÁöµµ ¾Ê°í (Æ÷ÅÍºíµµ °¡´É), ½ÉÁö¾î´Â °ü¸®ÀÚ ±ÇÇѵµ ÇÊ¿ä¾ø½À´Ï´Ù)
          
Èæ±â»ç 2023-09
¸ô¶ú´Âµ¥ À©µµ¿ì¿¡µµ ÅøÀÌ ÀÖ¾ú±º¿ä.
ȸ»ç ³ª½º´Â ÇÏÀ̺긮µåRAID¿¡ RAID1À̶ó ÇÑÂÊ Çϵ常 °¡Áö°íµµ Àß µÇ¾ú½À´Ï´Ù. RAID0¸é µÑ´Ù ²È¾Æ¾ß ÇÒ²¨°í.
´ä±Û ³»¿ë ºÁ¼­´Â ·¹À̵å±â´É È°¼ºÈ­ÇÏ¸é ¸®´ª½º ¼ÒÇÁÆ®·¹À̵尡 ¼³Á¤µÇ°í, SHR(ÇÏÀ̺긮µåRAID)ÀÌ È°¼ºÈ­µÇ¸é LVMÀÌ ¼³Á¤µÇ´Â°Å °°³×¿ä. ÀÌ°Ç »ç·Ê ¸ð¾ÆºÁ¾ß ÇÒ µí ÇÕ´Ï´Ù.
´Þ±¤ÀÌ 2023-09
zfs ¾²´ÂÁÙ ¾Ë¾Ò´Âµ¥ soft raid ¿´±º¿ä..
balbal 2023-10
Àú´Â ¾Æ¹«»ý°¢¾øÀÌ
ÇÏµå ¶¼¼­ ²ÅÀ¸¸é ÀÐÈúÁÙ ¾Ë¾Ò´Âµ¥
»ý°¢ÇØ º¸´Ï ¾Æ´Ï°Ú³×¿ä.


óÀ½À¸·Î (239,044)
Á¦¸ñ
2CPU : ÆǸŠ11-22   141   ¿Ã¿þ¾î
2CPU : ÆǸŠ11-22   126   ¿Ã¿þ¾î
2CPU : ÈÆÈÆ°æ¸Å 11-22   169   dotcat
2CPU : ÆǸŠ11-22   213   ÇÁ·£µå
2CPU : ÆǸŠ11-22   164   ÀϹÝÀ¯Àú
2CPU : ÀÚÀ¯°Ô½ÃÆÇ 11-22   274   Ææµà¾ó
2CPU : ÆǸŠ11-22   202   ÇÁ·£µå
2CPU : ÆǸŠ11-22   56   ÀϹÝÀ¯Àú
2CPU : ÆǸŠ11-22   123   ¯¯¸Ç
2CPU : ÆǸŠ11-22   131   Áö´ÏÄÄI¿µÁø
2CPU : ÆǸŠ11-22   85   Áö´ÏÄÄI¿µÁø
2CPU : ÆǸŠ11-22   65   Áö´ÏÄÄI¿µÁø
2CPU : ÆǸŠ11-22   183   ¿¥½Ã½ºÅÛ
2CPU : ÆǸŠ11-22   65   ¿¥½Ã½ºÅÛ
2CPU : ÆǸŠ11-22   73   ¿¥½Ã½ºÅÛ