Á¶±×¸¸ ¿µ»ó¾÷ü¿¡¼­ÀÇ °¡°Ý´ë¼º´Éºñ ÃÖ´ë ¼Ö·ç¼ÇÀº ¾îÂîÇؾߵɱî¿ä?

   Á¶È¸ 5079   Ãßõ 0    

조그만 영화VFX 회사에서 근무중이면서 어찌어찌 하드웨어 인프라도 책임지고 있는 1인입니다.

작은 회사라 엔지니어를 따로 둘수 있는 여건이 되질않아 제가 맡고는 있는데

저도 전문적인 지식이 없어서 ;;;;; 여러분들의 도움을 얻고자 합니다.

 

우선 저희 회사는  QNAP 659 pro+ 라는 6베이짜리 NAS에 

영상과 소스를 저장해놓고 네트워크드라이브로 파일을 땡겨서 직원들이 사용하고 있고

 최근 사람이 늘면서 한계가 조금씩 보이기 시작하고 있습니다.

 

현재구성

 

NAS : QNAP 659 PRO + 6베이 3테라하드 레이드5 세팅  

스위칭허브 : 3Com Baseline Switch 2928-SFP Plus

 

NAS와 허브는 포트트렁킹으로 랜선 두개가 밸런스RR 옵션으로 연결중.  CAT6  기가망 세팅

 

 

환 경

 

* 하나의 프로젝트 한달작업에 1~2테라 정도의 영상을 서버로 꾸준히 저장함.

 

* 프로젝트 종료후 포트폴리오가 될만한 컷 이외에는 용량을 많이 차지하는 데이터는 대부분 삭제.

 

* 각 개인은 모든 영상파일과 소스를 NAS에 두고 땡겨서 사용하며 작업중에 계속적인 트래픽이  발생함

 

* 렌더팜 부제로 납품이 가까워져서 모두가 렌더링을 걸때면 서버에 상당한 부하 발생

   NAS에서 영상과 소스를 읽고 로컬 cpu로 렌더링해서 NAS로 저장됨.

 

* 추후 영상 렌더링을 위한 렌더팜과 서버를 구입하겠지만 단기예산에 잡혀있지 않음.

  구입하더라도 조금씩 추가 확장하는 방식이 될것으로 판단.

 

* CG작업자이면서 하드웨어인프라를 책임지고 있기때문에 전문지식과 시간할애가 어려움

  매뉴얼적인 서버세팅은 힘듬.

 

평상시 작업중 초당 20~60메가정도의 전체 트래픽 발생

막판에 모두 렌더링시 개인별 20~40메가 초당 트래픽 발생 이때는 버벅임이 심해서

로컬로 파일을 땡겨서 작업하는 경우가 생김

인원은 5명~6명에서 당분간 늘지 않을듯.

 

==============================================================================

 

 

렌더팜구축으로 로컬 컴퓨터와 파일서버간의 네트워크 부하를 줄이고

대역폭을 확보하는것이 적절해 보입니다만 예산문제로 단시일내에는 힘들것 같고

 

현재 제가 생각중인건

 

추가 확장 랜카드로 10G 듀얼 포트랜카드를 꼽을수 있는  qnap 상위버젼을 사서 허브를 연결시키는 방법을 고민하고

하고 있습니다. 이베이로 사면 이방법이 그나마 좀 싸게 먹히는것 같긴하더라고요

 

암튼 제머리에서 나올수 있는 한계가 여기까지라서 여러분의 많은 조언 부탁드립니다.

ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú¹®Çü 2012-08
http://www.synology.co.kr/

¿©±â ÀüÈ­ Çϼż­ ±â¼ú »ó´ã ¹Þ¾Æº¸¼¼¿ä.


http://www.acrofan.com/ko-kr/commerce/content/20120420/0001030201

2012³â Çà»ç
¿À~ ÀÌ È¸»ç Á¦Ç°µµ ÁÁ³×¿ä °¨»çÇÕ´Ï´Ù. ^^
1. ¿¹»ê¹®Á¦¿Í ±â¼úÁö¿øÀº »ó¹ÝµÇ¾î ¹ö¸±µíÇÕ´Ï´Ù.

2. ÆÄÀϼ­¹ö ±¸¼º½Ã 4U »þ½Ã¿¡ ±¸¼ºÇϼż­ ¸ÞÀÎ ½ºÀ§Ä¡°£ÀÇ Àü¼Û´ë¿ªÆøÀ» ÃÖ´ë·Î ±¸¼ºÇØÁֽô °ÍÀÌ ÁÁÀ»µíÇÕ´Ï´Ù. 10G´Â ¾Æ¹«·¡µµ µµÀÔºñ¿ëÀÌ ³ôÀ¸´Ï±î¿ä. Äõµå·£ 2°³·Î 8Gbps ´ë¿ªÀ» LACP·Î ±¸¼ºÇϼż­ ½ºÀ§Ä¡¿Í Æ÷ƮƮ··Å·À» 8Æ÷Æ®·Î ¹­¾îÁֽðí¿ä. °¢ PC¿¡ µà¾ó·£(Äõµå·£Àº ºñ¿ë°ú ȣȯ¼ºÀÌ ¹®Á¦µÉµí) ¼³Ä¡ÇÏ½Ã¸é µÉµíÇÕ´Ï´Ù.

3. µð½ºÅ©±¸¼ºÀº ÀúÀå°ú ÀÛ¾÷¿ëÀ¸·Î ºÐ¸®ÇϼžßÇÒµíÇÕ´Ï´Ù. ÀúÀå¿ëÀº ±âÁ¸ NAS¸¦ ÀÌ¿ëÇÏ°í, ÀÛ¾÷¿ëÀº SSD 256GB * 8 (RAID10) - 1TB¸¦ ±¸¼ºÇÑ°ÍÀÔ´Ï´Ù - Á¤µµ´Â ±¸¼ºÇϼž߰ٳ׿ä. 

4. °¡´ÉÇÏ´Ù¸é ÆÄÀϼ­¹ö¿¡ ISCSI¸¦ ÀÌ¿ëÇÏ¿© ±¸¼ºÇÏ½Ã¸é °¡°Ý´ëºñ È¿°ú°¡ °¡Àå ÁÁÀ»µíÇÕ´Ï´Ù.

5. À§¿¡ ¸»ÇÑ ³»¿ëÀ» Àü¹ÝÀûÀ¸·Î BMTÇÏ°í, Æ®·¯ºí½´ÆÃÇÒ ÀοøÀÌ °ü°ÇÀ̱ä ÇÏÁö¸¸, °¡Àå Àú·ÅÇÑ ¹æ¹ýÀÌ ¾Æ´Ò±î ½Í½À´Ï´Ù.
¹Ú¹®Çü 2012-08
Á¶¸³ ¼­¹öµîÀ¸·Î ¸¸µé¸é ÀÏÀÏÈ÷ ´Ù Å×½ºÆ® ÇÏ°í ½Ã°£À» ¸¹ÀÌ »¯±é´Ï´Ù.
´ã´çÇϽô ºÐÀº ±×·± ¿©À¯´Â ¾øÀ¸½Å °ÍÀ¸·Î º¸ÀÔ´Ï´Ù.
µû¶ó¼­ ¾÷ü¸¦ Ãßõ(?)ÇØ µå¸° °ÍÀÔ´Ï´Ù.
¸¸ÀÏ ½Ã³î·¯Áö¸¦ ±¸ÀÔÇÏ°í ȸ»ç µî·ÏÀ» ÇϽøé ÀÌ·¡Àú·¡ ²ÙÁØÇÑ ±â¼ú Áö¿øÀ» ¹ÞÀ¸½Ç ¼ö ÀÖÀ¸½Ç °ÍÀÔ´Ï´Ù.
´Ù¸¥ ¾÷ü¸¦ ¼±ÅÃÇÏ´õ¶óµµ
°ßÀû¹× ±â¼ú »ó´ãÀº ²À ¹Þ¾Æº¸¼¼¿ä.


QnA
Á¦¸ñPage 3608/5693
2015-12   1556485   ¹é¸Þ°¡
2014-05   5021146   Á¤ÀºÁØ1
2022-12   1934   pumkin
2015-07   3772   ±è¿µ±â´ëÀü
2020-01   2421   ±ô¹Ú±ô¹Ú°¡
2012-02   5340   ¹Ì¼ö¸Ç
2014-03   17995   ¹Ú»ó¹ü
2015-07   3521   ½½·çÇÁ
2016-08   4758   ¾Ç¸¶¶ó³×
2017-08   8773   ÀÓµÎȯ
2022-12   3373   Å°¸£È÷È£ÇÁ
2014-03   4536   ±èµ¿¹Î
2015-07   3550   DOSS
2016-08   4357   ¹Ú
2020-01   3642   ÄÉÀÌÇÁÅõÀÚ¡¦
2016-08   6138   Áö¼ö»ïÃÌ
2021-05   4121   ±è¹Î¼ö2
2016-08   3611   ±è°­È£
09-06   896   ¸ðÀÚ¶õÆ®
2012-03   5023   ¹Ì¼ö¸Ç
2021-05   2063   ¿¥ºê¸®¿À
2012-03   5224   °û¼øÇö