³×Æ®¿öÅ© ±¸¼º°ú »ç¹«½Ç ÀÓ´ë °ü·Ã Áú¹®ÀÔ´Ï´Ù.

EPKO   
   Á¶È¸ 4335   Ãßõ 0    

올 말부터 프로젝트에 뛰어들게 되어서 무지한 부분에 대한 절실한 도움이 필요하여 질문을 띄웁니다.

클라우드 솔루션을 준비하고 있는데, 네트워크 구성 구간에 몇 가지 궁금한 점이 있습니다.


목적은 대용량, 다량의 파일 입출력을 요하는 작업이 주가 되겠습니다.


우선, 서버를 구입하여 하이퍼바이저로 돌리는 구조로 구성을 하고 있는데, 물리적으로 분산이 필요한 구간을 명확하게 판단을 못하고 있는게 1차 문제입니다.


구성은 Web 서버 1, 2 / WAS 1, 2 / DB(MongoDB Sharding 총 노드 수 7~10) / 스토리지 구간

이렇게 나누어져 있습니다.


고가용성을 생각한다면 제가 배운 내용으로는 Web과 WAS는 분산이 물리적으로 이루어져야하는데 여건상 그게 쉽지가 않습니다.

처리 용량만 놓고봐도 WAS는 분리되는게 맞는데, JBOSS Enterprise 라이센스를 구매할 여력이 되지않아 튜닝을 통해 사용하려고 합니다.

이 경우에 물리적인 분산이 이루어지면 여건상 Web 1, WAS 1 / Web 2, WAS 2 이런 식으로 올라갈텐데 Jmeter로 테스트해보면 여력은 되는데

문제가 되지 않는지 이게 중요한 상황입니다.


Web, WAS 모두 JBOSS를 사용한 서비스를 생각 중 입니다.


두번째로 DB 구간입니다.

MongoDB Sharding을 통해서 Mongos, Config 1,2,3, Shard Primary, Secondary, Arbitor 총 7대 

추가 사항은 Config를 제외한 Mongos, Shard Primary, Secondary, Arbitor 총 4대가 들어가는데 

실무운용은 어떤식으로 이루어지는지 자료가 전혀없어서 어떤 방식으로 서비스를 해야하는지 의문입니다.

하이퍼바이저를 통해서 Mongos 이하 한 셋트의 샤드 구역을 전부 밀어넣고 분산하는게 맞는지 다른 방법을 쓰는지 궁금합니다.


세번째로 스토리지 구간입니다.

이쪽은 완전히 문외한이라서 스토리지 구성을 현재는 GlusterFS를 통한 다수의 노드를 클러스터링해서 활용 중 인데 실질적으로 물리적으로

여건이 되는 서버를 구매하는 경우, iscsi 등을 이용하는게 맞는지 궁금합니다.

지나가는 글로 보니 1G만 지원되도 충분할 것 같다는 이야기를 본거 같은데 이 내용이 어떤걸 이야기하는지도 궁금합니다.

10G라는 좋은 장비가 있는데, 왜 1G를 굳이 이야기하는건지 자본이 문제인지 등의 여부가 궁금합니다.


네번째로 사무실 임대 관련입니다.

추후에는 AWS나 KT ucloud로 들어갈 생각이지만, 초기에는 직접 구성을 통하여 FF와 CBT를 진행하려합니다.

그런 부분에 있어서 사무실 임대가 필요한데, 서울 관내와 수도권 지역에서 이런 사무실로 임대가 좋은 지역을 추천 받고 싶습니다.

달리는, 전기나 이런 부분은 어떻게 처리를 해야하는지도 궁금합니다. 일반적으로 쓰는 전기는 누진세가 어마어마할거같은데

다른 방법이 없는지 관련 사항을 알 수 있었으면 좋겠습니다.


좀 더 검색해보면 찾을 수 있는 내용도 많은거같아서 장문의 글이 죄송합니다만, 네트워크 계열의 선배님들의 조언이 절실해서 이런글을 띄워봅니다.

많은 도움 부탁드립니다.

EPKO
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú¹®Çü 2016-10
»õ°ÍÀ¸·Î ³×Æ®¿öÅ©¸¦ ²Ù¹Ð¶§ ´ë·«ÀûÀ¸·Î

1G  48Æ÷Æ® Çãºê 1´ë    70-100¸¸¿ø Á¤µµ
1G ½Ì±ÛÆ÷Æ® ·£Ä«µå  1-5¸¸¿ø Á¤µµ

10G 48Æ÷Æ® Çãºê 1´ë    1000¸¸¿ø-2000¸¸¿ø »çÀÌ
10G ½Ì±ÛÆ÷Æ® ·£Ä«µå  90-120¸¸¿ø »çÀÌ

¸ðµç°Ô ±×·¸Áö¸¸ ÅõÀÚ °³³äÀÌ µé¾î°¡¸é ¹«Á¶°Ç µ· ¹®Á¦ÀÔ´Ï´Ù..
     
RevoEPKO 2016-10
ÄÀ.. Àå³­ÀÌ ¾Æ´Ï³×¿ä.. ±¦È÷ 10¹è°¡ ¾Æ´Ï³×¿ä. °¡°ÝÀº 10¹è¸¦ ´õÇϴ°Š°°Àºµ¥...
SPF+´Â Ä¿³ØÅ͵µ ´Ü°¡°¡ ²Ï ¼¾°Å·Î ¾Ë°íÀִµ¥.. ±º´ëÀÖÀ»¶§ ³²´Â°Å Á» ²¿ºÒÃijª¿Ã°É ±×·¨±º¿ä -_- ÇÏÇÏÇÏ;;
          
¹Ú¹®Çü 2016-10
SPF+ 10G±¤¸ðµâÀº ¾ÆÁ÷ ÇÑ ´Ü°¡ ÇÏ°í¿ä..

±¤ÄÉÀ̺íÀº ¸¹ÀÌ ÂïÀ¸¸é °¡°ÝÀÌ ¾öû ½ÎÁý´Ï´Ù..

±×¸®°í ÀÏ¹Ý PC¿¡¼­´Â CPU ºÎÇÏÀ²ÀÌ Å©±â¿¡ Àß ¾Èµ¹¾Æ°¡´Â °æ¿ìµµ ÀÖ½À´Ï´Ù..
               
RevoEPKO 2016-10
°¨»çÇÕ´Ï´Ù! Á¶¾ð ÁֽŠºÎºÐÀÌ Á÷¼³ÀûÀÎÁö¶ó ³Ê¹« µµ¿òÀÌ ‰ç½À´Ï´Ù. ÁÁÀº ÇÏ·çµÇ¼¼¿ä!
DDAYs 2016-10
Çѹø¿¡ Å«ÆÄÀÏÀ» ³Ñ±â´Â°Ô ¾Æ´Ï°í °Å¸®°¡ ¸ÖÁö ¾Ê°í ´ÙÁß »ç¿ëÀÚ¸¦ À§ÇѰŶó¸é ºñ½Î°Ô 10g·Î °¡±â º¸´Ù´Â lcap·Î ±â°¡ºñÆ®·Î 4°¡´ÚÀ̳ª 8°¡´Ú ¹­´Â°Ô Àú·ÅÇÒ°Å °°¾Æ¿ä..
     
RevoEPKO 2016-10
°¡´ÆÇϰǵ¥, ÇÑ°Ç ´ç 40Gb ÀÌ»óÀÇ ÆÄÀÏÀ» ºÐÇÒ ¼Û½ÅÇÏ¿©µµ, ±× ´ÜÀ§°¡ ²Ï Ŭ °Í °°³×¿ä..
ȸ¿øK 2016-10
»ó¾÷¿ë Àü±â°¡ °¡´ÉÇÑ »ç¹«½ÇÀ» ¾òÀ¸¸é Àú·ÅÇÏ°Ô »ç¿ëÀÌ °¡´ÉÇØ¿ä.
Á¶±Ý ¿ÜÁø µ¿³×ÀÇ 2ÃþÀ̳ª 1ÃþÀÇ °æ¿ì ÀÓ´ë·á°¡ Àú·Å ÇÕ´Ï´Ù.

°¡Àå ÁÁÀº °ÍÀº ¼­¿ï½Ã µîÀÇ Ã¢¾÷¼¾Å͸¦ ¾²´Â °Í ÀÔ´Ï´Ù.
³»ºÎ¿¡ ÀÛÀº ±â°è½ÇµéÀÌ À־ Àü±â·á/ÀÓ´ë·á °ÆÁ¤¾øÀÌ ¾µ ¼ö ÀÖ½À´Ï´Ù.

iSCSI³ª ¹¹³ª ¾È½áµµ µË´Ï´Ù.
´Ü±â°£¿¡ ±×Á¤µµ ºÎÇϸ¦ ÁÖ°Ô µÇ´Â °æ¿ì´Â ¾ø±â ¶§¹®ÀÌ°í
±×·± ºÎÇÏ°¡ »ý±â¸é ´ë¹ÚÀ̱⠶§¹®¿¡... ±×¶§´Â Á¦´ë·Î À籸¼ºÀ» ÇØ¾ß ÇØ¿ä.

ÀÎÅÍ³Ý »ç¾÷Àº Ãʱ⿡ ¿Ïº®ÇÏ°Ô ±¸¼º ¾ÈÇÕ´Ï´Ù.
´ëÃæ ±¸¼ºÇÏ°í »óȲº¸¸é¼­ ´Ã¸®´Â °Í ÀÔ´Ï´Ù.
     
RevoEPKO 2016-10
â¾÷¼¾ÅÍ ÀÔÁÖ Á¶°ÇÀ» °®Ãß´Â°Ô ¿ì¼±ÀÌ°Ú±º¿ä.

Á¶¾ð °¨»çÇÕ´Ï´Ù.
¹Ú¹®Çü 2016-10
Å« IDC °Ç¹° ¾È¿¡ º¸½Ã¸é ÀÛÀº È£½ºÆÃȸ»çµéÀÌ ±× °Ç¹° ¾È¿¡ ÀÔÁֵǾî ÀÖ´Â °ÍÀ» º¸½Ç ¼ö ÀÖÀ»ÅÙµ¥

±×·±½ÄÀ¸·Î ÀÔÁÖ°¡ °¡´ÉÇÑÁö ¾Ë¾Æº¸¼¼¿ä. ±×·¸°Ô µÇ¸é ³×Æ®¿÷ ¹®Á¦³ª Àü±â ¹®Á¦°¡ »ó´çÈ÷ ÁÙ¾îµì´Ï´Ù..
     
RevoEPKO 2016-10
Á¶¾ð °¨»çÇÕ´Ï´Ù. ȸ¿øK´Ô Á¶¾ð°ú ´õºÒ¾î ¿©·¯°¡Áö¸¦ »ý°¢ÇÏ°Ô µµ¿òÁֽô ºÐµéÀÌ ¸¹ÀÌ °è¼Å¼­ ÁÁ³×¿ä...


QnA
Á¦¸ñPage 2163/5686
2014-05   4981495   Á¤ÀºÁØ1
2015-12   1517563   ¹é¸Þ°¡
2016-02   4336   õ»óõÇÏ
2007-02   4336   ÀÌÁö¾ð
2015-03   4336   ºê¶ó´õâ
2015-05   4336   ¹èÁؼ®
2021-11   4336   ȣȣ
2015-12   4336   ǪÇÏÈ÷
2007-05   4336   ¸í¼ºÈ£
2016-01   4336   KDHNOVA
2018-03   4336   ¸á¶û²Ã¸µ
2018-07   4337   ±è°Ç¿ì
2007-01   4337   ±è¸í¼º
2006-10   4337   Á¤ÇÑ°æ
2014-11   4337   õ¿Üõoo³ë¡¦
2014-09   4337   õ¿Üõoo³ë¡¦
2016-01   4337   ¿¥ºê¸®¿À
2016-09   4337   ±è°­È£
2017-01   4337   LINKINPARK
2014-02   4337   ¾öû³­x
2018-01   4337   ÇູÇϼ¼
2017-01   4337   Àü¼³¼ÓÀǹ̡¦