I/O ȤÀº ³×Æ®¿öÅ© »ç¿ë·® ÃøÁ¤ ¹æ¹ý

   Á¶È¸ 1944   Ãßõ 0    

쪽팔리면 질문하지 맙시다. 소중한 답변 댓글을 삭제하는건 부끄러운 일 입니다 


안녕하세요. 감기가 유행입니다. 모두들 조심하시기 바랍니다.


내용을 요약해서 쓰려고 했는데 잘 안 되서, 그냥 포기하고 길게 씁니다.

현재, 사내망 중 서버 사용 환경이 

저장장치 -- 10Gbit L3 * 2 --+- 연산서버 1, 2, 3, ... 

                                +- 인증서버, 기타등등

와 같습니다. 

문제는, 저장장치를 프로젝트 진행할때마다 늘려놨더니, 초기에는 문제가 되지 않았던 I / O 쪽 이야기가 나왔습니다. 

저장장치쪽이 느려서 연산 결과가 늦게 나온다는 거죠.


이래저래 대처 방법에 대한 이야기가 나왔는데, 그 중 하나가 저장장치를 Controller 포함 구매 하는 겁니다.


현재 저장장치는 Dell Unity XT 를 사용중입니다. 

이 장비의 구성은, 크게 Controller + Enclosure 로 구성됩니다. 

controller 는 2.5인치 SAS SSD(혹은HDD) 의 I/O를 담당하고, 

Enclosure 는 저장장치 용량을 늘리기 위한 케이스 역할을 합니다.

즉, 초기에 controller 만 사용하다가, 추가가 필요하면 Enclosure + HDD(SSD)를 추가해서 용량을 늘리는거죠.

회의에서는, 

I/O 가 몰리는 거 같으니, Enclosure 만 사지 말고 Controller 도 같이 사자. 그래야 I/O 병목이 해소된다. 

라는 이야기가 나왔습니다.


그런데, 내용을 정리하다 보니 아래와 같은 의문이 들더라고요.


1. L3 는 안 사도 되나?

트래픽이 몰리는 = 느려지는 곳 원인은 , 현재 분석으로는 DISK I/O 로 보입니다. 그래서 대책도 "저장장치용 IO Controller 를 하나 더 사자" 라는 대응인데. 그와 별개로 동일 L3 에 저장장치도 늘어나고, 연산서버도 늘어나면 트래픽이 늘어날 건데... 늘어난 트래픽을 감당하기 위해서 L3를 더 안 사도 되나?

라는 생각이 듭니다. 


2. 현재의 병목 현상을 측정할 수 있는 방법이 없을까?

I/O 에 병목현상이 생긴다는 건 프로그램 실행 시 발생하는 값들을 보고 추정한 겁니다.

그런데 그와 별개로 Network , IO 등을 따로 "편하게" 측정할 수 있는 방법이 있을까요?

현재 사용중인 서버는 DELL 인데, DELL 의 IDRAC 에는  IO 혹은 네트워크 트래픽을 그래프로 볼 수 있습니다.

그런데...뭔가 불편해요. console 로 값들을 확인할 수 있으면 좀 더 낫겟다는 생각도 들고.


3. 트래픽을 잴 수 있는 일반적인 솔루션?

근본적으로 , 보통 시스템에서 IO 와 NETWORK 쪽 부하를 볼 때 어떻게 보나요?


이상입니다. 모두들 즐거운 하루 되시기 바랍니다. 감사합니다. 

행복은 희생없이는 얻을 수 없는 것인가. 시대는 불행없이는 넘을 수 없는 것인가.
ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¼úÀÌ 2023-11
¸®¼Ò½º ºÐ¼®À» ¸ÕÀú ÇؾßÁö ±×³É IO º´º¹Çö»ó »ý±ä´Ù°í Çϸé ÀÌ°Ô ³×Æ®¿öÅ©´Ü º´¸ñÀÎÁö ½ºÅ丮Áö ±¸°£ º´¸ñÀÎÁö ½ÇÁ¦ µð½ºÅ© º´¸ñÀÎÁö ¸»¸¸ µé¾î¼± °á·ÐÀ» ³»¸±¼ö ¾ø½À´Ï´Ù. ÀÌ·±ºÎºÐ ¾î¼³ÇÁ°Ô ÀÌ°Ô ¹®Á¦ÀÏ°Å´Ù¶ó°í ÁøÇàÇϸé ÀüºÎ´Ù ½Ï ±³Ã¼ÇÏ¸é µ·Àº µ·µ¥·Î ³¯¸®´Â °á°ú¸¦ ÃÊ·¡ÇÒ¼ö ÀÖ½À´Ï´Ù.
     
sbg2005 2023-11
++

10GbitÀ̸é 1.25GBpsÀε¥, ·¹À̵带 ¾î¶»°Ô ±¸¼ºÇϼÌÀ»Áø ¸ð¸£Áö¸¸ ³×Æ®¿öÅ©´Ü¿¡¼­ º´¸ñ °É¸®´Â°Íµµ ¹èÁ¦ ¸ø ÇÕ´Ï´Ù.

SATA SSD 3°³¸¸ ·¹À̵å0À¸·Î ¹°·Áµµ ½ÃÄö¼È ½ºÇǵå´Â 10gbe·Î´Â °¨´ç ¸ø ÇÕ´Ï´Ù.

¶Ç´Â ´ë·®ÀÇ ÀÚÀßÇÑ ÆÄÀÏÀÌ ÁÖ·Î ¿À°¡´Â ±¸Á¶¶ó¸é ´Ü¼ø ÀÌ´õ³ÝÀ» ÅëÇÑ Åë½ÅÀº ¿À¹öÇìµå°¡ »ó´çÇÕ´Ï´Ù.
¹Ú¹®Çü 2023-11
+100

 Dell Unity XT °Ë»öÇغ¸´Ï ¿©·¯°¡Áö ¸ðµ¨ÀÌ Á¸ÀçÇϳ׿ä..

¾î¶² ¸ðµ¨À» »ç¿ëÇÏ´ÂÁö ±×¸®°í ³×Æ®¿öÅ©¿¡ ¾î¶² ¼Óµµ·Î ¸îÆ÷Æ®°¡ ¾î¶»°Ô ¼ÂÆõǾî ÀÖ´ÂÁö ¾î¶² ½ºÀ§Ä¡¸¦ »ç¿ëÇÏ´ÂÁö Á¤µµÀÇ ½ºÆåÀº

ÀÖ¾î¾ß ÇÒ µíÇÕ´Ï´Ù..


¾î¶² ÇÁ·Î±×·¥(¼­¹ö°¡)ÀÌ ¾î¶»°Ô ºÎÇϸ¦ ÁÖ´ÂÁö´Â ¸ð¸£Áö¸¸ Àº±ÙÈ÷ ¿äÁòÀº 40G ½ºÀ§Ä¡³ª 100G ½ºÀ§Ä¡µµ »ç¿ëÇÕ´Ï´Ù..

ƯÈ÷³ª µö·¯´× °°Àº °Í µé¾î°¡ ¹ö¸®¸é 100G ±îÁö °¡¹ö¸®´Â µíÇÕ´Ï´Ù..
LSoap 2023-11
2.3 À©µµ¿ì¶ó¸é ¼º´É ¸ð´ÏÅÍ·Î ºñ¿ë¾øÀÌ ¸ð´ÏÅ͸µ °°´ÉÇÕ´Ï´Ù.
µð½ºÅ©¶ó¸é queue length, latency, iops, disk i/o
³×Æ®¿öÅ©¶ó¸é Bytes Send, Total µîµî...
º´¸ñÀÌ ¾îµðÀÎÁö È®ÀÎÇϽ÷Á¸é cpu, memory, disk, network ¸ðµÎ baseline ¿¡¼­ ¹þ¾î³ª´Â ³ðÀ» ãÀ¸½Ã¸é µË´Ï´Ù.

Æ®·¡ÇÈÀ» º¸½Ã·Á¸é mrtg¸¸ÇÑ°Ô ¾øÁö¿ä
º¸ÅëÀº ÇÁ·Î¸ÞÅ׿콺³ª ÀÚºñ½º·Î ¼³Ä¡ÇÏ¿© º¸´Âµ¥..
Á» ¼ö°í½º·´ÁÒ.

½Ã½ºÅÛ ¼³°è¸¸ ºÁµµ ¾Ë¼ö´Â ÀÖ½À´Ï´Ù.

½Ã½ºÅÛ ¾ÆÅ°ÅØÃÄ ¿µ¿ªÀ̳׿ä..

¿¬»ê ³ëµå°¡ ¿©·¯´ëÀÌ°í.. ½ºÅ丮Áö »ç¿ë·®ÀÌ ¿¬»êÁß °è¼Ó »ç¿ëÇÏ´ÂÁö..
¿¬»ê Áغñ¿Í ¿¬»ê ³¡¿¡¼­¸¸ »ç¿ëÇÏ´ÂÁö µû¶ó ¸¹ÀÌ ´Ù¸¥µ¥..
10G EthernetÀº ¹«Á¶°Ç º´¸ñÀ̰ڳ׿ä..
º¸ÅëÀº 40G ³ª 100G·Î Çϴµ¥¿ä..
ÀÌ°Å Á¦°¡ À߸ø Àü´Þµå¸° ³»¿ëÀÌ ÀÖ½À´Ï´Ù. Á˼ÛÇÕ´Ï´Ù.
ÀúÀåÀåÄ¡´Â Dell Unity 480 ¸ðµ¨ÀÔ´Ï´Ù. ÀÌ ¸ðµ¨Àº Æ÷Æ®°¡ 8°³ ÀÖ°í, 10G ¼±ÀÌ ¹°·ÁÀÖÀ¸´Ï ÃÑ 10G * 4ȸ¼± = 40Gb ÀÏ °Å°í¿ä.

L3 ¸ðµ¨ÀÌ DELL Networking S4128T-ON ÀÌ°í, RJ45 Æ÷Æ® Çϳª´ç 10Gbit ÀÔ´Ï´Ù. Æ÷Æ®´Â 24 + 2 + 4°³°¡ ÀÖ°í,  Àüü ó¸® ¿ë·®Àº ´ë´ç 960Gbps ÀÔ´Ï´Ù..
QSFP Æ÷Æ® ( QSFP+ ÀÎÁö´Â ¸ð¸£°Ú½À´Ï´Ù. ) °¡ À־, L3 µÎ ´ë´Â QSFP( ȤÀº QSFP+ ) ÄÉÀ̺í 40G Â¥¸®·Î ¹­¿© ÀÖ½À´Ï´Ù.

ÀúÀåÀåÄ¡ Unity XT ¿Í´Â 10G UTP * 4 °³ * ÀÌÁßÈ­ ·Î ¹­¿© ÀÖ½À´Ï´Ù. = ÀúÀåÀåÄ¡ ÄÁÆ®·Ñ·¯¿¡ ·£Ä«µå°¡ 10G * 4 ·Î  A B µÎ°³ ÃÑ 8°³°¡ Àִµ¥, À̰͵µ L3¿¡ ´Ù ¹°·Á Àִ°ÅÁÒ.

¿¬»ê¼­¹ö <->  L3 * 2  <->  ÀúÀåÀåÄ¡ ±¸Á¶¿¡¼­,  ÀúÀåÀåÄ¡¿Í L3 °¡ 10G * 4(4ȸ¼±) * 2( A B ÀÌÁßÈ­ ) ·Î ¿¬°áµÇ¾î ÀÖ½À´Ï´Ù. ±×·¡¼­ ³×Æ®¿öÅ© ºÎÇÏ´Â ÀÌ¾ß±â ¾È ³ª¿Â°Å·Î º¸À̱ä ÇÕ´Ï´Ù.
±×¸®°í ±Ùº»ÀûÀ¸·Î ¿¬»ê¼­¹ö´Â OS ¸¸ µé°í ÀÖ°í ¸ðµç ÀÛ¾÷°á°ú´Â ÀúÀåÀåÄ¡ unity ¿¡ ÀúÀåµÇ´Ï, °¢ ¿¬»ê¼­¹ö °£ ÆÄÀÏÀÌ ¿À°í °¥ ÀÏÀº ¸¹ÀÌ Àû±ä ÇÕ´Ï´Ù. ¾ø´Ù°í´Â ¸» ¸øÇÕ´Ï´Ù¸¸...

Àû¾îÁֽŠ³»¿ëµé·Î ´Ù½Ã °ËÅäµç È®ÀÎÀ̵ç ÇØ º¸°í,  ¸ð¸£´Â ³»¿ëÀÌ ÀÖÀ¸¸é ´Ù½Ã ã¾Æº¸´ø°¡ Áú¹®µå¸®´ø°¡ ÇÏ°Ú½À´Ï´Ù.

ÀÌ»óÀÔ´Ï´Ù. ¸ðµÎµé ´äº¯ °¨»çµå¸³´Ï´Ù.


QnA
Á¦¸ñPage 414/5696
2015-12   1566662   ¹é¸Þ°¡
2014-05   5030115   Á¤ÀºÁØ1
04-14   1945   °ñ±â¿ì½º
2022-01   1945   Àâ½Ä
2020-12   1945   VSPress
2021-11   1945   °í¾ç½Ã
2019-12   1945   LINKINPARK
2023-05   1945   ¾Ï±¼¿Õ
2021-12   1945   °ú¾Ï
2023-11   1945   Á¦·Î¿ø¼ÒÇÁÆ®
2021-09   1945   ¼öÃ̸¶À»
03-08   1946   chotws
2018-12   1946   ENIHS
2023-06   1946   ºí·ç¸ð¼Ç
2023-08   1946   ¹ÌÄ£°¨ÀÚ
2020-07   1946   green1052
2020-02   1946   DDAYs
2022-01   1946   Æ۽̱Û
2020-11   1946   ¹ü¹üÀÌ
2022-03   1946   L2½ºÀ§Ä¡
2022-06   1946   Sakura24
2021-05   1947   gowork