GPU - Pass Through / VGPU / GPU Clustering

   Á¶È¸ 3843   Ãßõ 0    

안녕하세요, 초보 질문 드립니다. 


일정 기간 동안 GPU 자원(예를 들어 GPU 카드 200개)을  다수의 사용자(예를 들어 10명) VM으로 분배해야 하구요.

(일단 오픈스택 활용..)

일정 기간 동안 사용량을 측정해서 10명의 사용자에게 자원을 유동적으로 할당해야 합니다.

ex) A사용자는 많이 썼으니, 지난 달은 20Tflops, 이 달은 40Tflops, B 사용자는 적게 썼으니, 지난 달은 20Tflops, 이 달은 10Tflops, C 사용자는 안 썼으니 이번 달은 자원 회수

NVidia P40, V100 장비를 쓸 예정인데,

Pass Through / VGPU / GPU Clustering 방식을 고민 중입니다.

- Pass Through로 가면 직접 GPU driver를 GPU 카드에 꽂아서 쓰는 방식인만큼 경합이 없어 GPU 성능을 100% 낼 수 있을 것 같구요.

- Vgpu는 1장의 GPU 카드를 임의로 1/4로 쪼개서 (예를 들어 4개), 더욱 분할해서 사용하는 방식이라 자원을 더 micro한 단위로 분산 활용할 수는 있지만, 패스 스루 방식에 비해 성능 상의 손실이 있을 것 같구요.

 이 방식이 하이퍼바이저를 통한 가상화 방식이 맞나요?


- Cluster 방식을 쓰면 여러 GPU 자원을 묶어서 보다 고성능 구성이 가능할 것 같구요. 

도커 컨테이너로 구성하게 되면 고성능으로 구성한 GPU를 컨테이너 방식으로 사용자 별로 분배하고 유동적으로 관리할 수 있을까요?


위 기재한 내용에 잘못 이해하고 있는 부분이 있다면 정정 부탁 드리고,

관련하여 비교 자료나 참고할 수 있는 자료가 있다면 말씀 부탁 드립니다!!


감사합니다.






ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú°æ¿ø 2020-01
Grid vgpu´Â Áö¿ø ÁߴܵȰͰ°½À´Ï´Ù.
     
https://www.nvidia.com/ko-kr/data-center/virtual-gpu-technology/
À§ »çÀÌÆ®¿¡ º¸´Ï grid vgpu°¡ ¿©ÀüÈ÷ ³ª¿À´Âµ¥, Áö¿ø Áß´ÜÀº ¾î¶² Àǹ̽DZî¿ä??
          
¹Ú°æ¿ø 2020-01
ESXi´Â 6.5 ¹öÁ¯±îÁö¸¸, KVM¿¡¼± ¹öÁ¯Àº ±â¾ï ¾È³ªÁö¸¸ GRID Áö¿ø Äڵ尡 ´õ ÀÌ»ó À¯Áö ¾ÈµÇ°í Àִ°ɷΠ¾Ð´Ï´Ù.
Lorenz 2020-01
vGPU ¿©ÀüÈ÷ »ó¿ëÁßÀ̱¸¿ä. »ç¿ëÇϽ÷Á¸é ÇÏÀÌÆÛ¹ÙÀÌÀú ¶óÀ̼¾½º + NVIDIA GRID ¶óÀ̼¾½º µÑ´Ù ÇÊ¿äÇÕ´Ï´Ù.
VMWare,Citrix etc µîµî °¡´ÉÇϱ¸¿ä.
GPU Cluster Åø·Î´Â Slurm À» ¸¹ÀÌ »ç¿ëÇϴ°Š°°³×¿ä KISTI¿¡¼­ ±×·¸°Ô »ç¿ëÇÏ°í ÀÖ½À´Ï´Ù.
¿ÀǽºÅصµ GPU Áö¿øÇϴ°ɷΠ¾Ë°íÀÖ¾î¿ä


QnA
Á¦¸ñPage 2754/5692
2014-05   5017566   Á¤ÀºÁØ1
2015-12   1552974   ¹é¸Þ°¡
2014-03   3441   ¹æoÈ¿o¹®
2020-01   3844   ½î¿ÀÄí¿ìÀ§
2014-03   3825   ÄÄÁö±â
2015-07   3965   ³È³ÈÀÌ
2012-02   6455   ȲȥÀ»ÇâÇØ
2017-08   7137   Àο¬
2012-02   7536   ·¹Àκ¸¿ì7
2022-12   1607   ¿¬Äí¹Ö
2015-07   6384   À̼±È£
2012-03   6018   ½½±â·Î¿î»ýÈ°
2016-08   4040   AplPEC
2023-01   1593   ÇÑÈ¿¼®
08-26   1112   galaxyfamily
2020-01   2280   ¹è´Þ
2021-05   1741   ÀÎõIº£¸®
2023-01   1259   petabyte
2018-12   3532   Æ丣¼¼¿ì½º
2014-04   4693   VSPress
2021-05   2295   µð¼À¹ö
09-05   927   httpd