GPU - Pass Through / VGPU / GPU Clustering

   Á¶È¸ 3779   Ãßõ 0    

안녕하세요, 초보 질문 드립니다. 


일정 기간 동안 GPU 자원(예를 들어 GPU 카드 200개)을  다수의 사용자(예를 들어 10명) VM으로 분배해야 하구요.

(일단 오픈스택 활용..)

일정 기간 동안 사용량을 측정해서 10명의 사용자에게 자원을 유동적으로 할당해야 합니다.

ex) A사용자는 많이 썼으니, 지난 달은 20Tflops, 이 달은 40Tflops, B 사용자는 적게 썼으니, 지난 달은 20Tflops, 이 달은 10Tflops, C 사용자는 안 썼으니 이번 달은 자원 회수

NVidia P40, V100 장비를 쓸 예정인데,

Pass Through / VGPU / GPU Clustering 방식을 고민 중입니다.

- Pass Through로 가면 직접 GPU driver를 GPU 카드에 꽂아서 쓰는 방식인만큼 경합이 없어 GPU 성능을 100% 낼 수 있을 것 같구요.

- Vgpu는 1장의 GPU 카드를 임의로 1/4로 쪼개서 (예를 들어 4개), 더욱 분할해서 사용하는 방식이라 자원을 더 micro한 단위로 분산 활용할 수는 있지만, 패스 스루 방식에 비해 성능 상의 손실이 있을 것 같구요.

 이 방식이 하이퍼바이저를 통한 가상화 방식이 맞나요?


- Cluster 방식을 쓰면 여러 GPU 자원을 묶어서 보다 고성능 구성이 가능할 것 같구요. 

도커 컨테이너로 구성하게 되면 고성능으로 구성한 GPU를 컨테이너 방식으로 사용자 별로 분배하고 유동적으로 관리할 수 있을까요?


위 기재한 내용에 잘못 이해하고 있는 부분이 있다면 정정 부탁 드리고,

관련하여 비교 자료나 참고할 수 있는 자료가 있다면 말씀 부탁 드립니다!!


감사합니다.






ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú°æ¿ø 2020-01
Grid vgpu´Â Áö¿ø ÁߴܵȰͰ°½À´Ï´Ù.
     
https://www.nvidia.com/ko-kr/data-center/virtual-gpu-technology/
À§ »çÀÌÆ®¿¡ º¸´Ï grid vgpu°¡ ¿©ÀüÈ÷ ³ª¿À´Âµ¥, Áö¿ø Áß´ÜÀº ¾î¶² Àǹ̽DZî¿ä??
          
¹Ú°æ¿ø 2020-01
ESXi´Â 6.5 ¹öÁ¯±îÁö¸¸, KVM¿¡¼± ¹öÁ¯Àº ±â¾ï ¾È³ªÁö¸¸ GRID Áö¿ø Äڵ尡 ´õ ÀÌ»ó À¯Áö ¾ÈµÇ°í Àִ°ɷΠ¾Ð´Ï´Ù.
Lorenz 2020-01
vGPU ¿©ÀüÈ÷ »ó¿ëÁßÀ̱¸¿ä. »ç¿ëÇϽ÷Á¸é ÇÏÀÌÆÛ¹ÙÀÌÀú ¶óÀ̼¾½º + NVIDIA GRID ¶óÀ̼¾½º µÑ´Ù ÇÊ¿äÇÕ´Ï´Ù.
VMWare,Citrix etc µîµî °¡´ÉÇϱ¸¿ä.
GPU Cluster Åø·Î´Â Slurm À» ¸¹ÀÌ »ç¿ëÇϴ°Š°°³×¿ä KISTI¿¡¼­ ±×·¸°Ô »ç¿ëÇÏ°í ÀÖ½À´Ï´Ù.
¿ÀǽºÅصµ GPU Áö¿øÇϴ°ɷΠ¾Ë°íÀÖ¾î¿ä


QnA
Á¦¸ñPage 2750/5687
2015-12   1530953   ¹é¸Þ°¡
2014-05   4995037   Á¤ÀºÁØ1
2021-04   6498   joon517
2015-07   3856   ³ª³Ê¿ì¸®
2018-11   2943   ÀϷиӽºÅ©
2021-04   2198   isaiah
2015-07   5721   ¹«¾Æ
2021-04   3005   õ¸¶°Ç»§
2016-08   3652   ±Ç¿ÀÁØ
2015-07   3358   Â÷³ÝÄÄÇ»ÅÍ
2012-02   6140   ÀÌÁöÆ÷Åä
2014-03   3409   ¹æoÈ¿o¹®
2020-01   3780   ½î¿ÀÄí¿ìÀ§
2014-03   3792   ÄÄÁö±â
2015-07   3939   ³È³ÈÀÌ
2012-02   6436   ȲȥÀ»ÇâÇØ
2017-08   7118   Àο¬
2012-02   7527   ·¹Àκ¸¿ì7
2022-12   1573   ¿¬Äí¹Ö
2015-07   6369   À̼±È£
2012-03   6005   ½½±â·Î¿î»ýÈ°
2016-08   4018   AplPEC