GPU - Pass Through / VGPU / GPU Clustering

   Á¶È¸ 3689   Ãßõ 0    

안녕하세요, 초보 질문 드립니다. 


일정 기간 동안 GPU 자원(예를 들어 GPU 카드 200개)을  다수의 사용자(예를 들어 10명) VM으로 분배해야 하구요.

(일단 오픈스택 활용..)

일정 기간 동안 사용량을 측정해서 10명의 사용자에게 자원을 유동적으로 할당해야 합니다.

ex) A사용자는 많이 썼으니, 지난 달은 20Tflops, 이 달은 40Tflops, B 사용자는 적게 썼으니, 지난 달은 20Tflops, 이 달은 10Tflops, C 사용자는 안 썼으니 이번 달은 자원 회수

NVidia P40, V100 장비를 쓸 예정인데,

Pass Through / VGPU / GPU Clustering 방식을 고민 중입니다.

- Pass Through로 가면 직접 GPU driver를 GPU 카드에 꽂아서 쓰는 방식인만큼 경합이 없어 GPU 성능을 100% 낼 수 있을 것 같구요.

- Vgpu는 1장의 GPU 카드를 임의로 1/4로 쪼개서 (예를 들어 4개), 더욱 분할해서 사용하는 방식이라 자원을 더 micro한 단위로 분산 활용할 수는 있지만, 패스 스루 방식에 비해 성능 상의 손실이 있을 것 같구요.

 이 방식이 하이퍼바이저를 통한 가상화 방식이 맞나요?


- Cluster 방식을 쓰면 여러 GPU 자원을 묶어서 보다 고성능 구성이 가능할 것 같구요. 

도커 컨테이너로 구성하게 되면 고성능으로 구성한 GPU를 컨테이너 방식으로 사용자 별로 분배하고 유동적으로 관리할 수 있을까요?


위 기재한 내용에 잘못 이해하고 있는 부분이 있다면 정정 부탁 드리고,

관련하여 비교 자료나 참고할 수 있는 자료가 있다면 말씀 부탁 드립니다!!


감사합니다.






ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú°æ¿ø 2020-01
Grid vgpu´Â Áö¿ø ÁߴܵȰͰ°½À´Ï´Ù.
     
https://www.nvidia.com/ko-kr/data-center/virtual-gpu-technology/
À§ »çÀÌÆ®¿¡ º¸´Ï grid vgpu°¡ ¿©ÀüÈ÷ ³ª¿À´Âµ¥, Áö¿ø Áß´ÜÀº ¾î¶² Àǹ̽DZî¿ä??
          
¹Ú°æ¿ø 2020-01
ESXi´Â 6.5 ¹öÁ¯±îÁö¸¸, KVM¿¡¼± ¹öÁ¯Àº ±â¾ï ¾È³ªÁö¸¸ GRID Áö¿ø Äڵ尡 ´õ ÀÌ»ó À¯Áö ¾ÈµÇ°í Àִ°ɷΠ¾Ð´Ï´Ù.
Lorenz 2020-01
vGPU ¿©ÀüÈ÷ »ó¿ëÁßÀ̱¸¿ä. »ç¿ëÇϽ÷Á¸é ÇÏÀÌÆÛ¹ÙÀÌÀú ¶óÀ̼¾½º + NVIDIA GRID ¶óÀ̼¾½º µÑ´Ù ÇÊ¿äÇÕ´Ï´Ù.
VMWare,Citrix etc µîµî °¡´ÉÇϱ¸¿ä.
GPU Cluster Åø·Î´Â Slurm À» ¸¹ÀÌ »ç¿ëÇϴ°Š°°³×¿ä KISTI¿¡¼­ ±×·¸°Ô »ç¿ëÇÏ°í ÀÖ½À´Ï´Ù.
¿ÀǽºÅصµ GPU Áö¿øÇϴ°ɷΠ¾Ë°íÀÖ¾î¿ä


QnA
Á¦¸ñPage 1110/5680
2014-05   4944030   Á¤ÀºÁØ1
2015-12   1480767   ¹é¸Þ°¡
2016-09   4636   ÄĹÚ
2021-06   2553   Çϼ¿È£ÇÁ
2023-02   3828   ¿À¿ùÀÇÇູ
2009-04   6285   Äļ¾½º
2015-09   4094   ¹ÎÆ®Á¸¸À
2019-01   2706   ¹Ú¼º¸¸
2023-02   1046   À¯¿µ±Ù
2015-09   3888   ±è°Ç¿ì
2016-09   4161   SkyBase
2012-07   7004   ±èÁ¦¿¬
2014-06   7611   ¶Ñ¶Ñ±è´ë¿ø
2020-03   4496   ¿µ»êȸ»ó
2023-03   1478   Sikieiki
2014-06   11246   drama
2015-10   3438   ¼ÇÇѸÆÁÖ
2019-01   6298   ¸Ó¸®°¨ÀÚ
2020-03   4031   ºí·ç¿µ»ó
2016-10   5405   hyunsemo
2012-08   6177   ¼­¿ïI±èµ¿¼ö
2017-11   4205   À¸¶óÂ÷Â÷Â÷