GPU - Pass Through / VGPU / GPU Clustering

   Á¶È¸ 4059   Ãßõ 0    

안녕하세요, 초보 질문 드립니다. 


일정 기간 동안 GPU 자원(예를 들어 GPU 카드 200개)을  다수의 사용자(예를 들어 10명) VM으로 분배해야 하구요.

(일단 오픈스택 활용..)

일정 기간 동안 사용량을 측정해서 10명의 사용자에게 자원을 유동적으로 할당해야 합니다.

ex) A사용자는 많이 썼으니, 지난 달은 20Tflops, 이 달은 40Tflops, B 사용자는 적게 썼으니, 지난 달은 20Tflops, 이 달은 10Tflops, C 사용자는 안 썼으니 이번 달은 자원 회수

NVidia P40, V100 장비를 쓸 예정인데,

Pass Through / VGPU / GPU Clustering 방식을 고민 중입니다.

- Pass Through로 가면 직접 GPU driver를 GPU 카드에 꽂아서 쓰는 방식인만큼 경합이 없어 GPU 성능을 100% 낼 수 있을 것 같구요.

- Vgpu는 1장의 GPU 카드를 임의로 1/4로 쪼개서 (예를 들어 4개), 더욱 분할해서 사용하는 방식이라 자원을 더 micro한 단위로 분산 활용할 수는 있지만, 패스 스루 방식에 비해 성능 상의 손실이 있을 것 같구요.

 이 방식이 하이퍼바이저를 통한 가상화 방식이 맞나요?


- Cluster 방식을 쓰면 여러 GPU 자원을 묶어서 보다 고성능 구성이 가능할 것 같구요. 

도커 컨테이너로 구성하게 되면 고성능으로 구성한 GPU를 컨테이너 방식으로 사용자 별로 분배하고 유동적으로 관리할 수 있을까요?


위 기재한 내용에 잘못 이해하고 있는 부분이 있다면 정정 부탁 드리고,

관련하여 비교 자료나 참고할 수 있는 자료가 있다면 말씀 부탁 드립니다!!


감사합니다.






ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
¹Ú°æ¿ø 2020-01
Grid vgpu´Â Áö¿ø ÁߴܵȰͰ°½À´Ï´Ù.
     
https://www.nvidia.com/ko-kr/data-center/virtual-gpu-technology/
À§ »çÀÌÆ®¿¡ º¸´Ï grid vgpu°¡ ¿©ÀüÈ÷ ³ª¿À´Âµ¥, Áö¿ø Áß´ÜÀº ¾î¶² Àǹ̽DZî¿ä??
          
¹Ú°æ¿ø 2020-01
ESXi´Â 6.5 ¹öÁ¯±îÁö¸¸, KVM¿¡¼± ¹öÁ¯Àº ±â¾ï ¾È³ªÁö¸¸ GRID Áö¿ø Äڵ尡 ´õ ÀÌ»ó À¯Áö ¾ÈµÇ°í Àִ°ɷΠ¾Ð´Ï´Ù.
Lorenz 2020-01
vGPU ¿©ÀüÈ÷ »ó¿ëÁßÀ̱¸¿ä. »ç¿ëÇϽ÷Á¸é ÇÏÀÌÆÛ¹ÙÀÌÀú ¶óÀ̼¾½º + NVIDIA GRID ¶óÀ̼¾½º µÑ´Ù ÇÊ¿äÇÕ´Ï´Ù.
VMWare,Citrix etc µîµî °¡´ÉÇϱ¸¿ä.
GPU Cluster Åø·Î´Â Slurm À» ¸¹ÀÌ »ç¿ëÇϴ°Š°°³×¿ä KISTI¿¡¼­ ±×·¸°Ô »ç¿ëÇÏ°í ÀÖ½À´Ï´Ù.
¿ÀǽºÅصµ GPU Áö¿øÇϴ°ɷΠ¾Ë°íÀÖ¾î¿ä


QnA
Á¦¸ñPage 4429/5707
2014-05   5137171   Á¤ÀºÁØ1
2015-12   1671941   ¹é¸Þ°¡
2016-08   3828   ±Ç¿ÀÁØ
2015-07   3520   Â÷³ÝÄÄÇ»ÅÍ
2012-02   6238   ÀÌÁöÆ÷Åä
2014-03   3541   ¹æoÈ¿o¹®
2020-01   4060   ½î¿ÀÄí¿ìÀ§
2014-03   3935   ÄÄÁö±â
2015-07   4101   ³È³ÈÀÌ
2012-02   6553   ȲȥÀ»ÇâÇØ
2017-08   7249   Àο¬
2012-02   7599   ·¹Àκ¸¿ì7
2022-12   1794   ¿¬Äí¹Ö
2015-07   6488   À̼±È£
2012-03   6093   ½½±â·Î¿î»ýÈ°
2016-08   4163   AplPEC
2023-01   1767   ÇÑÈ¿¼®
2024-08   1378   galaxyfamily
2020-01   2417   ¹è´Þ
2021-05   1843   ÀÎõIº£¸®
2023-01   1412   petabyte
2018-12   3641   Æ丣¼¼¿ì½º