GPU

丶Value   
   ȸ 305   õ 0    

쪽팔리면 질문하지 맙시다. 소중한 답변 댓글을 삭제하는건 부끄러운 일 입니다 


안녕하세요? 업무용으로 사용할 Workstation을 알아보고 있습니다.


이미지 분류 학습을 위해서 구성할 예정이구요.  일부 예측 모델도 돌릴 예정입니다.


협력사에서 일부 SW를 제공하는 와중에 자기네 프로그램이 H100에서


구동되는지 모르겠다해서 대신 GPU 4개짜리 웍스를 제안 받았습니다.


사양은 RTX6000 Ada 4장으로 구성되어 있구요.


궁금한점이 H100 단일보다 성능이 어떻게 될까요? 


그리고 4장의 GPU를 한번에 학습에 사용이 가능한지 선배님들의 의견을 여쭙습니다.

ª ϼ ϰ.
ڹ 03-30
RTX6000 Ada 4  vs  H100 1 ΰ??

α׷ 4 GPU νϰ ϴ°??

α׷ GPU ν ϰų Ȱ ϴ 쵵 ֽϴ..
Ǹ 03-30
ΰ н GPU ޸ ̽ϼ ֽϴ.

H100 80Ⱑ 94Ⱑ մϴ. 3700~4500
RTX 6000 ada 48Ⱑ * 4  192 Ⱑ 忡 뷫 1õ.

GPU ޸𸮰 󸶳 ʿ ޶ϴ. ϰ ִ Ʈ ü RTX 6000 ada 4 õ߽ϴٸ, H100 4 Ϸ մϴ. (ݾ . 1.8 ׿. 1.2 vs 2.1)

HP Z8 Fury G5 RTX 6000 ada 4 ı մϴ. ( 2 Դϴ.)

 н̳Ŀ ٸ, GPU ޸𸮰 ڶ ƿ н Ұϱ ׷ ְڳ׿. 纸ø ɰ̴ϴ. ޸ ƴ϶ RTX ada 6000 α׷ H100 ϴ.
     
Landa 03-30
2 600, 24ʿ 800 ߴµ ö??

¥ ε ö󰡳׿
          
Ǹ 03-31
ȳ° ū ϴ.
Ȳ 03-30
׿ ޶ϴ.
03-30
Tesla ɺ..

RTX 6000 Ada 48G pcie
  FP16 (half) 91.06 TFLOPS (1:1)
  FP32 (float) 91.06 TFLOPS
  FP64 (double) 1,423 GFLOPS (1:64)


H100 80G pcie
  FP16 (half) : 204.9 TFLOPS (4:1)
  FP32 (float) : 51.22 TFLOPS
  FP64 (double) : 25.61 TFLOPS (1:2)

RTX 6000 Ada 80G x 4  ν ɵ Ȱ뵵 .. ݵ ϰڳ׿.. 
FP64 Ư¡ε.. Ͻø鼭 ؼ ؾ߰ԝ.

Supermicro GPGPU Pcie ġϿ.. ̰ڽϴ.


QnA
Page 1/5723
2015-12   1760721   ް
2014-05   5234383   1
2020-12   4482  
2013-10   7726   α
2015-03   5282  
2016-05   7254   ZZIZIM
2022-06   2214   嵿2014
2017-04   4309  
2011-04   9642   ̺
2019-09   3455   NiteFlite9
2004-12   6917  
2017-04   5683   д赿
2005-01   7566  
2007-09   6054   ڱ
2015-03   4343   λ
2005-01   6540   öȯ
2007-09   5366   ǿ
2024-02   2080   Ϸ
2005-01   7172  
2007-10   5689   ¿
2017-04   3918   αƾ
2013-11   9539   Nicoffeine