GPU

丶Value   
   ȸ 318   õ 0    

쪽팔리면 질문하지 맙시다. 소중한 답변 댓글을 삭제하는건 부끄러운 일 입니다 


안녕하세요? 업무용으로 사용할 Workstation을 알아보고 있습니다.


이미지 분류 학습을 위해서 구성할 예정이구요.  일부 예측 모델도 돌릴 예정입니다.


협력사에서 일부 SW를 제공하는 와중에 자기네 프로그램이 H100에서


구동되는지 모르겠다해서 대신 GPU 4개짜리 웍스를 제안 받았습니다.


사양은 RTX6000 Ada 4장으로 구성되어 있구요.


궁금한점이 H100 단일보다 성능이 어떻게 될까요? 


그리고 4장의 GPU를 한번에 학습에 사용이 가능한지 선배님들의 의견을 여쭙습니다.

ª ϼ ϰ.
ڹ 03-30
RTX6000 Ada 4  vs  H100 1 ΰ??

α׷ 4 GPU νϰ ϴ°??

α׷ GPU ν ϰų Ȱ ϴ 쵵 ֽϴ..
Ǹ 03-30
ΰ н GPU ޸ ̽ϼ ֽϴ.

H100 80Ⱑ 94Ⱑ մϴ. 3700~4500
RTX 6000 ada 48Ⱑ * 4  192 Ⱑ 忡 뷫 1õ.

GPU ޸𸮰 󸶳 ʿ ޶ϴ. ϰ ִ Ʈ ü RTX 6000 ada 4 õ߽ϴٸ, H100 4 Ϸ մϴ. (ݾ . 1.8 ׿. 1.2 vs 2.1)

HP Z8 Fury G5 RTX 6000 ada 4 ı մϴ. ( 2 Դϴ.)

 н̳Ŀ ٸ, GPU ޸𸮰 ڶ ƿ н Ұϱ ׷ ְڳ׿. 纸ø ɰ̴ϴ. ޸ ƴ϶ RTX ada 6000 α׷ H100 ϴ.
     
Landa 03-30
2 600, 24ʿ 800 ߴµ ö??

¥ ε ö󰡳׿
          
Ǹ 03-31
ȳ° ū ϴ.
Ȳ 03-30
׿ ޶ϴ.
03-30
Tesla ɺ..

RTX 6000 Ada 48G pcie
  FP16 (half) 91.06 TFLOPS (1:1)
  FP32 (float) 91.06 TFLOPS
  FP64 (double) 1,423 GFLOPS (1:64)


H100 80G pcie
  FP16 (half) : 204.9 TFLOPS (4:1)
  FP32 (float) : 51.22 TFLOPS
  FP64 (double) : 25.61 TFLOPS (1:2)

RTX 6000 Ada 80G x 4  ν ɵ Ȱ뵵 .. ݵ ϰڳ׿.. 
FP64 Ư¡ε.. Ͻø鼭 ؼ ؾ߰ԝ.

Supermicro GPGPU Pcie ġϿ.. ̰ڽϴ.


QnA
Page 5029/5724
2015-12   1761251   ް
2014-05   5234902   1
2021-06   2771  
2023-02   2771  
2021-05   2771   Ǫ
2019-06   2771   ۽̱
2023-02   2771   ȣӽɽ
2021-07   2771   Sakura24
2022-02   2770   2
2022-01   2770   Whitesun
2021-04   2770  
2020-08   2770  
2020-02   2770   ̼
2022-05   2770   yummy
2022-12   2770   osthek83
2019-08   2770   ٶ
2023-02   2770   MOONL
2019-04   2770  
2023-08   2769   ٷ
2020-05   2769   Ǵ
2020-03   2769   ڰ
2020-07   2769   ȭ