1800만원 딥러닝 서버 컴퓨터 맞췄습니다. bert 돌아 갈까요?

deepdi   
   조회 2962   추천 0    

CPU/  인텔 제온 스케일러블 실버 4114 (스카이레이크) (정품) / 2

M/B/ GIGABYTE C621-WD12 피씨디렉트 / 1

RAM/ 삼성전자 DDR4 32G PC4-19200 ECC/REG (정품)/12 (총 384GB)

VGA/ZOTAC GAMING 지포스 RTX 2080 Ti D6 11GB BLOWER/4

SSD/삼성전자 970 PRO M.2 2280 (1TB)/1

HDD/16TB IronWolf PRO ST16000NE0008 /1

CASE/써멀테이크 The Tower 900 Snow Edition E-ATX Vertical Super/1

POWER/SuperFlower SF-2000F14HP LEADEX PLATINUM/1

쿨러/서멀테이트 riing 12 ledx10+팬허브/1

+커스텀 수냉 파츠 

대략 1800만원 정도 나왔습니다.


bert 돌아가는게 가장 중요한데 문제 없이 돌아 갈 수 있는지 한번 봐주시면 감사하겠습니다.

루비믹스 07-29
제대로 맞추면 가격이 저리 되는군요. 침만 꼴깍3
호호 07-29
차한대값이네요 ㄷㄷ
제온프로 07-30
잘 돌아가죠..

파워가.. 걱정이네요...각 접점들 정말 잘 확인 해야 합니다..
서버에 모듈러는 약점중에 약점입니다..
접점양이 모자르면... 선들이 노곤노곤...
김경철 07-30
GPU 대비 CPU하고 RAM이 좀 과도해 보입니다.

GPU 4개 꽂는 머신이면 8 core 정도면 충분하고,
메모리도 GPU 메모리 합산한것의 두배 정도면 충분합니다.

그리고 BERT 모델 돌릴때는 GPU 메모리가 제일 중요합니다.
2080ti 4개 보다는 titan rtx 2개가 아마도 더 좋을겁니다.

https://github.com/google-research/bert/blob/master/README.md  여기 보면
12G 짜리 titan x 에서도 BERT-large 모델은 시퀀스 길이 320개 짜리를 batch size 딱 하나로 겨우 돌리는 정도였다고 합니다.

BERT-large 모델 제대로 돌리려면, 메모리 용량 24G 되는 titan rtx를 쓰거나,32G 버전의 tesla v100을 써야 합니다만,
가성비로 따지면, titan rtx 24G의 가격이 v100 32G의 대략 1/4 수준이니....
호호 08-21
보드가 cpu 1슬롯 아닌가요?
하드는 저는 wd 로 갈것 같아요.
8tb x 4개로 레이드 1+0 구성 추천드립니다.
허허허허 09-10
우왕 나도 사고싶다......ㅠ.ㅠ




제목Page 2/7
2014-04   2598210   회원K
2014-05   2894786   정은준1
08-09   1956   오월의행복
07-29   2963   deepdi
07-29   1776   워터보이
07-20   2208   김지철
07-04   3404   crom1024
07-03   2663   worrma
07-03   2312   worrma
07-02   1914   TeslaK40
06-28   3012   MOONL
06-27   1620   김지철
06-17   2390   물렁곈
06-13   2598   물렁곈
05-30   2552   DeepBoy
05-23   1867   김버리
05-14   2453   JW마르니
03-30   3396   시오훅이
03-26   3286   불량사장
03-12   3260   영가설
03-04   4602   영가설
02-19   4132   인천이승현