머신러닝용 Nvidia GPU Spec

   조회 4914   추천 1    

Nvidia의 머신러닝용 GPU를 정리 해 봤습니다.



궁금한 것은 P나 K 계열이 쿠다 코어는 GTX 계열과 크게 차이가 없는데 가격 차이는 엄청나네요

배정밀도 연산 같은게 차이가 난다고 알고 있는데 또 다른 이유가 있을까요?


제 로망은 P40 4개 1U 서버 하나 만들어서 IDC에 넣어 놓는겁니다. 하하하

표에 줄을 긋고 싶은데 잘 안되네요
JK글로리 2017-07
일단 말씀하신것처럼 배정밀도(double precision) 성능차이가 가장 큽니다. 뭐 세부적으로 error correction 기능등 좀더 정확도를 높히는 부분들이 많이 보강되어 있습니다. 보통 전통적인 CAD나 3D rendering 또는 공학 시뮬레이션 분야에서는 해당기능들이 상당히 도움이 많이 되는 편이지만,

문제는 잘 아시겠지만 딥러닝 분야는 대부분 single precision 만 사용하며, 이것 역시 트레이닝 속도 문제 때문에 16비트 또는 그 이하 연산으로 줄이고 있는 추세입니다. 따라서 GTX 1080ti 나 Titan XP가 가성비로 보면 훨씬 좋습니다.
승후니도쿄 2017-07
저는.. 그냥.. p6000 두개랑 gp100 두개 사용중입니다.
lymee 2017-07
GTX1080TI, TitanXp가 single precision대비 가성비가 제일 좋은건 사실이나, 사실 지포스는 연구/개발용으로 적합하나 실제 운영으로 쓰기에는 안정성과 워런티 문제 때문에 Tesla 계열을 많이 사용합니다. 그리고 GTX1080TI, TitanXp는 half precision 성능은 망이죠....
단순히 Single Precision 연산으로 운영용 GPU를 고려한다면 P40이 제일 적절하고, NVLink나 메모리 대역폭 등을 고려한다면 P100이 적절하구요.
대신 가격이 엄청 비싸죠...
신은왜 2017-08
타이탄 락 해제되면 딥러닝에도 많은 도움이 될까요?
가격이 1/6인데요.
서버군 2017-09
CUDA가 많은것으로만 보면 가격대비 성능비가 1080TI가 가장 높을거 같아요, 혹시 이런 연구 개발을 위해 따로 라이센스등이 들어가는건 아닌지요?




제목Page 1/3
2015-12   9389   백메가
01-24   2415   pauloh
04-02   629   코드는하는…
03-23   637   회원K
03-22   737   Dedge
03-07   1303   명성윤
03-07   652   만십
03-05   1131   만십
2017-12   2224   sephiroce
2017-12   1924   백만스물하나
2017-11   2422   Kams6052
2017-10   2641   까치98
2017-09   4400   날개
2017-07   4914   백만스물하나
2017-06   4915   백만스물하나
2017-06   5131   백만스물하나
2017-06   3776   노형석
2017-05   3663   김황중
2017-05   3187   백만스물하나
2017-05   2990   띠껑
2017-05   3147   승후니도쿄
2017-05   5731   승후니도쿄