연구용 딥러닝 질문입니다

   조회 972   추천 0    

안녕하세요

 연구용 딥러닝 PC견적을 짜고있는데요

게임용컴만 맞추다보니 이쪽은 처음이라 잘 모르겠어서요


예산이 한 2천정도인데

2080ti가 나와서 4way로 짜보니 총 1400~정도 나오더라구요

그런데 titan v가 하나로 110 tflops던데 이거하나만 장착하는게 훨 나은건가요

그리고 titan v는 sli나 vlink 미지원이던데

딥러닝에서는 필요없다고 봐서 4개 장착해도 될런지요(4개달면 최종 2400정도?)


씨퓨는 i9으로 하려고하는데

프로그램만 돌리고 서버로는 사용안할꺼니까

제온으로 안가도 되겠죠??

elkiselee 09-03
제온 cpu가 중요한게 아니라

제온을 쓰면 ECC램을 쓸 수 있어서가 더 큰 이유 입니다.

core i 시리즈 요즘 쓰면서 블루 스크린 보신적 없으시죠?

충분히 안정성이 있으나 보험을 또 들고자 제온+ECC램을 쓰죠
     
서버용으로 쓸꺼 아니면 ecc가 굳이 필요하지 않다고 인터넷에서 봐서 i9으로 생각했습니다
          
elkiselee 09-03
워크스테이션에서도 씁니다 저도 쓰고 있고요

ECC는 공기 같은거여서 ECC로 오류 검출하면 메세지로

"야 내 덕에 오류 안났다!" 말해주는게 아니라 체감을 거의 못한다고 봐야 하는데요

혹시몰라서 씁니다.
박문형 09-03
조립이 좋아 보일수 있는데

저기서 가장 먼저 해결해야 할 것이 샤시와 파워입니다..

GPU 4개가 잘 들어가고 시스템 전체를 잘 식힐수 있고 파워가 모자르지 말아야 합니다..

재대로 못 식히면 보드나 GPU가 눌어붙어 타버리는 일도 생길수 있습니다..
     
케이스는 옵시디언 1000D 파워는 2000w생각하고 있습니다
쿨링은 수냉으로요
jang 09-03
아주 빠른놈 한마리이냐 빠른놈 4마리이냐는 뭐 프로그램 지원여부에 달린거겠죠.
알파고 09-03
연구용 딥이면 당연히 제온으로  가야죠..

^^
     
넵 그럼 제온으로 바꿔봐야겠네요
모두 답변해주셔서 감사합니다
김철영 09-03
multi-gpu로 연산 작업할 때는 sli는 필요가 없습니다.
2080ti는 아직 성능이 발표된 것이 아니라 TitanV 대비 연산능력이 우수할지는 모르겠네요.

int, float, double 등의 type별로 연산속도도 차이가 날 수 있으니,
9/20 이후 2080ti 성능이 발표되고 나면 본인이 연구하는 분야의 정밀도 수준이 어떻게 되고
사용하는 프로그래밍언어나 툴에서 Multi-GPU를 얼마나 효율적으로 지원하는지도 확인해보셔야 합니다.

CPU와 M/B가 지원하는 GPU Lane 수도 확인해보시는게 좋을거 같네요.
박문형님 말씀처럼 발열과 파워도 고려하셔야 하겠구요.
(가성비를 볼 때 파워를 2개 이상 쓰시면서 GPU에 별도의 파워로 넣으시는게 나을거 같습니다.)
민사장 09-18
알파고를 보면 알겠지만 한대의 고성능 보다는, 가성비 좋은 1대를 그리드로 연결하는게 중요하다고 생각합니다.
물론, 최적화가 되면 대수는 줄어들 수 있지만 최적화를 찾기 위해 알파고도 처음엔 많은 서버를 그리드로 연결할 필요가 있었죠.




제목Page 1/4
2014-04   2324303   회원K
10-15   982   회원K
10-18   298   페르세우스
09-28   465   영산회상
09-19   709   optimize
09-18   668   민사장
09-03   973   고기한점해
08-17   1268   제이레빗
07-25   1529   백만스물하나
07-24   1786   Minchul
07-23   2054   workwork
07-16   1862   민달팽이
05-29   2578   백만스물하나
05-29   2251   백만스물하나
04-30   3099   adioshun
05-03   2714   adioshun
04-25   3281   김주현
04-02   3736   코드는하는…
03-23   3095   회원K
03-22   3633   Dedge
03-07   3917   명성윤
03-07   2662   만십