|
[필독] 처음 오시는 분을 위한 안내 (734) |
정은준1 |
2014-05 |
5118036 |
0 |
2014-05
5118036
1 정은준1
|
|
(광고) 단통법 시대의 인터넷가입 가이드(ver2.0) (234) |
백메가 |
2015-12 |
1653608 |
25 |
2015-12
1653608
1 백메가
|
29562 |
저 케이블 모델명을 알고 싶습니다 (5) |
막울었어요 |
2017-09 |
3786 |
0 |
2017-09
3786
1 막울었어요
|
29561 |
switch VLAN 구성 문의 (8) |
욕심쟁e |
2018-08 |
3786 |
0 |
2018-08
3786
1 욕심쟁e
|
29560 |
NginX의 퍼머링크 특정 파일 제외하기 |
지니보이 |
2016-08 |
3786 |
0 |
2016-08
3786
1 지니보이
|
29559 |
ssd m.2 를 sata 로 사용 (11) |
씨형 |
2017-08 |
3786 |
0 |
2017-08
3786
1 씨형
|
29558 |
livekernelevent 141 해결방법 질문드립니다. (8) |
Uinx |
2023-10 |
3786 |
0 |
2023-10
3786
1 Uinx
|
29557 |
복합기 추천부탁드릴수 있을까요 (1) |
원상현 |
2014-06 |
3786 |
0 |
2014-06
3786
1 원상현
|
29556 |
무선청소기 깜빡깜빡 (7) |
epowergate |
2018-08 |
3786 |
0 |
2018-08
3786
1 epowergate
|
29555 |
동키호테님 미디어패드 M2-802L B207 펌웨어 가지고 계신 분 계실까요? (5) |
쓰레기단장 |
2022-01 |
3786 |
0 |
2022-01
3786
1 쓰레기단장
|
29554 |
특이한 커넥터 (11) |
시나브로 |
2014-11 |
3785 |
0 |
2014-11
3785
1 시나브로
|
29553 |
알리에서 구입한 배터리 배송상태??? (2) |
서정욱 |
2017-03 |
3785 |
0 |
2017-03
3785
1 서정욱
|
29552 |
노트북 메모리 관련 질문드려요. 조언바랍니다. (4) |
김대평 |
2015-11 |
3785 |
0 |
2015-11
3785
1 김대평
|
29551 |
레이드 카드가 있어야 할까요? (17) |
하양까망 |
2018-10 |
3785 |
0 |
2018-10
3785
1 하양까망
|
29550 |
인텔 레이드 카드 문의 (2) |
허허허허 |
2016-09 |
3785 |
0 |
2016-09
3785
1 허허허허
|
29549 |
특정 프로그램에 효과적인 시스템은 어떻게 선택할 수 있을까요? (4) |
회로쟁이 |
2016-02 |
3785 |
0 |
2016-02
3785
1 회로쟁이
|
29548 |
문의 드림.. (3) |
황진우 |
2015-02 |
3785 |
0 |
2015-02
3785
1 황진우
|
29547 |
Windows CAL 관련 질문입니다 (4) |
stone92김경민 |
2017-07 |
3785 |
1 |
2017-07
3785
1 stone92김경민
|
29546 |
iMac에서 사용가능한 3D CAD s/w가 뭐 있을까요? (1) |
NiteFlite9 |
2013-12 |
3785 |
0 |
2013-12
3785
1 NiteFlite9
|
29545 |
자동차 배터리 셀프 교체시 서지전압 관련 질문드립니다. (8) |
건약 |
2023-10 |
3785 |
0 |
2023-10
3785
1 건약
|
29544 |
원격제어 관련 질문입니다 (4) |
섭이님 |
2017-10 |
3785 |
0 |
2017-10
3785
1 섭이님
|
29543 |
혹시 용산에 USB플로피 드라이브를 싸게 구할 수 있는곳이 있을까요 (8) |
성민박 |
2015-06 |
3785 |
0 |
2015-06
3785
1 성민박
|
철로만들어진 공압튜브나 기타 장비들도 세월에 못이기고 터지는데....
10초만에 뚜껑열고 작업할 거리에 있는게 아니면 공냉이 답입니다....
그러나 당해본 사람은 잘 압니다..
수냉 돌리다가 국물새서 푸지직 빠지직
그리고 진짜 수냉이 그리 좋다라고 한다면 왜 엔비디아는 수냉을 채택하지 않았을까요??
GPU 모델이 무엇인지 모르겠지만 8way 정도되면 PCIe 방식 말고 SXM 방식인가요?? NV-Link 쓴 것 그것이 재일 낫다라고 생각합니다..
PCIe 방식이 아예 나쁜 것은 아니지만 GPU 전원 코드 조립이 잘못되면 불 납니다.. (저는 실제 불났다는 소문을 들어서 )
소비자는 자연스럽게 불났으니까 AS해달라고 하지만 본래 불난 것은 AS가 안됩니다..
그리고 엔비디아가 만든 SXM 방식 소켓 과 NV-Link 는 PCIe 방식보다 퍼포먼스가 더 좋습니다..
불날 걱정도 적어지고 (내부 전원케이블을 안쓰니) 전기만 더 크게 먹일수 있으면 PCIe 보다 더 높은 모델의 GPU도 붙일수 있습니다..
https://www.nvidia.com/ko-kr/data-center/a100/
화력이 아주 그냥...
수리도 안됩니다..
엔비디아 코리아 들고 가서 검증해달라고 하면 우리는 그런 것 못하고 태웠으니 느희 잘못이다 라고 하지요..
그런데 불난 것은 어느 제조사나 AS 수리가 불가능합니다..
그러면 그거 쓰면 되겠네요..
심지어는 데이터 센터의 서버군을 통으로 수냉으로 하는곳도 늘어나는중입니다 (각 서버의 주요 부분을 수냉으로 냉각후 중앙 집중식으로 냉각 관리)
함부로 도장 못 찍을 겁니다..
https://www.youtube.com/watch?v=sl61lHwo3YE
저도 솔직히 좀 겁이 납니다..
제가 혼자쓸거면 뻘짓이라도 해보겠는대
이거 한대면.. 차한대값인대.. -_-;;
이 팀장놈 내일 좀 갈궈야 할듯..
아니 생각을 해도 수냉이라니..
이래서.. 문과들은.. 하튼.. 보고서 작성하러갑니다..
국물 샜다가 전산실 통째로 불나고 폭파되는 꼴 보고 싶은지..
그것보다 장비 들여 오면 전력 문제 해결이 쉽지 않겠네요..
진짜 강한 풍량이 필요한 상황이시라면 시로코팬을 설치해서 강제로 뽑아내거나 넣어주는 방법도 있습니다
물론 소음은 그근처에서 대화가 불가능할정도가 되겠지만요
제대로된 수냉아니고 그냥 피팅꽂고 그런거라면 피하라고 말씀드리고 싶습니다 괜히 서버에 공랭이 들어가는게 아닙니다
고장시에 교체도 힘들고 가격도 비싸고 위험도도 너무커요
보통 서버 1~2U인데, 이런 케이스에 라디에이터 다는건 공간상 문제가 됩니다
심지어는 타워형 서버나 웤스테이션조차 배선이나 공간 문제로 잘 안 채택됩니다 (수냉인데 라디에이터가 통으로 붙어있어서 통으로 올리는 괴랄한 구조를 택한 경우도 있습니다)
결국 서버에서 수냉을 할려면 전용으로 커스터마이징된 케이스랑 히트파이프를 쓰고, 다시 이걸 렉단위로 중앙 집중으로 모아서 외부로 열을 뺴는식으로 가야합니다 (렉단위로 주문 생산 안 하는한 이런식으로 가능할리 만무하니 안 나오는겁니다)
추신 : 참고로 타워에 시퓨 수냉하는 경우는 꽤 있어서 주문 (올해만 10대정도) 들어옵니다 (애도 터지면 구조상 그래픽 끔살 확정인데 3090같은거 넣어서 납품했습니다)
50도 정도의 온도를 유지한다고 했었습니다 라디에이터는 건물외부로 빼구요
그러니 도입율이 저조해지죠
쿨링팬일 경우 그냥 모듈 사다가 갈아끼우면 몇분만에 끝나는데 수냉일 경우 굉장히 힘들죠
ibm의 경우 idc전체에 배관공사를 다 하고 랙까지 배관이 다 가있더라구요
요게 슈퍼마이크로에서 개발중인 듯합니다만 국물통이 더 큽니다..
https://www.youtube.com/c/ServeTheHomeVideo/videos?view=0&sort=dd&shelf_id=0
ServeTheHome
이 사이트 유튜브 꾸준하고 홈페이지 잘되어 있고 서버쪽 뉴스가 빨라서 좋아 합니다..
저는 다른팀 관리하기도 벅차서 흑흑
다양한 업체에서 납품된 커스텀 수냉 조립 GPU 시스템을 보고, 들어본 경험으로는 사용자의 관심도에 따라 오래 쓰느냐 터트려먹느냐가 갈리는듯 합니다.
GPU 온도가 몇도인지 팬은 잘 도는지도 모르고 쓰는 곳이 많더군요. 그리고 관리 여건이 안 되는 건 드랍하시는게 맞죠.
문제발생시 풀 시스템 교체 제깍 해주는 밴더사 제품으로 가던지 수냉을 포기하던지 둘중 하나 선택하셔야 할거같습니다.
8WAY 딥러닝 시스템에 자작이나 조립업체에서 작업한 커스텀수냉은 말도 안되는 이야기입니다.
수냉 구성이 문제가 아니라, 문제 생기면 누가 책임지나요? 무료로 A/S가 될 가능성도 별로 없겠지만 여튼 A/S된다고 해도 그 기간동안 공백은 어떻게 처리할건가요?
자기PC처럼 붙어서 관리해줄 인력이 있나요? 이런거 다 고려하다보면 결국 답이 없는 이야기입니다.
참고로 중소 벤더중에 풀 커스텀 수냉으로 딥러닝 장비 납품하는데가 좀 있고, 문제(누수)생기면 장비채로 1:1 교환도 되는걸로 알고있습니다.
비용은 꽤 비싸더군요.
덤으로 요새 새로 구축되는 대기업?IDC의 경우 수냉을 위한 배관이 이미 매립되어 있는 경우가 많습니다.
다만, 그렇다고 커수를 탑재한 장비를 올리는건 아니고, 밴더사 장비가 아예 데이터센터용으로 수냉 탑재해서 납품됩니다. (인텔, 델, 등등... 여러군데서 다 수냉 납품합니다)
카드형 시스템은 아직 없는거같고 A100 V100 같은 녀석들에 수냉 탑재되서 나오구요... 그냥 요런 녀석들도 있다고...
요약 : 돈을 많이 쓰시면 해결됩니다^^ 선택은 사장님의 몫이겠네요.
수냉은.. 개인적인 장비 면에서나 해봤지 실사용으로 운영은 별로 해본적이 없어서..
그래서 여기다 문의를 굴려본건대
역시나 저의 생각과 일치하여.. 현제로선 보고서 작성하고
저는 탈출 하려고 합니다
안그래도 장비 관리한다고 잠도 제대로 못자는대...
수냉 시스템까지 덤탱이 쓰면 어후.. 피가더 말라 버릴듯..
제 개인 장비는 수냉으로 4웨이로 운영중입니다
2년 사용했으나 문제는 없었으나 관리소홀 되면 그냥 요단강 갈거 같습니다..
특히나 서버실에 넣었다가 작살나면 다른것까지 다 말아먹을테니..
수냉이기 때문에 발생되는 문제가 또 있어서. 3~4년 이상 운영해야 할 서버에는
하지 않습니다.
에어컨 관리만 잘 하시면 될겁니다.
에어컨의 고장 / 사내 정전 / 관리자의 실수 등..
이런 문제가 자주 발생하는 편이며.. 서버에 치명적입니다.
이에 UPS 병용 운영으로 커버 하세요..
1. 수냉은 비용상 절대 저렴하지 않습니다.
4way ~ 8way GPU 라면 커스텀수냉 혹은 제조사 완제품 수냉인데, 커스텀수냉이 상대적으로 완제품 수냉보다 저렴하지만 구성 비용 생각하면 절대 저렴하지 않습니다.
또한 꾸준히 유지보수비용 (인력or외주) 역시 만만치 않게 들어갑니다.
2. 공냉 시스템 대비 하이 리스크 로우 리턴 에 해당됩니다.
공냉 시스템에서 GPU 온도를 80도 이하로 유지할 수 있다면 수냉 시스템 대비하여 손해보는 성능은 0에 가깝습니다.
또한 시스템 쿨링을 잘 신경쓴다면 24도 수준의 실내(서버실x) 에서도 풀로드 80도 이하로 유지하는게 가능합니다. (4way 등 멀티GPU 기준)
이경우 수냉시스템에서 얻는 잇점은 오직 상대적 저소음, 혹은 1slot GPU 라는 두가지 옵션정도만 유용한듯합니다.
커스텀 수냉이라면 무조건 말리시는게 좋을듯 합니다.