CUDA 6 unified memory 사용해 보신분

   조회 5790   추천 0    

 

 CUDA 6의 새로운 feature랍니다. 

cpu 메모리와 gpu 메모리를 통합한다네요. 

이게 무슨 소린지....

짧은글 일수록 신중하게.
CUDA6 엔진을 이용하면, GPU 메모리를 CPU로 복사한 후 사용하는게 아니라..
바로 GPU가 CPU 메모리를 이용하게 된다는 것이죠.
이렇게 하면, GPU메모리를 CPU쪽으로 복사할 때 생기는 딜레이를 최소화 하게 된다는 겁니다.
겁나게 빨라졌다고 광분하던데.. 사실 잘 모르겠어요. ㅡㅡ;
기존 CUDA도 결국 CPU, 코어, 클러 등의 장비빨을 넘을 수는 없더라구요.
개인적인 생각으로.. N당은 마케팅을 겁나게 잘하는 것 같아요.
아, 그렇다고 CUDA가 나쁘다는 건 아니고..
테슬라 카드쓰면 좋죠... 하지만..겁나비싸니..헐..
     
하셀호프 2016-10
그러니까 cudaMemCopy를 쓸 필요가 없다는 것 같던데요
빨라지는 것은 그렇다고 해도 메모리가 절약되는 것은 확실해 보이는데요.
cpu 메모리 따로 gpu 메모리 따로 보다는 효율적일 거 같네요.
조그마한 계산은 별로겠지만 메모리를 4~5기가 쓰는 계산이면 상당할 수 있겠는데요.
테슬라 아니라도 compute capability 3.0 이상이면 된다던데요.
650 이상이면 될 것 같은데요. 문서대로 라면...
          
아, 제가 테슬라를 언급한건.. 
비싼장비에서 구현되는 CUDA 속도는 당연히 빠르다는 의미였습니다.
테슬라같이 비싼 장비로 하면 당연히 빠르다는 의미였습니다.
쿰척쿰척 2016-10
다른건 둘째치고 디바이스 자체의 메모리가 많이 나오는건 12기가 이렇게 나오는데, GpU에서 다이렉트 억세스 가능하다는건 램 풀뱅크를 다쓸수 있어서 그 용량울 뛰어넘은 헤비한 계산이 가능하다는게 장점 같네요
쿰척쿰척 2016-10
제 경우에는 GPU에 달린 램을 다쓰고나서 비우고 재할당하고 복사작업할때 꽤 딜레이가 됏었거든요.

CPU 램 몇백기가를 그대로 서용하면 재할당을 적게 하니 훨빠르긴 할듯합니다
하셀호프 2016-10
CUDA는  디바이스의 메모리를 몇가지로 나누어 관리하는데 이게 각각
용량과 속도에 따라 다릅니다. 만일 gpu가 cpu 메모리를 반복적으로
접근한다면 성능이 적지 않게 떨어질 것이라 생각합니다.
pci-express x16이 걸림돌이 될 수도 있다고 생각합니다.
gpu가  cpu 메모리 접근을 최소화하고 gpu 메모리를 최대한 이용하는 것이
성능을 극대화하는 것이라고 생각합니다.
     
무아 2016-10
+1 동감입니다
옛날에 c 프로그래밍 할때 cpu의 레지스터를 변수로 할당하여 속도를 높이거나 어샘블리 코딩을 할 때도 그런식으로 최적화를 하는데 왠지 거꾸로 가는 느낌 입니다.
두가지 모드를 다 되게 해서 필요에 맞춰 쓰게 되겠죠.


QnA
제목Page 2213/5732
2015-12   1794110   백메가
2014-05   5269031   정은준1
2018-09   3320   김진영JK
2024-05   1896   아마데우쓰
2016-07   5898   씨형
2014-01   5669   회원K
2018-10   3713   Nikon
2021-02   4893   dongkky
2022-10   3349   라혼
2016-07   4373   무아
2021-03   3936   알수없는힘
2011-10   5944   이병한
2014-02   4040   현진
2011-10   14658   도석림l지나가는바람처럼
2022-10   1917   FreeBSD
2024-06   1860   2CPU최주희
2015-06   6661   Korokoro
2022-11   3679   길가던뉴비
2016-07   13361   이니이니
2011-11   13797   펭귄김정환
2014-02   4511   컴지기
2014-02   5465   서울l승용