[ 랜카드 및 메모리 대역폭 ] 실제 처리 속도

   조회 3198   추천 0    

전체망이 1Gbps로 구성된 망에,

10MB화일을 전송시,

  1,000Mbps NIC를 장착할 경우가, 100Mbps NIC 장착한 경우보다 10배 근접하게 빠르게 화일 전송 할 거 같습니다. 


1. 그렇다면 100KB 화일(매우 작은 크기의 화일)도 실제로 이론상 10배 빠르게 전달이 될런지요? 100Mbps 대역폭보다 작은 파일도 실제로 1,000Mbps 대역폭에서 빠르게 처리 될런지 궁금합니다


저의 추측은 실제로(클럭? / 파형?)이 더 빠르게 처리 되니, 더 빠를거 같긴 한데.  추측이긴 해서요 ?


2. 동일한 원리가 메모리 및 CPU 대역폭 및 실제 처리 속도에도 적용 될런지요 ?


감사합니다

짧은글 일수록 신중하게.
술이 2022-02
작은파일은 속도 겁나 안나와요. 작은파일은 블럭전송이 가장 빠름. 파일전송은 TCP 전송을 기반으로 하기 때문에 딜레이가 존재해서 대역폭이 크다고 하더라도 큰파일들만 이득이 있지 작은파일들은 오래걸립니다.
만약 순수한 파일복사 단방향일 경우는 copy 툴을 사용하는게 좋아요. fastcopy 나 테라카피나 robocopy 를 이용하면 작은 파일단위로 빠르게 복사되긴 합니다. 일부는 네트워크압축 전송 옵션도 있어서 시간을 더 많이 단축시킵니다.
     
답변 감사합니다.

저의 질문 취지는 실제적인 파일 전송 효율 보다는 패킷/쓰루풋 관점에서 궁금증이 생겨서요…..
송주환 2022-02
1. 프로토콜에 따라 다릅니다. 현대의 전송 프로토콜은 Congestion Control 메커니즘을 가지고 있고, 흔히 사용하는 프로토콜들은 Windowing 메커니즘을 가지고 있어서 전송 시작 즉시 최고 속도에 도달하는 것이 아니기 때문입니다. 따라서 데이터의 크기에 따라 거의 차이가 나지 않을 수도 있습니다.

이런 제약사항들을 제외하고 평가한다면 단위 시간 당 전송률이 10배가 되는 것이므로 전체 시간은 1/10로 줄어들어야 합니다.

2. 메모리와 CPU 캐시의 접근 속도는 모든 구간에서 리니어하게 나오지 않습니다. CPU의 처리 성능으로 넘어가면 훨씬 더 많은 펙터들이 영향을 끼치게 되기에 단순 수치 비교는 거의 의미가 없어집니다.
메모리의 실제 쓰루풋은 액세스 패턴의 영향을 크게 받는데, DIMM 인터페이스는 기본적으로 병렬 구조이기 때문에 DIMM 모듈의 뱅크들에 동시에 접근하는 액세스 패턴의 경우에만 최대 성능을 발휘할 수 있습니다. 만약 동일한 메모리 공간에 반복적으로 접근하는 워크로드라면 낮은 성능이 나오게 됩니다. 물론 CPU 캐시가 있기 때문에 이런 액세스 패턴이 나타날 가능성은 없습니다.

이렇듯 실제 컴퓨터에서는 수 많은 변수들이 존재하기 때문에, 숫자는 그냥 숫자로 보고 넘어가는 것이 좋습니다.
실제 응용의 성능을 평가하고 싶다면 타겟 워크로드에 대한 벤치마크를 설계해서 돌려보는게 제일 좋은 방법이구요.
dateno1 2022-02
1경우 10배까진 안 나와요

그리고 저런건 케쉬나 프로토콜 영향 많이 받는지라 ftp/smb등은 초 느림

2경우 싱글이 너무 느리면 제한 걸립니다
제온프로 2022-02
일단 대역폭의 정의를 먼저 집고 가야겠습니다.

100Mbps = > 1Gbps  10배의 상승은 대역폭의 상승이지 클럭의 상승, 순간동작의 상승은 아닙니다.


ㅁ압축된 파일 200MB 용량의 파일을 두 LAN 환경에서 테스트 해 보면
  100Mbps 네트워크에서 걸리는 시간 = 18초
  1Gbps    네트워크에서 걸리는 시간 = 1.8초  10배 정도 빠르죠.


ㅁ단일 파일 1MB 용량의 파일을 두 LAN 환경에서 테스트 해 보면
  100Mbps 네트워크에서 걸리는 시간 = 0.1초
  1Gbps    네트워크에서 걸리는 시간 = 0.1초  똑 같습니다. (거의 비슷합니다.)

클럭이라고 생각하면 1GMbps 망이 10배 빨라야 하는데... 똑 같죠.

이렇게 개념을 잡으세요..

차선이 많은 고속도로 망이라고 생각하세요..
제온프로 2022-02
두 시스템을 연결하여 통신하는 방식 (또는 멀티 시스템 상호 연결)

Ethernet : 일반적으로 사용하는 방식 ( ping 이나 Latency 가 긴것이 문제, 하지만 호환성 좋고 왕 편함)
SFP Ethernet : 서버에서 많이 사용, 광이라 순간 Latency 가 짧고 노이즈를 않탐,, 거리 김, 고압전선과 배선을 같이 할 수 있어 편함, 신호 안정적
SAS Interface : SAS 6G, 12G를 이용하여 연결, 컨트롤러끼리 연결, Raid 볼륨도 연결할 수 있음
Infiniband : 두 시스템의 1-(CPU+램) 와 2-(CPU+램) 직접 연결 Latency도 짧고, 모든게 빠른 방식.
박문형 2022-02
심하게 따지면 데이터가 어디에 어떻게 저장되어 있느냐도 관계가 있을수 있지만

그런것 이런것 다따지기 시작하면 한도 끝도 없기에

시스템 전체를 구축하면서 아니면 구축해두고 상황에 맞추어 옵티마이징해가는 것이 맞다라고 생각되네요..




보통 이런 시스템 퍼포먼스는 벤치마크프로그램으로 하는 경우가 많은데

벤치마크 프로그램으로 보이는 것은 숫자들이며 이것이 절대적이지 않습니다..

같은 버젼의 벤치마크 프로그램이라도 OS종류에 따라 드라이버의 버젼에 따라 벤치마크 결과는 어떨 때는 다 제각각이거든요..

그리고 같은 시스템 같은 OS같은 드라이버라도 벤치마크 프로그램 버젼에 따라 벤치마크 결과가 변할수 있습니다..


QnA
제목Page 602/5714
2015-12   1721842   백메가
2014-05   5188764   정은준1
2022-02   6067   수퍼싸이언
2022-02   3934   컴박
2022-02   1888   삐돌이슬픔이
2022-02   2119   일론머스크
2022-02   1674   병맛폰
2022-02   3199   전설속의미…
2022-02   2424   쪼커
2022-02   2429   미친감자
2022-02   3171   Woodcam
2022-02   2079   yahooii
2022-02   4487   김상혁2
2022-02   2466   전설속의미…
2022-02   1519   장동건2014
2022-02   1788   이승익
2022-02   1797   UDION52
2022-02   2303   Won낙연
2022-02   4837   inquisitive
2022-02   1570   lovei
2022-02   2147   민사장
2022-02   3087   osthek83