KR20120019490A - 트래픽 부하를 관리하는 방법 - Google Patents

트래픽 부하를 관리하는 방법 Download PDF

Info

Publication number
KR20120019490A
KR20120019490A KR1020117031548A KR20117031548A KR20120019490A KR 20120019490 A KR20120019490 A KR 20120019490A KR 1020117031548 A KR1020117031548 A KR 1020117031548A KR 20117031548 A KR20117031548 A KR 20117031548A KR 20120019490 A KR20120019490 A KR 20120019490A
Authority
KR
South Korea
Prior art keywords
network node
packet
time
traffic load
traffic
Prior art date
Application number
KR1020117031548A
Other languages
English (en)
Other versions
KR101333856B1 (ko
Inventor
볼프람 라우텐슐레이거
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20120019490A publication Critical patent/KR20120019490A/ko
Application granted granted Critical
Publication of KR101333856B1 publication Critical patent/KR101333856B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/32Flow control; Congestion control by discarding or delaying data units, e.g. packets or frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • H04L47/2475Traffic characterised by specific attributes, e.g. priority or QoS for supporting traffic characterised by the type of applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/32Flow control; Congestion control by discarding or delaying data units, e.g. packets or frames
    • H04L47/326Flow control; Congestion control by discarding or delaying data units, e.g. packets or frames with random discard, e.g. random early discard [RED]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Small-Scale Networks (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 네트워크 노드(2)의 트래픽 부하를 관리하는 방법뿐아니라, 네트워크 노드(2) 및 이 방법을 실행하는 컴퓨터 프로그램 제품에 관한 것이다. 상기 네트워크 노드(2)는 패킷 교환 네트워크(100)에서 하나 이상의 동시발생 애플리케이션 스트림들로부터 수집된 패킷 트래픽을 수신한다. 다수의 하나 이상의 동시발생 애플리케이션 스트림들은 패킷 트래픽의 입도로서 추정된다. 드롭 확률 Pd는 상기 추정된 입도 및 상기 네트워크 노드(2)의 현재 트래픽 부하에 기초하여 계산된다. 상기 계산된 드롭 확률 Pd는 혼잡 제어를 위해 제공된다.

Description

트래픽 부하를 관리하는 방법{METHOD OF MANAGING A TRAFFIC LOAD}
본 발명은 패킷 교환 네트워크에서 다수의 짧은 수명의 애플리케이션 스트림으로부터 수집된 패킷 트래픽을 수신하는 네트워크 노드의 트래픽 부하를 관리하는 방법과, 네트워크 노드 및 상기 방법을 실행하는 컴퓨터 프로그램 제품에 관한 것이다.
RFC 2309는 패킷 트래픽을 다루는 현재 라우터에서 일반적으로 사용되는 혼잡 통지 알고리즘(congestion notification algorithm)인 무작위 조기 탐지(Random Early Detection: RED) 알고리즘을 기술하고 있다. 특히, RED 알고리즘은 라우터 또는 스위치와 같은 네트워크 노드에서 트래픽 부하의 관리용으로 사용된다.
본 발명의 목적은 네트워크 노드의 트래픽 부하의 개선된 관리를 제공하는 것이다.
본 발명의 제1 목적은 패킷 교환 네트워크에서 다수의 애플리케이션 스트림들로부터 수집된 패킷 트래픽을 수신하는 네트워크 노드의 트래픽 부하를 관리하는 방법에 의해 달성되며, 상기 방법은, a) 상기 패킷 트래픽의 입도(granularity)를 상기 네트워크 노드의 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 최대 개수로서 추정하는 단계; b) 상기 추정된 입도 및 상기 네트워크 노드의 트래픽 부하에 기초하여 드롭 확률 Pd를 계산하는 단계; 및 c) 상기 계산된 드롭 확률 Pd를 혼잡 제어를 위해 제공하는 단계를 포함한다. 본 발명의 제2 목적은 패킷 교환 네트워크에서 다수의 애플리케이션 스트림들로부터 수집된 패킷 트래픽을 수신하는 네트워크 노드에 의해 달성되며, 상기 네트워크 노드는, 상기 패킷 트래픽의 입도를 상기 네트워크 노드의 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 최대 개수로서 추정하고; 상기 추정된 입도 및 상기 네트워크 노드의 트래픽 부하에 기초하여 드롭 확률 Pd를 계산하며; 및 상기 계산된 드롭 확률 Pd를 혼잡 제어를 위해 제공하도록 구성된 제어 유닛을 포함한다. 본 발명의 제3 목적은 패킷 교환 네트워크에서 다수의 애플리케이션 스트림들로부터 수집된 패킷 트래픽을 수신하는 네트워크 노드의 트래픽 부하를 관리하는 컴퓨터 프로그램 제품에 의해 달성되며, 상기 컴퓨터 프로그램 제품은, 상기 네트워크 노드에 의해 실행될 때, 상기 패킷 트래픽의 입도를 상기 네트워크 노드의 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 최대 개수로서 추정하는 단계; 상기 추정된 입도 및 상기 네트워크 노드의 트래픽 부하에 기초하여 드롭 확률 Pd를 계산하는 단계; 및 상기 계산된 드롭 확률 Pd를 혼잡 제어를 위해 제공하는 단계를 수행한다.
애플리케이션 스트림들은 동시발생 애플리케이션 스트림들(concurrent application streams), 즉, 수명이 서로 일치하는 애플리케이션 스트림들이다. 네트워크 노드는 패킷 트래픽의 전송시 엔드포인트들 사이, 예컨대, 소스와 목적지 사이에 있는 중간 노드이다. 네트워크 노드는 소스와 목적지 사이에서 전송 용량을 나타낸다. 네트워크 노드는 패킷의 처리를 위한, 예를 들면, 라우팅을 위한 패킷 트래픽을 수신한다. 패킷 트래픽의 전송 수단으로서, 네트워크 노드는 소정의 전송 용량 B를 처리한다. 만일 네트워크 노드가 라우터 또는 스위치라면, 네트워크 노드의 전송 용량은 패킷이 라우터 또는 스위치를 통해 각기 라우트 또는 스위치되는 속도로 제한된다. 만일 네트워크 노드가 전송 링크 또는 더 정확하게는 그의 엔트리 포인트라면, 전송 용량은 단순히 링크의 전송 속도이다. 만일 패킷 트래픽의 양이 제로이면, 네트워크 노드로 대표되는 링크의 부하, 즉, 링크 부하는 역시 제로, 즉, 최저이다. 만일 패킷 트래픽의 양이 전송 용량과 같다면, 네트워크 노드의 링크 부하는 1, 즉, 최대이다. 만일 패킷 트래픽의 양이 전송 용량보다 크면, 링크 부하는 1보다 크며, 즉, 네트워크 노드는 과부하가 걸린다.
패킷 트래픽은 다수의 짧은 수명의 애플리케이션 스트림들로부터 다중화된 것이다. 본 발명은 통계적 방법에 기반하므로, 본 발명은 통계적으로 의미있는 개수의 동시발생 애플리케이션 스트림들에는 잘 동작한다. 비록 고려한 시간 척도(time scale) 이상으로 다수의 애플리케이션 스트림들이 관여될지라도, 어떤 시점에서, 하나 또는 소수의 애플리케이션 스트림들의 패킷만이 네트워크 노드에 도달할 수 있음이 주목된다. "짧은 수명"이라는 용어는 애플리케이션 스트림의 지속기간이 유한한 길이라는, 바람직하게는 혼잡 제어에 관여한 시스템, 예컨대, 네트워크 노드의 전형적인 서비스 시간보다 적어도 훨씬 짧다는 것을 의미한다. 특정한 애플리케이션 스트림은 최종 사용자 애플리케이션의 통신 이벤트를 나타낸다. 이것은 비트 레이트, 크기 및/또는 지속기간으로 특징짓는다. 애플리케이션 스트림은, 예를 들면, 패킷 기반 수집(aggregation) 네트워크를 통해 상기 노드에 접속된 대다수의 최종 사용자에 의해 랜덤하고 서로 독립적으로 시작된다. 동시발생 애플리케이션 스트림의 평균 개수 및 평균 비트 레이트는 패킷 트래픽, 즉, 시작은 되었지만 주어진 순간에 제때에 아직 종료되지 않은 다수의 애플리케이션 스트림들의 입도(granularity)라고 지칭된다.
일시적인 높은 패킷 부하를 흡수할 수 있도록 하기 위해, 네트워크 노드는 바람직하게 버퍼, 즉, 새로 도달하는 인입 패킷이 처리될 차례가 될 때까지 버퍼되는 큐를 포함한다. 만일 버퍼가 마침내 소정 순간에 풀(full)이면, 인입 패킷은 버퍼될 수 없으며 폐기되어야 하며, 즉, 패킷은 소실된다.
이더넷/IP(Ethernet IP)와 같은 무접속 패킷 전송 네트워크에서, 이들 네트워크에서 널리 사용된 혼잡 완화 방법은 탄성적 트래픽(elastic traffic)이라는 개념이다. 트래픽 소스들은 현재의 송신 속도를 줄이라는 요구와 함께 혼잡 상황에 관해 통지받는다. 본 발명의 설명에서, "현재"라는 용어는 현재 시간을 포함하는 기간을 의미하는 것으로, 바람직하게는 현재 시점을 포함하여 그 현재 시점에서 시작하며 기설정된 넌제로(non-zero) 시간 간격을 지속하는 기간, 또는 현재 시점을 포함하여 그 현재 시점에서 종료하며 기설정된 넌제로 시간 간격을 지속하는 기간을 의미한다. 이것은 이상적으로 100% 자원 활용에 가까우면서 손실이 무시할 수 있게 낮아 평형에 이르게 되어, 모든 소스가 적정한 배분(fair share)을 받게 된다. 실제로, 대부분의 대중적인 탄성적 트래픽 구현예는 TCP(Transmission Control Protocol, 전송 제어 프로토콜) 프로토콜이다. TCP는 손실 패킷의 재전송을 목적으로 접속 엔드포인트(connection endpoints)에서의 패킷 도달을 기록한다. 동시에, 기록된 패킷 손실은 암묵적 혼잡 통지(congestion notification)로서 간주된다. 그에 따라 올바른 TCP 구현예는 자신들의 송신 속도를 줄인다. 본 발명의 실시예는 오버플로우가 드문 예외를 갖는 방식에서 탄성적 트래픽(예컨대, TCP)을 관리하는데 사용될 수 있다. 본 발명의 실시예는 기존 TCP/IP 네트워크에 설치될 수 있는 라우팅 또는 스위칭 노드들의 구성가능한 특징을 제공한다. 그 이득은 TCP 접속의 훨씬 유연한 흐름과, 큐잉 지터를 상당히 줄이는 것, 및 버퍼가 작아진다는 점이다. 본 발명의 실시예는 TCP 프로토콜로 컴파일하는 패킷 전송 장비, 예컨대, 라우터 또는 스위치에서 혼잡 처리를 제공한다.
중간 라우터 또는 스위치에서 패킷 드롭에 의한 전술한 암묵적 혼잡 통지는 특별한 드롭 전략으로 구현될 수 있다. 간단한 구현예는 패킷이 도달하지만 버퍼가 풀(full)일 때마다 패킷을 드롭하는 단순한 FIFO(First In-First Out, 선입선출)로서 버퍼를 보는 것이다. 패킷을 드롭하는 것에 따라, 테일 드롭(Tail Drop), 헤드 드롭(Head Drop) 또는 랜덤 드롭(Random Drop)의 전략이 구별될 수 있다. 유감스럽지만, 전술한 단순한 오버플로우 드롭 전략은 몇 가지 심각한 단점을 갖고 있다. 즉, 소위 말하는 글로벌 동기화(global synchronisation)의 위험성, 즉, 영향받은 모든 접속들이 과부하 및 활용 미달의 반복 주기의 결과에 따라 동기적으로 자기들의 송신 속도를 낮추고 재설정하는 위험성이 있다. 두번째로, 불평등한 자원 할당의 가능성이 있다. 이러한 종류의 잘못된 행위의 근원적인 이유는 아마도 통설로 받아들이는 TCP 이론 중에서 랜덤하게 분포된 패킷 손실의 가정에 대조되는 버퍼 오버플로우의 경우에서 패킷 드롭의 버스트형 군집화(burst-like clustering)일 것 같다. 전술한 문제에 잘 정립되고 구현된 완화 방법은 잘 정립된 무작위 조기 탐지(Random Early Detection, RED) 알고리즘이다. 현재 버퍼가 오버플로우인 경우 단순한 랜덤 드롭하는 것과 달리, RED는 평균 큐 사이즈에 의존한다. 패킷 스위치에서 평균 큐 사이즈는 심각한 과부하의 조기 표시로서 사용된다. 만일 평균 큐 사이즈가 버퍼 풀 상태를 향해 소정 임계치를 벗어나면, 랜덤 패킷 드롭이 시작되어, 이상적으로는 하드 버퍼 오버플로우가 발생하기 전에, TCP 엔드포인트에게 곧 다가오는 과부하를 조기에 통지한다. 이러한 프로세스는 패킷 손실의 위험한 버스티피케이션(burstification)을 방지하는 것이다. 본 발명의 실시예는 RED로의 확장을 제공한다.
RED 알고리즘은 평균 큐 사이즈를 제어 매트릭으로서 산출한다. 최근의 연구에 의하면 이러한 계측치는 의도된 정상 상태 큐 사이즈라기보다 시간이 지남에 따른 오버플로우 상황의 비율을 나타낸다. 버퍼 채움(buffer filling)은 전형적으로 "거의 비움(nearly empty)"과 "거의 채움(almost full)" 사이에서 교대하며, 이때 "거의 비움"에 역점을 두지만 (양 끝점들 사이에서 변화일 뿐) 그 중간 어딘가일 가능성은 낮다. 이러한 관점에 비추어, RED에서 사용된 "평균 큐 사이즈"는 차라리 시간 경과에 따라 오버플로우 상황의 전파를 나타내는 인위적인 계측치이다. 다른 말로 하면, RED에서 정상 상태 큐 사이즈의 추정은 유효하지 않다. RED는 실제로 작용하지만 정말로 버퍼 오버플로우를 방지하지 못하여, 모두 좋지 않은 결과(군집화된 패킷 손실, 많은 큐잉 지터 등)를 낳는다. 더욱이, RED는 특별한 포워딩 프로세스에 필요하지 않지만 부하 계측 장치로서 단지 잘못사용된 버퍼의 디멘저닝(dimensioning)에 추가적인 부담을 준다. RED는 기본적으로 버퍼 오버플로우에 의해 트리거되지만, 본 발명은 버퍼 오버플로우에 종속하지 않는 RED의 대체 발명임을 의미한다.
본 발명의 실시예는 원활하게 흐르는 TCP 접속, 양호한 자원 활용, 줄어든 지터를 제공한다. 본 발명의 실시예는 버퍼 공간 요건을 줄일 수 있고 번거로운 분류/우선순위 없이도 서비스의 병립을 가능하게 해준다. RFC2309와 비교하여, 본 발명의 실시예는 혼잡 통지가 시간 경과에 따라 더 확산되게 한다. 본 발명의 실시예는 TCP 및 상위 (애플리케이션) 계층에서 군집화된 손실이라는 결정적인 영향을 방지한다.
RED의 전술한 감축을 피하는 한가지 간단한 개념은 혼잡 통지를 간단하게 현재 트래픽 부하에 링크시키는 것이다. 만일 특별한 네트워크 디바이스에서, 평균 부하가 용량 한계까지 올라왔다면, 엔드 포인트들에서 TCP 전송기들에 의해 랜덤 드롭핑이 시작되어 부하를 감축하였을 수 있다. 이러한 간단한 접근법이 왜 작용하지 않는지의 결정적인 포인트는 주어진 용량에서 견딜만한 부하가 시간에 대해 그리고 모든 종류의 네트워크에 대해서 단연코 획일적이지 않은 트래픽의 변동성에 달려있다는 것이다. 종래의 접근법과 대조적으로, 본 발명은 트래픽의 변동성을 고려한다.
본 발명은 성가신 분류 및 우선순위 방식 없이도 광범위한 서비스의 서비스 품질이 성취될수 있는 새로운 패킷 전송 네트워크 패러다임에서 정해진다. 본 발명에서 정해진 세계적인 개념은 극히 예외적인 경우에서만 과부하가 발생하는 방식에서 트래픽을 통계적으로 관리하는 것이다.
제안된 발명은 현재 트래픽 부하 및 트래픽 변동성에 따라 드롭 확률을 결정한다. RED와 달리, 본 발명의 실시예에 따라 결정된 드롭 확률은 버퍼 부하 상태에 달려있지 않다. 본 발명의 실시예에 따라 결정된 드롭 확률은 버퍼 공간에 무관하게 치수화된다. 따라서 버퍼 오버플로우가 크게 방지될 수 있고, 손실이 고르게 분산되고(TCP 친화) 큐잉 지터가 낮아지는 이익이 있다. 부작용으로서는, 버퍼 공간이 적게 유지될 수 있다.
이론상, 패킷 트래픽의 입도 역시 패킷 프로토콜, 예컨대, 패킷의 소스 및 목적지 어드레스를 주의 깊게 살펴봄으로써 결정될 수 있다. 그러나, 이것은 많은 자원들을 묶어 광대한 양의 데이터 비교를 요하는 시간 소모적인 절차인 모든 중간 네트워크 노드에서 상태 완전 접속 추적(state full connection tracing)을 필요로 할 것이다.
다른 장점은 종속 청구항들로 나타낸 본 발명의 실시예에 의해 달성된다.
단계 b)는 A 애플리케이션 스트림의 평균을 갖는 패킷 트래픽이 k개 애플리케이션 스트림으로 이루어진 확률 P(k)이 P(k) = Ake-A/k! 라는 포아송 분포(Poisson distribution)를 추종한다고 가정하는 단계; 오버플로우 확률 Pov를 확률 P(k)의 합으로서 계산하는 단계 - k > N이고, N은 동시발생 애플리케이션 스트림의 추정된 최대 개수이고, 그 스트림의 트래픽 양은 네트워크 노드의 용량 B보다 적음 -; 및 오버플로우 확률 Pov보다 적어질 드롭 확률 Pd를 추정하는 단계를 포함하는 것이 가능하다. N은 애플리케이션 스트림의 추정된 최대 개수이며, 그 스트림의 트래픽 양은 네트워크 노드의 용량 B보다 작다.
2008년 9월 28 - 2008년 10월 2일 부다페스트, 제13차 국제 통신 네트워크 전략 및 계획 심포지움 2008(간략히 네트워크 2008), pp. 1-18, ISBN: 978-963-8111-68-5(http://ieeexplore.ieee.org/ 에서 검색가능함)에서, 미국 뉴저지, 머레이 힐 소재의 알카텔-루슨트 벨 연구소의 라우텐슐라거 W.(Lautenschlager, W.)와 프로흐버 W.(Frohberg, W.)의 "Bandwidth Dimensioning in Packet-based Aggregation Networks" 라는 공개문헌에 따르면, 트래픽의 변동성은 기본적으로 현재 트래픽 부하를 구성하는 동시발생 애플리케이션 스트림들의 개수에 달려있다. 만일 소정 부하가 다수의 협소한 애플리케이션 스트림에 의해 만들어지면, 그 변동성은 낮다. 특정한 전송 용량을 과부하로 만들려면 (일어날 가능성이 없는) 대다수의 추가 스트림을 필요로 할 것이다. 그 반대, 즉, 소수의 광대한 애플리케이션 스트림을 갖는 경우에서, 예상되는 변동성은 높다. 단일의 추가 애플리케이션 스트림조차도 링크를 과부하로 만들 수 있고, 이것은 언제라도 발생할 수 있다. 이러한 영향은 다음과 같이 수학적으로 설명될 수 있으며, 즉, 동시발생 애플리케이션 스트림이 랜덤하게 발생하는 시스템에서, 현재 스트림의 개수의 확률 분포는 포아송 분포를 따른다.
Figure pct00001
상기 수학식에서, k는 현재 스트림의 개수이고 P(k)는 평균을 갖는 링크 상의 개수가 A 동시발생 애플리케이션 스트림의 트래픽을 제안했을 확률이다. "현재"라는 용어는 애플리케이션 스트림의 평균 지속기간보다 상당히 짧은 현재 기간을 지칭한다. 일반적으로, 본 발명은 현재 기간을 언급하며 현재 시점을 언급하지 않는데, 그 이유는 엄밀히 말해서 임의의 시점에서 전송 링크, 예컨대, 네트워크 노드는 패킷에 의해 100% 점유되거나 또는 유휴/미점유될 것이다. 이것은 패킷 트래픽의 입도가 명백해지는 바람직하게는 짧은 기간을 주의 깊에 바라볼 때일 뿐이다.
"링크"라는 용어는 패킷 전송 설비, 예컨대, 인입 패킷 트래픽을 다루는 네트워크 노드와 연관된 데이터 라인 또는 데이터 링크를 말한다. 링크는, 예컨대, 비트/초(bps)로 계측되는 제한된 전송 용량 B를 갖는다. 만일 어떤 네트워크 요소의 특정 용량 B가 N 동시발생 애플리케이션 스트림까지 다룰 수 있다면, 오버플로우 확률 Pov는 수학식 1의 확률들의 합이며, 여기서, k > N 이다.
Figure pct00002
실제 손실 확률 Pd (드롭 확률)은 오버플로우 확률 Pov 보다 약간 적은데, 그 이유는 오버플로우의 경우 모든 패킷을 잃는 것이 아니고 남는 것이 많기 때문이다. 보다 상세한 내용은 라우텐슐라거와 프로흐버의 전술한 공개문헌에 제시되어 있다. Pd 의 대응 수학식은 아래 수학식 14에서 제시된다.
애플리케이션 스트림은 패킷 전송 네트워크에 존재한다고 선언되거나 균일한 크기를 갖는다고 선언되지 않는다. 그러므로 트래픽 부하뿐아니라 링크 용량은 전술한 개념에 따르면, 부하 분포의 확산을 위한 결정 파라미터인 미지의 입도이다. 수학식 1 및 2에 의한 손실 확률의 예측은 추정을 이용하여야 한다.
본 발명의 실시예에 따르면, 상기 단계 a)는 네트워크 노드의 트래픽 부하 대 전송 용량 B의 시간 평균화된 비율로서 용량 이용률 x를 결정하는 단계 - 0 ≤ x ≤1 이며 시간 평균화는 제1 시간 척도임 -; 상기 용량 이용률 x의 시간 평균화된 값 m1 및 상기 용량 이용률 x의 제곱 x2의 시간 평균화된 값 m2를 결정하는 단계 - 시간 평균화는 상기 제1 시간 척도보다 긴 제2 시간 척도임 -; 및 상기 네트워크 노드의 전송 용량 B에 맞추어지는 상기 애플리케이션 스트림의 상기 추정된 최대 개수로서 N = m1/(m2 - (m1)2) 를 계산하는 단계를 포함한다.
소정의 수집된 패킷 플로우의 입도는 다음과 같은 수단에 의해 추정된다. 제1 평균화 단계에서, 네트워크 노드에 도달하는 패킷 트래픽은 네트워크 노드, 특히 그 링크를 통해 패킷 트래픽이 전송되는 네트워크 노드의 데이터 링크의 이용가능한 용량 B에 대한 관계로 설정된다. 본 발명의 실시예에 따르면, 상기 제1 평균화 단계는 연관된 네트워크 노드의 버퍼 유지 시간과 대조할 수 있는 제1 시간 척도에서 이루어진다. 이러한 제1 시간 척도는 대략 한 패킷의 전송에 필요한 시간 또는 연속하는 두 패킷들 사이의 시간 거리일 수 있다. 본 발명의 실시예에 따르면, 제1 시간 척도는 500 ㎲ 내지 100 ms의 범위, 바람직하게는 1 내지 10 ms의 범위에 있다. 결과적인 "용량 이용률" x는 0 내지 1의 값이다.
용량 이용률 x는 상대 트래픽 부하(relative traffic load)라고도 지칭된다. 트래픽 부하 r은 시간 단위 당 데이터 단위의 비율로서 주어진 데이터 레이트로서, 예컨대, 단위 비트/초(bit/s)로 계측된다. 상대 트래픽 부하 x는 절대 트래픽 부하(absolute traffic load)를 전송 용량 B에 관련시킨 0 내지 1의 범위로 하는 크기없는 무한량(dimensionless quantity)이다.
제2 평균화 단계에서, 제1 모멘트 m1는 제2 시간 척도에서 시간에 대해 평균함으로써 용량 이용률 x로부터 유도된다. 제2 모멘트 m2는 용량 이용률 x를 일차로 제곱하고 제곱된 값을 제2 시간 척도에서 시간에 대해 평균함으로써 용량 이용률 x로부터 유도된다. "모멘트"라는 용어는 수학적 통계에서 잘 정의된 양이다. m1 및 m2를 생성하기 위해 시간에 대해 평균하는 것은 동일한 파라미터를 이용하여 수행된다. 이러한 제2 시간 평균화 단계는 애플리케이션에 상당히 의존하지만 상기 제1 시간 평균화 단계와는 반대이며, 제2 시간 척도는 분(minutes) 또는 그 이상 사이의 범위에 있다. 제2 시간 척도는 관여된 네트워크들의 개수에 종속한다는 것이 가능하다. 본 발명의 실시예에 따르면, 제2 시간 척도는 1초보다 큰 범위에 있다. 본 발명의 실시예에 따르면, 제2 시간 척도는 제1 시간 척도보다 적어도 백배 크다.
예컨대, 한달 내에서 매일마다 부하 곡선의 대응하는 시간 간격에 대해 평균하는 등의 다른 평균화 방법이 전술한 제1 및 제2 모멘트의 추정에 적용될 수 있다.
모멘트 m1 및 m2로부터, 동시발생 애플리케이션 스트림들의 추정된 최대 개수 N이 산출되며, 즉, (예컨대 비트/초로 주어지는) 용량 B는 정수 개의 스트림으로 변환된다.
Figure pct00003
수학식 3의 도출은 다음에서 설명된다. 총 데이터 레이트 r을 갖는 현재 트래픽 플로우는 각각의 (미지의) 데이터 레이트 br의 다수의 애플리케이션 스트림의 오버레이일 것으로 가정된다. 또한 애플리케이션 스트림은 사용자들의 다수 (대략 무한) 그룹으로부터 랜덤하고 서로 독립적으로 도달한다고 가정된다. 2004년 3월, 제네바 소재의 퀘션(Question) 16/2, ITU-D 스터디 그룹 2, ITU/ITC 텔레트래픽 엔지니어링 핸드북(http://www.com.dtu.dk/teletraffic/)으로부터, 이 경우 동시발생 스트림의 현재 개수는 다음과 같이 포아송 분포를 추종하는 랜덤한 개수 k라고 알려져 있다.
Figure pct00004
여기서 세기 λ는 동시발생 스트림들의 평균 개수("제공된 트래픽(offered traffic)라고도 알려지고, "평균 유지 시간 당 호 시도(call attempts per mean holding time)"라고도 알려짐)와 같다. 세기 λ는 다음과 같이 계산될 수 있다.
Figure pct00005
여기서 r은 현재 트래픽 레이트이고, E[r]은 r의 예측 값이며, br은 단일의 애플리케이션 스트림의 미지의 데이터 레이트이다. 동시에, 이용가능한 용량 B는 데이터 레이트 br의 최대 N 애플리케이션 스트림에서 전달될 수 있다.
Figure pct00006
수학식 5 및 수학식 6으로부터, 다음 수학식이 유도될 수 있다.
Figure pct00007
여기서 r/B는 (부하 대 용량의) 용량 이용률 x이다.
포아송 분포의 표준 편차는 다음과 같이 공지되어 있다.
Figure pct00008
한편, 동시발생 애플리케이션 스트림의 관측된 개수는
Figure pct00009
이다. 따라서, 관측으로부터 유도된 표준 편차는 다음과 같다.
Figure pct00010
수학식 7, 8 및 9로부터, 다음 수학식이 도출될 수 있다.
Figure pct00011
유한 애플리케이션 스트림이라 가정하면, 예측 값은 다음과 같이 시간에 대해 평균값으로 대체될 수 있다.
Figure pct00012
Figure pct00013
Figure pct00014
대역폭 용량 B 내에서 동시발생 애플리케이션 스트림들의 추정된 최대 허용 개수 N을 알고 있다면, 예측된 패킷 드롭 확률 Pd는 다음과 같이 계산될 수 있다.
Figure pct00015
이때 제안된 트래픽은 다음과 같다.
Figure pct00016
주어진 부하 레벨 m1에서 드롭 확률 Pd는 부하 자체에 의존할뿐만 아니라 개수 N, 즉, 동시발생 스트림들의 최대 허용 개수로 표시된 트래픽의 입도에도 달려 있다는 사실이 자명하다.
이것은 고려된 트래픽을 공급받는 용량 B의 네트워크 노드가 대략 추정된 확률 Pd에서 패킷을 드롭할 것이라는 사실이 예상될 수 있다. 유감스럽게도 실제의 드롭은 시간에 따라 잘 분포되어 있지 않지만, 짧은 버스트에서, 특히 현재 부하 x가 용량 한계치를 초과할 때의 시간에서 군집화된다. 실제 드롭 레이트의 군집화는 비록 TCP에서 널리 사용될지라도 혼잡 통지용으로 적절하지 못하게 된다.
실제 드롭하는 것 대신, 본 발명의 다른 실시예에 따르면, 추정된 드롭 확률 Pd(수학식 14 참조)은 혼잡 통지용으로 사용될 수 있다. 이것은 오히려 전술한 제2 평균화 동작의 시간 척도에서 일정하다.
전술한 해법은 여전히 TCP 엔드포인트에 의해 트래픽 적응에 느리게 응답한다는 단점을 갖고 있다. 이를 극복하기 위해, 본 발명의 다른 실시예는 다음과 같은 발견적 접근법(heuristic approach)을 도입한다. 즉, 평균 부하 m1 대신, 현재 부하 xc 또는 m1 및 xc의 조합이 수학식 15에서 사용된다. 즉,
Figure pct00017
Figure pct00018
m1 대신 현재 부하 xc를 사용하는 것은 트래픽 변동의 동태를 혼잡 통지 신호에 재도입하는 것이지만, 여전히 군집화를 피하지 못하며 또한 혼잡에 미치는 트래픽 그래뉴러리트의 영향에 비중을 두고 있다. m1 및 xc의 조합은 장기간 평균 m1으로부터 생긴 현재 부하 xc의 랜덤하게 예외적인 최대 편차의 영향에 전념하는데 유익하다.
수학식 14 내지 수학식 17로부터 유도된 바와 같은 발견적 함수 Pd=f(N, m1, x)는 라우텐슐라거와 프로흐버(위 참조)에서 손실 확률 계산에 기반한다. 함수 F(N, m, x)는 동등하게 평탄한 표면을 구성하며 따라서 보간 테이블에 의해 구현될 수 있다. 함수 f(N, m, x)는 현재 부하 xc를 고려할 뿐 아니라, 과거의 평균 부하 m = m1을 고려하여 있음직하지 않는 예외적 편차의 경우에 대량의 드롭을 방지한다. 더욱이, 발견적 방법은 몇가지 임계적인 메커니즘 및 원래의 RED 알고리즘에서도 아마도 포함된 스케일링 팩터를 포함한다.
발견적 방법은 예상된 손실이 랜덤 드롭 확률 Pd에 의해 예기된다는 가정에 기반한다. 버스트에서 군집화되었을 오버플로우 손실과 달리, 랜덤 드롭은 Floyd, S., and Jacobson, V., Random Early Detection Gateways for Congestion Avoidance, IEEE/ACM Transactions on Networking, V.1 N.4, August 1993, pp. 397-413 에서 설명되었던 것처럼 고르게 분포될 수 있다. 따라서, TCP-친화 및 애플리케이션-친화 패킷 손실 프로파일이 만들어진다.
계산된 드롭 확률 Pd은 혼잡 제어를 위해 제공된다. 제공된 드롭 확률 Pd에 따라서, 혼잡 통지가 시작될 수 있다. 본 발명의 또 다른 실시예에 따르면, 상기 방법은 계산된 드롭 확률 Pd에 따라서 수신되는 패킷 트래픽의 패킷을 드롭 및/또는 마킹하는 단계를 더 포함한다. 네트워크 노드에서 패킷을 드롭하는 것은 네트워크 노드의 트래픽 부하를 감소시키는 효과를 가질 수 있다. 패킷을 드롭 및/또는 마킹한 후 혼잡 통지가 시작되는 것이 가능하다. 드롭 확률 Pd은 단순히 패킷의 목적지 어드레스에 따라서 네트워크 노드에 의해 라우트되는 것이 아니고, 특수한 방식으로 네트워크 노드에 의해 다루어진다. 패킷의 특수한 처리는 패킷이 네트워크 노드에 의해 드롭되는 것, 예컨대, 패킷이 삭제되는 것을 의미한다는 것 또한 가능하다. 본 발명의 실시예는 RED의 개선으로 사용될 수 있으며, 드롭된 패킷은 암묵적 혼잡 통지에 영향을 미친다. 네트워크 노드에 의한 패킷의 특수한 처리는 패킷이 마크되고(플래그 또는 비트의 설정, 예컨대, 혼잡 마킹), 카운트되고, 특수 목적지 어드레스 등으로 라우트된다는 것 또한 가능하다. 패킷의 드롭핑 및/또는 마킹은 데이터 패킷의 전송을 송신 또는 지연할 때를 결정하는 공지의 혼잡 회피 프로세스를 개시할 수 있다. 애플리케이션 스트림들의 엔드포인트들이 혼잡 통지에 의해 통지받는 것도 가능하며, 이 경우 이들 엔드포인트들은 소스에 의해 송신된 패킷량을 줄이도록 요청받는다.
본 발명의 또 다른 실시예는 혼잡 가격책정 또는 계산을 위해 예측된 드롭 확률 Pd를 사용한다. 이 경우, 상이한 두 네트워크 도메인들 사이의 상호연결 게이트웨이에 있어서, 송신 네트워크는 수신 네트워크에 주입하는 혼잡 정도를 설명받는다.
본 발명의 또 다른 실시예에 따르면, 혼잡 통지는 패킷 트래픽의 레이트를 줄이는 트리거로서 사용된다. 계산된 드롭 확률 Pd에 따라서, 트래픽 소스는 현재 송신하는 레이트를 줄이라는 요구와 함께 혼잡 상황에 관해 통지받는다. 이것은 이상적으로 100% 자원 활용에 가까우면서 무시할 정도로 손실이 낮아 평형에 이르게 되어, 모든 소스가 적정한 배분을 받게 된다. 실제로, 대부분의 대중적인 탄성적 트래픽 구현예는 TCP 프로토콜이다. TCP는 손실 패킷의 재전송을 목적으로 패킷이 접속 엔드포인트(connection endpoints)에 도달하는 것을 기록한다. 동시에, 기록된 패킷 손실은 암묵적 혼잡 통지로서 간주된다. 그에 따라 올바른 TCP 구현예는 자신들의 송신 속도를 줄인다. 본 발명의 실시예는 TCP 구현예와 협력한다.
본 발명의 이러한 특징 및 장점뿐 아니라 다른 특징 및 장점은 첨부 도면과 함께 설명된 다음과 같은 예시적인 실시예의 상세한 설명을 읽어봄으로써 잘 인식될 것이다.
도 1(a) 및 도 1(b)는 본 발명이 기반으로 하는 발견적 방법을 예시하는 것으로, 도 1(a)는 일반적으로 상대적 트래픽 부하 x의 함수이고 N이 파라미터인 함수 f(N, m)에 의해 유도된 드롭 확률 Pd를 도시하며, 도 1(b)는 상대적 트래픽 부하 x가 도 1(a)의 함수, 즉, 그의 장기간 평균 m1 또는 그의 현재 (짧은 기간) 값 xc에 의해 어떻게 적용되는지를 예시한다.
도 2는 본 발명의 실시예에 따른 네트워크 노드의 블록도이다.
도 1(a) 및 도 1(b)는 드롭 확률 Pd가 어떻게 네트워크 노드에서 상대적 트래픽 부하 x를 계측함으로써 도출될 수 있는지를 보여주는 예이다. 도 1(a)는 용량 이용률(utilisation ratio) x의 함수로서 드롭 확률 Pd을 이용하여 스케치한 커브를 도시하며, 이때 0 ≤ x ≤ 1 이다. 이 도면은 동시발생 애플리케이션 스트림들의 다섯 가지 상이한 추정된 최대 개수 N에 대해, 즉, N=1, 3, 10, 30 및 100에 대해 Pd의 수치적으로 결정된 다섯 개의 커브를 도시한다. 도 1(a)에서 도시된 바와 같은 함수 Pd = f(N, m)은 수학식 14에 의해 N개의 선택된 값들에 대해 수치적으로 획득되었다.
도 1(b)는 시간 t의 함수로서 용량 이용률 x를 이용하여 스케치한 커브를 도시한다. 첫째, 이 도면은 현재 용량 이용률 xc의 크게 변동하는 값을 도시한다. 현재 용량 이용률 xc는 네트워크 노드의 트래픽 부하 r 대 네트워크 노드의 용량 B의 시간 평균화된 비율로, 시간 평균은 제1 시간 척도, 예컨대, 밀리초로 평균된다. 둘째, 이 도면은 용량 이용률 x의 시간 평균화된 값인 일정 값을 도시하며, 여기서 평균은 수분의 시간 척도로 이루어진다.
어느 용량 이용률 x가 드롭 확률 Pd의 산출에 사용되는가에 따라서, 드롭 확률 Pd의 상당히 상이한 값이 획득된다. 또한, 결과적인 드롭 확률 Pd는 동시발생 애플리케이션 스트림들의 추정된 최대 개수 N에 크게 의존한다.
N=10인 경우 드롭 확률 Pd는 도 1(a)에서 상대적 트래픽 부하 x의 세 가지 상이한 값에 대해 예시적으로 결정되며, 즉, 평균값 x=m1
Figure pct00019
0.35 일 때 (일점쇄선 화살표를 따라가 보면) 드롭 확률 Pd
Figure pct00020
2.5ㆍ10-4 을 제공하고, 상대적 트래픽 부하의 최소값 xc , min
Figure pct00021
0.18 일 때 (점선 화살표를 따라가 보면) 드롭 확률 Pd
Figure pct00022
2ㆍ10-6 을 제공하고, 상대적 트래픽 부하의 최대 값 xc , max
Figure pct00023
0.65 일때 (파선 화살표를 따라가 보면) 드롭 확률 Pd
Figure pct00024
1.5ㆍ10-2 을 제공한다. 도 1(a) 및 도 1(b)는 산출된 드롭 확률 Pd가 어떻게 패킷 트래픽의 추정된 입도 N 및 상대적 트래픽 부하 x에 달려 있는지를 예시한다. 주어진 상대적 부하 레벨 x, 여기서는 m1 또는 xc에서 드롭 확률 Pd는 부하 x 자체뿐만 아니라 트래픽의 입도 N, 즉, 동시발생 스트림들의 최대 허용 개수에도 종속한다는 사실이 자명해진다.
도 2는 본 발명의 실시예에 따른 네트워크 노드를 도시하는 블록도이다. 도 2는 네트워크 노드(2), 예컨대, 패킷 스위칭 네트워크(100), 예를 들면, 인터넷에서 인입 링크(6) 및 다수의 송출 링크(230)를 갖는 라우터 또는 스위치를 도시한다. 패킷 교환 네트워크는 무접속 패킷 전송 네트워크라고도 지칭된다. 입력 링크(6)에서, 다수의 소스로부터 수집된 패킷 트래픽은 입력 인터페이스(21)를 매개로 데이터 링크를 통해 라우터(2)에 도달한다. 라우터(2)는 제어 유닛(4), 라우팅 유닛(23), 및 라우팅 테이블(25)을 포함한다. 인입 패킷은 입력 인터페이스(21)로부터 연결부(210)를 통해 라우팅 유닛(23)으로 전송된다. 먼저, 패킷은 라우팅 유닛(23)의 버퍼(231)에 입력된다. 만일 그 패킷의 차례이면 그리고 그 패킷이 드롭될 것으로 선택되지 않으면(아래 참조), 라우팅 유닛(23)은 인입 패킷으로부터 라우팅-관련 정보, 예를 들면, 패킷의 패킷 헤더로부터 목적지 어드레스를 추출하고, 라우팅 테이블(25)에서 대응하는 라우팅 데이터를 찾고, 그 패킷을 라우팅 데이터에 따라 다수의 출력 링크(230) 중 하나 이상의 출력 링크에 전달한다.
제어 유닛(4)은 제1 모듈(42), 제곱 장치(44), 제1 및 제2 평균화 장치(46a 및 46b), 입도 계산기(48), 및 확률 계산기(49)를 포함한다. 제어 유닛(4)은 하나 또는 여러 상호링크된 컴퓨터, 즉, 하드웨어 플랫폼, 하드웨어 플랫폼을 기반으로 한 소프트웨어 플랫폼 및 소프트웨어와 하드웨어 플랫폼으로 형성된 시스템 플랫폼에 의해 실행되는 여러 애플리케이션 프로그램으로 구성된다. 제어 유닛(4)의 기능성은 이들 애플리케이션 프로그램들의 실행에 의해 제공된다. 애플리케이션 프로그램 또는 이들 애플리케이션 프로그램들 중 선택된 부분은 시스템 플랫폼에서 실행될 때 하기에 기술된 바와 같은 확률 계산 서비스를 제공하는 컴퓨터 소프트웨어 제품을 구성한다. 또한, 그러한 컴퓨터 소프트웨어 제품은 이들 애플리케이션 프로그램 또는 애플리케이션 프로그램 중 상기 선택된 부분을 저장하는 저장 매체로 구성된다.
제어 유닛(4)은 드롭 확률 Pd를 라우팅 유닛(23)에 제공한다. 드롭 확률 Pd에 따라서, 라우팅 유닛(23)은 인입 패킷의 대응 퍼센티지에 따라서 어떠한 다른 방식으로든 드롭(220)하거나, 즉, 패킷을 삭제(220)하거나 또는 혼잡 상태에 관해 마크 또는 통지한다. 예를 들면, 만일 드롭 확률이 0.05이면, 라우팅 유닛(23)은 통계적 접근법에 의거 인입 패킷의 5퍼센트를 드롭한다. 라우팅 유닛(23)은 그 자체에서 어느 패킷이 드롭될지를 결정할 수 있다. 바람직하게, 드롭될 패킷의 선택은 랜덤 발생기에 의해 성취된다.
라우터(2)의 제1 분배 노드(24)에서, 인입 패킷 트래픽의 신호는 두 연결부로 분배된다. 패킷 트래픽은 라우팅 유닛(23)으로 전달된다. 또한, 패킷 트래픽은 제1 모듈(42)에 송신(41)된다. 제1 모듈(42)로의 다른 입력은 라우터(2)의 현재 용량 B, 즉, 라우팅 유닛(23)의 처리 용량이다. 제1 모듈(42)은 이용가능한 (예컨대 비트/초로 계측된) 용량 B에 관련하여 도달하는 패킷 트래픽의 (예컨대, 비트/초로 계측된) 양을 설정하고 이 비율을 평균화하는 평균화 장치이다. 이러한 평균화는 라우터(2)의 버퍼(231)의 유지 시간에 비등한 시간 척도에서 이루어진다. 예를 들면, 이것은 1 내지 100 ms의 범위 내에 있을 수 있다. 도달하는 패킷 트래픽양과 이용가능한 용량 B의 시간 평균화된 비율은 용량 이용률 x라 불리우며, 이것은 밀리초 해상도로 0 내지 1 범위의 값이다.
제2 분배 노드(43)에서, 용량 이용률 x는 세 가지 연결부로 분배된다. 용량 이용률 x는 연결부(43a)를 통해 제1 평균화 장치(46a)에 송신된다. 또한, 용량 이용률 x는 연결부(43b)를 통해 제곱 장치(44)에 송신된다. 그리고, 용량 이용률 x는 연결부(43c)를 통해 확률 계산기(49)에 송신된다.
제1 평균화 장치(46a)는 용량 이용률 x를 시간에 대해 평균한다. 이러한 평균화는 초 내지 분 또는 그 이상 범위의 시간 척도에 따라 이루어진다. 예를 들면, 이러한 시간 척도는 1초, 10초, 10분 중 3분일 수 있다. 용량 이용률 x의 시간 평균화된 값은 m1이라 지칭된다. m1의 양은 연결부(47a)를 통해 입도 계산기(48)에 전달되며 연결부(47b)를 통해 확률 계산기(49)에 전달된다.
제곱 장치(44)는 용량 이용률 x를 제곱하고 제곱된 용량 이용률 x2를 제2 평균화 장치(46b)에 전달한다.
제2 평균화 장치(46b)는 제곱된 용량 이용률 x2를 시간에 대해 평균한다. 이러한 평균화는 제1 평균화 장치(46a)의 평균화하는 것과 동일한 시간 척도에서 이루어진다. 바람직하게, 제1 평균화 장치(46a) 및 제2 평균화 장치(46b)는 동일한 시간 평균화 장치이며, 단지 평균화될 입력이 다를 뿐이다. 제곱된 용량 이용률 x2의 시간 평균화된 값은 m2라 지칭된다. m2의 양은 연결부(50)를 통해 입도 계산기(48)에 전달된다.
입도 계산기(48)는 수신된 양 m1 및 m2 로부터 라우터(2)의 용량 B보다 낮은 동시발생 애플리케이션 스트림의 추정된 최대 개수로서 양 N = m1/(m2 - (m1)2)을 산출한다. 입도 계산기(48)는 산출된 양 N을 연결부(52)를 통해 확률 계산기(49)에 전달한다.
확률 계산기(49)는 수신된 양 m1(간단히 m이라고도 함), 수신된 양 N, 및 수신된 용량 이용률 x로부터 확률 P = f(N, m, x)를 계산한다. 확률 계산기(49)는 확률 P를 혼잡 통지용으로 사용하는, 특히, 패킷의 일부를 마크 또는 드롭하기 위해 사용하는 라우팅 유닛(23)으로 송신한다.
라우팅 유닛(23)은 TCP 접속의 수신기에게 암묵적인 혼잡 통지에 해당되는 패킷을 드롭하거나, 또는 라우팅 유닛은 명시적 혼잡 통지를 통신 엔드포인트 중 하나에, 예컨대, 그에 따라 패킷을 마크함으로써 또는 명시적 메시지에 의해 송신한다. 따라서, 제어 유닛(4)으로부터 라우팅 유닛(23)에 제공된 계산된 드롭 확률 Pd은 혼잡 통지를 제어하며, 즉, 혼잡 통지는 계산된 드롭 확률 Pd에 종속한다. 만일 계산된 드롭 확률 Pd가 제로이면, 어떠한 혼잡 통지도 시작되지 않는다. 만일 계산된 드롭 확률 Pd가 1이면, 혼잡 통지는 확실하게 시작된다. 만일 계산된 드롭 확률 Pd가 제로와 1 사이이면, 혼잡 통지는 계산된 드롭 확률 Pd의 값에 따라 시작된다.

Claims (11)

  1. 패킷 교환 네트워크(100)에서 다수의 애플리케이션 스트림들로부터 수집된 패킷 트래픽을 수신하는 네트워크 노드(2)의 트래픽 부하를 관리하는 방법으로서,
    a) 상기 패킷 트래픽의 입도(granularity)를, 상기 네트워크 노드(2)의 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 최대 개수로서 추정하는 단계와,
    b) 상기 추정된 입도 및 상기 네트워크 노드(2)의 트래픽 부하에 기초하여 드롭 확률 Pd를 계산하는 단계와,
    c) 상기 계산된 드롭 확률 Pd를 혼잡(congestion) 제어를 위해 제공하는 단계를 포함하며,
    상기 단계 a)는,
    용량 이용률 x를 상기 전송 용량 B에 대한 상기 네트워크 노드(2)의 상기 트래픽 부하의 시간 평균화된(time-averaged) 비율로서 결정하는 단계 - 여기서, 0 ≤ x ≤ 1이고, 상기 시간 평균화는 제1 시간 척도에서 수행됨 - 와,
    상기 용량 이용률 x의 시간 평균화된 값 m1 및 상기 용량 이용률 x의 제곱 x2의 시간 평균화된 값 m2를 결정하는 단계 - 상기 시간 평균화는 상기 제1 시간 척도보다 긴 제2 시간 척도에서 수행됨 - 와,
    상기 네트워크 노드(2)의 상기 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 상기 추정된 최대 개수로서 N = m1/(m2 - (m1)2)를 계산하는 단계를 포함하는
    네트워크 노드의 트래픽 부하 관리 방법.
  2. 제 1 항에 있어서,
    상기 제1 시간 척도는 상기 네트워크 노드(2)의 버퍼 유지 시간과 동등한
    네트워크 노드의 트래픽 부하 관리 방법.
  3. 제 1 항에 있어서,
    상기 제1 시간 척도는 500 ㎲ 내지 100 ms의 범위, 바람직하게는 1 내지 10 ms의 범위에 있는
    네트워크 노드의 트래픽 부하 관리 방법.
  4. 제 1 항에 있어서,
    상기 제2 시간 척도는 1초보다 큰
    네트워크 노드의 트래픽 부하 관리 방법.
  5. 제 1 항에 있어서,
    상기 제2 시간 척도는 상기 제1 시간 척도보다 적어도 100 배 큰
    네트워크 노드의 트래픽 부하 관리 방법.
  6. 제 1 항에 있어서,
    상기 단계 b)는,
    A 애플리케이션 스트림들의 평균을 갖는 패킷 트래픽이 k개 애플리케이션 스트림으로 이루어진 확률 P(k)가 포아송(Poisson) 분포를 따르는 것을 가정하는 단계 -
    Figure pct00025
    임 - 와,
    k > N인 경우 상기 확률들 P(k)의 합으로서 오버플로우 확률 Pov를 계산하는 단계 - N은 상기 네트워크 노드(2)의 상기 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 최대 개수임 - 와,
    상기 드롭 확률 Pd가 상기 오버플로우 확률 Pov 보다 적다고 가정하는 단계를 포함하는
    네트워크 노드의 트래픽 부하 관리 방법.

  7. 제 1 항에 있어서,
    상기 방법은,
    상기 계산된 드롭 확률 Pd에 따라서 수신되는 상기 패킷 트래픽의 패킷을 드롭 및/또는 마크하는 단계를 더 포함하는
    네트워크 노드의 트래픽 부하 관리 방법.
  8. 제 1 항에 있어서,
    상기 방법은,
    상기 계산된 드롭 확률 Pd에 따라서 혼잡 통지(congestion notification)를 개시하는 단계를 더 포함하는
    네트워크 노드의 트래픽 부하 관리 방법.
  9. 제 8 항에 있어서,
    상기 방법은,
    상기 혼잡 통지에 의해 트리거되어, 상기 패킷 트래픽의 레이트를 줄이는 단계를 더 포함하는
    네트워크 노드의 트래픽 부하 관리 방법.
  10. 패킷 교환 네트워크(100)에서 다수의 애플리케이션 스트림들로부터 수집된 패킷 트래픽을 수신하는 네트워크 노드(2)로서,
    상기 패킷 트래픽의 입도를, 상기 네트워크 노드(2)의 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 최대 개수로서 추정하고, 상기 추정된 입도 및 상기 네트워크 노드(2)의 트래픽 부하에 기초하여 드롭 확률 Pd를 계산하고, 혼잡 제어를 위해 상기 계산된 드롭 확률 Pd를 제공하도록 구성된 제어 유닛(4)을 포함하며,
    상기 패킷 트래픽의 상기 입도 추정을 위한 상기 제어 유닛(4)은,
    용량 이용률 x를, 상기 전송 용량 B에 대한 상기 네트워크 노드(2)의 상기 트래픽 부하의 시간 평균화된 비율로서 결정하고 - 여기서 0 ≤ x ≤ 1이고, 상기 시간 평균화는 제1 시간 척도에서 수행됨 -,
    상기 용량 이용률 x의 시간 평균화된 값 m1 및 상기 용량 이용률 x의 제곱 x2의 시간 평균화된 값 m2를 결정하고 - 상기 시간 평균화는 상기 제1 시간 척도보다 긴 제2 시간 척도에서 수행됨 -,
    상기 네트워크 노드(2)의 상기 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 상기 추정된 최대 개수로서 N = m1/(m2 - (m1)2)를 계산하도록 추가로 구성된
    네트워크 노드.
  11. 패킷 교환 네트워크(100)에서 다수의 애플리케이션 스트림들로부터 수집된 패킷 트래픽을 수신하는 네트워크 노드(2)의 트래픽 부하를 관리하는 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 프로그램 제품은 상기 네트워크 노드(2)에 의해 실행될 때,
    a) 상기 패킷 트래픽의 입도를, 상기 네트워크 노드(2)의 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 최대 개수로서 추정하는 단계와,
    b) 상기 추정된 입도 및 상기 네트워크 노드(2)의 상기 트래픽 부하에 기초하여 드롭 확률 Pd를 계산하는 단계와,
    c) 혼잡 제어를 위해 상기 산출된 드롭 확률 Pd를 제공하는 단계를 포함하며,
    상기 단계 a)는,
    용량 이용률 x를, 상기 전송 용량 B에 대한 상기 네트워크 노드(2)의 상기 트래픽 부하의 시간 평균화된 비율로서 결정하는 단계 - 여기서, 0 ≤ x ≤ 1 이고, 상기 시간 평균화는 제1 시간 척도에서 수행됨 -,
    상기 용량 이용률 x의 시간 평균화된 값 m1 및 상기 용량 이용률 x의 제곱 x2의 시간 평균화된 값 m2를 결정하는 단계 - 상기 시간 평균화는 상기 제1 시간 척도보다 긴 제2 시간 척도에서 수행됨 -,
    상기 네트워크 노드(2)의 상기 전송 용량 B에 맞추는 상기 애플리케이션 스트림들의 상기 추정된 최대 개수로서 N = m1/(m2 - (m1)2)를 계산하는 단계를 포함하는
    컴퓨터 프로그램 제품.
KR1020117031548A 2009-06-29 2010-06-29 트래픽 부하를 관리하는 방법 KR101333856B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09290501A EP2273736B1 (en) 2009-06-29 2009-06-29 Method of managing a traffic load
EP09290501.7 2009-06-29
PCT/EP2010/059163 WO2011000810A1 (en) 2009-06-29 2010-06-29 Method of managing a traffic load

Publications (2)

Publication Number Publication Date
KR20120019490A true KR20120019490A (ko) 2012-03-06
KR101333856B1 KR101333856B1 (ko) 2013-12-26

Family

ID=41119916

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117031548A KR101333856B1 (ko) 2009-06-29 2010-06-29 트래픽 부하를 관리하는 방법

Country Status (7)

Country Link
US (1) US8634299B2 (ko)
EP (1) EP2273736B1 (ko)
JP (1) JP5521038B2 (ko)
KR (1) KR101333856B1 (ko)
CN (1) CN102461093B (ko)
AT (1) ATE525835T1 (ko)
WO (1) WO2011000810A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2679047B1 (en) 2011-02-22 2014-09-17 Telefonaktiebolaget L M Ericsson (PUBL) Method and device for congestion situations
US8842540B2 (en) * 2012-05-18 2014-09-23 Alcatel Lucent System and method for implementing active queue management enhancements for variable bottleneck rates
US9800503B2 (en) 2012-12-03 2017-10-24 Aruba Networks, Inc. Control plane protection for various tables using storm prevention entries
US10091124B2 (en) 2015-09-04 2018-10-02 Citrix Systems, Inc. System for early system resource constraint detection and recovery
CN105763469B (zh) * 2016-04-07 2019-03-22 烽火通信科技股份有限公司 三级Clos网络架构中链路拥塞检测及带宽控制的方法与系统
US10728166B2 (en) * 2017-06-27 2020-07-28 Microsoft Technology Licensing, Llc Throttling queue for a request scheduling and processing system
US11134320B2 (en) * 2017-08-03 2021-09-28 Omron Corporation Sensor management unit, sensor device, sensor management method, and sensor management program
CN109412958B (zh) * 2017-08-18 2022-04-05 华为技术有限公司 数据中心的拥塞控制方法和装置
US11153174B2 (en) * 2018-06-15 2021-10-19 Home Box Office, Inc. Data service overload detection and mitigation
DE102018221349A1 (de) * 2018-12-10 2020-06-10 Robert Bosch Gmbh Verfahren zur Verwaltung eines Speichers

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7002980B1 (en) * 2000-12-19 2006-02-21 Chiaro Networks, Ltd. System and method for router queue and congestion management
CA2393373A1 (en) * 2002-07-15 2004-01-15 Anthony Gerkis Apparatus, system and method for the transmission of data with different qos attributes.
US20040179479A1 (en) * 2003-03-13 2004-09-16 Alcatel Determination of average queue depth for RED (random early packet discard)
US7577736B1 (en) * 2003-10-15 2009-08-18 Nortel Networks Limited Network accounting statistics collection
US7301907B2 (en) * 2005-01-06 2007-11-27 Telefonktiebolaget Lm Ericsson (Publ) Method of controlling packet flow
CN100405786C (zh) * 2005-12-09 2008-07-23 清华大学 支持多队列的共享缓存动态门限早期丢弃装置
CN100463451C (zh) * 2005-12-29 2009-02-18 中山大学 一种网络数据流的多维队列调度与管理方法
CN101360052B (zh) * 2008-09-28 2011-02-09 成都市华为赛门铁克科技有限公司 一种流量调度的方法和装置
US8443444B2 (en) * 2009-11-18 2013-05-14 At&T Intellectual Property I, L.P. Mitigating low-rate denial-of-service attacks in packet-switched networks

Also Published As

Publication number Publication date
ATE525835T1 (de) 2011-10-15
EP2273736B1 (en) 2011-09-21
EP2273736A1 (en) 2011-01-12
KR101333856B1 (ko) 2013-12-26
US8634299B2 (en) 2014-01-21
US20120092996A1 (en) 2012-04-19
CN102461093A (zh) 2012-05-16
WO2011000810A1 (en) 2011-01-06
JP2012531867A (ja) 2012-12-10
JP5521038B2 (ja) 2014-06-11
CN102461093B (zh) 2014-09-10

Similar Documents

Publication Publication Date Title
KR101333856B1 (ko) 트래픽 부하를 관리하는 방법
US6839767B1 (en) Admission control for aggregate data flows based on a threshold adjusted according to the frequency of traffic congestion notification
EP1069801B1 (en) Connections bandwidth right sizing based on network resources occupancy monitoring
US6356629B1 (en) Switched virtual circuit controller setup congestion management strategy
US9998400B2 (en) Attribution of congestion contributions
US20100118704A1 (en) Method and Apparatus for use in a communications network
Patel Performance analysis and modeling of congestion control algorithms based on active queue management
US8126004B2 (en) Method for optimising the sharing of a plurality of network resources between a plurality of application flows
Agarwal et al. Link utilization based AQM and its performance
EP1658702B1 (en) Resource management system and method for ensuring qos in internet protocol (ip) networks
JP2011135443A (ja) パケット転送システム、パケット転送装置、パケット転送方法、及びパケット転送プログラム
Moghim et al. Evaluation of a new end-to-end quality of service algorithm in differentiated services networks
Chen Network traffic management
JP3813473B2 (ja) パケット廃棄装置
WO2014128239A1 (en) Method, managing entity, agent entity for consistent bandwidth allocation
Pitts et al. Using AF-PHB BOUDICCA configuration for reliable real-time precedence-based SLAs in degraded IP networks
Dumitrescu et al. Assuring fair allocation of excess bandwidth in reservation based core-stateless networks
Maicaneanu et al. Quality of Service Analysis for a Simple Integrated Media Access Network
Shaii et al. Congestion avoidance: Network based schemes solution
Joo et al. Weighted Fair Bandwidth Allocation for Adaptive Flows
JP2003023450A (ja) レート制御装置
Pu et al. Improving Quality of Service for Congestion Control in High-Speed Wired-cum-Wireless Networks
Kim et al. Distributed admission control via dual-queue management
Lekcharoen et al. QoS sensitive backpressure scheme over wireless network
AL-Raddady et al. A new active congestion control mechanism for the Internet

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161111

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee