KR101987346B1 - 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법 - Google Patents

데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법 Download PDF

Info

Publication number
KR101987346B1
KR101987346B1 KR1020170111750A KR20170111750A KR101987346B1 KR 101987346 B1 KR101987346 B1 KR 101987346B1 KR 1020170111750 A KR1020170111750 A KR 1020170111750A KR 20170111750 A KR20170111750 A KR 20170111750A KR 101987346 B1 KR101987346 B1 KR 101987346B1
Authority
KR
South Korea
Prior art keywords
service
packet
information
data
queue
Prior art date
Application number
KR1020170111750A
Other languages
English (en)
Other versions
KR20190025285A (ko
Inventor
이융
한동수
이병욱
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170111750A priority Critical patent/KR101987346B1/ko
Publication of KR20190025285A publication Critical patent/KR20190025285A/ko
Application granted granted Critical
Publication of KR101987346B1 publication Critical patent/KR101987346B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/82Miscellaneous aspects
    • H04L47/823Prediction of resource usage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/31Flow control; Congestion control by tagging of packets, e.g. using discard eligibility [DE] bits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/32Flow control; Congestion control by discarding or delaying data units, e.g. packets or frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/52Queue scheduling by attributing bandwidth to queues
    • H04L47/527Quantum based scheduling, e.g. credit or deficit based scheduling or token bank
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/6215Individual queue per QOS, rate or priority
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/6245Modifications to standard FIFO or LIFO
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/805QOS or priority aware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/82Miscellaneous aspects

Abstract

데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법이 개시된다. 본 발명은, 데이터 센터 간 광역 통신망 환경에서 통계적인 방법으로 대역폭을 보장함과 동시에 높은 네트워크 자원 활용도, 그리고 요청된 서비스 품질을 달성할 수 있는 솔루션을 제공한다. 본 발명에 따르면, 서비스 품질(QoS) 수준을 100% 이하로 하는 서비스 요청을 통계적으로 보장함으로써, 요청한 서비스 품질(QoS) 수준을 보장하면서도 높은 네트워크 자원 활용도를 획득할 수 있다.

Description

데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법{System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN}
본 발명은 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법에 관한 것으로, 더욱 상세하게는 데이터 센터 간 광역 통신망 환경에서 통계적인 방법으로 대역폭을 보장함과 동시에 높은 네트워크 자원 활용도, 그리고 요청된 서비스 품질을 달성할 수 있는 솔루션을 제공하는 시스템 및 방법에 관한 것이다.
게임빌, 넷플릭스 등의 대부분의 서비스 제공자(service provider, SP)는 자신의 비즈니스를 위해 자신의 데이터 센터(Data Center, DC)를 구축하고 관리하고 있다. 그러나, 인프라스트럭쳐(infrastructure)를 확장하기 위해서는 추가적인 하드웨어나 소프트웨어를 구입하는 등의 비용이 소모된다. 이에 따라, 서비스 제공자(SP)의 대다수는 비용을 감소시키시 위해 그들의 서비스 인프라스트럭쳐를 클라우드 서비스 제공자(cloud service provider, CSP)에 의해 관리되는 데이터 센터(DC)들로 이주하고 있다. 클라우드 서비스 제공자(CSP)는 글로벌 커버리지와 데이터 센터(DC)들이 연결된 데이터 센터 간 광역 통신망(inter-datacenter wide-area network, Inter-DC WAN)을 제공하기 위해 전세계에 분포하고 있는 복수의 데이터 센터(DC)들을 구비하고 있다. 데이터 센터 간 광역 통신망(Inter-DC WAN)은 많은 양의 트래픽을 생성하는 복수의 서비스에 의해 공유되고 있다.
종래의 전체 트래픽(aggregate traffic) 관리는 도 1의 (a)에 도시된 고정 대역 폭 할당(Fixed Bandwidth Allocation) 방법이나 도 1의 (b)에 도시된 멀티플렉싱(Multiplexing) 방법을 이용하고 있다.
고정 대역폭 할당 방법은 사용자가 요청한 서비스 품질(Quality of Service, QoS)을 보증하기 위해 해당 사용자에게 고정된 대역폭을 할당하는 방식이다. 그러나, 이러한 결정된 네트워크 자원을 할당하는 방식은 서비스 제공자(SP)나 클라우드 서비스 제공자(CSP)에게 좋은 솔루션은 아니다. 서비스 제공자(SP)는 서비스의 요청이 복잡하고 시간에 따라 변화되기 때문에 그들이 필요한 대역폭이 얼마인지를 결정하기가 어렵다. 심지어 그들이 트래픽 패턴의 통계를 이미 알고 있다고 하더라도, 그들의 요구를 결정된 값으로 특정하는 것은 여전히 어려움이 있다. 나아가, 고정된 대역폭을 할당하는 것은 도 1의 (a)에 도시된 그래프에서 확인할 수 있듯이, 네트워크 자원을 효율적으로 사용하지 못하는 문제가 있다.
멀티플렉싱 방법은 사용자의 서비스 요청에 대해 고정된 대역폭을 할당하는 것이 아니라, 모든 트래픽을 섞어 네트워크 활용도를 향상시키기 위한 방식이다. 그러나, 멀티플렉싱 방법은 요청된 요구를 초과하지 않게 각 트래픽을 제어하는 것이 어려운 문제가 있다.
한국공개특허 제2004-0076822호 (후아웨이 테크놀러지 컴퍼니) 2004. 9. 3. 특허문헌 1은 IP 액세스 네트워크에서 서비스 품질이 보증된 서비스를 제공하는 방법으로서, 특허문헌 1에는 네트워크 제어 계층(network control layer)이 QoS 보증(guaranteed QoS)을 필요로 하는 서비스 요청에 대한 응답으로 액세스 네트워크에 네트워크 자원을 신청할 때, 에지 라우터(edge router)는 액세스 네트워크가 그 서비스를 위해 충분한 자원을 제공할 수 있는 지를 결정하고, 자원이 충분하면 에지 라우터는 보증된 QoS를 얻기 위해 QoS를 제어하는 액세스 네트워크 말단 장치(end devices)에 QoS 파라미터를 전송하는 내용이 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는, 데이터 센터 간 광역 통신망 환경에서 통계적인 방법으로 대역폭을 보장함과 동시에 높은 네트워크 자원 활용도, 그리고 요청된 서비스 품질을 달성할 수 있는 솔루션을 제공하는 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법을 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템의 중앙 제어 장치는, 데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 수신부; 상기 수신부를 통해 상기 서비스 요청 정보를 수신하면, 상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 경로 획득부; 상기 경로 획득부를 통해 획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 라우팅 업데이트부; 및 상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 자원 할당 관리부;를 포함하며, 상기 출발지 데이터 서버는 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅한다.
상기 서비스 수준 정보는 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS) 수준을 포함할 수 있다.
상기 출발지 데이터 서버는 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다.
상기 출발지 데이터 서버는 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다.
상기 데이터 센터에 포함된 중계 장치는 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달할 수 있다.
상기 중계 장치는 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)할 수 있다.
상기 출발지 데이터 서버는 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법은, 중앙 제어 장치의 통계적 자원 할당 및 서비스 품질 보장 방법으로서, 데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 단계; 상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 단계; 획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 단계; 및 상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 단계;를 포함하며, 상기 출발지 데이터 서버는 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅한다.
상기 서비스 수준 정보는 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS) 수준을 포함할 수 있다.
상기 출발지 데이터 서버는 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다.
상기 출발지 데이터 서버는 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다.
상기 데이터 센터에 포함된 중계 장치는 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달할 수 있다.
상기 중계 장치는 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)할 수 있다.
상기 출발지 데이터 서버는, 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 저장되어 상기한 방법 중 어느 하나를 컴퓨터에서 실행시킨다.
본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법에 의하면, 서비스 품질(QoS) 수준을 100% 이하로 하는 서비스 요청을 통계적으로 보장함으로써, 요청한 서비스 품질(QoS) 수준을 보장하면서도 높은 네트워크 자원 활용도를 획득할 수 있다.
도 1은 종래의 서비스 요청에 따른 트래픽 관리 방법의 일례를 설명하기 위한 도면이다.
도 2는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템을 설명하기 위한 블록도이다.
도 3은 도 2에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성을 설명하기 위한 블록도이다.
도 4는 도 3에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성의 일례를 설명하기 위한 도면이다.
도 5는 도 3에 도시한 데이터 센터의 구성을 설명하기 위한 블록도이다.
도 6은 도 5에 도시한 데이터 센터의 구성의 일례를 설명하기 위한 도면이다.
도 7은 도 3에 도시한 중앙 제어 장치의 구성을 설명하기 위한 블록도이다.
도 8은 본 발명의 바람직한 실시예에 따른 서비스 요청 정보를 설명하기 위한 도면이다.
도 9는 본 발명의 바람직한 실시예에 따른 어드미션 컨트롤(Admission Contriol)을 설명하기 위한 도면이다.
도 10은 본 발명의 바람직한 실시예에 따른 자원 할당 관리 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 일례를 설명하기 위한 도면이다.
도 12는 본 발명의 바람직한 실시예에 따른 패킷에 우선순위를 태깅하고 처리하는 동작의 일례를 설명하기 위한 도면이다.
도 13은 본 발명의 바람직한 실시예에 따른 우선순위가 태깅된 패킷을 처리하는 동작의 일례를 설명하기 위한 도면이다.
도 14는 본 발명의 바람직한 실시예에 따른 우선순위 태깅에 따른 로스 비율(loss latio)을 설명하기 위한 도면이다.
도 15는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법을 설명하기 위한 흐름도이다.
도 16은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 방법의 비교를 하기 위한 그래프이다.
도 17은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 에뮬레이션 환경의 일례를 설명하기 위한 도면이다.
도 18은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 테스트베드 환경의 일례를 설명하기 위한 도면이다.
도 19는 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이다.
도 20은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이다.
도 21은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.
도 22는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이다.
도 23은 도 18에 도시된 테스트베드 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이다.
도 24는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.
이하에서 첨부한 도면을 참조하여 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법의 바람직한 실시예에 대해 상세하게 설명한다.
먼저, 도 2를 참조하여 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템에 대하여 설명한다.
도 2는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템을 설명하기 위한 블록도이다.
도 2를 참조하면, 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템(이하 '통계적 자원 할당 및 서비스 품질 보장 시스템'이라 한다)(100)은 통신망(300)을 통해 사용자 단말(200)과 연결된다.
통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 클라우드 서비스 제공자(CSP)가 운영하는 시스템으로서, 데이터 센터 간 광역 통신망 환경에서 대역폭을 보장함과 동시에 높은 네트워크 자원 활용도를 달성할 수 있는 솔루션을 제공한다.
즉, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 통신망(300)을 통해 사용자 단말(200)로부터 서비스 요청 정보를 수신한다. 여기서, 서비스 요청 정보는 데이터 흐름 정보와 서비스 수준 정보를 포함한다. 데이터 흐름 정보는 서비스를 요청하는 데이터 흐름의 출발지와 목적지에 대한 정보를 말한다. 서비스 수준 정보는 데이터 흐름의 서비스 품질(QoS)에 대한 수준을 나타내는 정보를 말한다.
그리고, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 통계적인 네트워크 가상화(Statistical Network Abstraction, SNA)를 이용하여 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득한다. 여기서, 데이터 흐름 경로는 서비스 요청 정보에 따른 데이터 흐름의 출발지와 목적지 사이에서 데이터가 전달되는 경로를 말한다.
또한, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 출발지 데이터 서버가 통계적인 네트워크 가상화(SNA)를 이용하여 서비스 요청 정보에 따른 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 서버에 서비스 요청 정보를 제공한다. 이때, 출발지 데이터 서버는 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅한다.
사용자 단말(200)은 서비스 제공자(SP)가 운영하는 장치로서, 자신이 원하는 서비스 품질(QoS)의 수준에 대한 정보가 포함된 서비스 요청 정보를 통신망(300)을 통해 통계적 자원 할당 및 서비스 품질 보장 시스템(100)에 제공한다.
여기서, 사용자 단말(200)은 데스크톱 컴퓨터뿐만 아니라 노트북 컴퓨터, 워크스테이션, 팜톱(palmtop) 컴퓨터, UMPC(Ultra Mobile Personal Computer), 태블릿 PC, 개인 휴대 정보 단말기(Personal Digital Assistant, PDA), 웹 패드, 스마트폰, 휴대전화 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 단말기로 이루어질 수 있다.
통신망(300)은 구내 정보 통신망(local area network, LAN), 도시권 통신망(metropolitan area network, MAN), 광역 통신망(wide area network, WAN), 인터넷 등을 포함하는 데이터 통신망뿐만 아니라 전화망 등을 포함할 수 있고, 유선과 무선을 가리지 않으며, 어떠한 통신 방식을 사용하더라도 상관없다.
그러면, 도 3 내지 도 6을 참조하여 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템에 대하여 보다 자세하게 설명한다.
도 3은 도 2에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성을 설명하기 위한 블록도이고, 도 4는 도 3에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성의 일례를 설명하기 위한 도면이다.
도 3을 참조하면, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 중앙 제어 장치(110) 및 중앙 제어 장치(110)에 연결된 복수의 데이터 센터(130)를 포함할 수 있다.
중앙 제어 장치(110)는 복수의 데이터 센터(130)를 관리하고, 글로벌 네트워크 정보를 유지한다. 즉, 중앙 제어 장치(110)는 사용자 단말(200)로부터 서비스 요청 정보를 수신하면, 현재의 네트워크를 기반으로 서비스 요청 정보를 수락할 지 여부를 결정한다. 그리고, 중앙 제어 장치(110)는 통계적인 네트워크 가상화(Statistical Network Abstraction, SNA)를 이용하여 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득한다. 또한, 중앙 제어 장치(110)는 출발지 데이터 서버가 통계적인 네트워크 가상화(SNA)를 이용하여 서비스 요청 정보에 따른 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 센터(130)에 서비스 요청 정보를 제공한다.
도 4에 도시된 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성의 일례를 참조하면, 중앙 제어 장치(110)는 5개의 데이터 센터(130-1 내지 130-5)와 연결되어, 5개의 데이터 센터(130-1 내지 130-5)를 관리한다. 그리고, 5개의 데이터 센터(130-1 내지 130-5) 각각은 링크를 통해 서로 연결될 수 있다.
도 5는 도 3에 도시한 데이터 센터의 구성을 설명하기 위한 블록도이고, 도 6은 도 5에 도시한 데이터 센터의 구성의 일례를 설명하기 위한 도면이다.
도 5를 참조하면, 데이터 센터(130)는 로컬 제어 장치(131), 로컬 제어 장치(131)에 연결된 복수의 중계 장치(133) 및 중계 장치(133)에 연결된 복수의 데이터 서버(135)를 포함할 수 있다.
로컬 제어 장치(131)는 복수의 중계 장치(133)를 통해 복수의 데이터 서버(135)와 연결되어, 복수의 데이터 서버(135)를 관리한다. 즉, 로컬 제어 장치(131)는 중앙 제어 장치(110)의 명령에 따라 흐름 테이블(flow table)의 라우팅 정보를 업데이트한다. 그리고, 로컬 제어 장치(131)는 중앙 제어 장치(110)로부터 제공받은 서비스 요청 정보를 해당 데이터 센터(130) 내에 있는 데이터 서버(135)로 제공한다. 또한, 로컬 제어 장치(131)는 가용 대역폭(available bandwidth), 링크 고장(link failure) 등의 링크 정보를 모니터링하고, 모니터링된 링크 정보를 중앙 제어 장치(110)로 제공한다.
도 6에 도시된 데이터 센터의 구성의 일례를 참조하면, 제1 데이터 센터(130-1)는 로컬 제어 장치(131), 3개의 중계 장치(133-1 내지 133-3) 및 6개의 데이터 서버(135-1 내지 135-6)로 구성된다.
로컬 제어 장치(131)는 제1 중계 장치(133-1) 및 제2 중계 장치(133-2)와 연결된다. 그리고, 로컬 제어 장치(131)는 제1 데이터 서버(135-1), 제2 데이터 서버(135-2) 및 제3 데이터 서버(135-3)와 연결된다.
그러면, 도 7 내지 도 10을 참조하며 본 발명의 바람직한 실시예에 따른 중앙 제어 장치에 대하여 보다 자세하게 설명한다.
도 7은 도 3에 도시한 중앙 제어 장치의 구성을 설명하기 위한 블록도이다.
도 7을 참조하면, 중앙 제어 장치(110)는 수신부(110), 경로 획득부(113), 라우팅 업데이트부(115) 및 자원 할당 관리부(117)를 포함할 수 있다.
수신부(110)는 서비스 요청 정보를 사용자 단말(200)로부터 수신한다. 여기서, 서비스 요청 정보는 데이터 흐름 정보와 서비스 수준 정보를 포함한다. 서비스 수준 정보는 데이터 흐름의 서비스 품질(QoS) 수준을 나타내는 정보를 말한다. 예컨대, 서비스 수준 정보는 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 평균(average)과 표준 편차(standard deviation), 서비스 품질(QoS) 수준 등을 포함할 수 있다.
도 8은 본 발명의 바람직한 실시예에 따른 서비스 요청 정보를 설명하기 위한 도면이다.
보다 자세하게 설명하면, 서비스 요청 R은 도 8에 도시된 바와 같이, n개의 흐름(flow)으로 구성되며, R={f1, ..., fn}로 정의된다. 각각의 흐름 fm은 fm={srcm, dstm, μm, σm, εm}으로 정의된다. 여기서, srcm은 흐름(flow)의 출발지 데이터 센터(DC)를 나타내고, dstm은 흐름(flow)의 목적지 데이터 센터(DC)를 나타낸다. μm은 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 평균(average)을 나타내고, σm은 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 표준 편차(standard deviation)를 나타낸다. εm은 서비스 품질(QoS)의 위배 가능성(violation probability)으로서, 엡실론 값(epsilon value)을 나타낸다. 즉, 엡실론(epsilon)은 전송되는 전체 패킷에서 로스 패킷(loss packet)의 양의 비율을 나타내는 서비스 품질(QoS) 팩터이다. 예컨대, εm은 0.03일 때, 서비스 제공자(SP)는 전체 패킷에서 로스 패킷의 퍼센트가 3 퍼센트인 보증된 서비스를 제공받을 수 있다. 따라서, 1-εm은 필요한 대역폭을 보증하는 가능성을 나타낸다. 사용자가 도 8의 (a)에 도시된 바와 같이 DC1, DC2, DC4 및 DC5로 이루어진 사각형 토폴로지(topology)를 구축하기를 원하면, 도 8의 (a)에 도시된 바와 같이 4개의 다른 흐름들로 이루어진 서비스 요청을 할 수 있다. 그러면, 중앙 제어 장치(110)는 도 8의 (b)에 도시된 바와 같이 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다.
다시 도 7을 참조하면, 경로 획득부(113)는 수신부(110)를 통해 서비스 요청 정보를 수신하면, 서비스 수준 정보를 기초로 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득한다.
즉, 경로 획득부(113)는 데이터 센터(130) 간 링크의 대역폭과 링크에 기 할당된 서비스 정보를 기반으로 서비스 수준 정보를 충족하면서 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, 링크는 현재 보유한 링크를 말한다. 물론, 링크는 현재 보유한 링크와 새롭게 구입한 링크를 전부 포함할 수도 있다.
이때, 경로 획득부(1130)는 k-shortest path 알고리즘을 이용하여 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, k는 경로에 포함된 링크의 개수를 말한다.
보다 자세하게 설명하면, 본 발명에 따른 어드미션 컨트롤(Admission Control)은 현재 보유한 링크를 기반으로 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득한다.
즉, 서비스 요청 R={f1, f2, ..., fn}이 주어진다. 여기서, fi는 정규 분포 랜덤 변수(normal distributed random variable) Ni=N(μi, σi 2)을 따른다. 링크 l의 용량은 cl로 정의되고, 링크 l의 가중치는 wl로 정의된다. 여기서, 가중치는 클라우드 서비스 제공자(CSP)가 관심이 있어하는 예컨대, 가격 또는 딜레이와 같은 비용과 관련된 값으로 설정될 수 있다. Fl old는 링크 l을 포함하는 경로를 가지는 이미 할당된 흐름들의 세트를 말한다. εl min은 링크 l의 흐름 중에서 미니멈 서비스 품질(QoS) 위배 가능성(violation probability)을 말한다. 그러면, 본 발명에 따른 어드미션 컨트롤은 표기법 "IPm,l=1: 1 if l ∈ Pm, and 0 otherwise"를 이용하여, 각 흐름 i에 대해 k-shortest 경로들 Pi=(p1, p2, ..., pk)을 계산한다. 마지막으로, 본 발명에 따른 어드미션 컨트롤은 아래의 [표 1]을 통해 서비스 요청 정보에 최적화된 데이터 흐름 경로를 획득한다.
Figure 112017085051887-pat00001
위의 [표 1]에서 확인할 수 있듯이, 목적 함수(objective function)(5.1)는 네트워크의 전체 흐름들의 평균 가중치를 최소화하는 것이다. 다시 말해서, 최적화 문제는 수락된 서비스 요청들의 각 흐름을 위한 미니멈 가중치 경로(minimum weighted path)를 출력하는 것이다. (5.3)의 제약(constraint)은 각 사용자에 의해 요청된 로스(loss)의 양의 합이 흐름들의 로스(loss)의 양과 동일하다는 것을 나타낸다. 각각의 사용자에 의해 요청된 로스(loss)는 (5.2)에서 계산될 수 있다. 통계적 멀티플렉싱 게인(statistical multiplexing gain)때문에, 요청된 서비스를 제공하기 위해 필요로 하는 대역폭의 합은 흐름 서비스의 대역폭보다 적다. 이 방법에서 사용자에 의해 요청된 로스 비율(loss rate)는 보증된다.
그러나, (5.3)의 제약은 비선형(non-linear) 항(term)을 가진다. 특정 링크에서 흐름 비율(flow rate)은
Figure 112017085051887-pat00002
이고, 이는 적분 형태이다. 그래서 (5.3)의 항은 비선형이된다. 따라서, 이 비선형 제약을 선형화할 필요가 있다. 비선형이라면, 문제를 해결하는데 많은 시간이 소요될 수 있다. 이는 시스템의 확장성과 자원 효율성을 저하시킬 수 있다. 그래서, 비선형 제약을 선형화하는 것이 중요하다.
먼저, 정규 분포의 표준화를 사용하는 것에 의해, 식 (5.2)는 아래의 (5.5)와 같이 표준 정규 분포의 Q 함수와 phi 함수에 의해 표현될 수 있다. 그리고, 이들 함수는 아래의 (5.6)과 같이 테일러 급수(Taylor series)에 의해 쉽게 선형화될 수 있다.
Figure 112017085051887-pat00003
그러나, 정규 분포의 표준화 프로세스에서, (5.5)의 A의 분모에 변수
Figure 112017085051887-pat00004
가 있다.
Figure 112017085051887-pat00005
는 k-shortest path 중에서 단지 하나의 가능한 경로(path)를 의미한다. 따라서,
Figure 112017085051887-pat00006
은 미리 모든 가능한 k-shortest path를 반영하는 것을 의미한다. 따라서,
Figure 112017085051887-pat00007
에 의해, 원래의 제약은 충분한 제약이 된다. 그래서, 원래의 문제를 위배하지 않는다. 이러한 프로세스는 아래의 [표 3]과 같다.
Figure 112017085051887-pat00008
이러한 방법에서, 제약 (5.3)은 선형화될 수 있다.
도 9는 본 발명의 바람직한 실시예에 따른 어드미션 컨트롤(Admission Contriol)을 설명하기 위한 도면이다.
데이터 센터 간 광역 통신망(Inter-DC WAN)에서, 대부분의 다중화 방식은 현재 네트워크 자원을 기반으로 수용한 트래픽을 최적화하려는 노력을 하고 있다. 도 9의 (b)에 도시된 바와 같이 클라우드 서비스 제공자(CSP)는 DC1로부터 DC7까지의 서비스 요청을 수신(도 9의 (a) 참조)할 때, 보통 4개의 링크들을 할당한다. 그러나, 이러한 경로 할당은 다음의 서비스 요청을 수락하는 것에 해가 될 수도 있다. 이런 이유로, 도 9의 (c)에 도시된 바와 같이, DC1과 DC4 사이, 및 DC4와 DC7 사이의 대역폭을 프로비저닝(provisioning)하는 것이 서비스 요청을 수락하는 것에 효율적일 수 있다.
정리하면, 경로 획득부(113)는 아래의 [표 4]를 통해 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득할 수 있습니다.

Step 1 : 서비스 요청들을 전체 요구(total demands)에 따라 내림차순으로 정렬

Step 2 : 남아있는 서비스 요청이 없으면, 중단

Step 3 : 전체 네트워크 자원 요구(total network resource demands)가 가장 큰 서비스 요청을 선택

Step 4 : 본 발명에 따른 어드미션 컨트롤(Admission Control)이나 네트워크 프로비저닝(Network Provisioning)에 따라 최적화된 데이터 흐름 경로를 획득

Step 5 : 작업이 끝나면, Step 2로 이동
다시 도 7을 참조하면, 라우팅 업데이트부(115)는 경로 획득부(113)를 통해 획득된 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트한다. 여기서, 라우팅 정보는 OpenFlow Protocol을 준수하여 전달될 수 있다. 예컨대, 하나의 서비스 요청은 복수 개의 흐름들로 구성되어 있고, 각각의 흐름은 출발지와 목적지로 이루어져 있습니다. 보다 자세하게는, 출발지 서버(SRC_IP), 출발지 포트(SRC_PORT), 목적지 서버(DSP_IP), 목적지 포트(DSP_PORT)를 포함하고 있습니다. 각 로컬 제어 장치(131)는 이 출발지 서버, 출발지 포트, 목적지 서버, 목적지 포트 등을 확인하고, 해당 목적지 서버, 포트로 가기 위해 어느 경로로 전달해야 되는지에 대한 표를 가지고 있습니다. 이를 테면, (SRC_IP, SRC_PORT, DST_IP, DST_PORT, output_port)와 같은 순서쌍 테이블을 가지고 있습니다. 이러한 정보를 라우팅 규칙, 즉 라우팅 정보라 합니다. OpenFlow Protocol에 의하면, 앞 부분(SRC_IP, SRC_PORT, DST_IP, DST_PORT)은 Matching Part라 하고, 뒷 부분(output_port)은 Action Part라 합니다.
그리고, 라우팅 업데이트부(115)는 업데이트된 라우팅 정보를 복수의 데이터 센터(130)로 제공한다. 이때, 라우팅 업데이트부(115)는 복수의 데이터 센터(130)를 각각 관리하는 복수의 로컬 제어 장치(131)로 업데이트된 라우팅 정보를 제공할 수 있다.
자원 할당 관리부(117)는 데이터 흐름 정보에 기초한 출발지 데이터 서버(135)가 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 서버(135)에 서비스 요청 정보를 제공한다.
이때, 자원 할당 관리부(117)는 출발지 데이터 서버(135)가 포함된 데이터 센터(130)를 관리하는 로컬 제어 장치(131)를 통해 출발지 데이터 서버(135)에 서비스 요청 정보를 제공할 수 있다.
그리고, 출발지 데이터 서버(135)는 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.
그러면, 도 10을 참조하여 본 발명에 따른 자원 할당 관리 동작에 대하여 보다 자세하게 설명한다.
도 10은 본 발명의 바람직한 실시예에 따른 자원 할당 관리 동작을 설명하기 위한 도면이다.
본 발명에 따른 자원 할당 관리 동작은 일종의 토큰 버킷(token bucket)과 같은 통계적인 레이트 리미터(statistical rate limiter)를 이용한다.
자원 할당 관리 알고리즘은 2개의 부분으로 구분될 수 있다. 첫 번째 부분은 트래픽 정보에 기초하여 토큰들을 만드는 것이다. 로컬 제어 장치(131) 또는 데이터 서버(135)는 (μ, σ)와 같은 흐름 레이트 정보를 수신하면, 정규 분포 N(μ, σ)를 따르는 히스토그램(histogram)을 구축하고, 이 히스토그램에 상응하는 토큰들을 만든다. 이를 위해, 가능한 맥시멈 레이트(maximum rate)는 예컨대, μ+σ·F-1(0.9999)로 결정될 수 있다.
그런 다음, 토큰 너비(token width)와 전체 토큰이 결정될 수 있다. 로컬 제어 장치(131) 또는 데이터 서버(135)는 정규 분포를 따르는 값의 전체 영역을 토큰 너비 값을 사용하여 일련의 결정된 값으로 분할한다. 즉, 토큰의 유형은
Figure 112017085051887-pat00009
이다. 히스토그램의 i번째 인터벌 내의 토큰의 개수는
Figure 112017085051887-pat00010
이다.
이러한 방법으로, 로컬 제어 장치(131) 또는 데이터 서버(135)는 정규 분포 N(μ, σ)를 따르는 토큰들을 가지게 된다. 이 부분은 아래의 [표 5]에 따른 알고리즘 1의 윗 부분에 기술되어 있다.
Figure 112017085051887-pat00011
도 10을 참조하면, 데이터 서버(135)는 모든 토큰들 중에서 대응하는 토큰을 제거한 이때, 대응되는 토큰이 없다면, 데이터 서버(135)는 해당 토큰 위의 min 토큰을 제거한다. 또한, 해당 토큰 위에서도 토큰이 없다면, 데이터 서버(135)는 해당 토큰 아래의 max 토큰을 제거한다.
그러면, 도 11을 참조하여 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 일례에 대하여 설명한다.
도 11은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 일례를 설명하기 위한 도면이다.
도 11에 도시된 바와 같이, 네트워크 토폴로지는 중앙 제어 장치(CC)와 4개의 데이터 센터(DC1 내지 DC4)로 구성된다. 제1 링크(L1)는 제1 데이터 센터(DC1)와 제2 데이터 센터(DC2)를 연결한다. 제2 링크(L2)는 제1 데이터 센터(DC1)와 제3 데이터 센터(DC3)를 연결한다. 제3 링크(L3)는 제2 데이터 센터(DC2)와 제3 데이터 센터(DC3)을 연결한다. 제4 링크(L4)는 제2 데이터 센터(DC2)와 제4 데이터 센터(DC4)를 연결한다. 제5 링크(L5)는 제3 데이터 센터(DC3)와 제4 데이터 센터(DC4)를 연결한다. 그리고, 모든 링크(L1 내지 L5)의 대역폭은 100Mbps라고 가정한다. 도 11에 도시된 네트워크 토폴로지는 규모가 작아 각 데이터 센터를 관리하는 로컬 제어 장치는 존재하지 않고, 중앙 제어 장치(CC)가 각 데이터 센터를 관리하는 것으로 가정하고 설명한다.
위와 같은, 네트워크 토폴로지 하에서 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작에 대하여 설명한다.
즉, 본 발명은 새로운 서비스 요청이 들어오면, 해당 서비스 요청을 받아 들일 수 있는 여분 자원이 있는지 확인한다. 그런 다음, 해당 서비스 요청을 받아 들이기로 하면, 본 발명은 해당 자원을 서비스 할 수 있도록, 중앙 제어 장치(CC)가 해당 서비스 요청에 대응되는 데이터 흐름 경로를 획득하고, 이를 토대로 라우팅 정보를 업데이트한다. 그리고, 중앙 제어 장치(CC)는 해당 요청 만큼만 링크를 사용하도록 흐름의 레이트를 제한한다.
예컨대, 서비스 요청이 (1, 2, 5, 4, 0.01)이면, 제1 데이터 센터(DC1)에서 제2 데이터 센터(DC2)로 데이터 흐름을 보내길 원하며, 그 때의 레이트는 평균이 5, 표준 편차가 4인 정규 분포를 따르도록 원한다는 의미를 나타낸다. 그리고, 0.01의 의미는 99%가 이 정규 분포를 따르도록 하고, 1%는 따르지 않아 loss가 발생하더라도 괜찮다는 것을 나타내는다. 즉, 99%는 보장해주고 1%는 손실해도 괜찮다는 의미에서 서비스 품질(QoS) 위배 가능성이라 한다.
제3 링크(LC3)에 이미 존재하는 서비스 요청들의 합이 평균은 90, 분산은 60인 정규 분포를 따르고, 이 서비스 요청들이 가지는 서비스 품질(QoS) 위배 가능성 팩터(factor)의 최소값은 0.15로 가정한다. 이때, 제3 링크(LC3)의 대역폭이 100Mbps를 넘을 확률은 0.1로 서비스 품질(QoS) 위배 가능성인 0.15 이하이므로, 정상적으로 서비스가 되고 있는 것을 알 수 있다.
이때, 새로운 요청 (3, 2, 10, 25, 0.05)가 들어온다고 가정한다. 그러면, k-shortest 경로를 계산하여야 하는데, k가 1이라고 가정하면 제3 링크(LC3)를 이용하는 경로밖에 없다. 새로운 서비스 요청을 받아 드리면 제3 링크(LC3)에 흐르는 흐름의 합은 평균이 100, 분산이 85인 정규 분포를 따르게 되고, 서비스 품질(Qos) 위배 가능성의 최소값은 0.15에서 0.05로 변경되게 된다. 그러나, 이 경우, 제3 링크(LC3)의 대역폭이 100Mbps를 넘을 확률이 0.05를 넘게 되고, 해당 서비스 요청은 거부하게 된다.
이에 반면, 새로운 요청 (3, 2, 2, 16, 0.14)가 들어온다고 가정한다. 그러면, k-shortest 경로를 계산하여야 하는데, k가 1이라고 가정하면 제3 링크(LC3)를 이용하는 경로밖에 없다. 새로운 서비스 요청을 받아 드리면 제3 링크(LC3)에 흐르는 흐름의 합은 평균이 92, 분산이 76인 정규 분포를 따르게 되고, 서비스 품질(Qos) 위배 가능성의 최소값은 0.15에서 0.14로 변경되게 된다. 이 경우, 새로운 요청에 따른 플로우를 더하더라도 제3 링크(LC3)의 대역폭이 100Mbps를 넘을 확률이 13%가 되어, 서비스 품질(QoS) 위배 가능성의 최소값 이하이므로 해당 서비스 요청을 받아 들이게 된다.
새로운 요청이 받아들여지면, 이에 따라 제3 데이터 센터(DC3)에서 발생된 트래픽이 제3 링크(LC3)를 통해 제2 데이터 센터(DC2)로 전달되어야 하므로, 라우팅 정보를 업데이트하여 업데이트된 라우팅 정보를 데이터 센터로 전달한다.
그리고, 제3 데이터 센터(DC3)는 새로운 요청에 따라, 평균이 2이고 분산이 16인 정규 분포에 따라 데이터 패킷을 발생시킨다. 이를 위해, 토큰 버킷 방법을 이용하여 토큰을 소모하면서 해당 데이터 패킷을 전송한다.
또한, 출발지 데이터 서버(135)는 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위를 태깅한다.
즉, 출발지 데이터 서버(135)는 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다.
보다 자세히 설명하면, 출발지 데이터 서버(135)는 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다.
이와 같이, 출발지 데이터 서버(135)는 우선순위을 패킷에 태깅하고, 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시킬 수 있다.
아울러, 데이터 센터(130)에 포함된 중계 장치(133)는 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out,, FIFO) 큐를 구비하고 있다.
그리고, 중계 장치(133)는 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 낮은 우선순위 큐에 삽입할 수 있다.
또한, 중계 장치(133)는 높은 우선순위 큐에 있는 패킷을 낮은 우선순위 큐에 있는 패킷보다 먼저 선입선처리 큐에 전달하고, 높은 우선순위 큐에 패킷이 없는 경우에는 낮은 우선순위 큐에 있는 패킷을 선입선처리 큐에 전달할 수 있다.
이때, 중계 장치(133)는 선입선처리 큐에 패킷이 가득차 있는 경우 낮은 우선순위 큐에 있는 패킷을 높은 우선순위 큐에 있는 패킷보다 먼저 드랍(drop)할 수 있다.
그러면, 도 12 내지 도 14를 참조하여 본 발명의 바람직한 실시예에 따른 패킷에 우선순위를 태깅하고 처리하는 동작에 대하여 설명한다.
도 12는 본 발명의 바람직한 실시예에 따른 패킷에 우선순위를 태깅하고 처리하는 동작의 일례를 설명하기 위한 도면이다.
보다 자세하게 설명하면, 본 발명에 따른 어드미션 컨트롤(Admission Control)과 레이트 실행(rate enforcement)이 수행되지만, 이는 각각의 서비스 제공자(SP)에게 서비스 품질(QoS)을 제공하기에 충분하지 않다. 이는 서비스 품질 수준, 즉 서비스 품질(Qos) 위배 가능성(엡실론 값)에 상관없이 네트워크에서 로스(loss)가 발생할 수 있기 때문이다. 엡실론 값(epsilon value)보다 로스(loss)가 각 사용자의 동일한 시간의 순간 레이트에 관련된다. 따라서, 엡실론 비율(epsilon ratio)에서 로스(loss)가 발생되게 만들 필요성이 있다.
이러한 메커니즘을 단지 네트워크 스위치, 즉 중계 장치(133)에서 구현하면, 네트워크 스위치는 더 복잡해지게 되고, 이는 실용적이지 않다. 따라서, 엔드 호스트(end host), 즉 출발지 데이터 서버(135)와 네트워크 스위치, 즉 중계 장치(133)가 엡실론 차별화 서비스를 위해 협력하는 것이 해결책이다.
낮은 네트워크 스위치 복잡도를 가지는 엡실론-로스 차별화 서비스를 위해, 엔드 호스트, 즉 출발지 데이터 서버(135)는 엡실론 비율에 따라 낮은 우선순위를 패킷에 태깅한다. 이것은 전체 전송된 패킷들 중에서 엡실론 비율에 해당하는 패킷들은 낮은 우선순위가 태깅되고, 나머지 패킷들은 높은 우선순위가 태깅되는 것을 의미한다.
네트워크 스위치, 즉 중계 장치(133)에서, 낮은 우선순위가 태깅된 패킷들은 높은 우선순위가 태깅된 패킷들이 처리된 이후에 처리되기 때문에 낮은 우선순위가 태깅된 패킷들이 먼저 드랍(drop)된다. 이를 위해, 네트워크 스위치, 즉 중계 장치(133)는 엡실론 값에 대응하는 로스(loss) 서비스를 위해 2개의 우선순위 큐를 필요로 한다.
도 13은 본 발명의 바람직한 실시예에 따른 우선순위가 태깅된 패킷을 처리하는 동작의 일례를 설명하기 위한 도면이다.
도 13을 참조하면, 제1 호스트(Host 1)은 엡실론 값인 0.3에 따라 외부로 전송되는 10개의 패킷 중 3개의 패킷에는 낮은 우선순위를 태깅하고 7개의 패킷에는 높은 우선순위를 태깅한다.
그리고, 제2 호스트(Host 2)는 엡실론 값인 0.5에 따라 외부로 전송되는 10개의 패킷 중 5개의 패킷에는 낮은 우선순위를 태깅하고 5개의 패킷에는 높은 우선순위를 태깅한다.
이후, 제1 호스트(Host 1) 및 제2 호스트(Host 2)로부터 패킷을 수신하는 네트워크 스위치는 높은 우선순위가 태깅된 패킷은 높은 우선순위 큐에 삽입하고, 낮은 우선순위가 태깅된 패킷은 낮은 우선순위 큐에 삽입한다. 그런 다음, 네트워크 스위치는 높은 우선순위 큐에 있는 패킷을 낮은 우선순위 큐에 있는 패킷보다 먼저 선입선처리 큐에 전달하고, 높은 우선순위 큐에 패킷이 없는 경우에는 낮은 우선순위 큐에 있는 패킷을 선입선처리 큐에 전달한다. 이때, 네트워크 스위치는 선입선처리 큐에 패킷이 가득차 있는 경우 낮은 우선순위 큐에 있는 패킷을 높은 우선순위 큐에 있는 패킷보다 먼저 드랍(drop)한다.
도 14는 본 발명의 바람직한 실시예에 따른 우선순위 태깅에 따른 로스 비율(loss latio)을 설명하기 위한 도면이다. 도 14의 그래프에서 x축은 flow id이고 y축은 로스(loss)의 양이다.
도 14를 참조하면, 패킷에 우선순위를 태깅하지 않는 경우 실제 로스 비율이 엡실론 값에 비례하지 않게 되고, 이에 따라 서비스 품질(QoS)을 보증하지 못하는 것을 확인할 수 있다(도 14의 좌측 그래프).
이에 반면, 패킷에 우선순위를 태깅한 경우 실제 로스 비율이 엡실론 값에 비례하는 것을 확인할 수 있다(도 14의 우측 그래프).
그러면, 도 15를 참조하여 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법에 대하여 설명한다.
도 15는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법을 설명하기 위한 흐름도이다.
도 15를 참조하면, 중앙 제어 장치(110)는 데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 수신한다(S110). 여기서, 데이터 흐름 정보는 서비스를 요청하는 데이터 흐름의 출발지와 목적지에 대한 정보를 말한다. 서비스 수준 정보는 데이터 흐름의 서비스 품질(QoS)에 대한 수준을 나타내는 정보를 말한다. 예컨대, 서비스 수준 정보는 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 평균(average)과 표준 편차(standard deviation), 서비스 품질(QoS) 수준 등을 포함할 수 있다.
그리고, 중앙 제어 장치(110)는 서비스 수준 정보를 기초로 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득한다(S120). 여기서, 데이터 흐름 경로는 서비스 요청 정보에 따른 데이터 흐름의 출발지와 목적지 사이에서 데이터가 전달되는 경로를 말한다.
즉, 중앙 제어 장치(110)는 데이터 센터(130) 간 링크의 대역폭과 링크에 기 할당된 서비스 정보를 기반으로 서비스 수준 정보를 충족하면서 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, 링크는 현재 보유한 링크를 말한다. 물론, 링크는 현재 보유한 링크와 새롭게 구입한 링크를 전부 포함할 수도 있다.
이때, 중앙 제어 장치(110)는 k-shortest path 알고리즘을 이용하여 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, k는 경로에 포함된 링크의 개수를 말한다.
그런 다음, 중앙 제어 장치(110)는 획득된 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 라우팅 정보를 복수의 데이터 센터(130)로 제공한다(S130). 이때, 중앙 제어 장치(110)는 복수의 데이터 센터(130)를 각각 관리하는 복수의 로컬 제어 장치(131)로 업데이트된 라우팅 정보를 제공할 수 있다.
그리고, 중앙 제어 장치(110)는 데이터 흐름 정보에 기초한 출발지 데이터 서버(135)가 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 서버(135)에 서비스 요청 정보를 제공한다(S140). 이때, 중앙 제어 장치(110)는 출발지 데이터 서버(135)가 포함된 데이터 센터(130)를 관리하는 로컬 제어 장치(131)를 통해 출발지 데이터 서버(135)에 서비스 요청 정보를 제공할 수 있다.
그러면, 출발지 데이터 서버(135)는 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위를 태깅한다(S150). 즉, 출발지 데이터 서버(135)는 높은 우선순위 및 낮은 우선순위 중 하나의 우선순위를 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다. 보다 자세히 설명하면, 출발지 데이터 서버(135)는 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다. 아울러, 데이터 센터(130)에 포함된 중계 장치(133)는 높은 우선순위 큐, 낮은 우선순위 큐 및 선입선처리 큐를 구비하고 있다. 그리고, 중계 장치(133)는 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 낮은 우선순위 큐에 삽입할 수 있다. 또한, 중계 장치(133)는 높은 우선순위 큐에 있는 패킷을 낮은 우선순위 큐에 있는 패킷보다 먼저 선입선처리 큐에 전달하고, 높은 우선순위 큐에 패킷이 없는 경우에는 낮은 우선순위 큐에 있는 패킷을 선입선처리 큐에 전달할 수 있다. 이때, 중계 장치(133)는 선입선처리 큐에 패킷이 가득차 있는 경우 낮은 우선순위 큐에 있는 패킷을 높은 우선순위 큐에 있는 패킷보다 먼저 드랍할 수 있다.
그리고, 출발지 데이터 서버(135)는 서비스 요청 정보에 따라 데이터 패킷 흐름을 발생시킨다(S160). 즉, 출발지 데이터 서버(135)는 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.
그러면, 도 16 내지 도 24을 참조하여 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능에 대하여 설명한다.
도 16은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 방법의 비교를 하기 위한 그래프이다.
본 발명에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 평가하기 위해, 본 발명에 따른 서비스 요청 Ds=<μ, σ, ε>과 고정 대역폭 할당 방법(이하 '고정 대역폭 할당 방법" 또는 "고정 방식"이라 한다)에 따른 결정된 서비스 요청 Dd=μ+σ·F- 1(1-ε)는 동일하다고 가정한다. 여기서, F는 표준 정규 분포 N~<0, 12>의 누적 분포 함수(CDF)이다. 이것은 도 16에 도시된 바와 같이 본 발명과 고정 대역폭 할당 방법이 동일한 서비스 품질(QoS) 레벨을 가지기 때문이다.
에뮬레이션 설정
도 17은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 에뮬레이션 환경의 일례를 설명하기 위한 도면이다.
미니넷(Mininet)을 사용하여 도 17과 같은 Google B4 inter-DC WAN을 에뮬레이트한다. Google B4 inter-DC WAN는 각 도시마다 위치하는 12개의 데이터 센터(DC)와 19개의 Inter-DC 링크를 가지고 있다. Central Controller로 OVS 스위치와 ONOS(OPen Network Operationg System)를 사용한다. 각 링크(link) 용량은 200 Mbps이고, 서비스 요청을 수락하기 위해 3-shortest paths를 고려한다. 400개의 서비스 요청을 생성하며, 각 서비스 요청의 출발지와 목적지는 균일하게 랜덤으로 결정된다. 각 서비스 요청은 하나의 흐름만을 가지며, 각 흐름의 평균과 표준 편차의 값은 주어진 범위에서 균일하게 분배된다. 결과는 15번의 실험을 통해 획득하였다. 에뮬레이션은 의미있는 결과를 획득하기 위해, quad-core Intel i5-6500 3.2 Ghz, 32 GB RAM 및 256 GB SSD 하드 디스크가 장착된 고성능 컴퓨터를 통해 수행하였다.
테스트베드 설정
도 18은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 테스트베드 환경의 일례를 설명하기 위한 도면이다.
테스트베드는 도 18에 도시된 바와 같이, 데이터 센터 간 광역 통신망(Inter-DC WAN) 환경을 모방하기 위한 4개의 데이터 센터(DC1 내지 DC4), 4개의 스위치(SW), 5개의 inter-DC 링크, 및 중앙 제어 장치(CC)로 구성된다. 중앙 제어 장치(CC)는 듀얼 코어 인텔 E8400 3.00GHz, 8GB 메모리 및 300GB 하드 디스크로 이루어진다. 각 데이터 센터(DC1 내지 DC4)는 5개의 데이터 서버, Iptime H50008 8-port Gigabit Switching Hub, 및 OVS(open virtual switch)로 구성된다. 각 OVS는 12개의 Intel Xeon X5690 3.47GHz CPU, 20G 램, 1TB 하드 디스크, 및 5 개의 1 Gigabit Ethernet NICS로 이루어진다. 데이터 센터 간 광역 통신망(Inter-DC WAN)의 모든 링크들에 동일한 가중치와 동일한 300 Mbps 용량을 할당한다. Iperf 어플리케이션은 트래픽을 생성하는데 이용된다.
에뮬레이션 실험 결과
도 19는 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이고, 도 20은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이며, 도 21은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.
도 19의 (a)에서, 흐름은 5에서 6까지의 표준 편차와 0.01에서 0.04까지의 엡실론(epsilon)을 가지도록 생성된다. 도 19의 (a)를 참조하면, 수락된 서비스 요청의 개수는 본 발명이 고정 방식보다 약 20%가 많다. 평균이 증가하면, 수락된 서비스 요청의 개수는 네트워크 대역폭의 한계로 인해 감소하게된다.
도 19의 (b)에서, 흐름은 10에서 25까지의 평균과 0.01에서 0.04까지의 엡실론(epsilon)을 가지도록 생성된다. 도 19의 (b)를 참조하면, 수락된 서비스 요청의 개수는 본 발명이 고정 방식보다 약 25%가 많다.
도 19의 (c)에서, 흐름은 105에서 30까지의 평균과 10에서 13까지의 표준 편차를 가지도록 생성된다. 도 19의 (c)를 참조하면, 수락된 서비스 요청의 개수는 본 발명이 고정 방식보다 약 25%가 많다.
이와 같이, 본 발명은 고정 방식보다 더 많은 서비스 요청을 처리할 수 있다.
도 20에서, 흐름은 10에서 30까지의 평균, 1에서 4까지의 분산 및 0.0001에서 0.02까지의 엡실론(epsilon)을 가지도록 생성된다. 도 20을 참조하면, 본 발명은 고정 방식보다 링크를 약 10% 더 효율적으로 사용할 수 있다.
도 21을 참조하면, 본 발명은 거의 모든 흐름의 서비스 품질(QoS)을 보증할 수 있음을 확인할 수 있다.
테스트베드 실험 결과
도 22는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이고, 도 23은 도 18에 도시된 테스트베드 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이며, 도 24는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.
도 22, 도 23 및 도 24를 참조하면, 테스트베드 실험 결과는 에뮬레이션 실험 결과와 유사한 경향을 나타내는 것을 확인할 수 있다. 즉, 본 발명은 더 많은 서비스 요청을 처리할 수 있고, 링크 효율성을 향상시킬 수 있으며, 거의 모든 흐름의 서비스 품질(QoS)을 보증할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터로 읽을 수 있는 기록 매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 롬(ROM), 램(RAM), 씨디-롬(CD-ROM), 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 유무선 통신망으로 연결된 컴퓨터 장치에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 다음의 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
100 : 통계적 자원 할당 및 서비스 품질 보장 시스템,
110 : 중앙 제어 장치,
111 : 수신부, 113 : 경로 획득부,
115 : 라우팅 업데이트부, 117 : 자원 할당 관리부,
130 : 데이터 센터, 131 : 로컬 제어 장치,
133 : 중계 장치, 135 : 데이터 서버

Claims (15)

  1. 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템의 중앙 제어 장치로서,
    데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 수신부;
    상기 수신부를 통해 상기 서비스 요청 정보를 수신하면, 상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 경로 획득부;
    상기 경로 획득부를 통해 획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 라우팅 업데이트부; 및
    상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 통계적인 네트워크 가상화(Statistical Network Abstraction, SNA)를 이용하여, 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 자원 할당 관리부;
    를 포함하며,
    상기 서비스 수준 정보는, 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS)의 위배 가능성(violation probability)를 나타내는 서비스 품질 수준을 포함하고,
    상기 출발지 데이터 서버는, 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅하며, 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하며, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅하는, 중앙 제어 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에서,
    상기 데이터 센터에 포함된 중계 장치는, 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달하는, 중앙 제어 장치.
  6. 제5항에서,
    상기 중계 장치는, 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)하는, 중앙 제어 장치.
  7. 제1항에서,
    상기 출발지 데이터 서버는, 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시키는, 중앙 제어 장치.
  8. 중앙 제어 장치의 통계적 자원 할당 및 서비스 품질 보장 방법으로서,
    데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 단계;
    상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 단계;
    획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 단계; 및
    상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 통계적인 네트워크 가상화(Statistical Network Abstraction, SNA)를 이용하여, 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 단계;
    를 포함하며,
    상기 서비스 수준 정보는, 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS)의 위배 가능성(violation probability)를 나타내는 서비스 품질 수준을 포함하고,
    상기 출발지 데이터 서버는, 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅하며, 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하며, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 제8항에서,
    상기 데이터 센터에 포함된 중계 장치는, 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
  13. 제12항에서,
    상기 중계 장치는, 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
  14. 제8항에서,
    상기 출발지 데이터 서버는, 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시키는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
  15. 제8항, 제12항 내지 제14항 중 어느 한 항에 기재된 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법을 컴퓨터에서 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록 매체에 저장된 컴퓨터 프로그램.
KR1020170111750A 2017-09-01 2017-09-01 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법 KR101987346B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170111750A KR101987346B1 (ko) 2017-09-01 2017-09-01 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170111750A KR101987346B1 (ko) 2017-09-01 2017-09-01 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법

Publications (2)

Publication Number Publication Date
KR20190025285A KR20190025285A (ko) 2019-03-11
KR101987346B1 true KR101987346B1 (ko) 2019-06-10

Family

ID=65758330

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170111750A KR101987346B1 (ko) 2017-09-01 2017-09-01 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법

Country Status (1)

Country Link
KR (1) KR101987346B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101001556B1 (ko) * 2008-09-23 2010-12-17 한국전자통신연구원 무선 센서 네트워크의 노드의 패킷 전송 장치 및 방법
KR101456845B1 (ko) * 2007-07-27 2014-11-03 실리콘 이미지, 인크. 상호연결 네트워크에서의 패킷 레벨 서열화

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100503419B1 (ko) * 2002-12-23 2005-07-22 한국전자통신연구원 차등서비스 제공을 위한 경로색에 기반한 자원 할당 장치및 방법
EP1796332B1 (en) * 2005-12-08 2012-11-14 Electronics and Telecommunications Research Institute Token bucket dynamic bandwidth allocation
US10230665B2 (en) * 2013-12-20 2019-03-12 Intel Corporation Hierarchical/lossless packet preemption to reduce latency jitter in flow-controlled packet-based networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456845B1 (ko) * 2007-07-27 2014-11-03 실리콘 이미지, 인크. 상호연결 네트워크에서의 패킷 레벨 서열화
KR101001556B1 (ko) * 2008-09-23 2010-12-17 한국전자통신연구원 무선 센서 네트워크의 노드의 패킷 전송 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
‘데이터센터 간 광역 통신망에서 효율적인 서비스 수준 통계적 다중화 및 자원 할당’, 한국과학기술원, 2016.11.14.*

Also Published As

Publication number Publication date
KR20190025285A (ko) 2019-03-11

Similar Documents

Publication Publication Date Title
JP6356319B2 (ja) 競合するアプリケーションの間でネットワーク帯域幅を共有するシステム
JP3987394B2 (ja) 帯域ブローカによってネットワークドメイン内部で帯域を割り当てる方法
US9559956B2 (en) Sharing bandwidth among multiple users of network applications
US7307954B1 (en) Differentiated service network and method of operating a differentiated service network
US20150016252A1 (en) Source-driven switch probing with feedback request
KR20160041631A (ko) 서비스 품질 인지 라우팅 제어 장치 및 라우팅 제어 방법
US20140133302A1 (en) Tuning routing metrics to reduce maximum link utilization and end-to-end delay violations
CN109922003B (zh) 一种数据发送方法、系统及相关组件
WO2019029704A1 (zh) 网络对象管理方法及其装置
US10044632B2 (en) Systems and methods for adaptive credit-based flow
CN111970149B (zh) 一种基于硬件防火墙qos的共享带宽实现方法
KR101987346B1 (ko) 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법
US20230088222A1 (en) System and method for dynamically shaping an inter-datacenter traffic
EP3485618A1 (en) Device and method for managing end-to-end connections
KR101911473B1 (ko) 데이터 센터 간 광역 통신망에서 통계적 다중화 및 자원 할당 시스템과 이의 방법
KR20120055947A (ko) 가입자 인지 플로우별 QoS 제공 방법 및 장치
CN110086662B (zh) 一种需求定义网络的实现方法及网络架构
JP6236310B2 (ja) トラヒックフロー割当方法および装置
Garba et al. Efficient bandwidth management and implementation of cross-layer queuing model in a wireless campus area network
JP5144596B2 (ja) 通信品質保証を実現する呼受付制御方法および装置、ならびにそのためのプログラム
CN116419403A (zh) 资源分配方法、装置和非易失性计算机可读存储介质
Yang et al. A deadline-aware rate control scheme resolving oversubscription in wireless data center networks
JP2012004841A (ja) 呼受付制御方法、呼受付制御システム、及びネットワークシステム
Wanis Adaptive Management of Virtual Network Resources

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant