KR20190025285A - System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN - Google Patents

System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN Download PDF

Info

Publication number
KR20190025285A
KR20190025285A KR1020170111750A KR20170111750A KR20190025285A KR 20190025285 A KR20190025285 A KR 20190025285A KR 1020170111750 A KR1020170111750 A KR 1020170111750A KR 20170111750 A KR20170111750 A KR 20170111750A KR 20190025285 A KR20190025285 A KR 20190025285A
Authority
KR
South Korea
Prior art keywords
service
packet
information
data
queue
Prior art date
Application number
KR1020170111750A
Other languages
Korean (ko)
Other versions
KR101987346B1 (en
Inventor
이융
한동수
이병욱
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170111750A priority Critical patent/KR101987346B1/en
Publication of KR20190025285A publication Critical patent/KR20190025285A/en
Application granted granted Critical
Publication of KR101987346B1 publication Critical patent/KR101987346B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • H04L47/823
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/31Flow control; Congestion control by tagging of packets, e.g. using discard eligibility [DE] bits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/32Flow control; Congestion control by discarding or delaying data units, e.g. packets or frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/52Queue scheduling by attributing bandwidth to queues
    • H04L47/527Quantum based scheduling, e.g. credit or deficit based scheduling or token bank
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/6215Individual queue per QOS, rate or priority
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/6245Modifications to standard FIFO or LIFO
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/805QOS or priority aware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/82Miscellaneous aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

Disclosed are a system for statistical resource allocation and quality of service (QoS) guarantee, and a method thereof. The present invention provides a solution that can guarantee bandwidth in a statistical way in a wide area network environment between data centers, while achieving high network resource utilization and requested QoS. According to the present invention, high network resource utilization can be achieved while ensuring a requested QoS level by statistically ensuring a service request with the QoS level of less than 100%.

Description

데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법{System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN}[0001] The present invention relates to a statistical resource allocation and service quality assurance system in a wide-area inter-data center network,

본 발명은 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법에 관한 것으로, 더욱 상세하게는 데이터 센터 간 광역 통신망 환경에서 통계적인 방법으로 대역폭을 보장함과 동시에 높은 네트워크 자원 활용도, 그리고 요청된 서비스 품질을 달성할 수 있는 솔루션을 제공하는 시스템 및 방법에 관한 것이다.The present invention relates to a statistical resource allocation and service quality assurance system and a method thereof in a wide-area inter-data center network, and more particularly, to a system and method for securing a bandwidth in a data center wide area network environment by statistical methods, And a system and method for providing a solution that can achieve the requested quality of service.

게임빌, 넷플릭스 등의 대부분의 서비스 제공자(service provider, SP)는 자신의 비즈니스를 위해 자신의 데이터 센터(Data Center, DC)를 구축하고 관리하고 있다. 그러나, 인프라스트럭쳐(infrastructure)를 확장하기 위해서는 추가적인 하드웨어나 소프트웨어를 구입하는 등의 비용이 소모된다. 이에 따라, 서비스 제공자(SP)의 대다수는 비용을 감소시키시 위해 그들의 서비스 인프라스트럭쳐를 클라우드 서비스 제공자(cloud service provider, CSP)에 의해 관리되는 데이터 센터(DC)들로 이주하고 있다. 클라우드 서비스 제공자(CSP)는 글로벌 커버리지와 데이터 센터(DC)들이 연결된 데이터 센터 간 광역 통신망(inter-datacenter wide-area network, Inter-DC WAN)을 제공하기 위해 전세계에 분포하고 있는 복수의 데이터 센터(DC)들을 구비하고 있다. 데이터 센터 간 광역 통신망(Inter-DC WAN)은 많은 양의 트래픽을 생성하는 복수의 서비스에 의해 공유되고 있다.Most service providers (SPs), such as Gamevil and Netflix, are building and managing their own data centers (DCs) for their businesses. However, in order to expand the infrastructure, additional costs such as purchasing additional hardware and software are consumed. Accordingly, the majority of service providers (SPs) are migrating their service infrastructure to data centers (DCs) managed by a cloud service provider (CSP) to reduce costs. Cloud service providers (CSPs) are deployed across multiple global data centers to provide global coverage and inter-datacenter wide-area networks (Inter-DC WANs) with data centers (DCs) DC). Inter-DC WANs between data centers are being shared by multiple services that generate large amounts of traffic.

종래의 전체 트래픽(aggregate traffic) 관리는 도 1의 (a)에 도시된 고정 대역 폭 할당(Fixed Bandwidth Allocation) 방법이나 도 1의 (b)에 도시된 멀티플렉싱(Multiplexing) 방법을 이용하고 있다.Conventional aggregate traffic management uses a fixed bandwidth allocation method shown in FIG. 1A or a multiplexing method shown in FIG. 1B.

고정 대역폭 할당 방법은 사용자가 요청한 서비스 품질(Quality of Service, QoS)을 보증하기 위해 해당 사용자에게 고정된 대역폭을 할당하는 방식이다. 그러나, 이러한 결정된 네트워크 자원을 할당하는 방식은 서비스 제공자(SP)나 클라우드 서비스 제공자(CSP)에게 좋은 솔루션은 아니다. 서비스 제공자(SP)는 서비스의 요청이 복잡하고 시간에 따라 변화되기 때문에 그들이 필요한 대역폭이 얼마인지를 결정하기가 어렵다. 심지어 그들이 트래픽 패턴의 통계를 이미 알고 있다고 하더라도, 그들의 요구를 결정된 값으로 특정하는 것은 여전히 어려움이 있다. 나아가, 고정된 대역폭을 할당하는 것은 도 1의 (a)에 도시된 그래프에서 확인할 수 있듯이, 네트워크 자원을 효율적으로 사용하지 못하는 문제가 있다.The fixed bandwidth allocation method allocates a fixed bandwidth to the user to guarantee the quality of service (QoS) requested by the user. However, such a method of allocating network resources is not a good solution for a service provider (SP) or a cloud service provider (CSP). Service providers (SPs) are difficult to determine how much bandwidth they need because the service requests are complex and change over time. Even if they already know the statistics of the traffic patterns, it is still difficult to specify their needs at the determined values. Furthermore, as shown in the graph of FIG. 1 (a), allocating the fixed bandwidth has a problem that the network resources can not be efficiently used.

멀티플렉싱 방법은 사용자의 서비스 요청에 대해 고정된 대역폭을 할당하는 것이 아니라, 모든 트래픽을 섞어 네트워크 활용도를 향상시키기 위한 방식이다. 그러나, 멀티플렉싱 방법은 요청된 요구를 초과하지 않게 각 트래픽을 제어하는 것이 어려운 문제가 있다.The multiplexing method is not a fixed bandwidth allocation for a user's service request but a method for improving network utilization by mixing all the traffic. However, the multiplexing method has a problem that it is difficult to control each traffic so as not to exceed the requested demand.

한국공개특허 제2004-0076822호 (후아웨이 테크놀러지 컴퍼니) 2004. 9. 3. 특허문헌 1은 IP 액세스 네트워크에서 서비스 품질이 보증된 서비스를 제공하는 방법으로서, 특허문헌 1에는 네트워크 제어 계층(network control layer)이 QoS 보증(guaranteed QoS)을 필요로 하는 서비스 요청에 대한 응답으로 액세스 네트워크에 네트워크 자원을 신청할 때, 에지 라우터(edge router)는 액세스 네트워크가 그 서비스를 위해 충분한 자원을 제공할 수 있는 지를 결정하고, 자원이 충분하면 에지 라우터는 보증된 QoS를 얻기 위해 QoS를 제어하는 액세스 네트워크 말단 장치(end devices)에 QoS 파라미터를 전송하는 내용이 개시되어 있다.Korean Patent Laid-Open No. 2004-0076822 (Huawei Technology Company) Sep. 3, 2004 Patent Document 1 discloses a method of providing a service with guaranteed service quality in an IP access network, and Patent Document 1 discloses a network control layer layer is requesting network resources to the access network in response to a service request that requires guaranteed QoS, the edge router determines whether the access network can provide sufficient resources for the service And when the resources are sufficient, the edge routers transmit QoS parameters to access network end devices that control the QoS to obtain guaranteed QoS.

본 발명이 이루고자 하는 기술적 과제는, 데이터 센터 간 광역 통신망 환경에서 통계적인 방법으로 대역폭을 보장함과 동시에 높은 네트워크 자원 활용도, 그리고 요청된 서비스 품질을 달성할 수 있는 솔루션을 제공하는 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a data center wide area communication network that provides a solution that can guarantee a bandwidth in a statistical manner in a wide area network environment between data centers while achieving high network resource utilization and requested quality of service And to provide a method for guaranteeing quality of service and a method for the same.

상기의 기술적 과제를 달성하기 위한 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템의 중앙 제어 장치는, 데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 수신부; 상기 수신부를 통해 상기 서비스 요청 정보를 수신하면, 상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 경로 획득부; 상기 경로 획득부를 통해 획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 라우팅 업데이트부; 및 상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 자원 할당 관리부;를 포함하며, 상기 출발지 데이터 서버는 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅한다.According to an aspect of the present invention, there is provided a central control apparatus for a statistical resource allocation and service quality assurance system in a wide-area inter-data center wide area network system, comprising: service request information including data flow information and service level information, ; A path obtaining unit that obtains a data flow path corresponding to the data flow information based on the service level information upon receiving the service request information through the receiver; A routing update unit updating the routing information based on the data flow path obtained through the path obtaining unit and providing the updated routing information to a plurality of data centers; And a resource allocation manager for providing the service request information to the source data server so that a source data server based on the data flow information generates a data packet flow based on the service level information, Tags the priority of the packet according to the bandwidth based on the service level information.

상기 서비스 수준 정보는 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS) 수준을 포함할 수 있다.The service level information is information indicating a service quality level of the data flow, and may include an average and a standard deviation of a peak rate of a flow along a normal distribution, and a quality of service (QoS) level.

상기 출발지 데이터 서버는 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다.The source data server may tag the priority of one of high priority and low priority in a packet according to a service quality level based on the service level information.

상기 출발지 데이터 서버는 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다.The source data server may tag the packet with a higher priority if it is currently using a bandwidth lower than the bandwidth based on the quality of service level and if the bandwidth is currently higher than the bandwidth based on the quality of service level, It can be tagged.

상기 데이터 센터에 포함된 중계 장치는 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달할 수 있다.The relay device included in the data center has a high priority queue, a low priority queue, and a first-in first out (FIFO) queue. If the priority of a packet received from the outside is high Inserting the received packet into the high priority queue, inserting the received packet into the low priority queue if the received packet has a low priority, and transmitting the packet in the high priority queue to the first priority queue And if there is no packet in the high priority queue, the packet in the low priority queue may be delivered to the first-in pre-processing queue.

상기 중계 장치는 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)할 수 있다.The relay device may drop the packet in the low priority queue if the first-in-first-out queue is full of packets.

상기 출발지 데이터 서버는 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.The source data server may allocate a token according to the bandwidth based on the service level information and generate a data packet flow based on the service level information by consuming the corresponding token when generating a data packet flow.

상기의 기술적 과제를 달성하기 위한 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법은, 중앙 제어 장치의 통계적 자원 할당 및 서비스 품질 보장 방법으로서, 데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 단계; 상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 단계; 획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 단계; 및 상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 단계;를 포함하며, 상기 출발지 데이터 서버는 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅한다.According to another aspect of the present invention, there is provided a statistical resource allocation and service quality assurance method in a wide area network between a data center, Receiving service request information from the user terminal; Obtaining a data flow path corresponding to the data flow information based on the service level information; Updating the routing information based on the obtained data flow path, and providing the updated routing information to a plurality of data centers; And providing the service request information to the source data server such that the source data server based on the data flow information generates a data packet flow based on the service level information, Tag priority on packets according to bandwidth based on service level information.

상기 서비스 수준 정보는 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS) 수준을 포함할 수 있다.The service level information is information indicating a service quality level of the data flow, and may include an average and a standard deviation of a peak rate of a flow along a normal distribution, and a quality of service (QoS) level.

상기 출발지 데이터 서버는 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다.The source data server may tag the priority of one of high priority and low priority in a packet according to a service quality level based on the service level information.

상기 출발지 데이터 서버는 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다.The source data server may tag the packet with a higher priority if it is currently using a bandwidth lower than the bandwidth based on the quality of service level and if the bandwidth is currently higher than the bandwidth based on the quality of service level, It can be tagged.

상기 데이터 센터에 포함된 중계 장치는 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달할 수 있다.The relay device included in the data center has a high priority queue, a low priority queue, and a first-in first out (FIFO) queue. If the priority of a packet received from the outside is high Inserting the received packet into the high priority queue, inserting the received packet into the low priority queue if the received packet has a low priority, and transmitting the packet in the high priority queue to the first priority queue And if there is no packet in the high priority queue, the packet in the low priority queue may be delivered to the first-in pre-processing queue.

상기 중계 장치는 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)할 수 있다.The relay device may drop the packet in the low priority queue if the first-in-first-out queue is full of packets.

상기 출발지 데이터 서버는, 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.The source data server may allocate a token according to the bandwidth based on the service level information and generate a data packet flow based on the service level information by consuming the token when generating a data packet flow.

상기의 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 저장되어 상기한 방법 중 어느 하나를 컴퓨터에서 실행시킨다.According to an aspect of the present invention, there is provided a computer program for use in a computer readable recording medium, the computer program causing the computer to execute any one of the methods.

본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법에 의하면, 서비스 품질(QoS) 수준을 100% 이하로 하는 서비스 요청을 통계적으로 보장함으로써, 요청한 서비스 품질(QoS) 수준을 보장하면서도 높은 네트워크 자원 활용도를 획득할 수 있다.According to the statistical resource allocation and service quality assurance system and method therefor in the inter-data center wide area network, statistically ensuring service requests with a service quality (QoS) level of 100% or less, Level network resource utilization can be achieved.

도 1은 종래의 서비스 요청에 따른 트래픽 관리 방법의 일례를 설명하기 위한 도면이다.
도 2는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템을 설명하기 위한 블록도이다.
도 3은 도 2에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성을 설명하기 위한 블록도이다.
도 4는 도 3에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성의 일례를 설명하기 위한 도면이다.
도 5는 도 3에 도시한 데이터 센터의 구성을 설명하기 위한 블록도이다.
도 6은 도 5에 도시한 데이터 센터의 구성의 일례를 설명하기 위한 도면이다.
도 7은 도 3에 도시한 중앙 제어 장치의 구성을 설명하기 위한 블록도이다.
도 8은 본 발명의 바람직한 실시예에 따른 서비스 요청 정보를 설명하기 위한 도면이다.
도 9는 본 발명의 바람직한 실시예에 따른 어드미션 컨트롤(Admission Contriol)을 설명하기 위한 도면이다.
도 10은 본 발명의 바람직한 실시예에 따른 자원 할당 관리 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 일례를 설명하기 위한 도면이다.
도 12는 본 발명의 바람직한 실시예에 따른 패킷에 우선순위를 태깅하고 처리하는 동작의 일례를 설명하기 위한 도면이다.
도 13은 본 발명의 바람직한 실시예에 따른 우선순위가 태깅된 패킷을 처리하는 동작의 일례를 설명하기 위한 도면이다.
도 14는 본 발명의 바람직한 실시예에 따른 우선순위 태깅에 따른 로스 비율(loss latio)을 설명하기 위한 도면이다.
도 15는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법을 설명하기 위한 흐름도이다.
도 16은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 방법의 비교를 하기 위한 그래프이다.
도 17은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 에뮬레이션 환경의 일례를 설명하기 위한 도면이다.
도 18은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 테스트베드 환경의 일례를 설명하기 위한 도면이다.
도 19는 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이다.
도 20은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이다.
도 21은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.
도 22는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이다.
도 23은 도 18에 도시된 테스트베드 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이다.
도 24는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.
1 is a diagram for explaining an example of a traffic management method according to a conventional service request.
2 is a block diagram for explaining a statistical resource allocation and service quality assurance system in a inter-data-center wide area network according to a preferred embodiment of the present invention.
3 is a block diagram illustrating the configuration of the statistical resource allocation and service quality assurance system shown in FIG.
FIG. 4 is a view for explaining an example of the configuration of the statistical resource allocation and service quality assurance system shown in FIG.
5 is a block diagram for explaining the configuration of the data center shown in FIG.
Fig. 6 is a diagram for explaining an example of the configuration of the data center shown in Fig. 5. Fig.
7 is a block diagram for explaining the configuration of the central control unit shown in Fig.
8 is a view for explaining service request information according to a preferred embodiment of the present invention.
9 is a diagram for explaining an admission control according to a preferred embodiment of the present invention.
FIG. 10 is a view for explaining a resource allocation management operation according to a preferred embodiment of the present invention.
11 is a view for explaining an example of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention.
FIG. 12 is a view for explaining an example of an operation of tagging and processing priority to a packet according to a preferred embodiment of the present invention.
13 is a view for explaining an example of an operation of processing a tagged packet having a priority according to a preferred embodiment of the present invention.
FIG. 14 is a diagram for explaining a loss ratio according to priority tagging according to a preferred embodiment of the present invention.
FIG. 15 is a flowchart illustrating a statistical resource allocation and service quality assurance method in a wide-area inter-data communication network according to a preferred embodiment of the present invention.
16 is a graph for comparing statistical resource allocation and service quality assurance methods according to a preferred embodiment of the present invention.
17 is a view for explaining an example of an emulation environment for testing performance of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention.
18 is a view for explaining an example of a testbed environment for testing performance of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention.
FIG. 19 is a diagram for explaining the number of acceptance of a service request as a result of an experiment in the emulation environment shown in FIG.
FIG. 20 is a diagram for explaining link utilization, which is an experiment result in the emulation environment shown in FIG.
FIG. 21 is a diagram for explaining a loss guarantee flow as a result of an experiment in the emulation environment shown in FIG.
22 is a diagram for explaining the number of service requests accepted as a result of an experiment in the test bed environment shown in FIG.
FIG. 23 is a diagram for explaining link utilization, which is an experiment result in the test bed environment shown in FIG.
FIG. 24 is a diagram for explaining a loss guarantee flow as a result of an experiment in the test bed environment shown in FIG. 18; FIG.

이하에서 첨부한 도면을 참조하여 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템과 이의 방법의 바람직한 실시예에 대해 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of a statistical resource allocation and service quality assurance system and a method thereof in a wide-area inter-data center wide area network according to the present invention will be described in detail with reference to the accompanying drawings.

먼저, 도 2를 참조하여 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템에 대하여 설명한다.First, a statistical resource allocation and service quality assurance system in a inter-data center wide area network according to a preferred embodiment of the present invention will be described with reference to FIG.

도 2는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템을 설명하기 위한 블록도이다.2 is a block diagram for explaining a statistical resource allocation and service quality assurance system in a inter-data-center wide area network according to a preferred embodiment of the present invention.

도 2를 참조하면, 본 발명에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템(이하 '통계적 자원 할당 및 서비스 품질 보장 시스템'이라 한다)(100)은 통신망(300)을 통해 사용자 단말(200)과 연결된다.Referring to FIG. 2, a statistical resource allocation and service quality assurance system (hereinafter referred to as 'statistical resource allocation and service quality assurance system') 100 in a inter-data center wide area network And is connected to the terminal 200.

통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 클라우드 서비스 제공자(CSP)가 운영하는 시스템으로서, 데이터 센터 간 광역 통신망 환경에서 대역폭을 보장함과 동시에 높은 네트워크 자원 활용도를 달성할 수 있는 솔루션을 제공한다.The statistical resource allocation and service quality assurance system 100 is a system operated by a cloud service provider (CSP), which provides a solution capable of guaranteeing bandwidth and achieving high network resource utilization in a data center wide area network environment .

즉, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 통신망(300)을 통해 사용자 단말(200)로부터 서비스 요청 정보를 수신한다. 여기서, 서비스 요청 정보는 데이터 흐름 정보와 서비스 수준 정보를 포함한다. 데이터 흐름 정보는 서비스를 요청하는 데이터 흐름의 출발지와 목적지에 대한 정보를 말한다. 서비스 수준 정보는 데이터 흐름의 서비스 품질(QoS)에 대한 수준을 나타내는 정보를 말한다.That is, the statistical resource allocation and service quality assurance system 100 receives service request information from the user terminal 200 through the communication network 300. Here, the service request information includes data flow information and service level information. The data flow information is information about the source and destination of the data flow requesting the service. The service level information is information indicating the level of quality of service (QoS) of the data flow.

그리고, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 통계적인 네트워크 가상화(Statistical Network Abstraction, SNA)를 이용하여 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득한다. 여기서, 데이터 흐름 경로는 서비스 요청 정보에 따른 데이터 흐름의 출발지와 목적지 사이에서 데이터가 전달되는 경로를 말한다.The statistical resource allocation and service quality assurance system 100 obtains a data flow path corresponding to the service request information using statistical network abstraction (SNA). Here, the data flow path refers to a path through which data is transmitted between a source and a destination of a data flow according to service request information.

또한, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 출발지 데이터 서버가 통계적인 네트워크 가상화(SNA)를 이용하여 서비스 요청 정보에 따른 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 서버에 서비스 요청 정보를 제공한다. 이때, 출발지 데이터 서버는 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅한다.In addition, the statistical resource allocation and service quality assurance system 100 provides service request information to the source data server so that the source data server generates a data packet flow according to the service request information using statistical network virtualization (SNA) do. At this time, the source data server tags the priority of the packet according to the bandwidth based on the service level information.

사용자 단말(200)은 서비스 제공자(SP)가 운영하는 장치로서, 자신이 원하는 서비스 품질(QoS)의 수준에 대한 정보가 포함된 서비스 요청 정보를 통신망(300)을 통해 통계적 자원 할당 및 서비스 품질 보장 시스템(100)에 제공한다.The user terminal 200 is a device operated by a service provider SP. The user terminal 200 transmits service request information including information on the level of a desired service quality (QoS) to the user terminal 200 through a communication network 300, To the system 100.

여기서, 사용자 단말(200)은 데스크톱 컴퓨터뿐만 아니라 노트북 컴퓨터, 워크스테이션, 팜톱(palmtop) 컴퓨터, UMPC(Ultra Mobile Personal Computer), 태블릿 PC, 개인 휴대 정보 단말기(Personal Digital Assistant, PDA), 웹 패드, 스마트폰, 휴대전화 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 단말기로 이루어질 수 있다.The user terminal 200 may be a desktop computer, a notebook computer, a workstation, a palmtop computer, an Ultra Mobile Personal Computer (UMPC), a tablet PC, a personal digital assistant (PDA) A smart phone, a mobile phone, or the like, and a terminal equipped with a microprocessor and having computing capability.

통신망(300)은 구내 정보 통신망(local area network, LAN), 도시권 통신망(metropolitan area network, MAN), 광역 통신망(wide area network, WAN), 인터넷 등을 포함하는 데이터 통신망뿐만 아니라 전화망 등을 포함할 수 있고, 유선과 무선을 가리지 않으며, 어떠한 통신 방식을 사용하더라도 상관없다.The communication network 300 includes a data network as well as a telephone network including a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN) It does not matter whether it is wired or wireless, and it does not matter what communication method you use.

그러면, 도 3 내지 도 6을 참조하여 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템에 대하여 보다 자세하게 설명한다.3 to 6, the statistical resource allocation and service quality assurance system in the inter-data center wide area network according to the preferred embodiment of the present invention will be described in detail.

도 3은 도 2에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성을 설명하기 위한 블록도이고, 도 4는 도 3에 도시한 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성의 일례를 설명하기 위한 도면이다.FIG. 3 is a block diagram for explaining the configuration of the statistical resource allocation and service quality assurance system shown in FIG. 2. FIG. 4 is a block diagram for explaining an example of the configuration of the statistical resource allocation and service quality assurance system shown in FIG. FIG.

도 3을 참조하면, 통계적 자원 할당 및 서비스 품질 보장 시스템(100)은 중앙 제어 장치(110) 및 중앙 제어 장치(110)에 연결된 복수의 데이터 센터(130)를 포함할 수 있다.3, the statistical resource allocation and service quality assurance system 100 may include a plurality of data centers 130 coupled to a central control unit 110 and a central control unit 110.

중앙 제어 장치(110)는 복수의 데이터 센터(130)를 관리하고, 글로벌 네트워크 정보를 유지한다. 즉, 중앙 제어 장치(110)는 사용자 단말(200)로부터 서비스 요청 정보를 수신하면, 현재의 네트워크를 기반으로 서비스 요청 정보를 수락할 지 여부를 결정한다. 그리고, 중앙 제어 장치(110)는 통계적인 네트워크 가상화(Statistical Network Abstraction, SNA)를 이용하여 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득한다. 또한, 중앙 제어 장치(110)는 출발지 데이터 서버가 통계적인 네트워크 가상화(SNA)를 이용하여 서비스 요청 정보에 따른 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 센터(130)에 서비스 요청 정보를 제공한다.The central control unit 110 manages a plurality of data centers 130 and maintains global network information. That is, when receiving the service request information from the user terminal 200, the central control unit 110 determines whether to accept the service request information based on the current network. Then, the central control unit 110 obtains a data flow path corresponding to the service request information using statistical network abstraction (SNA). The central control unit 110 also provides service request information to the source data center 130 so that the source data server uses statistical network virtualization (SNA) to generate a data packet flow according to the service request information.

도 4에 도시된 통계적 자원 할당 및 서비스 품질 보장 시스템의 구성의 일례를 참조하면, 중앙 제어 장치(110)는 5개의 데이터 센터(130-1 내지 130-5)와 연결되어, 5개의 데이터 센터(130-1 내지 130-5)를 관리한다. 그리고, 5개의 데이터 센터(130-1 내지 130-5) 각각은 링크를 통해 서로 연결될 수 있다.Referring to an example of the configuration of the statistical resource allocation and service quality assurance system shown in Fig. 4, the central control unit 110 is connected to five data centers 130-1 to 130-5, 130-1 to 130-5. Each of the five data centers 130-1 to 130-5 can be connected to each other via a link.

도 5는 도 3에 도시한 데이터 센터의 구성을 설명하기 위한 블록도이고, 도 6은 도 5에 도시한 데이터 센터의 구성의 일례를 설명하기 위한 도면이다.FIG. 5 is a block diagram for explaining the configuration of the data center shown in FIG. 3, and FIG. 6 is a diagram for explaining an example of the configuration of the data center shown in FIG.

도 5를 참조하면, 데이터 센터(130)는 로컬 제어 장치(131), 로컬 제어 장치(131)에 연결된 복수의 중계 장치(133) 및 중계 장치(133)에 연결된 복수의 데이터 서버(135)를 포함할 수 있다.5, the data center 130 includes a local control device 131, a plurality of relay devices 133 connected to the local control device 131, and a plurality of data servers 135 connected to the relay device 133 .

로컬 제어 장치(131)는 복수의 중계 장치(133)를 통해 복수의 데이터 서버(135)와 연결되어, 복수의 데이터 서버(135)를 관리한다. 즉, 로컬 제어 장치(131)는 중앙 제어 장치(110)의 명령에 따라 흐름 테이블(flow table)의 라우팅 정보를 업데이트한다. 그리고, 로컬 제어 장치(131)는 중앙 제어 장치(110)로부터 제공받은 서비스 요청 정보를 해당 데이터 센터(130) 내에 있는 데이터 서버(135)로 제공한다. 또한, 로컬 제어 장치(131)는 가용 대역폭(available bandwidth), 링크 고장(link failure) 등의 링크 정보를 모니터링하고, 모니터링된 링크 정보를 중앙 제어 장치(110)로 제공한다.The local control device 131 is connected to a plurality of data servers 135 via a plurality of relay devices 133 to manage a plurality of data servers 135. [ That is, the local control unit 131 updates the routing information of the flow table according to the command of the central control unit 110. The local control unit 131 provides the service request information provided from the central control unit 110 to the data server 135 in the data center 130. In addition, the local controller 131 monitors link information such as available bandwidth, link failure, and the like, and provides the monitored link information to the central control unit 110.

도 6에 도시된 데이터 센터의 구성의 일례를 참조하면, 제1 데이터 센터(130-1)는 로컬 제어 장치(131), 3개의 중계 장치(133-1 내지 133-3) 및 6개의 데이터 서버(135-1 내지 135-6)로 구성된다.Referring to an example of the configuration of the data center shown in Fig. 6, the first data center 130-1 includes a local control device 131, three relay devices 133-1 to 133-3, (135-1 to 135-6).

로컬 제어 장치(131)는 제1 중계 장치(133-1) 및 제2 중계 장치(133-2)와 연결된다. 그리고, 로컬 제어 장치(131)는 제1 데이터 서버(135-1), 제2 데이터 서버(135-2) 및 제3 데이터 서버(135-3)와 연결된다.The local control device 131 is connected to the first relay device 133-1 and the second relay device 133-2. The local control device 131 is connected to the first data server 135-1, the second data server 135-2, and the third data server 135-3.

그러면, 도 7 내지 도 10을 참조하며 본 발명의 바람직한 실시예에 따른 중앙 제어 장치에 대하여 보다 자세하게 설명한다.7 to 10, a central control device according to a preferred embodiment of the present invention will be described in more detail.

도 7은 도 3에 도시한 중앙 제어 장치의 구성을 설명하기 위한 블록도이다.7 is a block diagram for explaining the configuration of the central control unit shown in Fig.

도 7을 참조하면, 중앙 제어 장치(110)는 수신부(110), 경로 획득부(113), 라우팅 업데이트부(115) 및 자원 할당 관리부(117)를 포함할 수 있다.7, the central control unit 110 may include a receiving unit 110, a path obtaining unit 113, a routing updating unit 115, and a resource allocation managing unit 117.

수신부(110)는 서비스 요청 정보를 사용자 단말(200)로부터 수신한다. 여기서, 서비스 요청 정보는 데이터 흐름 정보와 서비스 수준 정보를 포함한다. 서비스 수준 정보는 데이터 흐름의 서비스 품질(QoS) 수준을 나타내는 정보를 말한다. 예컨대, 서비스 수준 정보는 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 평균(average)과 표준 편차(standard deviation), 서비스 품질(QoS) 수준 등을 포함할 수 있다.The receiving unit 110 receives service request information from the user terminal 200. Here, the service request information includes data flow information and service level information. Service level information refers to information indicating the level of quality of service (QoS) of the data flow. For example, the service level information may include an average and standard deviation of the peak rates of flows along a normal distribution, a quality of service (QoS) level, and so on .

도 8은 본 발명의 바람직한 실시예에 따른 서비스 요청 정보를 설명하기 위한 도면이다.8 is a view for explaining service request information according to a preferred embodiment of the present invention.

보다 자세하게 설명하면, 서비스 요청 R은 도 8에 도시된 바와 같이, n개의 흐름(flow)으로 구성되며, R={f1, ..., fn}로 정의된다. 각각의 흐름 fm은 fm={srcm, dstm, μm, σm, εm}으로 정의된다. 여기서, srcm은 흐름(flow)의 출발지 데이터 센터(DC)를 나타내고, dstm은 흐름(flow)의 목적지 데이터 센터(DC)를 나타낸다. μm은 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 평균(average)을 나타내고, σm은 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 표준 편차(standard deviation)를 나타낸다. εm은 서비스 품질(QoS)의 위배 가능성(violation probability)으로서, 엡실론 값(epsilon value)을 나타낸다. 즉, 엡실론(epsilon)은 전송되는 전체 패킷에서 로스 패킷(loss packet)의 양의 비율을 나타내는 서비스 품질(QoS) 팩터이다. 예컨대, εm은 0.03일 때, 서비스 제공자(SP)는 전체 패킷에서 로스 패킷의 퍼센트가 3 퍼센트인 보증된 서비스를 제공받을 수 있다. 따라서, 1-εm은 필요한 대역폭을 보증하는 가능성을 나타낸다. 사용자가 도 8의 (a)에 도시된 바와 같이 DC1, DC2, DC4 및 DC5로 이루어진 사각형 토폴로지(topology)를 구축하기를 원하면, 도 8의 (a)에 도시된 바와 같이 4개의 다른 흐름들로 이루어진 서비스 요청을 할 수 있다. 그러면, 중앙 제어 장치(110)는 도 8의 (b)에 도시된 바와 같이 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다.More specifically, the service request R is composed of n flows, as shown in FIG. 8, and is defined as R = {f 1 , ..., f n }. Each flow f m is defined as f m = {src m , dst m , μ m , σ m , ε m }. Where src m represents the source dataset (DC) of the flow and dst m represents the destination datacenter (DC) of the flow. m denotes the average of the peak rates of the flow along the normal distribution and σ m denotes the peak rate of the flow along the normal distribution, rates of standard deviation. epsilon m is a violation probability of quality of service (QoS), which represents an epsilon value. That is, the epsilon is a quality of service (QoS) factor indicating the proportion of the amount of loss packets in the entire packet transmitted. For example, when epsilon m is 0.03, the service provider (SP) may be provided with a guaranteed service in which the percentage of loss packets in the entire packet is 3 percent. Thus, 1-epsilon m indicates the possibility of guaranteeing the required bandwidth. If the user wishes to construct a rectangular topology consisting of DC 1 , DC 2 , DC 4 and DC 5 as shown in FIG. 8A, A service request consisting of different flows can be made. Then, the central control unit 110 can obtain the data flow path corresponding to the service request information as shown in FIG. 8 (b).

다시 도 7을 참조하면, 경로 획득부(113)는 수신부(110)를 통해 서비스 요청 정보를 수신하면, 서비스 수준 정보를 기초로 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득한다.7, when receiving the service request information through the receiving unit 110, the path obtaining unit 113 obtains a data flow path corresponding to the data flow information based on the service level information.

즉, 경로 획득부(113)는 데이터 센터(130) 간 링크의 대역폭과 링크에 기 할당된 서비스 정보를 기반으로 서비스 수준 정보를 충족하면서 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, 링크는 현재 보유한 링크를 말한다. 물론, 링크는 현재 보유한 링크와 새롭게 구입한 링크를 전부 포함할 수도 있다.That is, the path obtaining unit 113 may obtain the data flow path corresponding to the data flow information while satisfying the service level information based on the bandwidth of the link between the data centers 130 and the service information pre-allocated to the link. Here, the link refers to a link that is currently held. Of course, the link may include all the links that are currently held and newly purchased.

이때, 경로 획득부(1130)는 k-shortest path 알고리즘을 이용하여 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, k는 경로에 포함된 링크의 개수를 말한다.At this time, the path obtaining unit 1130 can obtain the data flow path corresponding to the data flow information using the k-shortest path algorithm. Here, k is the number of links included in the path.

보다 자세하게 설명하면, 본 발명에 따른 어드미션 컨트롤(Admission Control)은 현재 보유한 링크를 기반으로 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득한다.More specifically, admission control according to the present invention acquires a data flow path corresponding to service request information based on a currently held link.

즉, 서비스 요청 R={f1, f2, ..., fn}이 주어진다. 여기서, fi는 정규 분포 랜덤 변수(normal distributed random variable) Ni=N(μi, σi 2)을 따른다. 링크 l의 용량은 cl로 정의되고, 링크 l의 가중치는 wl로 정의된다. 여기서, 가중치는 클라우드 서비스 제공자(CSP)가 관심이 있어하는 예컨대, 가격 또는 딜레이와 같은 비용과 관련된 값으로 설정될 수 있다. Fl old는 링크 l을 포함하는 경로를 가지는 이미 할당된 흐름들의 세트를 말한다. εl min은 링크 l의 흐름 중에서 미니멈 서비스 품질(QoS) 위배 가능성(violation probability)을 말한다. 그러면, 본 발명에 따른 어드미션 컨트롤은 표기법 "IPm,l=1: 1 if l ∈ Pm, and 0 otherwise"를 이용하여, 각 흐름 i에 대해 k-shortest 경로들 Pi=(p1, p2, ..., pk)을 계산한다. 마지막으로, 본 발명에 따른 어드미션 컨트롤은 아래의 [표 1]을 통해 서비스 요청 정보에 최적화된 데이터 흐름 경로를 획득한다.That is, a service request R = {f 1 , f 2 , ..., f n } is given. Where f i is a normal distributed random variable N i = N (μ i , σ i 2 ). The capacity of link l is defined as c l , and the weight of link l is defined as w l . Here, the weight may be set to a value associated with a cost such as a price or a delay that the cloud service provider (CSP) is interested in. F l old refers to a set of already allocated flows with a path containing link l. and ε l min is the minimum service quality (QoS) violation probability in the flow of link 1. Then, the admission control according to the present invention the notation "I Pm, l = 1: 1 if l ∈ Pm, and 0 otherwise" using, the k-shortest path for each flow i P i = (p 1, p 2 , ..., p k ). Finally, the admission control according to the present invention obtains a data flow path optimized for the service request information through the following [Table 1].

Figure pat00001
Figure pat00001

위의 [표 1]에서 확인할 수 있듯이, 목적 함수(objective function)(5.1)는 네트워크의 전체 흐름들의 평균 가중치를 최소화하는 것이다. 다시 말해서, 최적화 문제는 수락된 서비스 요청들의 각 흐름을 위한 미니멈 가중치 경로(minimum weighted path)를 출력하는 것이다. (5.3)의 제약(constraint)은 각 사용자에 의해 요청된 로스(loss)의 양의 합이 흐름들의 로스(loss)의 양과 동일하다는 것을 나타낸다. 각각의 사용자에 의해 요청된 로스(loss)는 (5.2)에서 계산될 수 있다. 통계적 멀티플렉싱 게인(statistical multiplexing gain)때문에, 요청된 서비스를 제공하기 위해 필요로 하는 대역폭의 합은 흐름 서비스의 대역폭보다 적다. 이 방법에서 사용자에 의해 요청된 로스 비율(loss rate)는 보증된다.As can be seen in [Table 1] above, the objective function (5.1) is to minimize the average weight of all flows in the network. In other words, the optimization problem is to output a minimum weighted path for each flow of accepted service requests. The constraint of (5.3) indicates that the sum of the amounts of loss requested by each user is equal to the amount of loss of flows. The loss requested by each user can be computed in (5.2). Because of the statistical multiplexing gain, the sum of the bandwidth required to provide the requested service is less than the bandwidth of the flow service. In this way the loss rate requested by the user is guaranteed.

그러나, (5.3)의 제약은 비선형(non-linear) 항(term)을 가진다. 특정 링크에서 흐름 비율(flow rate)은

Figure pat00002
이고, 이는 적분 형태이다. 그래서 (5.3)의 항은 비선형이된다. 따라서, 이 비선형 제약을 선형화할 필요가 있다. 비선형이라면, 문제를 해결하는데 많은 시간이 소요될 수 있다. 이는 시스템의 확장성과 자원 효율성을 저하시킬 수 있다. 그래서, 비선형 제약을 선형화하는 것이 중요하다.However, the constraint of (5.3) has a non-linear term. The flow rate on a particular link is
Figure pat00002
, Which is an integral form. Thus, the term in (5.3) becomes nonlinear. Therefore, it is necessary to linearize this nonlinear constraint. If it is nonlinear, it can take a lot of time to solve the problem. This can degrade system scalability and resource efficiency. Thus, it is important to linearize nonlinear constraints.

먼저, 정규 분포의 표준화를 사용하는 것에 의해, 식 (5.2)는 아래의 (5.5)와 같이 표준 정규 분포의 Q 함수와 phi 함수에 의해 표현될 수 있다. 그리고, 이들 함수는 아래의 (5.6)과 같이 테일러 급수(Taylor series)에 의해 쉽게 선형화될 수 있다.First, by using the normalization of the normal distribution, Eq. (5.2) can be expressed by the Q function and the phi function of the standard normal distribution as shown below (5.5). And these functions can be easily linearized by the Taylor series as in (5.6) below.

Figure pat00003
Figure pat00003

그러나, 정규 분포의 표준화 프로세스에서, (5.5)의 A의 분모에 변수

Figure pat00004
가 있다.
Figure pat00005
는 k-shortest path 중에서 단지 하나의 가능한 경로(path)를 의미한다. 따라서,
Figure pat00006
은 미리 모든 가능한 k-shortest path를 반영하는 것을 의미한다. 따라서,
Figure pat00007
에 의해, 원래의 제약은 충분한 제약이 된다. 그래서, 원래의 문제를 위배하지 않는다. 이러한 프로세스는 아래의 [표 3]과 같다.However, in the normalization process of the normal distribution, the denominator of A in (5.5)
Figure pat00004
.
Figure pat00005
Means only one possible path in the k-shortest path. therefore,
Figure pat00006
Means to reflect all possible k-shortest paths in advance. therefore,
Figure pat00007
, The original constraint is a sufficient constraint. So, it does not violate the original problem. This process is shown in [Table 3] below.

Figure pat00008
Figure pat00008

이러한 방법에서, 제약 (5.3)은 선형화될 수 있다.In this way, the constraint (5.3) can be linearized.

도 9는 본 발명의 바람직한 실시예에 따른 어드미션 컨트롤(Admission Contriol)을 설명하기 위한 도면이다.9 is a diagram for explaining an admission control according to a preferred embodiment of the present invention.

데이터 센터 간 광역 통신망(Inter-DC WAN)에서, 대부분의 다중화 방식은 현재 네트워크 자원을 기반으로 수용한 트래픽을 최적화하려는 노력을 하고 있다. 도 9의 (b)에 도시된 바와 같이 클라우드 서비스 제공자(CSP)는 DC1로부터 DC7까지의 서비스 요청을 수신(도 9의 (a) 참조)할 때, 보통 4개의 링크들을 할당한다. 그러나, 이러한 경로 할당은 다음의 서비스 요청을 수락하는 것에 해가 될 수도 있다. 이런 이유로, 도 9의 (c)에 도시된 바와 같이, DC1과 DC4 사이, 및 DC4와 DC7 사이의 대역폭을 프로비저닝(provisioning)하는 것이 서비스 요청을 수락하는 것에 효율적일 수 있다.In the Inter-DC WAN between data centers, most multiplexing schemes are trying to optimize the traffic received based on the current network resources. As shown in FIG. 9 (b), the cloud service provider (CSP) normally allocates four links when receiving a service request from DC 1 to DC 7 (see FIG. 9 (a)). However, this path assignment may be harmful to accepting the next service request. For this reason, provisioning bandwidth between DC 1 and DC 4 and between DC 4 and DC 7 , as shown in Figure 9 (c), may be efficient in accepting service requests.

정리하면, 경로 획득부(113)는 아래의 [표 4]를 통해 서비스 요청 정보에 대응되는 데이터 흐름 경로를 획득할 수 있습니다.In summary, the path obtaining unit 113 can obtain the data flow path corresponding to the service request information through the following Table 4. [Table 4]


Step 1 : 서비스 요청들을 전체 요구(total demands)에 따라 내림차순으로 정렬

Step 2 : 남아있는 서비스 요청이 없으면, 중단

Step 3 : 전체 네트워크 자원 요구(total network resource demands)가 가장 큰 서비스 요청을 선택

Step 4 : 본 발명에 따른 어드미션 컨트롤(Admission Control)이나 네트워크 프로비저닝(Network Provisioning)에 따라 최적화된 데이터 흐름 경로를 획득

Step 5 : 작업이 끝나면, Step 2로 이동

Step 1: Sort service requests in descending order according to total demands

Step 2: If there are no remaining service requests, stop

Step 3: Select the service request with the greatest total network resource demands

Step 4: Obtain optimized data flow path according to Admission Control or Network Provisioning according to the present invention

Step 5: When you are finished, go to Step 2

다시 도 7을 참조하면, 라우팅 업데이트부(115)는 경로 획득부(113)를 통해 획득된 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트한다. 여기서, 라우팅 정보는 OpenFlow Protocol을 준수하여 전달될 수 있다. 예컨대, 하나의 서비스 요청은 복수 개의 흐름들로 구성되어 있고, 각각의 흐름은 출발지와 목적지로 이루어져 있습니다. 보다 자세하게는, 출발지 서버(SRC_IP), 출발지 포트(SRC_PORT), 목적지 서버(DSP_IP), 목적지 포트(DSP_PORT)를 포함하고 있습니다. 각 로컬 제어 장치(131)는 이 출발지 서버, 출발지 포트, 목적지 서버, 목적지 포트 등을 확인하고, 해당 목적지 서버, 포트로 가기 위해 어느 경로로 전달해야 되는지에 대한 표를 가지고 있습니다. 이를 테면, (SRC_IP, SRC_PORT, DST_IP, DST_PORT, output_port)와 같은 순서쌍 테이블을 가지고 있습니다. 이러한 정보를 라우팅 규칙, 즉 라우팅 정보라 합니다. OpenFlow Protocol에 의하면, 앞 부분(SRC_IP, SRC_PORT, DST_IP, DST_PORT)은 Matching Part라 하고, 뒷 부분(output_port)은 Action Part라 합니다.Referring back to FIG. 7, the routing update unit 115 updates the routing information based on the data flow path obtained through the path obtaining unit 113. Here, the routing information can be delivered in compliance with the OpenFlow Protocol. For example, a service request consists of a plurality of flows, each of which consists of a source and a destination. More specifically, it includes a source server (SRC_IP), a source port (SRC_PORT), a destination server (DSP_IP), and a destination port (DSP_PORT). Each of the local control devices 131 has a table for confirming the departure server, the source port, the destination server, the destination port, and the route to the destination server and port. For example, it has an ordered pair table like (SRC_IP, SRC_PORT, DST_IP, DST_PORT, output_port). This information is called routing rules, or routing information. According to the OpenFlow Protocol, the first part (SRC_IP, SRC_PORT, DST_IP, DST_PORT) is called the matching part, and the rear part (output_port) is called the action part.

그리고, 라우팅 업데이트부(115)는 업데이트된 라우팅 정보를 복수의 데이터 센터(130)로 제공한다. 이때, 라우팅 업데이트부(115)는 복수의 데이터 센터(130)를 각각 관리하는 복수의 로컬 제어 장치(131)로 업데이트된 라우팅 정보를 제공할 수 있다.Then, the routing update unit 115 provides the updated routing information to the plurality of data centers 130. At this time, the routing update unit 115 may provide the updated routing information to the plurality of local control units 131 that manage the plurality of data centers 130, respectively.

자원 할당 관리부(117)는 데이터 흐름 정보에 기초한 출발지 데이터 서버(135)가 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 서버(135)에 서비스 요청 정보를 제공한다.The resource allocation management unit 117 provides the service request information to the source data server 135 so that the source data server 135 based on the data flow information generates the data packet flow based on the service level information.

이때, 자원 할당 관리부(117)는 출발지 데이터 서버(135)가 포함된 데이터 센터(130)를 관리하는 로컬 제어 장치(131)를 통해 출발지 데이터 서버(135)에 서비스 요청 정보를 제공할 수 있다.At this time, the resource allocation management unit 117 may provide the service request information to the source data server 135 through the local control unit 131 managing the data center 130 including the source data server 135.

그리고, 출발지 데이터 서버(135)는 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.The origin data server 135 may allocate tokens according to the bandwidth based on the service level information and generate the data packet flow based on the service level information when consuming the corresponding token when generating the data packet flow.

그러면, 도 10을 참조하여 본 발명에 따른 자원 할당 관리 동작에 대하여 보다 자세하게 설명한다.The resource allocation management operation according to the present invention will now be described in more detail with reference to FIG.

도 10은 본 발명의 바람직한 실시예에 따른 자원 할당 관리 동작을 설명하기 위한 도면이다.FIG. 10 is a view for explaining a resource allocation management operation according to a preferred embodiment of the present invention.

본 발명에 따른 자원 할당 관리 동작은 일종의 토큰 버킷(token bucket)과 같은 통계적인 레이트 리미터(statistical rate limiter)를 이용한다.The resource allocation management operation according to the present invention uses a statistical rate limiter such as a kind of token bucket.

자원 할당 관리 알고리즘은 2개의 부분으로 구분될 수 있다. 첫 번째 부분은 트래픽 정보에 기초하여 토큰들을 만드는 것이다. 로컬 제어 장치(131) 또는 데이터 서버(135)는 (μ, σ)와 같은 흐름 레이트 정보를 수신하면, 정규 분포 N(μ, σ)를 따르는 히스토그램(histogram)을 구축하고, 이 히스토그램에 상응하는 토큰들을 만든다. 이를 위해, 가능한 맥시멈 레이트(maximum rate)는 예컨대, μ+σ·F-1(0.9999)로 결정될 수 있다.The resource allocation management algorithm can be divided into two parts. The first part is to create tokens based on traffic information. The local control device 131 or the data server 135 constructs a histogram following the normal distribution N (mu, [sigma]) upon receipt of the flow rate information such as ([mu], [sigma] Create tokens. To this end, the maximum rate possible can be determined, for example, by μ + σ · F -1 (0.9999).

그런 다음, 토큰 너비(token width)와 전체 토큰이 결정될 수 있다. 로컬 제어 장치(131) 또는 데이터 서버(135)는 정규 분포를 따르는 값의 전체 영역을 토큰 너비 값을 사용하여 일련의 결정된 값으로 분할한다. 즉, 토큰의 유형은

Figure pat00009
이다. 히스토그램의 i번째 인터벌 내의 토큰의 개수는
Figure pat00010
이다.The token width (token width) and the entire token can then be determined. The local control device 131 or the data server 135 divides the entire area of the value following the normal distribution into a series of determined values using the token width value. That is, the type of the token is
Figure pat00009
to be. The number of tokens in the i-th interval of the histogram is
Figure pat00010
to be.

이러한 방법으로, 로컬 제어 장치(131) 또는 데이터 서버(135)는 정규 분포 N(μ, σ)를 따르는 토큰들을 가지게 된다. 이 부분은 아래의 [표 5]에 따른 알고리즘 1의 윗 부분에 기술되어 있다.In this way, the local control device 131 or the data server 135 has tokens conforming to the normal distribution N ([mu], [sigma]). This part is described in the upper part of Algorithm 1 according to [Table 5] below.

Figure pat00011
Figure pat00011

도 10을 참조하면, 데이터 서버(135)는 모든 토큰들 중에서 대응하는 토큰을 제거한 이때, 대응되는 토큰이 없다면, 데이터 서버(135)는 해당 토큰 위의 min 토큰을 제거한다. 또한, 해당 토큰 위에서도 토큰이 없다면, 데이터 서버(135)는 해당 토큰 아래의 max 토큰을 제거한다.Referring to FIG. 10, when the data server 135 removes the corresponding token from all the tokens, if there is no corresponding token, the data server 135 removes the min token on the corresponding token. Also, if there is no token on the token, the data server 135 removes the max token under the token.

그러면, 도 11을 참조하여 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 일례에 대하여 설명한다.An example of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention will now be described with reference to FIG.

도 11은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 일례를 설명하기 위한 도면이다.11 is a view for explaining an example of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention.

도 11에 도시된 바와 같이, 네트워크 토폴로지는 중앙 제어 장치(CC)와 4개의 데이터 센터(DC1 내지 DC4)로 구성된다. 제1 링크(L1)는 제1 데이터 센터(DC1)와 제2 데이터 센터(DC2)를 연결한다. 제2 링크(L2)는 제1 데이터 센터(DC1)와 제3 데이터 센터(DC3)를 연결한다. 제3 링크(L3)는 제2 데이터 센터(DC2)와 제3 데이터 센터(DC3)을 연결한다. 제4 링크(L4)는 제2 데이터 센터(DC2)와 제4 데이터 센터(DC4)를 연결한다. 제5 링크(L5)는 제3 데이터 센터(DC3)와 제4 데이터 센터(DC4)를 연결한다. 그리고, 모든 링크(L1 내지 L5)의 대역폭은 100Mbps라고 가정한다. 도 11에 도시된 네트워크 토폴로지는 규모가 작아 각 데이터 센터를 관리하는 로컬 제어 장치는 존재하지 않고, 중앙 제어 장치(CC)가 각 데이터 센터를 관리하는 것으로 가정하고 설명한다.As shown in Fig. 11, the network topology consists of a central control unit (CC) and four data centers (DC1 to DC4). The first link L1 connects the first data center DC1 and the second data center DC2. The second link L2 connects the first data center DC1 and the third data center DC3. The third link L3 connects the second data center DC2 and the third data center DC3. The fourth link L4 connects the second data center DC2 and the fourth data center DC4. The fifth link L5 connects the third data center DC3 and the fourth data center DC4. It is assumed that the bandwidth of all the links L1 to L5 is 100 Mbps. It is assumed that the network topology shown in FIG. 11 is small in size, so that there is no local control device for managing each data center, and a central control unit (CC) manages each data center.

위와 같은, 네트워크 토폴로지 하에서 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작에 대하여 설명한다.The statistical resource allocation and service quality assurance operation according to the preferred embodiment of the present invention will be described below under the network topology.

즉, 본 발명은 새로운 서비스 요청이 들어오면, 해당 서비스 요청을 받아 들일 수 있는 여분 자원이 있는지 확인한다. 그런 다음, 해당 서비스 요청을 받아 들이기로 하면, 본 발명은 해당 자원을 서비스 할 수 있도록, 중앙 제어 장치(CC)가 해당 서비스 요청에 대응되는 데이터 흐름 경로를 획득하고, 이를 토대로 라우팅 정보를 업데이트한다. 그리고, 중앙 제어 장치(CC)는 해당 요청 만큼만 링크를 사용하도록 흐름의 레이트를 제한한다.That is, when a new service request is received, the present invention checks whether there is an extra resource that can accept the service request. If the service request is accepted, the central control unit (CC) acquires the data flow path corresponding to the service request and updates the routing information based on the data flow path so that the service can be serviced . Then, the central control unit (CC) limits the rate of flow to use the link only for the corresponding request.

예컨대, 서비스 요청이 (1, 2, 5, 4, 0.01)이면, 제1 데이터 센터(DC1)에서 제2 데이터 센터(DC2)로 데이터 흐름을 보내길 원하며, 그 때의 레이트는 평균이 5, 표준 편차가 4인 정규 분포를 따르도록 원한다는 의미를 나타낸다. 그리고, 0.01의 의미는 99%가 이 정규 분포를 따르도록 하고, 1%는 따르지 않아 loss가 발생하더라도 괜찮다는 것을 나타내는다. 즉, 99%는 보장해주고 1%는 손실해도 괜찮다는 의미에서 서비스 품질(QoS) 위배 가능성이라 한다.For example, if the service request is (1, 2, 5, 4, 0.01), then it is desired to send a data flow from the first data center DC1 to the second data center DC2, Means that you want to follow a normal distribution with a standard deviation of 4. And, the meaning of 0.01 means that 99% follow this normal distribution, and 1% does not follow, which indicates that loss can occur. In other words, 99% is guaranteed, and 1% is a possibility of QoS violation in the sense that it is ok to lose.

제3 링크(LC3)에 이미 존재하는 서비스 요청들의 합이 평균은 90, 분산은 60인 정규 분포를 따르고, 이 서비스 요청들이 가지는 서비스 품질(QoS) 위배 가능성 팩터(factor)의 최소값은 0.15로 가정한다. 이때, 제3 링크(LC3)의 대역폭이 100Mbps를 넘을 확률은 0.1로 서비스 품질(QoS) 위배 가능성인 0.15 이하이므로, 정상적으로 서비스가 되고 있는 것을 알 수 있다.The sum of service requests already existing in the third link LC3 follows a normal distribution with an average of 90 and a variance of 60 and the minimum value of the quality of service (QoS) violation possibility factor of these service requests is assumed to be 0.15 do. At this time, the probability that the bandwidth of the third link LC3 exceeds 100 Mbps is 0.1, which is 0.15 or less, which is the possibility of QoS violation, and thus it can be seen that the service is normally performed.

이때, 새로운 요청 (3, 2, 10, 25, 0.05)가 들어온다고 가정한다. 그러면, k-shortest 경로를 계산하여야 하는데, k가 1이라고 가정하면 제3 링크(LC3)를 이용하는 경로밖에 없다. 새로운 서비스 요청을 받아 드리면 제3 링크(LC3)에 흐르는 흐름의 합은 평균이 100, 분산이 85인 정규 분포를 따르게 되고, 서비스 품질(Qos) 위배 가능성의 최소값은 0.15에서 0.05로 변경되게 된다. 그러나, 이 경우, 제3 링크(LC3)의 대역폭이 100Mbps를 넘을 확률이 0.05를 넘게 되고, 해당 서비스 요청은 거부하게 된다.At this time, it is assumed that a new request (3, 2, 10, 25, 0.05) comes in. Then, the k-shortest path should be calculated. Assuming that k is 1, there is only a path using the third link LC3. Upon receipt of the new service request, the sum of the flows in the third link (LC3) will follow a normal distribution with an average of 100 and a variance of 85, and the minimum value of the probability of a quality of service (QoS) violation will be changed from 0.15 to 0.05. However, in this case, the probability that the bandwidth of the third link LC3 exceeds 100 Mbps exceeds 0.05, and the service request is rejected.

이에 반면, 새로운 요청 (3, 2, 2, 16, 0.14)가 들어온다고 가정한다. 그러면, k-shortest 경로를 계산하여야 하는데, k가 1이라고 가정하면 제3 링크(LC3)를 이용하는 경로밖에 없다. 새로운 서비스 요청을 받아 드리면 제3 링크(LC3)에 흐르는 흐름의 합은 평균이 92, 분산이 76인 정규 분포를 따르게 되고, 서비스 품질(Qos) 위배 가능성의 최소값은 0.15에서 0.14로 변경되게 된다. 이 경우, 새로운 요청에 따른 플로우를 더하더라도 제3 링크(LC3)의 대역폭이 100Mbps를 넘을 확률이 13%가 되어, 서비스 품질(QoS) 위배 가능성의 최소값 이하이므로 해당 서비스 요청을 받아 들이게 된다.On the other hand, suppose that a new request (3, 2, 2, 16, 0.14) comes in. Then, the k-shortest path should be calculated. Assuming that k is 1, there is only a path using the third link LC3. When the new service request is received, the sum of the flows flowing through the third link (LC3) follows a normal distribution with an average of 92 and a variance of 76, and the minimum value of the probability of a quality of service (QoS) violation is changed from 0.15 to 0.14. In this case, the probability of the bandwidth of the third link LC3 exceeding 100 Mbps is 13% even if a flow according to a new request is added, and the service request is accepted because it is less than the minimum value of the possibility of QoS violation.

새로운 요청이 받아들여지면, 이에 따라 제3 데이터 센터(DC3)에서 발생된 트래픽이 제3 링크(LC3)를 통해 제2 데이터 센터(DC2)로 전달되어야 하므로, 라우팅 정보를 업데이트하여 업데이트된 라우팅 정보를 데이터 센터로 전달한다.If the new request is accepted, then the traffic generated in the third data center DC3 will have to be forwarded to the second data center DC2 via the third link LC3, thus updating the routing information and updating the updated routing information To the data center.

그리고, 제3 데이터 센터(DC3)는 새로운 요청에 따라, 평균이 2이고 분산이 16인 정규 분포에 따라 데이터 패킷을 발생시킨다. 이를 위해, 토큰 버킷 방법을 이용하여 토큰을 소모하면서 해당 데이터 패킷을 전송한다.Then, the third data center DC3 generates a data packet according to a normal distribution having an average of 2 and a variance of 16 according to a new request. To do this, the token bucket method is used to transmit the corresponding data packet while consuming the token.

또한, 출발지 데이터 서버(135)는 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위를 태깅한다.In addition, the origin data server 135 tags the packet priority according to the bandwidth based on the service level information.

즉, 출발지 데이터 서버(135)는 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다.That is, the origin data server 135 may tag the priority of one of the high priority and the low priority in the packet according to the service quality level based on the service level information.

보다 자세히 설명하면, 출발지 데이터 서버(135)는 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다.In more detail, the origin data server 135 tags the packet with a higher priority if it is currently using a bandwidth lower than the bandwidth based on the quality of service level, and if the bandwidth is higher than the bandwidth based on the quality of service level, A low priority can be tagged.

이와 같이, 출발지 데이터 서버(135)는 우선순위을 패킷에 태깅하고, 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시킬 수 있다.As such, the origin data server 135 may tag the priority to a packet and generate a data packet flow based on the service level information.

아울러, 데이터 센터(130)에 포함된 중계 장치(133)는 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out,, FIFO) 큐를 구비하고 있다.In addition, the repeater 133 included in the data center 130 has a high priority queue, a low priority queue, and a first in first out (FIFO) queue.

그리고, 중계 장치(133)는 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 낮은 우선순위 큐에 삽입할 수 있다.If the priority of the packet received from the outside is high, the relay apparatus 133 inserts the received packet into the high priority queue. If the priority of the received packet is low, Can be inserted into the rank queue.

또한, 중계 장치(133)는 높은 우선순위 큐에 있는 패킷을 낮은 우선순위 큐에 있는 패킷보다 먼저 선입선처리 큐에 전달하고, 높은 우선순위 큐에 패킷이 없는 경우에는 낮은 우선순위 큐에 있는 패킷을 선입선처리 큐에 전달할 수 있다.In addition, the relay apparatus 133 forwards the packet in the high priority queue to the first-inning preprocessing queue before the packet in the low priority queue, and the packet in the low priority queue if there is no packet in the high priority queue It can be passed to the first-in-first-out queue.

이때, 중계 장치(133)는 선입선처리 큐에 패킷이 가득차 있는 경우 낮은 우선순위 큐에 있는 패킷을 높은 우선순위 큐에 있는 패킷보다 먼저 드랍(drop)할 수 있다.At this time, the relay apparatus 133 can drop the packet in the low priority queue before the packet in the high priority queue if the packet is full in the first-in pre-processing queue.

그러면, 도 12 내지 도 14를 참조하여 본 발명의 바람직한 실시예에 따른 패킷에 우선순위를 태깅하고 처리하는 동작에 대하여 설명한다.12 to 14, an operation of tagging and processing the priority of a packet according to a preferred embodiment of the present invention will be described.

도 12는 본 발명의 바람직한 실시예에 따른 패킷에 우선순위를 태깅하고 처리하는 동작의 일례를 설명하기 위한 도면이다.FIG. 12 is a view for explaining an example of an operation of tagging and processing priority to a packet according to a preferred embodiment of the present invention.

보다 자세하게 설명하면, 본 발명에 따른 어드미션 컨트롤(Admission Control)과 레이트 실행(rate enforcement)이 수행되지만, 이는 각각의 서비스 제공자(SP)에게 서비스 품질(QoS)을 제공하기에 충분하지 않다. 이는 서비스 품질 수준, 즉 서비스 품질(Qos) 위배 가능성(엡실론 값)에 상관없이 네트워크에서 로스(loss)가 발생할 수 있기 때문이다. 엡실론 값(epsilon value)보다 로스(loss)가 각 사용자의 동일한 시간의 순간 레이트에 관련된다. 따라서, 엡실론 비율(epsilon ratio)에서 로스(loss)가 발생되게 만들 필요성이 있다.More specifically, admission control and rate enforcement according to the present invention are performed, but this is not sufficient to provide quality of service (QoS) to each service provider (SP). This is because loss may occur in the network regardless of the quality of service level, i.e., the quality of service (QoS) violation probability (epsilon value). A loss rather than an epsilon value is related to the instantaneous rate of the same time for each user. Thus, there is a need to make losses in the epsilon ratio.

이러한 메커니즘을 단지 네트워크 스위치, 즉 중계 장치(133)에서 구현하면, 네트워크 스위치는 더 복잡해지게 되고, 이는 실용적이지 않다. 따라서, 엔드 호스트(end host), 즉 출발지 데이터 서버(135)와 네트워크 스위치, 즉 중계 장치(133)가 엡실론 차별화 서비스를 위해 협력하는 것이 해결책이다.If such a mechanism is implemented only in the network switch, that is, the relay device 133, the network switch becomes more complicated, which is not practical. Thus, it is a solution that the end host, i. E. The origin data server 135, and the network switch, or relay device 133, cooperate for the epsilon differentiation service.

낮은 네트워크 스위치 복잡도를 가지는 엡실론-로스 차별화 서비스를 위해, 엔드 호스트, 즉 출발지 데이터 서버(135)는 엡실론 비율에 따라 낮은 우선순위를 패킷에 태깅한다. 이것은 전체 전송된 패킷들 중에서 엡실론 비율에 해당하는 패킷들은 낮은 우선순위가 태깅되고, 나머지 패킷들은 높은 우선순위가 태깅되는 것을 의미한다.For an epsilon-loss differentiating service with low network switch complexity, the end host, i. E., Source data server 135, tags the packets with low priority according to the epsilon ratios. This means that packets corresponding to the epsilon ratios among the entire transmitted packets are tagged with low priority and the remaining packets are tagged with high priority.

네트워크 스위치, 즉 중계 장치(133)에서, 낮은 우선순위가 태깅된 패킷들은 높은 우선순위가 태깅된 패킷들이 처리된 이후에 처리되기 때문에 낮은 우선순위가 태깅된 패킷들이 먼저 드랍(drop)된다. 이를 위해, 네트워크 스위치, 즉 중계 장치(133)는 엡실론 값에 대응하는 로스(loss) 서비스를 위해 2개의 우선순위 큐를 필요로 한다.In the network switch, that is, the relay device 133, low priority tagged packets are dropped first because low priority tagged packets are processed since high priority tagged packets are processed. To this end, the network switch, or relay device 133, requires two priority queues for loss services corresponding to the epsilon value.

도 13은 본 발명의 바람직한 실시예에 따른 우선순위가 태깅된 패킷을 처리하는 동작의 일례를 설명하기 위한 도면이다.13 is a view for explaining an example of an operation of processing a tagged packet having a priority according to a preferred embodiment of the present invention.

도 13을 참조하면, 제1 호스트(Host 1)은 엡실론 값인 0.3에 따라 외부로 전송되는 10개의 패킷 중 3개의 패킷에는 낮은 우선순위를 태깅하고 7개의 패킷에는 높은 우선순위를 태깅한다.Referring to FIG. 13, the first host (Host 1) tags low priority to three packets out of the ten packets transmitted outward according to the epsilon value of 0.3, and tags high priority to seven packets.

그리고, 제2 호스트(Host 2)는 엡실론 값인 0.5에 따라 외부로 전송되는 10개의 패킷 중 5개의 패킷에는 낮은 우선순위를 태깅하고 5개의 패킷에는 높은 우선순위를 태깅한다.Then, the second host (Host 2) tags low priority to five packets out of the ten packets transmitted outward according to the epsilon value of 0.5 and high-priority tags to five packets.

이후, 제1 호스트(Host 1) 및 제2 호스트(Host 2)로부터 패킷을 수신하는 네트워크 스위치는 높은 우선순위가 태깅된 패킷은 높은 우선순위 큐에 삽입하고, 낮은 우선순위가 태깅된 패킷은 낮은 우선순위 큐에 삽입한다. 그런 다음, 네트워크 스위치는 높은 우선순위 큐에 있는 패킷을 낮은 우선순위 큐에 있는 패킷보다 먼저 선입선처리 큐에 전달하고, 높은 우선순위 큐에 패킷이 없는 경우에는 낮은 우선순위 큐에 있는 패킷을 선입선처리 큐에 전달한다. 이때, 네트워크 스위치는 선입선처리 큐에 패킷이 가득차 있는 경우 낮은 우선순위 큐에 있는 패킷을 높은 우선순위 큐에 있는 패킷보다 먼저 드랍(drop)한다.Thereafter, the network switch that receives the packets from the first host (Host 1) and the second host (Host 2) inserts the packets with the high priority tagged into the high priority queue and the packets with the low priority tagged with the low And inserts it into the priority queue. The network switch then forwards the packets in the high priority queue to the first-in-first-out queue before the packets in the low-priority queue and for the packets in the low-priority queue if there are no packets in the high- To the queue. At this time, the network switch drops the packet in the low priority queue before the packet in the high priority queue if the packet is full in the first-in first-out processing queue.

도 14는 본 발명의 바람직한 실시예에 따른 우선순위 태깅에 따른 로스 비율(loss latio)을 설명하기 위한 도면이다. 도 14의 그래프에서 x축은 flow id이고 y축은 로스(loss)의 양이다.FIG. 14 is a diagram for explaining a loss ratio according to priority tagging according to a preferred embodiment of the present invention. In the graph of FIG. 14, the x-axis is the flow id and the y-axis is the amount of loss.

도 14를 참조하면, 패킷에 우선순위를 태깅하지 않는 경우 실제 로스 비율이 엡실론 값에 비례하지 않게 되고, 이에 따라 서비스 품질(QoS)을 보증하지 못하는 것을 확인할 수 있다(도 14의 좌측 그래프).Referring to FIG. 14, it can be seen that the actual loss rate is not proportional to the epsilon value when the priority of the packet is not tagged, and thus the quality of service (QoS) is not guaranteed (left graph in FIG. 14).

이에 반면, 패킷에 우선순위를 태깅한 경우 실제 로스 비율이 엡실론 값에 비례하는 것을 확인할 수 있다(도 14의 우측 그래프).On the other hand, if the priority of the packet is tagged, it can be confirmed that the actual loss ratio is proportional to the epsilon value (the right graph in FIG. 14).

그러면, 도 15를 참조하여 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법에 대하여 설명한다.A method of allocating statistical resources and ensuring service quality in a wide-area inter-data center network according to a preferred embodiment of the present invention will be described with reference to FIG.

도 15는 본 발명의 바람직한 실시예에 따른 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법을 설명하기 위한 흐름도이다.FIG. 15 is a flowchart illustrating a statistical resource allocation and service quality assurance method in a wide-area inter-data communication network according to a preferred embodiment of the present invention.

도 15를 참조하면, 중앙 제어 장치(110)는 데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 수신한다(S110). 여기서, 데이터 흐름 정보는 서비스를 요청하는 데이터 흐름의 출발지와 목적지에 대한 정보를 말한다. 서비스 수준 정보는 데이터 흐름의 서비스 품질(QoS)에 대한 수준을 나타내는 정보를 말한다. 예컨대, 서비스 수준 정보는 정규 분포(normal distribution)를 따른 흐름(flow)의 피크 레이트(peak rates)의 평균(average)과 표준 편차(standard deviation), 서비스 품질(QoS) 수준 등을 포함할 수 있다.Referring to FIG. 15, the central control unit 110 receives service request information including data flow information and service level information (S110). Here, the data flow information refers to information about a source and a destination of a data flow requesting a service. The service level information is information indicating the level of quality of service (QoS) of the data flow. For example, the service level information may include an average and standard deviation of the peak rates of flows along a normal distribution, a quality of service (QoS) level, and so on .

그리고, 중앙 제어 장치(110)는 서비스 수준 정보를 기초로 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득한다(S120). 여기서, 데이터 흐름 경로는 서비스 요청 정보에 따른 데이터 흐름의 출발지와 목적지 사이에서 데이터가 전달되는 경로를 말한다.Then, the central control unit 110 obtains a data flow path corresponding to the data flow information based on the service level information (S120). Here, the data flow path refers to a path through which data is transmitted between a source and a destination of a data flow according to service request information.

즉, 중앙 제어 장치(110)는 데이터 센터(130) 간 링크의 대역폭과 링크에 기 할당된 서비스 정보를 기반으로 서비스 수준 정보를 충족하면서 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, 링크는 현재 보유한 링크를 말한다. 물론, 링크는 현재 보유한 링크와 새롭게 구입한 링크를 전부 포함할 수도 있다.That is, the central control unit 110 can obtain the data flow path corresponding to the data flow information while satisfying the service level information based on the bandwidth of the link between the data centers 130 and the service information pre-allocated to the link. Here, the link refers to a link that is currently held. Of course, the link may include all the links that are currently held and newly purchased.

이때, 중앙 제어 장치(110)는 k-shortest path 알고리즘을 이용하여 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득할 수 있다. 여기서, k는 경로에 포함된 링크의 개수를 말한다.At this time, the central control unit 110 can acquire the data flow path corresponding to the data flow information using the k-shortest path algorithm. Here, k is the number of links included in the path.

그런 다음, 중앙 제어 장치(110)는 획득된 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 라우팅 정보를 복수의 데이터 센터(130)로 제공한다(S130). 이때, 중앙 제어 장치(110)는 복수의 데이터 센터(130)를 각각 관리하는 복수의 로컬 제어 장치(131)로 업데이트된 라우팅 정보를 제공할 수 있다.The central control unit 110 then updates the routing information based on the obtained data flow path and provides the updated routing information to the plurality of data centers 130 (S130). At this time, the central control unit 110 may provide the updated routing information to the plurality of local control units 131 that manage the plurality of data centers 130, respectively.

그리고, 중앙 제어 장치(110)는 데이터 흐름 정보에 기초한 출발지 데이터 서버(135)가 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 출발지 데이터 서버(135)에 서비스 요청 정보를 제공한다(S140). 이때, 중앙 제어 장치(110)는 출발지 데이터 서버(135)가 포함된 데이터 센터(130)를 관리하는 로컬 제어 장치(131)를 통해 출발지 데이터 서버(135)에 서비스 요청 정보를 제공할 수 있다.Then, the central control device 110 provides the service request information to the source data server 135 so that the source data server 135 based on the data flow information generates the data packet flow based on the service level information (S140 ). At this time, the central control unit 110 may provide the service request information to the source data server 135 through the local control unit 131 managing the data center 130 including the source data server 135.

그러면, 출발지 데이터 서버(135)는 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위를 태깅한다(S150). 즉, 출발지 데이터 서버(135)는 높은 우선순위 및 낮은 우선순위 중 하나의 우선순위를 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅할 수 있다. 보다 자세히 설명하면, 출발지 데이터 서버(135)는 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅할 수 있다. 아울러, 데이터 센터(130)에 포함된 중계 장치(133)는 높은 우선순위 큐, 낮은 우선순위 큐 및 선입선처리 큐를 구비하고 있다. 그리고, 중계 장치(133)는 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 낮은 우선순위 큐에 삽입할 수 있다. 또한, 중계 장치(133)는 높은 우선순위 큐에 있는 패킷을 낮은 우선순위 큐에 있는 패킷보다 먼저 선입선처리 큐에 전달하고, 높은 우선순위 큐에 패킷이 없는 경우에는 낮은 우선순위 큐에 있는 패킷을 선입선처리 큐에 전달할 수 있다. 이때, 중계 장치(133)는 선입선처리 큐에 패킷이 가득차 있는 경우 낮은 우선순위 큐에 있는 패킷을 높은 우선순위 큐에 있는 패킷보다 먼저 드랍할 수 있다.Then, the source data server 135 tags the priority of the packet according to the bandwidth based on the service level information (S150). That is, the origin data server 135 may tag one of the high priority and the low priority in the packet according to the service quality level based on the service level information. In more detail, the origin data server 135 tags the packet with a higher priority if it is currently using a bandwidth lower than the bandwidth based on the quality of service level, and if the bandwidth is higher than the bandwidth based on the quality of service level, A low priority can be tagged. In addition, the relay apparatus 133 included in the data center 130 has a high priority queue, a low priority queue, and a first-come pre-processing queue. If the priority of the packet received from the outside is high, the relay apparatus 133 inserts the received packet into the high priority queue. If the priority of the received packet is low, Can be inserted into the rank queue. In addition, the relay apparatus 133 forwards the packet in the high priority queue to the first-inning preprocessing queue before the packet in the low priority queue, and the packet in the low priority queue if there is no packet in the high priority queue It can be passed to the first-in-first-out queue. At this time, the relay apparatus 133 can drop the packet in the low priority queue before the packet in the high priority queue if the packet is full in the first-in first-out processing queue.

그리고, 출발지 데이터 서버(135)는 서비스 요청 정보에 따라 데이터 패킷 흐름을 발생시킨다(S160). 즉, 출발지 데이터 서버(135)는 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시킬 수 있다.Then, the source data server 135 generates a data packet flow according to the service request information (S160). That is, the source data server 135 may allocate tokens according to the bandwidth based on the service level information, and may generate the data packet flow based on the service level information by consuming the corresponding token when generating the data packet flow.

그러면, 도 16 내지 도 24을 참조하여 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능에 대하여 설명한다.Performance of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention will now be described with reference to FIGS.

도 16은 본 발명의 바람직한 실시예에 따른 통계적 자원 할당 및 서비스 품질 보장 방법의 비교를 하기 위한 그래프이다.16 is a graph for comparing statistical resource allocation and service quality assurance methods according to a preferred embodiment of the present invention.

본 발명에 따른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 평가하기 위해, 본 발명에 따른 서비스 요청 Ds=<μ, σ, ε>과 고정 대역폭 할당 방법(이하 '고정 대역폭 할당 방법" 또는 "고정 방식"이라 한다)에 따른 결정된 서비스 요청 Dd=μ+σ·F- 1(1-ε)는 동일하다고 가정한다. 여기서, F는 표준 정규 분포 N~<0, 12>의 누적 분포 함수(CDF)이다. 이것은 도 16에 도시된 바와 같이 본 발명과 고정 대역폭 할당 방법이 동일한 서비스 품질(QoS) 레벨을 가지기 때문이다.In order to evaluate the performance of the statistical resource allocation and service quality assurance operation according to the present invention, the service request D s = <μ, σ, ε> according to the present invention and the fixed bandwidth allocation method (hereinafter referred to as "fixed bandwidth allocation method" referred to as the fixing method "), a service request D d = μ + σ · F determined according to - and 1 (1-ε) is assumed to be the same, where, F is the standard normal distribution N ~ <0, 1 2> cumulative distribution of Function (CDF). This is because the present invention and the fixed bandwidth allocation method have the same quality of service (QoS) level as shown in Fig.

에뮬레이션 설정Emulation Settings

도 17은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 에뮬레이션 환경의 일례를 설명하기 위한 도면이다.17 is a view for explaining an example of an emulation environment for testing performance of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention.

미니넷(Mininet)을 사용하여 도 17과 같은 Google B4 inter-DC WAN을 에뮬레이트한다. Google B4 inter-DC WAN는 각 도시마다 위치하는 12개의 데이터 센터(DC)와 19개의 Inter-DC 링크를 가지고 있다. Central Controller로 OVS 스위치와 ONOS(OPen Network Operationg System)를 사용한다. 각 링크(link) 용량은 200 Mbps이고, 서비스 요청을 수락하기 위해 3-shortest paths를 고려한다. 400개의 서비스 요청을 생성하며, 각 서비스 요청의 출발지와 목적지는 균일하게 랜덤으로 결정된다. 각 서비스 요청은 하나의 흐름만을 가지며, 각 흐름의 평균과 표준 편차의 값은 주어진 범위에서 균일하게 분배된다. 결과는 15번의 실험을 통해 획득하였다. 에뮬레이션은 의미있는 결과를 획득하기 위해, quad-core Intel i5-6500 3.2 Ghz, 32 GB RAM 및 256 GB SSD 하드 디스크가 장착된 고성능 컴퓨터를 통해 수행하였다.Emulates the Google B4 inter-DC WAN as shown in Figure 17 using Mininet. The Google B4 inter-DC WAN has 12 data centers (DCs) and 19 Inter-DC links per city. OVS switch and ONOS (Open Network Operation System) are used as Central Controller. Each link capacity is 200 Mbps, and 3-shortest paths are considered to accept the service request. 400 service requests are generated, and the origin and destination of each service request are uniformly randomly determined. Each service request has only one flow, and the values of the mean and standard deviation of each flow are uniformly distributed in a given range. The results were obtained through 15 experiments. The emulation was done through a high-performance computer with quad-core Intel i5-6500 3.2 Ghz, 32 GB RAM and a 256 GB SSD hard disk to get meaningful results.

테스트베드Test bed 설정 Set

도 18은 본 발명의 바람직한 실시예에 다른 통계적 자원 할당 및 서비스 품질 보장 동작의 성능을 시험하기 위한 테스트베드 환경의 일례를 설명하기 위한 도면이다.18 is a view for explaining an example of a testbed environment for testing performance of statistical resource allocation and service quality assurance operations according to a preferred embodiment of the present invention.

테스트베드는 도 18에 도시된 바와 같이, 데이터 센터 간 광역 통신망(Inter-DC WAN) 환경을 모방하기 위한 4개의 데이터 센터(DC1 내지 DC4), 4개의 스위치(SW), 5개의 inter-DC 링크, 및 중앙 제어 장치(CC)로 구성된다. 중앙 제어 장치(CC)는 듀얼 코어 인텔 E8400 3.00GHz, 8GB 메모리 및 300GB 하드 디스크로 이루어진다. 각 데이터 센터(DC1 내지 DC4)는 5개의 데이터 서버, Iptime H50008 8-port Gigabit Switching Hub, 및 OVS(open virtual switch)로 구성된다. 각 OVS는 12개의 Intel Xeon X5690 3.47GHz CPU, 20G 램, 1TB 하드 디스크, 및 5 개의 1 Gigabit Ethernet NICS로 이루어진다. 데이터 센터 간 광역 통신망(Inter-DC WAN)의 모든 링크들에 동일한 가중치와 동일한 300 Mbps 용량을 할당한다. Iperf 어플리케이션은 트래픽을 생성하는데 이용된다.The test bed includes four data centers (DC1 to DC4), four switches (SW), five inter-DC links , And a central control unit (CC). The central control unit (CC) consists of dual core Intel E8400 3.00 GHz, 8 GB memory and 300 GB hard disk. Each data center (DC1 to DC4) consists of five data servers, an Iptime H50008 8-port Gigabit Switching Hub, and an open virtual switch (OVS). Each OVS consists of 12 Intel Xeon X5690 3.47GHz CPUs, 20G RAM, 1TB hard disk, and five 1 Gigabit Ethernet NICS. All of the links in the inter-DC WAN are assigned the same weight and the same 300 Mbps capacity. The Iperf application is used to generate traffic.

에뮬레이션 실험 결과Emulation experiment result

도 19는 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이고, 도 20은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이며, 도 21은 도 17에 도시된 에뮬레이션 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.FIG. 19 is a view for explaining the number of acceptance of a service request as a result of an experiment in the emulation environment shown in FIG. 17, FIG. 20 is a view for explaining link utilization, which is an experiment result in the emulation environment shown in FIG. FIG. 21 is a diagram for explaining a loss guarantee flow which is an experiment result in the emulation environment shown in FIG.

도 19의 (a)에서, 흐름은 5에서 6까지의 표준 편차와 0.01에서 0.04까지의 엡실론(epsilon)을 가지도록 생성된다. 도 19의 (a)를 참조하면, 수락된 서비스 요청의 개수는 본 발명이 고정 방식보다 약 20%가 많다. 평균이 증가하면, 수락된 서비스 요청의 개수는 네트워크 대역폭의 한계로 인해 감소하게된다.In Figure 19 (a), the flow is generated to have a standard deviation of 5 to 6 and an epsilon of 0.01 to 0.04. Referring to FIG. 19 (a), the number of accepted service requests is about 20% larger than the fixed method according to the present invention. As the average increases, the number of accepted service requests decreases due to network bandwidth limitations.

도 19의 (b)에서, 흐름은 10에서 25까지의 평균과 0.01에서 0.04까지의 엡실론(epsilon)을 가지도록 생성된다. 도 19의 (b)를 참조하면, 수락된 서비스 요청의 개수는 본 발명이 고정 방식보다 약 25%가 많다.In Figure 19 (b), the flow is generated to have an average of 10 to 25 and an epsilon of 0.01 to 0.04. Referring to FIG. 19 (b), the number of accepted service requests is about 25% larger than the fixed method according to the present invention.

도 19의 (c)에서, 흐름은 105에서 30까지의 평균과 10에서 13까지의 표준 편차를 가지도록 생성된다. 도 19의 (c)를 참조하면, 수락된 서비스 요청의 개수는 본 발명이 고정 방식보다 약 25%가 많다.In Figure 19 (c), the flow is generated to have an average of 105 to 30 and a standard deviation of 10 to 13. Referring to FIG. 19 (c), the number of accepted service requests is about 25% larger than the fixed method of the present invention.

이와 같이, 본 발명은 고정 방식보다 더 많은 서비스 요청을 처리할 수 있다.Thus, the present invention can process more service requests than the fixed method.

도 20에서, 흐름은 10에서 30까지의 평균, 1에서 4까지의 분산 및 0.0001에서 0.02까지의 엡실론(epsilon)을 가지도록 생성된다. 도 20을 참조하면, 본 발명은 고정 방식보다 링크를 약 10% 더 효율적으로 사용할 수 있다.In FIG. 20, the flow is generated to have an average of 10 to 30, a variance of 1 to 4, and an epsilon of 0.0001 to 0.02. Referring to FIG. 20, the present invention can use the link about 10% more efficiently than the fixed method.

도 21을 참조하면, 본 발명은 거의 모든 흐름의 서비스 품질(QoS)을 보증할 수 있음을 확인할 수 있다.Referring to FIG. 21, it can be seen that the present invention can guarantee the quality of service (QoS) of almost all flows.

테스트베드Test bed 실험 결과 Experiment result

도 22는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 서비스 요청의 수락 개수를 설명하기 위한 도면이고, 도 23은 도 18에 도시된 테스트베드 환경에서 실험한 결과인 링크 효율성(link utilization)을 설명하기 위한 도면이며, 도 24는 도 18에 도시된 테스트베드 환경에서 실험한 결과인 로스 보증 흐름(loss guarantee flow)을 설명하기 위한 도면이다.FIG. 22 is a view for explaining the number of acceptance of a service request as a result of an experiment in the testbed environment shown in FIG. 18, FIG. 23 is a view for explaining the link utilization, which is an experiment result in the testbed environment shown in FIG. FIG. 24 is a diagram for explaining a loss guarantee flow which is a result of an experiment in the test bed environment shown in FIG. 18; FIG.

도 22, 도 23 및 도 24를 참조하면, 테스트베드 실험 결과는 에뮬레이션 실험 결과와 유사한 경향을 나타내는 것을 확인할 수 있다. 즉, 본 발명은 더 많은 서비스 요청을 처리할 수 있고, 링크 효율성을 향상시킬 수 있으며, 거의 모든 흐름의 서비스 품질(QoS)을 보증할 수 있다.Referring to FIGS. 22, 23 and 24, it can be seen that the test bed test results show similar trends to the emulation test results. That is, the present invention can handle more service requests, improve link efficiency, and guarantee quality of service (QoS) of almost all flows.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터로 읽을 수 있는 기록 매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 롬(ROM), 램(RAM), 씨디-롬(CD-ROM), 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 유무선 통신망으로 연결된 컴퓨터 장치에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, and an optical data storage device. In addition, the computer-readable recording medium may be distributed to computer devices connected to a wired / wireless communication network, and a computer-readable code may be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 다음의 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes may be made and equivalents may be substituted without departing from the scope of the appended claims.

100 : 통계적 자원 할당 및 서비스 품질 보장 시스템,
110 : 중앙 제어 장치,
111 : 수신부, 113 : 경로 획득부,
115 : 라우팅 업데이트부, 117 : 자원 할당 관리부,
130 : 데이터 센터, 131 : 로컬 제어 장치,
133 : 중계 장치, 135 : 데이터 서버
100: statistical resource allocation and service quality assurance system,
110: central control device,
111: receiving unit, 113: path obtaining unit,
115: routing update unit, 117: resource allocation management unit,
130: data center, 131: local control device,
133: Relay device, 135: Data server

Claims (15)

데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 시스템의 중앙 제어 장치로서,
데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 수신부;
상기 수신부를 통해 상기 서비스 요청 정보를 수신하면, 상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 경로 획득부;
상기 경로 획득부를 통해 획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 라우팅 업데이트부; 및
상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 자원 할당 관리부;
를 포함하며,
상기 출발지 데이터 서버는, 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅하는, 중앙 제어 장치.
As a central control device of statistical resource allocation and service quality assurance system in a wide-area inter-data center network,
A receiving unit for receiving service request information including data flow information and service level information from a user terminal;
A path obtaining unit that obtains a data flow path corresponding to the data flow information based on the service level information upon receiving the service request information through the receiver;
A routing update unit updating the routing information based on the data flow path obtained through the path obtaining unit and providing the updated routing information to a plurality of data centers; And
A resource allocation manager for providing the service request information to the source data server so that a source data server based on the data flow information generates a data packet flow based on the service level information;
/ RTI &gt;
Wherein the source data server tags a priority in a packet according to a bandwidth based on the service level information.
제1항에서,
상기 서비스 수준 정보는, 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS) 수준을 포함하는, 중앙 제어 장치.
The method of claim 1,
Wherein the service level information is information indicating a level of service quality of a data flow, the average and standard deviation of peak rates of flow along a normal distribution, and a Quality of Service (QoS) level.
제2항에서,
상기 출발지 데이터 서버는, 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅하는, 중앙 제어 장치.
3. The method of claim 2,
Wherein the source data server tags priority of one of a high priority and a low priority in a packet according to a service quality level based on the service level information.
제3항에서,
상기 출발지 데이터 서버는, 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅하는, 중앙 제어 장치.
4. The method of claim 3,
Wherein the source data server is configured to tag a packet with a higher priority if it is currently using a bandwidth lower than the bandwidth based on the quality of service level and to assign a packet with a lower priority if the bandwidth currently used is higher than the bandwidth based on the quality of service level The central control device.
제4항에서,
상기 데이터 센터에 포함된 중계 장치는, 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달하는, 중앙 제어 장치.
5. The method of claim 4,
The relay device included in the data center includes a high priority queue, a low priority queue, and a first-in first out (FIFO) queue, If the priority of the received packet is low, inserts the received packet into the low priority queue, and inserts the packet in the high priority queue into the high priority queue, Queue, and if there is no packet in the high priority queue, forwards the packet in the low priority queue to the first-in first-out queue.
제5항에서,
상기 중계 장치는, 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)하는, 중앙 제어 장치.
The method of claim 5,
Wherein the relay device drops a packet in the low priority queue when the first pre-processing queue is full of packets.
제1항에서,
상기 출발지 데이터 서버는, 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시키는, 중앙 제어 장치.
The method of claim 1,
Wherein the source data server allocates a token according to the bandwidth based on the service level information and generates a data packet flow based on the service level information when consuming the token when generating a data packet flow.
중앙 제어 장치의 통계적 자원 할당 및 서비스 품질 보장 방법으로서,
데이터 흐름 정보와 서비스 수준 정보를 포함하는 서비스 요청 정보를 사용자 단말로부터 수신하는 단계;
상기 서비스 수준 정보를 기초로 상기 데이터 흐름 정보에 대응되는 데이터 흐름 경로를 획득하는 단계;
획득된 상기 데이터 흐름 경로를 기초로 라우팅 정보를 업데이트하고, 업데이트된 상기 라우팅 정보를 복수의 데이터 센터로 제공하는 단계; 및
상기 데이터 흐름 정보에 기초한 출발지 데이터 서버가 상기 서비스 수준 정보에 기초하여 데이터 패킷 흐름을 발생시키도록, 상기 출발지 데이터 서버에 상기 서비스 요청 정보를 제공하는 단계;
를 포함하며,
상기 출발지 데이터 서버는, 상기 서비스 수준 정보에 기초한 대역폭에 따라 패킷에 우선순위(priority)를 태깅하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
A method for statistical resource allocation and quality of service of a central control device,
Receiving service request information including data flow information and service level information from a user terminal;
Obtaining a data flow path corresponding to the data flow information based on the service level information;
Updating the routing information based on the obtained data flow path, and providing the updated routing information to a plurality of data centers; And
Providing the service request information to the source data server such that a source data server based on the data flow information generates a data packet flow based on the service level information;
/ RTI &gt;
Wherein the source data server tags priorities in packets according to bandwidth based on the service level information.
제8항에서,
상기 서비스 수준 정보는, 데이터 흐름의 서비스 품질 수준을 나타내는 정보로서, 정규 분포를 따른 흐름의 피크 레이트의 평균과 표준 편차, 및 서비스 품질(Quality of Service, QoS) 수준을 포함하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
9. The method of claim 8,
Wherein the service level information is information indicating a level of service quality of a data flow, the average of the peak rate of the flow along a normal distribution, the standard deviation, and the quality of service (QoS) Statistical resource allocation and quality assurance method in communication network.
제9항에서,
상기 출발지 데이터 서버는, 높은 우선순위(high priority) 및 낮은 우선순위(low priority) 중 하나의 우선순위를 상기 서비스 수준 정보에 기초한 서비스 품질 수준에 따라 패킷에 태깅하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
The method of claim 9,
Wherein the source data server is operable to statistically (at least partially) statistically in a data center inter-wide area network, tagging a priority of one of a high priority and a low priority in a packet according to a service quality level based on the service level information. Resource allocation and service quality assurance.
제10항에서,
상기 출발지 데이터 서버는, 상기 서비스 품질 수준에 기초한 대역폭보다 낮은 대역폭을 현재 사용하는 경우 패킷에 높은 우선순위를 태깅하고, 상기 서비스 품질 수준에 기초한 대역폭보다 높은 대역폭을 현재 사용하는 경우 패킷에 낮은 우선순위를 태깅하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
11. The method of claim 10,
Wherein the source data server is configured to tag a packet with a higher priority if it is currently using a bandwidth lower than the bandwidth based on the quality of service level and to assign a packet with a lower priority if the bandwidth currently used is higher than the bandwidth based on the quality of service level And statistical resource allocation and quality of service guarantee in inter-data center wide area network.
제11항에서,
상기 데이터 센터에 포함된 중계 장치는, 높은 우선순위 큐(queue), 낮은 우선순위 큐 및 선입선처리(First In First Out, FIFO) 큐를 구비하며, 외부로부터 수신한 패킷의 우선순위가 높은 우선순위이면 수신한 패킷을 상기 높은 우선순위 큐에 삽입하고, 수신한 패킷의 우선순위가 낮은 우선순위이면 수신한 패킷을 상기 낮은 우선순위 큐에 삽입하며, 상기 높은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 먼저 전달하고, 상기 높은 우선순위 큐에 패킷이 없는 경우에는 상기 낮은 우선순위 큐에 있는 패킷을 상기 선입선처리 큐에 전달하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
12. The method of claim 11,
The relay device included in the data center includes a high priority queue, a low priority queue, and a first-in first out (FIFO) queue, If the priority of the received packet is low, inserts the received packet into the low priority queue, and inserts the packet in the high priority queue into the high priority queue, Queue in a high priority queue, and forwards the packet in the low priority queue to the first-in first-out queue if there is no packet in the high priority queue.
제12항에서,
상기 중계 장치는, 상기 선입선처리 큐에 패킷이 가득차 있는 경우 상기 낮은 우선순위 큐에 있는 패킷을 드랍(drop)하는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
The method of claim 12,
Wherein the relay device drops a packet in the low priority queue when the first-in-first-out queue is full of packets, in the inter-data center wide area network.
제8항에서,
상기 출발지 데이터 서버는, 상기 서비스 수준 정보를 기초로 대역폭에 따라 토큰을 할당하고, 데이터 패킷 흐름을 발생시키는 경우 해당 토큰을 소모하여 상기 서비스 수준 정보에 기초한 데이터 패킷 흐름을 발생시키는, 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법.
9. The method of claim 8,
Wherein the source data server allocates a token according to the bandwidth based on the service level information and generates a data packet flow based on the service level information by consuming the token when generating a data packet flow, Statistical resource allocation and quality assurance method in communication network.
제8항 내지 제14항 중 어느 한 항에 기재된 데이터 센터 간 광역 통신망에서 통계적 자원 할당 및 서비스 품질 보장 방법을 컴퓨터에서 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer readable recording medium for causing a computer to execute a method of statistical resource allocation and service quality assurance in a inter-data center wide area network as claimed in any one of claims 8 to 14.
KR1020170111750A 2017-09-01 2017-09-01 System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN KR101987346B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170111750A KR101987346B1 (en) 2017-09-01 2017-09-01 System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170111750A KR101987346B1 (en) 2017-09-01 2017-09-01 System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN

Publications (2)

Publication Number Publication Date
KR20190025285A true KR20190025285A (en) 2019-03-11
KR101987346B1 KR101987346B1 (en) 2019-06-10

Family

ID=65758330

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170111750A KR101987346B1 (en) 2017-09-01 2017-09-01 System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN

Country Status (1)

Country Link
KR (1) KR101987346B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040057038A (en) * 2002-12-23 2004-07-01 한국전자통신연구원 Appratus for allocation resources based on path color for providing differentiated service and method thereof
KR101001556B1 (en) * 2008-09-23 2010-12-17 한국전자통신연구원 Packet transmission apparatus and method for node on the wireless sensor networks
EP1796332B1 (en) * 2005-12-08 2012-11-14 Electronics and Telecommunications Research Institute Token bucket dynamic bandwidth allocation
KR101456845B1 (en) * 2007-07-27 2014-11-03 실리콘 이미지, 인크. Packet level prioritization in interconnection networks
KR20160014680A (en) * 2013-12-20 2016-02-11 인텔 코포레이션 Hierarchical/lossless packet preemption to reduce latency jitter in flow-controlled packet-based networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040057038A (en) * 2002-12-23 2004-07-01 한국전자통신연구원 Appratus for allocation resources based on path color for providing differentiated service and method thereof
EP1796332B1 (en) * 2005-12-08 2012-11-14 Electronics and Telecommunications Research Institute Token bucket dynamic bandwidth allocation
KR101456845B1 (en) * 2007-07-27 2014-11-03 실리콘 이미지, 인크. Packet level prioritization in interconnection networks
KR101001556B1 (en) * 2008-09-23 2010-12-17 한국전자통신연구원 Packet transmission apparatus and method for node on the wireless sensor networks
KR20160014680A (en) * 2013-12-20 2016-02-11 인텔 코포레이션 Hierarchical/lossless packet preemption to reduce latency jitter in flow-controlled packet-based networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
‘데이터센터 간 광역 통신망에서 효율적인 서비스 수준 통계적 다중화 및 자원 할당’, 한국과학기술원, 2016.11.14.* *
한국공개특허 제2004-0076822호 (후아웨이 테크놀러지 컴퍼니) 2004. 9. 3. 특허문헌 1은 IP 액세스 네트워크에서 서비스 품질이 보증된 서비스를 제공하는 방법으로서, 특허문헌 1에는 네트워크 제어 계층(network control layer)이 QoS 보증(guaranteed QoS)을 필요로 하는 서비스 요청에 대한 응답으로 액세스 네트워크에 네트워크 자원을 신청할 때, 에지 라우터(edge router)는 액세스 네트워크가 그 서비스를 위해 충분한 자원을 제공할 수 있는 지를 결정하고, 자원이 충분하면 에지 라우터는 보증된 QoS를 얻기 위해 QoS를 제어하는 액세스 네트워크 말단 장치(end devices)에 QoS 파라미터를 전송하는 내용이 개시되어 있다.

Also Published As

Publication number Publication date
KR101987346B1 (en) 2019-06-10

Similar Documents

Publication Publication Date Title
US11700207B2 (en) System and method for providing bandwidth congestion control in a private fabric in a high performance computing environment
US11281486B2 (en) Bandwidth control in multi-tenant virtual networks
JP6356319B2 (en) A system that shares network bandwidth among competing applications
JP3987394B2 (en) How to allocate bandwidth within a network domain with a bandwidth broker
US9559956B2 (en) Sharing bandwidth among multiple users of network applications
US8537846B2 (en) Dynamic priority queue level assignment for a network flow
US9219691B2 (en) Source-driven switch probing with feedback request
CN108512672B (en) Service arranging method, service management method and device
CN108897606B (en) Self-adaptive scheduling method and system for virtual network resources of multi-tenant container cloud platform
EP3949299A1 (en) Quality of service in virtual service networks
CN109922003B (en) Data sending method, system and related components
CN111970149B (en) Shared bandwidth implementation method based on hardware firewall QOS
KR101987346B1 (en) System and method for allocating resource statistically and providing QoS guarantee for Inter-Data Center WAN
US20230088222A1 (en) System and method for dynamically shaping an inter-datacenter traffic
EP3485618A1 (en) Device and method for managing end-to-end connections
KR101911473B1 (en) System and method for multiplexing and allocating resource statistically for Inter-Data Center WAN
KR20120055947A (en) Method and apparatus for providing Susbscriber-aware per flow
US20210234802A1 (en) Network system and network band control management method
JP6236310B2 (en) Traffic flow allocation method and apparatus
Garba et al. Efficient bandwidth management and implementation of cross-layer queuing model in a wireless campus area network
JP5144596B2 (en) Call admission control method and apparatus for realizing communication quality assurance, and program therefor
CN115776470A (en) Configuration method, scheduling method, network device and storage medium for hierarchical scheduling
CN116419403A (en) Resource allocation method, apparatus and non-volatile computer readable storage medium
Yang et al. A deadline-aware rate control scheme resolving oversubscription in wireless data center networks
Wanis Adaptive Management of Virtual Network Resources

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant