WO2019235442A1 - ネットワークシステムおよびネットワーク帯域制御管理方法 - Google Patents

ネットワークシステムおよびネットワーク帯域制御管理方法 Download PDF

Info

Publication number
WO2019235442A1
WO2019235442A1 PCT/JP2019/022038 JP2019022038W WO2019235442A1 WO 2019235442 A1 WO2019235442 A1 WO 2019235442A1 JP 2019022038 W JP2019022038 W JP 2019022038W WO 2019235442 A1 WO2019235442 A1 WO 2019235442A1
Authority
WO
WIPO (PCT)
Prior art keywords
bandwidth
service
external
information
upper limit
Prior art date
Application number
PCT/JP2019/022038
Other languages
English (en)
French (fr)
Inventor
貴之 秋山
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US15/734,022 priority Critical patent/US11245630B2/en
Publication of WO2019235442A1 publication Critical patent/WO2019235442A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/13Flow control; Congestion control in a LAN segment, e.g. ring or bus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/46Interconnection of networks
    • H04L12/4641Virtual LANs, VLANs, e.g. virtual private networks [VPN]
    • H04L12/4645Details on frame tagging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/46Interconnection of networks
    • H04L12/4641Virtual LANs, VLANs, e.g. virtual private networks [VPN]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/20Traffic policing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/22Traffic shaping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/32Flow control; Congestion control by discarding or delaying data units, e.g. packets or frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/65Re-configuration of fast packet switches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/70Virtual switches

Definitions

  • the present invention relates to a network system and a network bandwidth control management method.
  • Network virtualization technology has been proposed as a technology for flexibly responding to sudden and irregular changes in the network due to future service diversification and realizing effective use of network resources.
  • a technique for realizing a virtual machine (hereinafter referred to as a virtual machine VM (Virtual Machine)) that is a plurality of virtual computers on one physical server with software called a hypervisor is known.
  • Each virtual machine VM can operate an operating system independently.
  • the physical server on which the plurality of virtual machines VM operate is a computer such as a workstation or a personal computer.
  • the virtual machine VM realized on the virtual machine server can also communicate via the network.
  • Open Stack is a group of software for building a cloud environment that is being developed in open source. With Open Stack, you can build a cloud environment that provides the lowest layer of resources such as virtual machines, storage, and networks.
  • Open Stack QoS (Quality of Service) rule types include bandwidth limitation, minimum bandwidth, and packet priority (DSCP: Differentiated Services Code Point), which can limit the bandwidth (see Non-Patent Document 1).
  • QoS is a function that guarantees certain network requirements such as bandwidth, delay, jitter, and reliability, and is used to satisfy a service level agreement (SLA) between an application provider and a user. Network devices such as switches and routers can achieve QoS conditions agreed in the SLA by marking traffic with priority.
  • OVS (Open Virtual Switch) QoS generally used in Open Stack supports shaping for output (egress) and policing for input (ingress) (see Non-Patent Document 2). .
  • the input of OVS is policing, and if the upper limit of bandwidth is set for each service, the packet is discarded when the set value is exceeded.
  • the bandwidth upper limit setting is a service unit, and when operation management as a system is required, the operator needs to design a network in consideration of the processing capabilities of other services and OVS, and change the setting value.
  • the network system includes a virtual machine VM 1 that provides a service A existing in a physical server, a virtual machine VM 2 that provides a service B, and a virtual machine that provides a service C.
  • a machine VM 3 , a virtual machine VM 4 , Compute Nodes 1 to 3, Network Node 6, and Controller Node 7 which are components constituting the Open Stack, and an L2 switch L2SW (hereinafter referred to as L2SW) 4 are provided.
  • the virtual machines VM1 to VM4 are connected to the external network NW8 via the Network Node 6, respectively.
  • the virtual servers VM1 to VM4 are virtual information processing apparatuses realized by software.
  • the virtual servers VM1 to VM4 are connected to the L2SW 4 via a virtual switch (not shown).
  • the L2SW 4 is hardware that switches communication by the virtual servers VM 1 to VM 4 on the physical server including its own virtual switch. Note that a hardware L2SW is required to connect a plurality of Computes, and that device becomes the L2SW4.
  • Open Stack configures and uses nodes (physical or virtual servers) for each role.
  • Open Stack is divided into Compute Node 1 to 3, Network Node 6, and Controller Node 7.
  • Compute Nodes 1-3 build and control the virtualization infrastructure.
  • Compute Node 1 is a node on which virtual machine VM 1 operates
  • Compute Node 2 is a node on which virtual machine VM 2 and virtual machine VM 3 operate
  • Compute Node 3 is a node on which virtual machine VM 4 operates.
  • the Network Node 6 performs network virtualization and management.
  • the Network Node 6 is a server that provides network services for instances, such as IP (Internet Protocol) transfer and DHCP (Dynamic Host Configuration Protocol).
  • the Network Node 6 provides functions such as a virtual router and DHCP by the Compute Nodes 1 to 3.
  • the Network Node 6 has an OVS 5. With Open Stack, the upper limit of bandwidth can be set for each service. When the OVS 5 exceeds the upper limit of its bandwidth, the input discards the packet by policing.
  • Controller Node 7 places components for control of all management services among the components.
  • Controller Node 7 is a management server that processes requests from users and other nodes, and manages the entire Open Stack. Controller Node7 can set the upper limit of bandwidth only for Network Node6.
  • the bandwidth upper limit settings are set to 4 Gbps, 3 Gbps, and 2 Gbps for service A (priority: high), service B (priority: low), and service C (priority: low), respectively.
  • service A priority: high
  • service B priority: low
  • service C priority: low
  • Policing discards a packet when the service exceeds the upper limit bandwidth regardless of the traffic volume of the entire virtualization infrastructure NW.
  • total traffic volume the total traffic of all services
  • the OVS 5 discards the packet for 1 Gbps, but the service A with the higher priority also discards the packet in the same manner as the services B and C with the lower priority (see symbol c in FIG. 4). That is, the OVS 5 discards the packet without considering the priority when the OVS processing capacity ⁇ the total traffic amount.
  • Open Stack a plurality of services are mounted on the virtualization platform and connected to the OVS 5.
  • the bandwidth limit is set for each service, if it exceeds, the packet is discarded, but if it does not exceed, policing does not work.
  • packets that did not exceed each service flow into OVS 5, which increases the processing load of OVS 5 and becomes a bottleneck. . That is, packet loss occurs even when the bandwidth is set below the upper limit of each service.
  • OVS5 is a policing that does not queue a packet
  • OVS5 is a policing that does not queue a packet
  • the packet is discarded, and communication interruption of a service installed on the virtualization infrastructure and delay due to packet retransmission occur.
  • a service with a high priority such as a telephone is generally discarded because the packet is discarded.
  • the present invention has been made in view of such a background, and the present invention provides a network system and a network bandwidth control management method capable of preventing packets that need to be preferentially flowed under a high load from being discarded.
  • the task is to do.
  • the invention according to claim 1 includes a component in which a plurality of services are mounted on a virtualization infrastructure and constitutes an OpenSStack connected to an OVS, and the OVS includes an external NW.
  • the OVS includes an external NW.
  • the setting of the bandwidth control and priority control of the external SW is changed with the addition or deletion of the virtualization infrastructure service as a trigger
  • a network system characterized by comprising an NW control management device characterized by comprising an NW control management device.
  • the NW control management device acquires VM information from the controller node constituting the component, and the ID, IP address, MAC address, VLAN, and bandwidth of each service
  • the NW bandwidth amount of the external SW is monitored, and the upper limit of the bandwidth is set. If there is no bandwidth, or if there is a free bandwidth, NW controller that releases or sets the bandwidth limit according to the usage amount in VM units, and setting information for setting the bandwidth amount allocated to each service in the external SW And an external SW setting unit that connects to the external SW and inputs the setting information. It was set as the network system of description.
  • the invention according to claim 6 includes a component in which a plurality of services are mounted on a virtualization infrastructure and constitutes an Open Stack connected to an OVS, and the OVS receives a packet flowing from an external NW, A network bandwidth control management method for policing the packet when the bandwidth upper limit set for each service is exceeded.
  • NW control management device that performs NW control, based on the information acquired from the component
  • the step of changing the setting of the bandwidth control and priority control of the external SW triggered by the addition or deletion of the service of the virtualization infrastructure A network bandwidth control management method comprising a step of controlling a bandwidth amount of a packet flowing into the OVS; It was.
  • the invention according to claim 2 is characterized in that the NW control and management device uses the acquired information to send information related to the NW including the VLAN, upper limit bandwidth, and priority associated with the service.
  • the NW control and management device uses the acquired information to send information related to the NW including the VLAN, upper limit bandwidth, and priority associated with the service.
  • the NW control management device can change the setting of bandwidth control and priority control in conjunction with the external SW.
  • the NW control management apparatus includes a data storage unit that grasps the amount of bandwidth that can be processed by the OVS of the virtualization infrastructure and stores the upper limit value thereof, and the virtualization Information is collected from the Ceilometer equipped on the base, and the NW bandwidth of the external SW is monitored to periodically obtain traffic information for each service.
  • Each service exceeds the upper limit bandwidth set for each service.
  • the service with higher priority of each service secures the bandwidth, and the service with lower priority generates setting information so that the upper limit bandwidth is narrowed.
  • the network system according to claim 1 is provided.
  • the usage status of the virtualization infrastructure NW can be monitored, and bandwidth control can be automatically changed in consideration of services that are used up to the upper limit of the bandwidth and the availability status of the virtualization infrastructure NW.
  • Effective utilization of the infrastructure NW can be achieved. In particular, it is possible to allow a high priority service to flow into the virtualization infrastructure in the external NW, thereby avoiding service interruption of a high priority service.
  • the NW control management device grasps the trend of the most busy or quiet time, the month, day or day of the traffic volume of each service, and the service tends to exceed the upper limit bandwidth. 5.
  • the virtual infrastructure NW can be effectively utilized by providing a function for automatically changing the bandwidth upper limit and the bandwidth control of the external SW 20 temporarily.
  • the present invention it is possible to provide a network system and a network bandwidth control management method that can prevent a packet that needs to flow preferentially at high load from being discarded.
  • FIG. 1 is a diagram illustrating a configuration example of a network system according to an embodiment of the present invention.
  • FIG. 1 shows an initial state of an operation example of the network system.
  • the same components as those in FIG. 15 are denoted by the same reference numerals. As shown in FIG.
  • the network system 100 includes a virtual machine VM 2 that provides a service B that provides a service A that exists in a physical server, a virtual machine VM 3 that provides a service C, a virtual machine VM 4, and a virtualization A plurality of services are mounted on the base, and include Compute Node1 to 3, Network Node6 and Controller Node7, which are components constituting Open Stack connected to OVS5, and L2SW4.
  • the network system 100 uses the information acquired from the Compute Nodes 1 to 3, the Network Node 6, and the Controller Node 7 as a trigger to change the setting of the bandwidth control and priority control of the external SW 20 with the addition or deletion of the virtualization infrastructure service as a trigger.
  • the management apparatus 10 is provided between the virtualization platform and the external NW 20 and includes an external SW 20 that controls the bandwidth of a packet flowing into the OVS 5.
  • the virtual machines VM 1 to VM 4 are each connected to the external network NW 8 via the Network Node 6.
  • the virtual servers VM 1 to VM 4 are virtual information processing apparatuses realized by software.
  • the virtual servers VM 1 to VM 4 are connected to the L2SW 4 via a virtual switch (not shown).
  • the L2SW 4 is hardware that switches communication by the virtual servers VM 1 to VM 4 on the physical server including its own virtual switch.
  • Open Stack configures and uses nodes (physical or virtual servers) for each role.
  • Open Stack is divided into Compute1Node 1 to 3, Network Node 6, and Controller Node 7.
  • Compute Nodes 1-3 build and control the virtualization infrastructure.
  • Compute Node 1 is a node on which virtual machine VM 1 operates
  • Compute Node 2 is a node on which virtual machine VM 2 and virtual machine VM 3 operate
  • Compute Node 3 is a node on which virtual machine VM 4 operates.
  • the Network Node 6 performs network virtualization and management.
  • the Network Node 6 is a server that provides network services for instances, such as IP forwarding and DHCP.
  • the Network Node 6 provides functions such as a virtual router and DHCP by the Compute Nodes 1 to 3.
  • the Network Node 6 has an OVS 5. With Open Stack, the upper limit of bandwidth can be set for each service. When the OVS 5 exceeds the upper limit of its bandwidth, the input discards the packet by policing.
  • Controller Node 7 places components for control of all management services among the components.
  • Controller Node 7 is a management server that processes requests from users and other nodes, and manages the entire Open Stack. Controller Node7 can set the upper limit of bandwidth only for Network Node6.
  • the OVS 5 polices the packet when the packet flowing in from the external NW 20 exceeds the upper limit of the bandwidth set for each service.
  • ⁇ NW control management device 10> Based on the information acquired from Compute Nodes 1 to 3, Network Node 6, and Controller Node 7, the NW control management device 10 obtains information on the NW including the VLAN (Virtual LAN), upper limit bandwidth, and priority associated with the service. Config information (setting information) for setting to the external SW 20 is generated, connected to the external SW 20, and the setting of the external SW 20 is changed according to the created Config information.
  • VLAN Virtual LAN
  • Config information setting information for setting to the external SW 20 is generated, connected to the external SW 20, and the setting of the external SW 20 is changed according to the created Config information.
  • the NW control management apparatus 10 has a data management storage unit 114 (see FIG. 2) that grasps the bandwidth amount that can be processed by the virtualization infrastructure OVS 5 and stores the upper limit value thereof, and is installed in the virtualization infrastructure. Information is collected from the Ceilometer, and the NW bandwidth of the external SW 20 is monitored to periodically acquire traffic information for each service.
  • the NW control management device 10 secures a bandwidth for a service whose priority is high for each service before the service exceeds the upper bandwidth limit set for each service and before the upper limit value of the processing capacity of the OVS 5 is exceeded.
  • the service with low priority generates Config information so as to narrow the bandwidth.
  • the NW control management device 10 grasps the trend of the traffic volume of each service during the most busy or quiet time, month, day or day of the week, the service tends to exceed the upper limit bandwidth, and the NW bandwidth of the entire virtualization infrastructure If there is remaining capacity, create Config information that temporarily changes the upper limit bandwidth of the service.
  • the NW control management device 10 monitors the usage status of the virtualization infrastructure NW, considers the services used up to the upper limit of the bandwidth and the availability status of the virtualization infrastructure NW, and bandwidth control bandwidth of the virtualization infrastructure and the external SW 20 Temporarily change the upper limit.
  • the NW control management device 10 has the following functions (1) to (3).
  • the NW control management device 10 manages data information of each service managed by the Controller Node 7.
  • the data information of each service is, for example, ⁇ VM_ID -VLAN_ID, MAC address (for L2) ⁇ IP address, subnet (for L3) ⁇ There is an upper limit bandwidth.
  • the NW control management device 10 has an NW collection / control function that collects information from the Network Node 6 using a Ceilometer or the like, and collects information using the external SW 20.
  • NW collection / control functions include, for example: There is a change control of the upper limit band according to the traffic volume of each service collected periodically, the current traffic volume of each service, and the band fluctuation.
  • the NW control management device 10 has a setting function of the external SW 20.
  • the setting function of the external SW 20 includes, for example, ⁇ Generate Config information of external SW 20 based on the setting information in (1) triggered by the addition / deletion of service. ⁇ Temporarily considering bandwidth fluctuations from the periodic traffic volume and current traffic volume in (2) above. There is a method of generating Config information for rewriting the setting information, and connecting to the external SW 20 and inputting the Config.
  • the external SW 20 is installed between the virtualization infrastructure and the external NW 20, and controls the bandwidth of the packet flowing into the OVS 5.
  • the external SW 20 has reachability that can be operated by the NW control management device 10.
  • FIG. 2 is a functional block diagram showing a detailed configuration of the NW control management device 10.
  • the NW control management device 10 acquires VM information from the Controller Node 7, and manages information related to NW control including ID, IP address, MAC address, VLAN, and bandwidth of each service. Information is collected from the data management unit 110 and the Ceilometer installed in the virtualization platform, and the NW bandwidth of the external SW 20 is monitored.
  • the VM The NW control unit 120 that releases or sets the bandwidth limit according to the unit usage amount, and generates Config information for setting the bandwidth amount allocated to each service to the external SW 20, and connects to the external SW 20 and inputs the Config An external SW setting unit 130.
  • the data management unit 110 manages VM information generated in the virtual environment from the controller node 7 of the Open Stack.
  • the data management unit 110 includes a data update confirmation unit 111, a data reception unit 112, a data comparison / data update unit 113, and a data management storage unit 114.
  • the data update confirmation unit 111 periodically confirms whether or not the VM information is updated in the Controller Node 7.
  • the data receiving unit 112 receives data acquired from the Controller Node 7.
  • the data comparison / data update unit 113 compares the received data information with the data management information. When there is a change, the information is transferred to the external SW 20 setting and the data management is updated.
  • the data management storage unit 114 stores the processing capacity value of the OVS 5.
  • the data management storage unit 114 stores the amount of bandwidth used for each service date (see FIG. 3A).
  • the data management storage unit 114 stores information related to NW control such as ID, IP address, MAC address, VLAN, and bandwidth of each service (see FIG. 3A).
  • the NW control unit 120 monitors the NW band amount of the Ceilometer / external SW 20 or the like when the upper limit of the band is not set or when there is a free band, and releases / sets the band limitation according to the usage amount in VM units. I do.
  • the NW control unit 120 includes an NW usage status confirmation unit 121, a status reception unit 122, an available bandwidth amount calculation unit 123, and a bandwidth amount comparison / allocable bandwidth calculation unit 124.
  • the NW usage status check unit 121 periodically checks the usage status of the NW bandwidth for the functions managing the NW bandwidth, such as Ceilometer / external SW20.
  • the status receiving unit 122 receives a status acquired from a function that manages the NW band such as Ceilometer.
  • the free bandwidth calculation unit 123 calculates the free bandwidth from the acquired usage bandwidth.
  • the bandwidth amount comparison / allocable bandwidth calculation unit 124 compares the bandwidth information for data management with the free bandwidth amount. The amount of bandwidth allocated to each service is determined, information is transferred to the external SW 20 setting, and data management is updated.
  • the external SW setting unit 130 accesses the external SW 20 and performs config setting based on the data management information.
  • the external SW setting unit 130 includes an external SW setting information generation unit 131 and an external SW connection / setting unit 132.
  • the external SW setting information generation unit 131 generates Config for setting the allocated bandwidth amount to the external SW 20.
  • the external SW connection / setting unit 132 connects to the external SW 20 and inputs Config.
  • FIGS. 3A and 3B are diagrams illustrating an example of information stored in the database (DB) by the data management storage unit 114
  • FIG. 3A is an example of a record in the DB that stores the bandwidth used for each service date and time.
  • FIG. 3B shows an example of a record of information related to NW control such as ID, IP address, MAC address, VLAN, and bandwidth of each service.
  • NW control such as ID, IP address, MAC address, VLAN, and bandwidth of each service.
  • the data management storage unit 114 stores the bandwidth usage of each service in the DB for each date and time.
  • the data management storage unit 114 stores the ID, IP address, MAC address, VLAN ID, upper limit bandwidth, allocated bandwidth, and the like of each service in the DB.
  • FIG. 4 is a diagram illustrating an operation example at the time of service registration.
  • the NW control management device 10 registers with priority when registering services on the virtualization platform.
  • the bandwidth upper limit settings are set to 4 Gbps, 3 Gbps, and 2 Gbps for service A (priority: high), service B (priority: low), and service C (priority: low), respectively.
  • the NW control management device 10 registers the service D (priority: high) (see reference sign d in FIG. 4).
  • the NW control management device 10 executes the following steps.
  • Step S1 Collect information from Controller Node 7>
  • the data update confirmation unit 111 (see FIG. 2) of the data management unit 110 periodically confirms whether or not the VM information is updated in the Controller Node 7.
  • the data receiving unit 112 receives the data acquired from the Controller Node 7 (see the symbol e in FIG. 4).
  • Step S2 Store information in DB>
  • the data comparison / data update unit 113 registers the service registration as a trigger in the Controller Node 7, obtains information on the managed service, and stores priority information in the data management storage unit 114 (see FIG. 2). ).
  • the data comparison / data update unit 113 refers to the DB of the data management storage unit 114, and in the NW control management device 10, information related to the NW such as the VLAN, upper limit bandwidth, priority, etc. tied to the service from the acquired data Config information for setting to the external SW 20 is generated. At this time, the data comparison / data update unit 113 sets the output of the external SW 20 so as not to exceed the OVS processing capability.
  • Step S4 Config input>
  • the external SW setting information generation unit 131 (see FIG. 2) of the external SW setting unit 130 sets the setting information of the external SW 20 based on the generated Config information.
  • Step S5 Change settings>
  • the external SW connection / setting unit 132 (see FIG. 2) of the external SW setting unit 130 connects to the external SW 20 and inputs Config (see symbol f in FIG. 4).
  • Step S6 Add setting>
  • service D (priority: high) is set and added with a bandwidth upper limit of 1 Gbps.
  • FIG. 5 is a diagram illustrating an operation example 1 during operation.
  • the bandwidth upper limit settings are set to 4 Gbps and 3 Gbps for service A (priority: high), service B (priority: low), service C (priority: low), and service D (priority: high), respectively.
  • 2 Gbps and 1 Gbps are set.
  • the NW control management device 10 executes the following steps during operation. ⁇ Step S11: Collect traffic information with Ceilometer etc.>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically checks the usage status of the NW bandwidth for a function that manages the NW bandwidth with a Ceilometer or the like.
  • the situation receiving unit 122 receives the situation acquired from the function that manages the NW band with a Ceilometer or the like (see symbol g in FIG. 5).
  • Step S12 Collect traffic from external SW 20>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically confirms traffic information with respect to the external SW 20.
  • the situation receiving unit 122 receives traffic information from the external SW 20 (see symbol h in FIG. 5).
  • the NW control unit 120 periodically acquires traffic information by using a Ceilometer or the like equipped in the virtualization platform and a function of acquiring NW information from the external SW 20. Also, the NW control unit 120 grasps the amount of bandwidth that can be processed by the virtual infrastructure OVS and has an upper limit value.
  • Step S13 Detect OVS capacity over and generate Config information> If each service does not exceed the upper limit bandwidth set for each service and exceeds the upper limit value of the processing capacity of OVS, packet loss occurs. In order to avoid this, the NW control management device 10 considers the priority of each service before exceeding the upper limit value, and secures a bandwidth for a service with a high priority and narrows a bandwidth for a service with a low priority. Create Config information as follows. Specifically, the free bandwidth amount calculation unit 123 (see FIG. 2) of the NW control unit 120 calculates the free bandwidth amount from the acquired use bandwidth amount. The bandwidth amount comparison / allocable bandwidth calculation unit 124 (see FIG.
  • service A and service D with high priority secure bandwidth service A is 4 Gbps, service D is 1 Gbps and the bandwidth is not changed
  • service B and service C with low priority receive bandwidth.
  • the service B reduces the upper limit bandwidth from 3 Gbps to 1.7 Gbps
  • the service C reduces the upper bandwidth from 2 Gbps to 1.3 Gbps).
  • Step S14 Setting change>
  • the bandwidth amount comparison / allocable bandwidth calculation unit 124 of the NW control unit 120 transfers information to the external SW 20 setting (see symbol i in FIG. 5) and updates the DB of the data management storage unit 114.
  • the external SW setting information generation unit 131 (see FIG. 2) of the external SW setting unit 130 sets the setting information of the external SW 20 based on the generated Config information.
  • the external SW connection / setting unit 132 (see FIG. 2) of the external SW setting unit 130 connects to the external SW 20 and inputs Config.
  • the service with high priority is controlled to maintain the upper limit band, and the service with low priority is controlled to narrow the upper limit band.
  • the external NW 8 can avoid a service interruption of a high priority service by flowing from a high priority service to the virtualization infrastructure.
  • FIG. 6 is a diagram showing the traffic volume of daily trends.
  • the horizontal axis shows the traffic volume trend from 0:00 to 24:00, and the vertical axis shows the band used for each service.
  • the notation of hatching in the figure is aligned with the notation of each service in FIG. 4 and FIG.
  • the processing capacity limit of the OVS 5 is 8 Gbps.
  • the daily trend shown in FIG. 6 does not exceed the processing capability of the OVS 5 in any time zone from 0:00 to 24:00.
  • FIG. 7 is a diagram illustrating an operation example 2 in operation. It is an example which grasped
  • service A priority: high
  • service B priority: low
  • service C priority: low
  • service D priority: high
  • the band upper limit settings are set to 4 Gbps, 3 Gbps, 2 Gbps, and 1 Gbps, respectively.
  • Step S21 Collect traffic information with Ceilometer, etc.>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically checks the usage status of the NW bandwidth for a function that manages the NW bandwidth with a Ceilometer or the like.
  • the status receiving unit 122 receives the status acquired from the function that manages the NW band with Ceilometer or the like (see reference k in FIG. 7).
  • Step S22 Collect traffic from external SW 20>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically confirms traffic information with respect to the external SW 20.
  • the situation receiving unit 122 receives traffic information from the external SW 20 (see symbol 1 in FIG. 7).
  • the NW control unit 120 periodically acquires traffic information by using a Ceilometer or the like equipped in the virtualization platform and a function of acquiring NW information from the external SW 20. Also, the NW control unit 120 grasps the amount of bandwidth that can be processed by the virtual infrastructure OVS and has an upper limit value.
  • Step S23 Detect that NW has spare capacity, generate Config information>
  • the NW band of the entire virtualization infrastructure has a surplus as in the time zone (18 o'clock to 21 o'clock) shown in the dashed oval box in FIG. 6, the upper limit band of service D (priority: high) is temporarily set to 1 Gbps Config information to be changed from 3 to 3 Gbps.
  • the NW control management device 10 connects to the external SW 20 and changes the setting of the external SW 20 in accordance with the created Config information.
  • Step S24 Setting change>
  • the bandwidth amount comparison / allocable bandwidth calculation unit 124 of the NW control unit 120 transfers information to the external SW 20 setting (see symbol m in FIG. 7) and updates information in the data management storage unit 114.
  • the external SW setting information generation unit 131 (see FIG. 2) of the external SW setting unit 130 sets the setting information of the external SW 20 based on the generated Config information.
  • FIG. 8 is a diagram showing the traffic amount of the same daily trend as in FIG.
  • the horizontal axis shows the traffic volume trend from 0:00 to 24:00, and the vertical axis shows the band used for each service.
  • the free bandwidth of about 3 Gbps existing in the time zone (18: 00-21) tends to decrease.
  • control is performed to restore the upper limit bandwidth of the service D (priority: high 1 Gbps) that has been temporarily increased.
  • FIG. 9 is a diagram illustrating Operation Example 3 during operation.
  • FIG. 9 is an example in which the amount of traffic in the trend in FIG. 8 is grasped and control is performed to restore the upper limit bandwidth of the service that has been temporarily increased.
  • the service D (priority: high) is temporarily set to 3 Gbps.
  • Step S31 Collect traffic information with Ceilometer, etc.>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically checks the usage status of the NW bandwidth for a function that manages the NW bandwidth with a Ceilometer or the like.
  • the status receiving unit 122 receives the status acquired from the function that manages the NW band with Ceilometer or the like (see reference symbol o in FIG. 9).
  • Step S32 Collect traffic from external SW 20>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically confirms traffic information with respect to the external SW 20.
  • the situation receiving unit 122 receives traffic information from the external SW 20 (see symbol p in FIG. 9).
  • Step S33 Detect that NW has no remaining capacity, generate Config information> If the free bandwidth of the NW bandwidth of the entire virtualization infrastructure is decreasing as in the time zone (21: 00-24: 00) indicated by the dashed oval box in FIG. 8, the service D (priority level) temporarily increased : High) upper limit band 3 Gbps is created to change to the original upper limit band 3 Gbps.
  • the NW control management device 10 connects to the external SW 20 and changes the setting of the external SW 20 in accordance with the created Config information.
  • Step S34 Setting change>
  • the bandwidth amount comparison / allocatable bandwidth calculation unit 124 of the NW control unit 120 transfers information to the external SW 20 setting (see symbol q in FIG. 9) and updates information in the data management storage unit 114.
  • the external SW setting information generation unit 131 (see FIG. 2) of the external SW setting unit 130 sets the setting information of the external SW 20 based on the generated Config information.
  • the virtualization infrastructure NW has a surplus capacity
  • the upper limit band temporarily allocated to the service exceeding the upper limit band is restored, so that the upper limit band can be surely kept within the processing capacity limit of the OVS 5. it can. Even if the service is temporarily allocated to a service exceeding the upper limit bandwidth, it is within the processing capacity limit of the OVS 5, so that the virtual infrastructure NW can be effectively utilized.
  • FIG. 10 is a diagram illustrating an operation example 4 in operation, and illustrates an example when a service is deleted.
  • the band upper limit settings are set to 4 Gbps and 3 Gbps for service A (priority: high), service B (priority: low), service C (priority: low), and service D (priority: high), respectively. 2 Gbps and 1 Gbps were set.
  • service C priority: low
  • service D priority: high
  • Step S41 Collect traffic information with Ceilometer, etc.>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically checks the usage status of the NW bandwidth for a function that manages the NW bandwidth with a Ceilometer or the like.
  • the situation receiving unit 122 receives the situation acquired from the function that manages the NW band by Ceilometer or the like (see reference numeral s in FIG. 9).
  • the NW usage status confirmation unit 121 grasps information on a service deleted from the Controller using a service deletion process as a trigger from the NW virtualization platform.
  • Step S42 Collect traffic from external SW 20>
  • the NW usage status confirmation unit 121 (see FIG. 2) of the NW control unit 120 periodically confirms traffic information with respect to the external SW 20.
  • the situation receiving unit 122 receives traffic information from the external SW 20 (see symbol t in FIG. 9).
  • the NW usage status confirmation unit 121 grasps information on a service deleted from the Controller using a service deletion process as a trigger from the NW virtualization platform.
  • the NW control unit 120 (see FIG. 2) generates Config information for deleting information related to an NW such as a VLAN attached to the deleted service.
  • Step S44 Setting change>
  • the bandwidth amount comparison / allocatable bandwidth calculation unit 124 of the NW control unit 120 transfers information to the external SW 20 setting (see symbol u in FIG. 9) and updates information in the data management storage unit 114.
  • the external SW setting information generation unit 131 (see FIG. 2) of the external SW setting unit 130 sets the setting information of the external SW 20 based on the generated Config information.
  • Step S45 Delete from DB>
  • the data management unit 110 (see FIG. 2) deletes the deleted service information from the DB of the data management storage unit 114.
  • FIG. 11 is an example in the case where OVS processing capacity ⁇ total traffic amount and priority is the same (all high or low).
  • service A priority: low
  • service B priority: low
  • service C priority: low
  • service D priority: low
  • the processing capacity limit of OVS5 is 9 Gbps and the total traffic amount is 8 Gbps.
  • the total upper limit inflow amount 8 Gbps is within the processing capacity limit 9 Gbps of OVS 5 and there is no need to change the bandwidth.
  • the upper limit value can be increased evenly.
  • the total upper limit inflow amount 8 Gbps is within the processing capacity limit 9 Gbps of the OVS 5.
  • priority is not assigned because the priorities are the same (all high).
  • the upper limit value can be increased evenly.
  • FIG. 12 is an example in the case where OVS processing capacity ⁇ total traffic amount and the same priority (all high or low).
  • service A priority: high
  • service B priority: high
  • service C priority: high
  • service D priority: high
  • the processing capacity limit of OVS 5 is 9 Gbps
  • the total upper limit inflow amount is 10 Gbps.
  • the NW control unit 120 sets the total traffic amount / OVS processing capacity ⁇ each service upper limit band.
  • the bandwidth upper limit settings are set to 4 Gbps, 3 Gbps for service A (priority: high), service B (priority: high), service C (priority: high), and service D (priority: high), respectively.
  • 2 Gbps and 1 Gbps are set, but each band upper limit setting is uniformly reduced by 10%, and the band upper limit setting is set to 3.6 Gbps, 2.7 Gbps, 1.8 Gbps, and 0.9 Gbps, respectively (see FIG. 12 reference w). This results in a uniform 10% packet discard or delay.
  • FIG. 13 is an example in the case where OVS processing capacity ⁇ total traffic amount and priorities are mixed.
  • service A priority: high
  • service B priority: low
  • service C priority: low
  • service D priority: high
  • the processing capacity limit of OVS5 is 9 Gbps
  • the total traffic volume is 8 Gbps.
  • FIG. 13 when OVS processing capacity ⁇ total traffic volume and the priority is mixed, the total traffic volume 8 Gbps is within the processing capacity limit 9 Gbps of OVS 5 and the bandwidth is not changed (FIG. 13). (See symbol x).
  • the OVS processing capacity ⁇ the total traffic amount and the priorities are mixed
  • the bandwidth is not changed and each service upper limit bandwidth is set.
  • FIG. 14 is an example of a case where OVS processing capacity ⁇ total traffic amount and priority is mixed.
  • service A priority: high
  • service B priority: low
  • service C priority: low
  • service D priority: high
  • the processing capacity limit of OVS5 is 9 Gbps
  • the total traffic volume is 10 Gbps. If OVS processing capacity ⁇ total traffic volume and priority is mixed, the bandwidth upper limit setting is not reduced for services with high priority, and the bandwidth upper limit setting is reduced for services with lower priority. .
  • a service with a high priority has no bandwidth change, and a service with a low priority is “low” total inflow / remaining OVS processing capacity ⁇ each service upper limit bandwidth.
  • the bandwidth upper limit settings are set to 4 Gbps and 3 Gbps for service A (priority: high), service B (priority: low), service C (priority: low), and service D (priority: high), respectively. 2 Gbps and 1 Gbps are set.
  • the network system 100 is installed between the virtualization infrastructure and the external NW 20, and includes the external SW 20 that controls the bandwidth of packets flowing into the OVS 5, the Compute Node1 to 3, the Network Node6, and the Controller Node7. And an NW control management device 10 that changes the bandwidth control and priority control settings of the external SW 20 based on the acquired information and triggered by the addition or deletion of a virtualization infrastructure service.
  • the NW control management device 10 acquires VM information from the Controller node 7, and also manages a data management unit 110 that manages information related to NW control including ID, IP address, MAC address, VLAN, and bandwidth of each service.
  • a data management unit 110 that manages information related to NW control including ID, IP address, MAC address, VLAN, and bandwidth of each service.
  • the NW bandwidth of the external SW 20 is monitored, and if the upper limit of the bandwidth is not set or there is a free bandwidth, the usage amount in VM units
  • the NW control unit 120 that releases or sets the bandwidth limit according to the setting, and generates the Config information for setting the amount of bandwidth to be allocated to each service to the external SW 20, and connects to the external SW 20, and external SW setting that inputs the Config Part 130 is provided.
  • the setting change of bandwidth control and priority control of external SW 20 is triggered by the addition or deletion of the virtualization infrastructure service. Steps to perform are performed.
  • the external SW 20 a step of controlling the bandwidth amount of the packet flowing into the OVS 5 is executed.
  • the VM ID information and the MAC address information or VLAN information or IP address information in the virtualization base Controller Node 7 are used, and the addition / deletion of the virtualization base service is linked to the trigger. Then, the bandwidth control and priority control settings of the external SW 20 are changed. As a result, the bottleneck of OVS 5 in the virtualization infrastructure can be resolved and the packet that is desired to be prioritized can be processed. Further, it is possible to prevent a packet that needs to be preferentially flowed at a high load from being discarded.
  • the bandwidth control is automatically set. That is, in the method in which the operator manually sets the bandwidth control as in the prior art, the operator needs to design in consideration of the bandwidth of all services (VM). In addition, the design must be reviewed and reconfigured each time services are added or removed. On the other hand, in the present embodiment, it is possible to change the used bandwidth automatically and eliminate the need for reviewing the design by the operator, thereby effectively utilizing the NW.
  • the NW control management device 10 sets Config information for setting information related to the NW including the VLAN, the upper limit bandwidth, and the priority attached to the service in the external SW 20 based on the acquired information. At the same time, it is connected to the external SW 20, and the setting of the external SW 20 is changed according to the created Config information. Thereby, the NW control management apparatus 10 can change the setting of the band control and the priority control in conjunction with the external SW 20.
  • the NW control management device 10 has a data storage unit 114 for grasping the amount of bandwidth that can be processed by the OVS 5 of the virtualization platform and storing the upper limit value thereof, and is installed in the virtualization platform. Information is collected from the network, and the NW bandwidth of the external SW 20 is monitored to periodically acquire traffic information of each service. Each service does not exceed the upper limit bandwidth set for each service, and the OVS 5 Before the upper limit value of the processing capability is exceeded, bandwidth is secured for services with high priority of each service, and Config information is generated so that bandwidth is narrowed for services with low priority.
  • the usage status of the virtualization infrastructure NW can be monitored, and the bandwidth control can be automatically changed in consideration of the services that are used up to the upper limit of the bandwidth and the availability of the virtualization infrastructure NW. Can be used. In particular, it is possible to allow a high priority service to flow into the virtualization infrastructure in the external NW, thereby avoiding service interruption of a high priority service.
  • the NW control management device 10 grasps the trend of the most busy or quiet time, month, day or day of the traffic volume of each service, the service tends to exceed the upper limit bandwidth, and the virtualization When there is a surplus in the NW band of the entire base, Config information for temporarily changing the upper limit band of the service is created.
  • the virtual base NW can be effectively utilized by providing a function of automatically changing the bandwidth upper limit temporarily to the virtualization base and the bandwidth control of the external SW 20.
  • each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • each of the above-described configurations, functions, and the like may be realized by software for interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files that realize each function is stored in a memory, hard disk, SSD (Solid State Drive), or other recording device, IC (Integrated Circuit) card, SD (Secure Digital) card, optical disk, etc. It can be held on a recording medium.
  • the processing steps describing time-series processing are not limited to processing performed in time series according to the described order, but are not necessarily processed in time series, either in parallel or individually. The processing (for example, parallel processing or object processing) is also included.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】高負荷時に優先的に流す必要のあるパケットが破棄されるのを防ぐことができるネットワークシステムおよびネットワーク帯域制御管理方法を提供する。 【解決手段】ネットワークシステム100は、仮想化基盤と外部NW20との間に設置され、OVS5へ流入するパケットの帯域量を制御する外部SW20と、Compute Node1~3、Network Node6およびController Node7から取得した情報をもとに、仮想化基盤のサービス追加または削除をトリガとして外部SW20の帯域制御および優先制御の設定変更を行うNW制御管理装置10と、を備える。

Description

ネットワークシステムおよびネットワーク帯域制御管理方法
 本発明は、ネットワークシステムおよびネットワーク帯域制御管理方法に関する。
 ネットワーク事業者においては、ネットワーク全体の資源を有効に利用し、転送品質の維持、ネットワークコストの低減を図ることが重要である。将来のサービスの多様化に伴うネットワークの突発的かつ不規則な変化に柔軟に対応し、ネットワーク資源の有効利用を実現する技術としてネットワーク仮想化技術が提案されている。
 また、ハイパーバイザと呼ばれるソフトウェアで、一台の物理サーバ上に複数の仮想的な計算機となる仮想マシン(以下、仮想マシンVM(Virtual Machine)という)を実現する技術が知られている。この仮想マシンVMは、それぞれが独立にオペレーティングシステムを動作させることができる。複数の仮想マシンVMが動作する物理サーバは、ワークステーションやパーソナルコンピュータ等のコンピュータである。また、仮想マシンサーバがネットワークを介して複数台接続された環境においては、仮想マシンサーバ上に実現された仮想マシンVMもネットワークを介して通信することができる。
 Open Stackは、オープンソースで開発されているクラウド環境構築用のソフトウェア群である。Open Stackでは、仮想マシンとストレージ、ネットワーク等の一番低いレイヤーのリソースを提供するクラウド環境が構築できる。Open Stackの持つQoS(Quality of Service:サービス品質)ルール種別は、帯域幅制限、最小帯域幅、パケット優先度(DSCP:Differentiated Services Code Point)があり、帯域を制限できる(非特許文献1参照)。QoSは、帯域、遅延、ジッター、信頼性などのある種のネットワーク要件を保証する機能で、アプリケーションプロバイダーとユーザ間のサービスレベル合意(SLA:Service Level Agreement)を満たすために使用される。スイッチやルータなどのネットワーク機器は、トラヒックに優先度のマークを付けることでSLAにおいて合意された QoS 条件を達成できる。
 Open Stackで一般的に利用されるOVS(Open Virtual Switch)のQoSは、出力(egress)はシェーピング(Shaping)、入力(ingress)はポリシング(Policing)をサポートしている(非特許文献2参照)。
 OVSの入力は、ポリシングであり、サービス単位で帯域幅の上限設定を行えばその設定値を超過した場合にそのパケットを廃棄する。帯域幅の上限設定は、サービス単位であり、システムとしての運用管理が必要な場合、運用者が他サービスやOVSの処理能力を考慮してネットワーク設計し、設定値を変更する必要がある。しかし、仮想化環境においては、サービス増減が頻繁に発生するため、ネットワークの再設計作業は煩雑になる。
 また、仮想化基盤全体ではNWのトラヒックが低い状態であって、あるサービスが帯域幅上限まで使用していた場合、その上限設定まで利用しかできない。NWの有効活用するためには、一時的に帯域幅上限を変更する必要があるが、保守者の手動運用が必要である。
 以下、従来の仮想化基盤におけるネットワーク帯域制御について説明する。
 図15および図16は、従来の仮想化基盤におけるネットワーク帯域制御を説明する図である。
 図15および図16に示すように、従来技術に係るネットワークシステムは、物理サーバ内に存在するサービスAを提供する仮想マシンVM、サービスBを提供する仮想マシンVM、サービスCを提供する仮想マシンVM、仮想マシンVMと、Open Stackを構成するコンポーネントであるCompute Node1~3、Network Node6およびController Node7と、L2スイッチL2SW(以下L2SWという)4と、を備える。
 仮想マシンVM1~仮想マシンVM4は、Network Node6を経由してそれぞれ外部ネットワークNW8に接続される。
 仮想サーバVM1~VM4は、ソフトウェアにより実現される仮想的な情報処理装置である。仮想サーバVM1~VM4は、図示しない仮想スイッチを介して、L2SW4に接続される。L2SW4は、自己の仮想スイッチが含まれる物理サーバ上の仮想サーバVM~VMによる通信を切り替えるハードウェアである。なお、各Computeを複数台接続するにはハードウェアのL2SWが必要になり、その装置がL2SW4になる。
 Open Stackは、役割ごとにノード(物理もしくは仮想サーバ)を構成して利用する。図15では、Open Stackは、Compute Node1~3と、Network Node6と、Controller Node7とに分けられる。
 Compute Node1~3は、仮想化基盤の構築や制御を行う。Compute Node1は、仮想マシンVMが動作するノード、Compute Node2は、仮想マシンVM,仮想マシンVMが動作するノード、Compute Node3は、仮想マシンVMが動作するノードである。
 Network Node6は、ネットワークの仮想化や管理を行う。Network Node6は、IP(Internet Protocol)転送やDHCP(Dynamic Host Configuration Protocol)など、インスタンスに対するネットワークサービスを提供するサーバである。Network Node6は、Compute Node1~3による仮想ルータ、DHCP等の機能を提供する。Network Node6は、OVS5を有する。
 Open Stackでは、サービス単位に帯域の上限設定ができる。OVS5はその帯域の上限を超過した場合、入力はポリシングによりパケットを破棄する。
 Controller Node7は、各コンポーネントのうち、管理系のサービスすべての制御用のコンポーネントを配置する。Controller Node7は、ユーザや他のノードからの要求を処理し、Open Stack 全体の管理を行う管理サーバである。また、Controller Node7は、Network Node6のみ帯域の上限設定が可能である。
 図15の例では、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)にそれぞれ帯域上限設定を4Gbps、3Gbps、2Gbpsを設定している。
 例えば、図15の符号aに示すように、サービスCに3Gbpsの帯域が入力してきた場合、ポリシング制御により2Gbps分のパケットは通過し、残りの1Gbps分のパケットは破棄される(図15の符号b参照)。
 ポリシングは、仮想化基盤のNW全体のトラヒック量に関係なくそのサービスが上限帯域を超過した場合、パケットを破棄する。そのため、仮想化基盤のNW全体のトラヒック量が少なく、かつあるサービスが帯域上限を超過した場合、NWに余力があるものの上限設定をしたがためにパケット廃棄をしてしまう。すなわち、帯域上限設定したポリシングにより、超過分のパケットは廃棄される。
 一方、各サービスの帯域上限設定を超えていない場合、入力パケットに対して、ポリシングは働かずにOVS5へ流入する。しかし、全サービスのトラヒックの合計(以下、「総トラヒック量」という)がOVS5の処理能力を超えた場合、優先度の高いパケットの区別なくパケットを破棄することになり、仮想化基盤のサービス断、遅延が発生する。
 例えば、図16に示すOVS5の処理能力が8Gbpsしかない場合、入力パケットは、
 4Gps+3Gbps+2Gbps=9Gbps
である。
 このため、OVS5は、1Gbps分パケット破棄をするが、優先度の高いサービスAも優先度の低いサービスB、Cと同様にパケット破棄してしまう(図4の符号c参照)。すなわち、OVS5は、OVS処理能力<総トラヒック量の場合、優先度を考慮せずにパケットを破棄する。
https://docs.openstack.org/ocata/ja/networking-guide/config-qos.html https://docs.openvswitch.org/en/latest/faq/qos/
 Open Stackでは、仮想化基盤上に複数のサービスが搭載され、OVS5に接続される。Open StackのQoSでは、サービス単位の帯域幅の上限設定であるため、超過した場合はパケット廃棄するが、超過しない場合はポリシングが効かない。
 特に、外部SWから大量パケットが流入してくる場合、仮想化基盤のNW全体からみると、各サービスで超過しなかったパケットがOVS5へ流入し、OVS5の処理負荷が高くなり、ボトルネックとなる。つまり、各サービスの帯域幅の上限設定以下でもパケットロスが発生する。また、OVS5はパケットをキューに入れないポリシングのため、優先したいパケットが外部NWから流入してもパケット破棄され、仮想化基盤上に搭載されているサービスの通信断、パケット再送による遅延が発生する。例えば、一般的に電話等のような優先度が高いサービスでもパケット廃棄されるため、サービスとして成立しなくなることになる。
 その対応策の1つとして、Open Stack等仮想化基盤と外部NWとの間に外部のL2SWまたはL3SWを設置し、あらかじめ帯域制御を手動で設定する手動設定方法がある。しかし、この手動設定方法は、運用者が全サービスの帯域を考慮して設計する必要がある。また、この手動設定方法は、運用者がサービスの増設/減設時にその都度設計の見直し、再設定をしなければならない。
 このような背景に鑑みて本発明がなされたのであり、本発明は、高負荷時に優先的に流す必要のあるパケットが破棄されるのを防ぐことができるネットワークシステムおよびネットワーク帯域制御管理方法を提供することを課題とする。
 前記した課題を解決するため、請求項1に記載の発明は、仮想化基盤上に複数のサービスが搭載され、OVSに接続されるOpen Stackを構成するコンポーネントを有し、前記OVSは、外部NWから流入したパケットが、サービス単位で設定された帯域幅の上限を超過した場合、当該パケットを廃棄するネットワークシステムであって、前記仮想化基盤と前記外部NWとの間に設置され、前記OVSへ流入するパケットの帯域量を制御する外部SWと、前記コンポーネントから取得した情報をもとに、前記仮想化基盤のサービス追加または削除をトリガとして前記外部SWの帯域制御および優先制御の設定変更を行うNW制御管理装置と、を備えることを特徴とするネットワークシステムとした。
 また、請求項3に記載の発明は、前記NW制御管理装置が、前記コンポーネントを構成するコントローラノードからVMの情報を取得するとともに、前記各サービスのID、IPアドレス、MACアドレス、VLAN、および帯域を含むNW制御に関わる情報を管理するデータ管理部と、前記仮想化基盤に装備されているCeilometerから情報を収集するとともに、前記外部SWのNW帯域量を監視し、帯域の上限設定をしていない場合、または空き帯域がある場合、VM単位の利用量に応じた帯域制限の解放または設定を行うNW制御部と、各サービスへ割り当てる帯域量を前記外部SWへ設定するための設定情報を生成するとともに、前記外部SWへ接続し、前記設定情報の投入を行う外部SW設定部と、を備えることを特徴とする請求項1に記載のネットワークシステムとした。
 また、請求項6に記載の発明は、仮想化基盤上に複数のサービスが搭載され、OVSに接続されるOpen Stackを構成するコンポーネントを有し、前記OVSは、外部NWから流入したパケットが、サービス単位で設定された帯域幅の上限を超過した場合、当該パケットをポリシングするネットワーク帯域制御管理方法であって、NW制御を行うNW制御管理装置において、前記コンポーネントから取得した情報をもとに、前記仮想化基盤のサービス追加または削除をトリガとして外部SWの帯域制御および優先制御の設定変更を行うステップを有し、前記仮想化基盤と前記外部NWとの間に設置された外部SWにおいて、前記OVSへ流入するパケットの帯域量を制御するステップを有することを特徴とするネットワーク帯域制御管理方法とした。
 このようにすることで、仮想化基盤にあるOVSのボトルネックを解消し、優先したいパケットを処理することができる。また、高負荷時に優先的に流す必要のあるパケットが破棄されたのを防ぐことができる。
 また、請求項2に記載の発明は、前記NW制御管理装置が、取得した前記情報をもとに、前記サービスに括りつけられたVLAN、上限帯域、および優先度を含むNWに関する情報を前記外部SWに設定するための設定情報を生成するとともに、前記外部SWへ接続し、作成した前記設定情報に従い、前記外部SWの設定変更を行うことを特徴とする請求項1に記載のネットワークシステムとした。
 このようにすることで、NW制御管理装置は、外部SWと連動して帯域制御、優先制御の設定変更を行うことができる。
 また、請求項4に記載の発明は、前記NW制御管理装置が、前記仮想化基盤のOVSの処理可能な帯域量を把握し、その上限値を記憶するデータ記憶部を有し、前記仮想化基盤に装備されているCeilometerから情報を収集するとともに、前記外部SWのNW帯域量を監視して各サービスのトラヒック情報を定期的に取得し、各サービスがサービス単位に設定した上限帯域を超過しておらず、かつ、前記OVSの処理能力の上限値を超える前に、各サービスの優先度が高いサービスは帯域確保を行い、優先度の低いサービスは、上限帯域を絞るように設定情報を生成することを特徴とする請求項1に記載のネットワークシステムとした。
 このようにすることで、仮想化基盤NWの利用状況を監視し、帯域上限まで利用し入るサービスと仮想化基盤NWの空き状況を考慮して、帯域制御を自動変更することができ、仮想化基盤NWの有効活用を図ることができる。特に、外部NWで優先度の高いサービスから仮想化基盤へ流入させることができ、優先度の高いサービスのサービス断を回避することができる。
 また、請求項5に記載の発明は、前記NW制御管理装置が、各サービスのトラヒック量の最繁若しくは閑散の時間、月日または曜日のトレンドを把握し、サービスが上限帯域を超過する傾向にあり、かつ、仮想化基盤全体のNW帯域に余力がある場合、一時的に当該サービスの上限帯域を緩めるように設定情報を作成することを特徴とする請求項4に記載のネットワークシステムとした。
 このようにすることで、帯域上限を一時的に仮想化基盤および外部SW20の帯域制御を自動変更する機能を持たせることで、仮想化基盤NWの有効活用を図ることができる。
 本発明によれば、高負荷時に優先的に流す必要のあるパケットが破棄されるのを防ぐことができるネットワークシステムおよびネットワーク帯域制御管理方法を提供することができる。
本発明の実施形態に係るネットワークシステムの構成例を示す図である。 本実施形態に係るネットワークシステムのNW制御管理装置の詳細構成を示す機能ブロック図である。 本実施形態に係るネットワークシステムの各サービスの日時毎の利用帯域量を記憶するDBのレコードの一例を示す図である。 本実施形態に係るネットワークシステムの各サービスのID、IPアドレス、MACアドレス、VLAN、帯域等NW制御に関わる情報を記憶するDBのレコードの一例を示す図である。 本実施形態に係るネットワークシステムのサービス登録時の動作例を示す図である。 本実施形態に係るネットワークシステムの運用中の動作例1を示す図である。 本実施形態に係るネットワークシステムの日常のトレンドのトラヒック量を示す図である。 本実施形態に係るネットワークシステムの運用中の動作例2を示す図である。 本実施形態に係るネットワークシステムの日常のトレンドのトラヒック量を示す図である。 本実施形態に係るネットワークシステムの運用中の動作例3を示す図である。 本実施形態に係るネットワークシステムの運用中の動作例4を示す図である。 本実施形態に係るネットワークシステムのOVS処理能力≧総トラヒック量、かつ、優先度が同一(すべて高または低)場合のパターン例1を示す図である。 本実施形態に係るネットワークシステムのOVS処理能力<総トラヒック量、かつ、優先度が同一(すべて高または低)場合のパターン例2を示す図である。 本実施形態に係るネットワークシステムのOVS処理能力≧総トラヒック量、かつ、優先度が混在の場合のパターン例3を示す図である。 本実施形態に係るネットワークシステムのOVS処理能力<総トラヒック量、かつ、優先度が混在の場合のパターン例4を示す図である。 従来の仮想化基盤におけるネットワーク帯域制御を説明する図である。 従来の仮想化基盤におけるネットワーク帯域制御を説明する図である。
 以下、図面を参照して本発明を実施するための形態(以下、「本実施形態」という)におけるネットワークシステム等について説明する。
(実施形態)
 [ネットワークシステム100の構成]
 図1は、本発明の実施形態に係るネットワークシステムの構成例を示す図である。また、図1は、ネットワークシステムの動作例の初期状態を示している。図15と同一構成部分には、同一符号を付している。
 図1示すように、ネットワークシステム100は、物理サーバ内に存在するサービスAを提供するサービスBを提供する仮想マシンVM、サービスCを提供する仮想マシンVM、仮想マシンVMと、仮想化基盤上に複数のサービスが搭載され、OVS5に接続されるOpen Stackを構成するコンポーネントであるCompute Node1~3、Network Node6およびController Node7と、L2SW4と、を備える。
 ネットワークシステム100は、Compute Node1~3、Network Node6およびController Node7から取得した情報をもとに、仮想化基盤のサービス追加または削除をトリガとして外部SW20の帯域制御および優先制御の設定変更を行うNW制御管理装置10と、仮想化基盤と外部NW20との間に設置され、OVS5へ流入するパケットの帯域量を制御する外部SW20と、を備える。
 仮想マシンVM~仮想マシンVMは、Network Node6を経由してそれぞれ外部ネットワークNW8に接続される。
 仮想サーバVM~VMは、ソフトウェアにより実現される仮想的な情報処理装置である。仮想サーバVM~VMは、図示しない仮想スイッチを介して、L2SW4に接続される。L2SW4は、自己の仮想スイッチが含まれる物理サーバ上の仮想サーバVM~VMによる通信を切り替えるハードウェアである。
 Open Stackは、役割ごとにノード(物理もしくは仮想サーバ)を構成して利用する。図1では、Open Stackは、Compute Node1~3と、Network Node6と、Controller Node7とに分けられる。
 Compute Node1~3は、仮想化基盤の構築や制御を行う。Compute Node1は、仮想マシンVMが動作するノード、Compute Node2は、仮想マシンVM,仮想マシンVMが動作するノード、Compute Node3は、仮想マシンVMが動作するノードである。
 Network Node6は、ネットワークの仮想化や管理を行う。Network Node6は、IP転送やDHCPなど、インスタンスに対するネットワークサービスを提供するサーバである。Network Node6は、Compute Node1~3による仮想ルータ、DHCP等の機能を提供する。Network Node6は、OVS5を有する。
 Open Stackでは、サービス単位に帯域の上限設定ができる。OVS5はその帯域の上限を超過した場合、入力はポリシングによりパケットを破棄する。
 Controller Node7は、各コンポーネントのうち、管理系のサービスすべての制御用のコンポーネントを配置する。Controller Node7は、ユーザや他のノードからの要求を処理し、Open Stack 全体の管理を行う管理サーバである。また、Controller Node7は、Network Node6のみ帯域の上限設定が可能である。
 OVS5は、外部NW20から流入したパケットが、サービス単位で設定された帯域幅の上限を超過した場合、当該パケットをポリシングする。
 <NW制御管理装置10>
 NW制御管理装置10は、Compute Node1~3、Network Node6およびController Node7から取得した情報をもとに、サービスに括りつけられたVLAN(Virtual LAN)、上限帯域、および優先度を含むNWに関する情報を外部SW20に設定するためのConfig情報(設定情報)を生成するとともに、外部SW20へ接続し、作成したConfig情報に従い、外部SW20の設定変更を行う。
 NW制御管理装置10は、仮想化基盤のOVS5の処理可能な帯域量を把握し、その上限値を記憶するデータ管理記憶部114(図2参照)を有し、仮想化基盤に装備されているCeilometerから情報を収集するとともに、外部SW20のNW帯域量を監視して各サービスのトラヒック情報を定期的に取得する。NW制御管理装置10は、各サービスがサービス単位に設定した上限帯域を超過しておらず、かつ、OVS5の処理能力の上限値を超える前に、各サービスの優先度が高いサービスは帯域確保を行い、優先度の低いサービスは、帯域を絞るようにConfig情報を生成する。
 NW制御管理装置10は、各サービスのトラヒック量の最繁若しくは閑散の時間、月日または曜日のトレンドを把握し、サービスが上限帯域を超過する傾向にあり、かつ、仮想化基盤全体のNW帯域に余力がある場合、一時的に当該サービスの上限帯域を変更するConfig情報を作成する。
 NW制御管理装置10は、仮想化基盤のNWの利用状況を監視し、帯域上限まで利用し入るサービスと仮想化基盤のNWの空き状況を考慮し、仮想化基盤および外部SW20の帯域制御の帯域上限を一時的に変更する。
 NW制御管理装置10は、下記(1)~(3)機能を有する。
(1)NW制御管理装置10は、Controller Node7で管理している各サービスのデータ情報を管理する。各サービスのデータ情報は、例えば、
・VM_ID
・VLAN_ID、MACアドレス(L2の場合)
・IPアドレス、サブネット(L3の場合)
・上限帯域
がある。
(2)NW制御管理装置10は、Network Node6からCeilometer等で情報を収集する、および外部SW20で収集するNW収集・制御機能を有する。NW収集・制御機能には、例えば、
・定期的に収集した各サービスのトラヒック量
・現在の各サービスのトラヒック量
・帯域変動に応じた上限帯域の変更制御
がある。
(3)NW制御管理装置10は、外部SW20の設定機能を有する。外部SW20の設定機能には、例えば、
・サービスの追加/削除をトリガに上記(1)の設定情報を基に外部SW20のConfig情報を生成する
・上記(2)の定期トラヒック量と現在のトラヒック量から帯域変動を考慮して一時的に設定情報を書き換えるためのConfig情報を生成する
・外部SW20へ接続し、Config投入する
がある。
 <外部SW20>
 外部SW20は、仮想化基盤と外部NW20との間に設置され、OVS5へ流入するパケットの帯域量を制御する。外部SW20は、NW制御管理装置10が操作可能なリーチャビリティを持つ。
[NW制御管理装置10の詳細構成]
 図2は、NW制御管理装置10の詳細構成を示す機能ブロック図である。
 図2に示すように、NW制御管理装置10は、Controller Node7からVMの情報を取得するとともに、各サービスのID、IPアドレス、MACアドレス、VLAN、および帯域を含むNW制御に関わる情報を管理するデータ管理部110と、仮想化基盤に装備されているCeilometerから情報を収集するとともに、外部SW20のNW帯域量を監視し、帯域の上限設定をしていない場合、または空き帯域がある場合、VM単位の利用量に応じた帯域制限の解放または設定を行うNW制御部120と、各サービスへ割り当てる帯域量を外部SW20へ設定するためのConfig情報を生成するとともに、外部SW20へ接続し、Config投入を行う外部SW設定部130と、を備える。
 <データ管理部110>
 データ管理部110は、Open StackのController Node7から仮想化環境に生成されているVMの情報を管理する。
 データ管理部110は、データ更新確認部111と、データ受信部112と、データ比較/データ更新部113と、データ管理記憶部114と、を有する。
 データ更新確認部111は、Controller Node7にVM情報の更新が無いかを周期的に確認する。
 データ受信部112は、Controller Node7から取得したデータを受信する。
 データ比較/データ更新部113は、データ受信した情報と当該のデータ管理情報を比較する。変更のあった場合、外部SW20設定へ情報を転送するとともにデータ管理を更新する。
 データ管理記憶部114は、OVS5の処理能力値を記憶する。データ管理記憶部114は、各サービスの日時毎の利用帯域量を記憶する(図3A参照)。データ管理記憶部114は、各サービスのID、IPアドレス、MACアドレス、VLAN、帯域等NW制御に関わる情報を記憶する(図3A参照)。
 <NW制御部120>
 NW制御部120は、帯域の上限設定をしていない場合、または空き帯域がある場合、Ceilometer/外部SW20等のNW帯域量を監視し、VM単位の利用量に応じた帯域制限の解放/設定を行う。
 NW制御部120は、NW利用状況確認部121と、状況受信部122と、空き帯域量算出部123と、帯域量比較/割当可能帯域算出部124と、を有する。
 NW利用状況確認部121は、Ceilometer /外部SW20等NW帯域を管理している機能に対し、NW帯域の利用状況を周期的に確認する。
 状況受信部122は、Ceilometer等NW帯域を管理している機能から取得した状況を受信する。
 空き帯域量算出部123は、取得した利用帯域量から空き帯域量を算出する。
 帯域量比較/割当可能帯域算出部124は、データ管理の帯域情報と空き帯域量を比較する。各サービスに割り当てる帯域量を決定し、外部SW20設定へ情報を転送するとともにデータ管理を更新する。
 <外部SW設定部130>
 外部SW設定部130は、外部SW20へアクセスし、データ管理情報を基にconfig設定を行う。
 外部SW設定部130は、外部SW設定情報生成部131と、外部SW接続/設定部132と、を有する。
 外部SW設定情報生成部131は、割り当てる帯域量を外部SW20へ設定するためのConfigを生成する。
 外部SW接続/設定部132は、外部SW20へ接続し、Config投入を行う。
 図3A-Bは、データ管理記憶部114がデータベース(DB)に格納する情報の一例を示す図であり、図3Aは、各サービスの日時毎の利用帯域量を記憶するDBのレコードの一例を示し、図3Bは、各サービスのID、IPアドレス、MACアドレス、VLAN、帯域等NW制御に関わる情報のレコードの一例を示す。
 図3Aに示すように、データ管理記憶部114は、DBに日時毎に各サービスの利用帯域量を格納する。
 図3Bに示すように、データ管理記憶部114は、DBに各サービスのID、IPアドレス、MACアドレス、VLAN ID、上限帯域、割当帯域等を格納する。
 以下、上述のように構成されたネットワークシステムのネットワーク帯域制御管理方法について説明する。
 [サービス登録時の動作例]
 図4は、サービス登録時の動作例を示す図である。
 図4に示すように、NW制御管理装置10は、仮想化基盤上にサービスを登録する際に優先度をつけて登録する。図4の例では、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)にそれぞれ帯域上限設定を4Gbps、3Gbps、2Gbpsを設定している。このとき、NW制御管理装置10は、サービスD(優先度:高)を登録する(図4の符号d参照)。
 具体的には、NW制御管理装置10(図2参照)は、下記のステップを実行する。
 <ステップS1:Controller Node7からの情報収集>
 データ管理部110のデータ更新確認部111(図2参照)は、Controller Node7にVM情報の更新が無いかを周期的に確認する。データ受信部112(図2参照)は、Controller Node7から取得したデータを受信する(図4の符号e参照)。
 <ステップS2:情報をDB格納>
 データ比較/データ更新部113(図2参照)は、サービスの登録をトリガにController Node7に登録し、管理された当該サービスの情報を取得および優先度の情報をデータ管理記憶部114(図2参照)のDBに格納する。
 <ステップS3:Config情報生成>
 データ比較/データ更新部113は、データ管理記憶部114のDBを参照して、NW制御管理装置10において、取得データから当該サービスに括りつけられたVLAN、上限帯域、優先度等のNWに関する情報を外部SW20に設定するためのConfig情報を生成する。このとき、データ比較/データ更新部113は、OVS処理能力を超過しないように外部SW20の出力を設定する。
 <ステップS4:Config投入>
 外部SW設定部130の外部SW設定情報生成部131(図2参照)は、生成されたConfig情報をもとに、外部SW20の設定情報を設定する。
 <ステップS5:設定変更>
 外部SW設定部130の外部SW接続/設定部132(図2参照)は、外部SW20へ接続し、Config投入を行う(図4の符号f参照)。
 <ステップS6:設定追加>
 以上の登録動作により、図4に示すように、サービスD(優先度:高)が帯域上限1Gbpsで設定追加された。
[運用中の動作例1]
 図5は、運用中の動作例1を示す図である。
 図5の例では、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)、サービスD(優先度:高)にそれぞれ帯域上限設定を4Gbps、3Gbps、2Gbps、1Gbps、が設定されている。
 NW制御管理装置10(図2参照)は、運用中は下記のステップを実行する。
 <ステップS11:Ceilometer等でトラヒック情報収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、Ceilometer等でNW帯域を管理している機能に対し、NW帯域の利用状況を周期的に確認する。状況受信部122は、Ceilometer等でNW帯域を管理している機能から取得した状況を受信する(図5の符号g参照)。
 <ステップS12:外部SW20からトラヒック収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、外部SW20に対し、トラヒック情報を周期的に確認する。状況受信部122は、外部SW20からトラヒック情報を受信する(図5の符号h参照)。
 このように、NW制御部120は、仮想化基盤に装備されているCeilometer等および外部SW20からのNW情報を取得する機能を利用し、定期的にトラヒック情報を取得する。また、NW制御部120は、仮想化基盤のOVSの処理可能な帯域量を把握し、その上限値を持っている。
 <ステップS13:OVS能力オーバを検知、Config情報生成>
 各サービスがサービス単位に設定した上限帯域を超過しておらず、かつOVSの処理能力の上限値を超えるとパケットロスが発生する。それを回避するため、NW制御管理装置10は、その上限値を超える前に各サービスの優先度を考慮し、優先度の高いサービスは帯域確保を行い、優先度の低いサービスは、帯域を絞るようにConfig情報を作成する。
 具体的には、NW制御部120の空き帯域量算出部123(図2参照)は、取得した利用帯域量から空き帯域量を算出する。帯域量比較/割当可能帯域算出部124(図2参照)は、データ管理の帯域情報と空き帯域量を比較し、各サービスに割り当てる帯域量を決定する。
 図5の例では、優先度の高いサービスAとサービスDは帯域確保を行い(サービスAは4Gbps、サービスDは1Gbpsで帯域を変えない)、優先度の低いサービスBとサービスCは、帯域を絞る(サービスBは3Gbpsから1.7Gbpsに、またサービスCは2Gbpsから1.3Gbpsに上限帯域を削減する)。
 <ステップS14:設定変更>
 NW制御部120の帯域量比較/割当可能帯域算出部124は、外部SW20設定へ情報を転送するとともに(図5の符号i参照)、データ管理記憶部114のDBを更新する。
 また、外部SW設定部130の外部SW設定情報生成部131(図2参照)は、生成されたConfig情報をもとに、外部SW20の設定情報を設定する。
 外部SW設定部130の外部SW接続/設定部132(図2参照)は、外部SW20へ接続し、Config投入を行う。
 以上の動作により、図5に示すように、優先度の高いサービスは、上限帯域を維持し、優先度の低いサービスは、上限帯域を絞るように制御される。
 外部NW8では、優先度の高いサービスから仮想化基盤へ流入することにより、優先度の高いサービスのサービス断を回避することができる。
[運用中の動作例2]
 図6は、日常のトレンドのトラヒック量を示す図である。横軸に0時から24時の時間帯のトラヒック量のトレンドを示し、縦軸に各サービスで使用した帯域を重ねて示す。なお、図中のハッチングの表記は、図4および図5の各サービスの表記に揃えられている。
 図6に示すように、OVS5の処理能力限界は、8Gbpsであるとする。図6に示す日常のトレンドでは、0時から24時のどの時間帯であってもOVS5の処理能力を上回ることはない。ところで、図6の破線楕円囲みに示す時間帯(18時-21時)の場合、OVS5の処理能力限界8Gbpsに対して、約3Gbpsの空き帯域がある。このため、図6の矢印jに示すサービスD(優先度:高 1Gbps)の上限帯域を一時的に3Gbpsまで増加可能である。このようにすれば、優先度の高いサービスDについてよりサービスを向上させることができる。
 図7は、運用中の動作例2を示す図である。図6のトレンドのトラヒック量を把握して、運用中の動作に適用した例である。
 図7の例では、図6の場合と同様に、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)、サービスD(優先度:高)にそれぞれ帯域上限設定を4Gbps、3Gbps、2Gbps、1Gbps、が設定されている。
 <ステップS21:Ceilometer等でトラヒック情報収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、Ceilometer等でNW帯域を管理している機能に対し、NW帯域の利用状況を周期的に確認する。状況受信部122は、Ceilometer等でNW帯域を管理している機能から取得した状況を受信する(図7の符号k参照)。
 <ステップS22:外部SW20からトラヒック収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、外部SW20に対し、トラヒック情報を周期的に確認する。状況受信部122は、外部SW20からトラヒック情報を受信する(図7の符号l参照)。
 このように、NW制御部120は、仮想化基盤に装備されているCeilometer等および外部SW20からのNW情報を取得する機能を利用し、定期的にトラヒック情報を取得する。また、NW制御部120は、仮想化基盤のOVSの処理可能な帯域量を把握し、その上限値を持っている。
 <ステップS23:NWに余力があることを検知、Config情報生成>
 図6の破線楕円囲みに示す時間帯(18時-21時)のように、仮想化基盤全体のNW帯域に余力がある場合、一時的にサービスD(優先度:高)の上限帯域を1Gbpsから3Gbpsに変更するConfig情報を作成する。
 NW制御管理装置10は、外部SW20へ接続し、作成されたConfig情報に従い、外部SW20の設定変更を行う。
 <ステップS24:設定変更>
 NW制御部120の帯域量比較/割当可能帯域算出部124は、外部SW20設定へ情報を転送するとともに(図7の符号m参照)、データ管理記憶部114の情報を更新する。
 また、外部SW設定部130の外部SW設定情報生成部131(図2参照)は、生成されたConfig情報をもとに、外部SW20の設定情報を設定する。
 以上の動作により、仮想化基盤NWに余力のある場合、上限帯域を超えるサービスへ一時的に割り当てることでNWの有効活用を実現する。
[運用中の動作例3]
 図8は、図6と同じ日常のトレンドのトラヒック量を示す図である。横軸に0時から24時の時間帯のトラヒック量のトレンドを示し、縦軸に各サービスで使用した帯域を重ねて示す。
 図8の破線楕円囲みに示す時間帯(21時-24時)では、時間帯(18時-21時)に存在した約3Gbpsの空き帯域が減少傾向にある。このため、図8の矢印nに示すように、一時的に増加させていたサービスD(優先度:高 1Gbps)の上限帯域を元に戻す制御を行う。
 図9は、運用中の動作例3を示す図である。図8のトレンドのトラヒック量を把握して、一時的に増加させていたサービスの上限帯域を元に戻す制御を行う例である。
 図9の例では、サービスD(優先度:高)は、一時的に3Gbpsが設定されていた。
 <ステップS31:Ceilometer等でトラヒック情報収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、Ceilometer等でNW帯域を管理している機能に対し、NW帯域の利用状況を周期的に確認する。状況受信部122は、Ceilometer等でNW帯域を管理している機能から取得した状況を受信する(図9の符号o参照)。
 <ステップS32:外部SW20からトラヒック収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、外部SW20に対し、トラヒック情報を周期的に確認する。状況受信部122は、外部SW20からトラヒック情報を受信する(図9の符号p参照)。
 <ステップS33:NWに余力がなくなってきていることを検知、Config情報生成>
 図8の破線楕円囲みに示す時間帯(21時-24時)のように、仮想化基盤全体のNW帯域の空き帯域が減少傾向にある場合、一時的に増加していたサービスD(優先度:高)の上限帯域3Gbpsを、元の上限帯域3Gbpsに変更するConfig情報を作成する。
 NW制御管理装置10は、外部SW20へ接続し、作成されたConfig情報に従い、外部SW20の設定変更を行う。
 <ステップS34:設定変更>
 NW制御部120の帯域量比較/割当可能帯域算出部124は、外部SW20設定へ情報を転送するとともに(図9の符号q参照)、データ管理記憶部114の情報を更新する。
 また、外部SW設定部130の外部SW設定情報生成部131(図2参照)は、生成されたConfig情報をもとに、外部SW20の設定情報を設定する。
 以上の動作により、仮想化基盤NWに余力のある場合に上限帯域を超えるサービスへ一時的に割り当てていた上限帯域を元に戻すことで、OVS5の処理能力限界に上限帯域を確実に収めることができる。上限帯域を超えるサービスへ一時的に割り当てたとしてもOVS5の処理能力限界に収められるので、仮想化基盤NWの有効活用を図ることができる。
[運用中の動作例4]
 図10は、運用中の動作例4を示す図であり、サービス削除時の例を示す。
 図10の例では、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)、サービスD(優先度:高)にそれぞれ帯域上限設定を4Gbps、3Gbps、2Gbps、1Gbps、が設定されていた。このとき、サービスC(優先度:低)を削除しようとする(図10の符号r参照)。
 <ステップS41:Ceilometer等でトラヒック情報収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、Ceilometer等でNW帯域を管理している機能に対し、NW帯域の利用状況を周期的に確認する。状況受信部122は、Ceilometer等でNW帯域を管理している機能から取得した状況を受信する(図9の符号s参照)。
 NW利用状況確認部121は、NW仮想化基盤上からサービスの削除処理をトリガにControllerから削除されたサービスの情報を把握する。
 <ステップS42:外部SW20からトラヒック収集>
 NW制御部120のNW利用状況確認部121(図2参照)は、外部SW20に対し、トラヒック情報を周期的に確認する。状況受信部122は、外部SW20からトラヒック情報を受信する(図9の符号t参照)。
 <ステップS43:削除サービスの把握、Config情報生成>
 NW利用状況確認部121は、NW仮想化基盤上からサービスの削除処理をトリガにControllerから削除されたサービスの情報を把握する。
 NW制御部120(図2参照)は、削除されたサービスに括りつけられたVLAN等のNWに関する情報を削除するためのConfig情報を生成する。
 <ステップS44:設定変更>
 NW制御部120の帯域量比較/割当可能帯域算出部124は、外部SW20設定へ情報を転送するとともに(図9の符号u参照)、データ管理記憶部114の情報を更新する。
 また、外部SW設定部130の外部SW設定情報生成部131(図2参照)は、生成されたConfig情報をもとに、外部SW20の設定情報を設定する。
 <ステップS45:DBから削除>
 データ管理部110(図2参照)は、削除されたサービスの情報をデータ管理記憶部114のDBから削除する。
[帯域制御の想定パターン例]
 図11~図14を参照して帯域制御の想定パターン例を説明する。
 <パターン例1>
 図11は、OVS処理能力≧総トラヒック量、かつ、優先度が同一(すべて高または低)場合の例である。
 図11の例では、サービスA(優先度:低)、サービスB(優先度:低)、サービスC(優先度:低)、サービスD(優先度:低)で、優先度がすべて同一で「低」の場合である。OVS5の処理能力限界は、9Gbpsであり、総トラヒック量は、8Gbpsであるとする。
 OVS処理能力≧総トラヒック量、かつ、優先度が同一(すべて低)場合には、総上限流入量8GbpsはOVS5の処理能力限界9Gbpsに収まっており、帯域変更の必要がない。なお、NW帯域の余力があるとき、均等に上限値を増やすことも可能である。
 また、OVS処理能力≧総トラヒック量、かつ、優先度が同一(すべて高)場合には、総上限流入量8GbpsはOVS5の処理能力限界9Gbpsに収まっている。OVS5の処理能力限界9Gbpsまで、1Gbpsの余裕があるが、優先度が同一(すべて高)のため優先順位は付けられない。なお、NW帯域の余力があるとき、均等に上限値を増やすことも可能である。
 <パターン例2>
 図12は、OVS処理能力<総トラヒック量、かつ、優先度が同一(すべて高または低)場合の例である。
 図12の例では、サービスA(優先度:高)、サービスB(優先度:高)、サービスC(優先度:高)、サービスD(優先度:高)で、優先度がすべて同一で「高」の場合である。OVS5の処理能力限界は、9Gbpsであり、総上限流入量は、10Gbpsである。
 OVS5の処理能力9Gbpsに対して、総上限流入量が1Gbps超過しているが、各サービスの優先度は同一である。この場合、NW制御部120(図2参照)は、総トラヒック量/OVS処理能力×各サービス上限帯域とする。
 図12の例では、サービスA(優先度:高)、サービスB(優先度:高)、サービスC(優先度:高)、サービスD(優先度:高)にそれぞれ帯域上限設定を4Gbps、3Gbps、2Gbps、1Gbps、が設定されているが、各帯域上限設定をそれぞれ一律10%削減し、それぞれ帯域上限設定を3.6Gbps、2.7Gbps、1.8Gbps、0.9Gbps、に設定する(図12の符号w参照)。これにより、一律10%パケット廃棄または遅延となる。
 下記パターン例3およびパターン例4は、各サービスの優先度が同一でない場合の例である。
 <パターン例3>
 図13は、OVS処理能力≧総トラヒック量、かつ、優先度が混在の場合の例である。
 図13の例では、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)、サービスD(優先度:高)である。OVS5の処理能力限界は、9Gbpsであり、総トラヒック量は、8Gbpsである。
 図13に示すように、OVS処理能力≧総トラヒック量、かつ、優先度が混在の場合には、総トラヒック量8GbpsはOVS5の処理能力限界9Gbpsに収まっているので帯域変更を行わない(図13の符号x参照)。
 このように、OVS処理能力≧総トラヒック量、かつ、優先度が混在の場合は、帯域変更せず、各サービス上限帯域とする。
 <パターン例4>
 図14は、OVS処理能力<総トラヒック量、かつ、優先度が混在の場合の例である。
 図14の例では、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)、サービスD(優先度:高)である。OVS5の処理能力限界は、9Gbpsであり、総トラヒック量は、10Gbpsである。
 OVS処理能力<総トラヒック量、かつ、優先度が混在している場合は、優先度が高いサービスについては帯域上限設定を削減せず、その分、優先度が低いサービスについて帯域上限設定を削減する。この場合、優先度が高いサービスは帯域変更なし、優先度が低いサービスは、「低」の総流入量/残りのOVS処理能力×各サービス上限帯域とする。
 図14の例では、サービスA(優先度:高)、サービスB(優先度:低)、サービスC(優先度:低)、サービスD(優先度:高)にそれぞれ帯域上限設定を4Gbps、3Gbps、2Gbps、1Gbps、が設定されている。優先度が高いサービスは帯域変更なし、優先度が低いサービスは、下記により帯域上限設定を削減する。
 優先度「低」に割当可能な帯域は、OVS5の処理能力9Gbpsに対して優先度「高」の帯域変更なし分を差し引いた
 9-(4+1)=4Gbps
とする。このため、NW制御部120(図2参照)は、サービスB(優先度:低)、サービスC(優先度:低)の帯域上限設定の3Gbps、2Gbpsを一律20%削減し、それぞれ帯域上限設定を2.4Gbps、1.6Gbps、に設定する(図14の符号y参照)。これにより、優先度「低」に割当可能な帯域は、一律20%パケット廃棄または遅延となる。
 以上説明したように、ネットワークシステム100は、仮想化基盤と外部NW20との間に設置され、OVS5へ流入するパケットの帯域量を制御する外部SW20と、Compute Node1~3、Network Node6およびController Node7から取得した情報をもとに、仮想化基盤のサービス追加または削除をトリガとして外部SW20の帯域制御および優先制御の設定変更を行うNW制御管理装置10と、を備える。
 また、NW制御管理装置10は、Controller Node7からVMの情報を取得するとともに、各サービスのID、IPアドレス、MACアドレス、VLAN、および帯域を含むNW制御に関わる情報を管理するデータ管理部110と、仮想化基盤に装備されているCeilometerから情報を収集するとともに、外部SW20のNW帯域量を監視し、帯域の上限設定をしていない場合、または空き帯域がある場合、VM単位の利用量に応じた帯域制限の解放または設定を行うNW制御部120と、各サービスへ割り当てる帯域量を外部SW20へ設定するためのConfig情報を生成するとともに、外部SW20へ接続し、Config投入を行う外部SW設定部130を備える。
 また、NW制御管理装置10において、Compute Node1~3、Network Node6およびController Node7から取得した情報をもとに、仮想化基盤のサービス追加または削除をトリガとして外部SW20の帯域制御および優先制御の設定変更を行うステップを実行する。外部SW20において、OVS5へ流入するパケットの帯域量を制御するステップを実行する。
 従来技術(図15および図16参照)では、特に外部SW20から大量パケットが流入してくる場合、仮想化基盤全体からみると、各サービスで超過しなかったパケットがOVS5へ流入し、OVS5の処理負荷が高くなり、ボトルネックとなる。つまり、各サービスの帯域幅の上限設定以下でもパケットロスが発生する。また、優先したいパケットが外部NWから流入してもパケット破棄され、仮想化基盤上に搭載されているサービスの通信断、パケット再送による遅延が発生する。電話等のような優先度が高いサービスでもパケット廃棄されるため、サービスとして成立しなくなることになる。
 これに対して、本実施形態では、仮想化基盤のController Node7内にあるVMのID情報とMACアドレス情報またはVLAN情報やIPアドレス情報を利用し、仮想化基盤のサービス追加/削除をトリガに連動して外部SW20の帯域制御、優先制御の設定変更を行う。これにより、仮想化基盤にあるOVS5のボトルネックを解消し、優先したいパケットを処理することができる。また、高負荷時に優先的に流す必要のあるパケットが破棄されたのを防ぐことができる。
 また、仮想化基盤NWの利用状況に応じて使用帯域を変更することで、NWの有効活用を図ることができる。
 しかも、本実施形態では、上記帯域制御は自動で設定される。すなわち、従来技術のように、運用者が帯域制御を手動で設定する方法では、全サービス(VM)の帯域を考慮して運用者が設計する必要がある。また、サービスの増設/減設時にその都度設計の見直し、再設定をしなければならない。これに対して、本実施形態では、運用者による設計の見直し等を不要にしつつ、使用帯域を自動で変更して、NWの有効活用を図ることができる。
 本実施形態では、NW制御管理装置10は、取得した情報をもとに、サービスに括りつけられたVLAN、上限帯域、および優先度を含むNWに関する情報を外部SW20に設定するためのConfig情報を生成するとともに、外部SW20へ接続し、作成したConfig情報に従い、外部SW20の設定変更を行う。これにより、NW制御管理装置10は、外部SW20と連動して帯域制御、優先制御の設定変更を行うことができる。
 本実施形態では、NW制御管理装置10は、仮想化基盤のOVS5の処理可能な帯域量を把握し、その上限値を記憶するデータ記憶部114を有し、仮想化基盤に装備されているCeilometerから情報を収集するとともに、外部SW20のNW帯域量を監視して各サービスのトラヒック情報を定期的に取得し、各サービスがサービス単位に設定した上限帯域を超過しておらず、かつ、OVS5の処理能力の上限値を超える前に、各サービスの優先度が高いサービスは帯域確保を行い、優先度の低いサービスは、帯域を絞るようにConfig情報を生成する。これにより、仮想化基盤NWの利用状況を監視し、帯域上限まで利用し入るサービスと仮想化基盤NWの空き状況を考慮して、帯域制御を自動変更することができ、仮想化基盤NWの有効活用を図ることができる。特に、外部NWで優先度の高いサービスから仮想化基盤へ流入させることができ、優先度の高いサービスのサービス断を回避することができる。
 本実施形態では、NW制御管理装置10は、各サービスのトラヒック量の最繁若しくは閑散の時間、月日または曜日のトレンドを把握し、サービスが上限帯域を超過する傾向にあり、かつ、仮想化基盤全体のNW帯域に余力がある場合、一時的に当該サービスの上限帯域を変更するConfig情報を作成する。これにより、帯域上限を一時的に仮想化基盤および外部SW20の帯域制御を自動変更する機能を持たせることで、仮想化基盤NWの有効活用を図ることができる。
 また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上述文書中や図面中に示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するためのソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、IC(Integrated Circuit)カード、SD(Secure Digital)カード、光ディスク等の記録媒体に保持することができる。また、本明細書において、時系列的な処理を記述する処理ステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)をも含むものである。
 1~3 Compute Node
 4 L2スイッチL2SW(L2SW)
 5 OVS
 6 Network Node
 7 Controller Node
 10 NW制御管理装置
 20 外部SW
 100 ネットワークシステム
 110 データ管理部
 111 データ更新確認部
 112 データ受信部
 113 データ比較/データ更新部
 114 データ管理記憶部
 120 NW制御部
 121 NW利用状況確認部
 122 状況受信部
 123 空き帯域量算出部
 124 帯域量比較/割当可能帯域算出部
 130 外部SW設定部
 131 外部SW設定情報生成部
 132 外部SW接続/設定部
 VM~VM 仮想マシン(Virtual Machine)

Claims (6)

  1.  仮想化基盤上に複数のサービスが搭載され、OVS(Open Virtual Switch)に接続されるOpen Stackを構成するコンポーネントを有し、前記OVSは、外部NWから流入したパケットが、サービス単位で設定された帯域幅の上限を超過した場合、当該パケットを廃棄するネットワークシステムであって、
     前記仮想化基盤と前記外部NWとの間に設置され、前記OVSへ流入するパケットの帯域量を制御する外部SWと、
     前記コンポーネントから取得した情報をもとに、前記仮想化基盤のサービス追加または削除をトリガとして前記外部SWの帯域制御および優先制御の設定変更を行うNW制御管理装置と、を備える
     ことを特徴とするネットワークシステム。
  2.  前記NW制御管理装置は、
     取得した前記情報をもとに、前記サービスに括りつけられたVLAN(Virtual LAN)、上限帯域、および優先度を含むNWに関する情報を前記外部SWに設定するための設定情報を生成するとともに、
     前記外部SWへ接続し、作成した前記設定情報に従い、前記外部SWの設定変更を行う
     ことを特徴とする請求項1に記載のネットワークシステム。
  3.  前記NW制御管理装置は、
     前記コンポーネントを構成するコントローラノードからVM(Virtual Machine)の情報を取得するとともに、前記各サービスのID、IPアドレス、MACアドレス、VLAN、および帯域を含むNW制御に関わる情報を管理するデータ管理部と、
     前記仮想化基盤に装備されているCeilometerから情報を収集するとともに、前記外部SWのNW帯域量を監視し、帯域の上限設定をしていない場合、または空き帯域がある場合、VM単位の利用量に応じた帯域制限の解放または設定を行うNW制御部と、
     各サービスへ割り当てる帯域量を前記外部SWへ設定するための設定情報を生成するとともに、前記外部SWへ接続し、前記設定情報の投入を行う外部SW設定部と、を備える
     ことを特徴とする請求項1に記載のネットワークシステム。
  4.  前記NW制御管理装置は、
     前記仮想化基盤のOVSの処理可能な帯域量を把握し、その上限値を記憶するデータ記憶部を有し、
     前記仮想化基盤に装備されているCeilometerから情報を収集するとともに、前記外部SWのNW帯域量を監視して各サービスのトラヒック情報を定期的に取得し、
     各サービスがサービス単位に設定した上限帯域を超過しておらず、かつ、前記OVSの処理能力の上限値を超える前に、各サービスの優先度が高いサービスは帯域確保を行い、優先度の低いサービスは、上限帯域を絞るように設定情報を生成する
     ことを特徴とする請求項1に記載のネットワークシステム。
  5.  前記NW制御管理装置は、
     各サービスのトラヒック量の最繁若しくは閑散の時間、月日または曜日のトレンドを把握し、
     サービスが上限帯域を超過する傾向にあり、かつ、仮想化基盤全体のNW帯域に余力がある場合、一時的に当該サービスの上限帯域を緩めるように設定情報を作成する
     ことを特徴とする請求項4に記載のネットワークシステム。
  6.  仮想化基盤上に複数のサービスが搭載され、OVS(Open Virtual Switch)に接続されるOpenStackを構成するコンポーネントを有し、前記OVSは、外部NWから流入したパケットが、サービス単位で設定された帯域幅の上限を超過した場合、当該パケットをポリシングするネットワーク帯域制御管理方法であって、
     NW制御を行うNW制御管理装置において、
     前記コンポーネントから取得した情報をもとに、前記仮想化基盤のサービス追加または削除をトリガとして外部SWの帯域制御および優先制御の設定変更を行うステップを有し、
     前記仮想化基盤と前記外部NWとの間に設置された外部SWにおいて、
     前記OVSへ流入するパケットの帯域量を制御するステップを有する
     ことを特徴とするネットワーク帯域制御管理方法。
PCT/JP2019/022038 2018-06-04 2019-06-03 ネットワークシステムおよびネットワーク帯域制御管理方法 WO2019235442A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/734,022 US11245630B2 (en) 2018-06-04 2019-06-03 Network system and network band control management method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018106838A JP6981367B2 (ja) 2018-06-04 2018-06-04 ネットワークシステムおよびネットワーク帯域制御管理方法
JP2018-106838 2018-06-04

Publications (1)

Publication Number Publication Date
WO2019235442A1 true WO2019235442A1 (ja) 2019-12-12

Family

ID=68769921

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/022038 WO2019235442A1 (ja) 2018-06-04 2019-06-03 ネットワークシステムおよびネットワーク帯域制御管理方法

Country Status (3)

Country Link
US (1) US11245630B2 (ja)
JP (1) JP6981367B2 (ja)
WO (1) WO2019235442A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113132682A (zh) * 2020-01-15 2021-07-16 株式会社东芝 信息处理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138425A (ja) * 2014-01-23 2015-07-30 株式会社日立製作所 システムの管理サーバ及び制御方法
JP2015149577A (ja) * 2014-02-06 2015-08-20 株式会社日立製作所 帯域制御装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5714187B2 (ja) * 2011-11-15 2015-05-07 ニシラ, インコーポレイテッド ミドルボックスを備えるネットワークのアーキテクチャ
US9379973B2 (en) * 2013-02-11 2016-06-28 Cisco Technology, Inc. Binary compatible extension architecture in an openflow compliant network environment
JPWO2014208538A1 (ja) * 2013-06-25 2017-02-23 日本電気株式会社 通信システムと装置と方法とプログラム
US9699070B2 (en) * 2013-10-04 2017-07-04 Nicira, Inc. Database protocol for exchanging forwarding state with hardware switches
CN105634986B (zh) * 2014-11-30 2019-04-23 中国科学院沈阳自动化研究所 一种交换机实现方法与系统
US10536357B2 (en) * 2015-06-05 2020-01-14 Cisco Technology, Inc. Late data detection in data center
US10536355B1 (en) * 2015-06-17 2020-01-14 EMC IP Holding Company LLC Monitoring and analytics system
CN106936715B (zh) * 2015-12-31 2019-06-07 新华三技术有限公司 虚拟机报文控制方法及装置
US10257100B2 (en) * 2016-05-04 2019-04-09 University of Conneticut Enabling resilient microgrid through ultra-fast programmable network
US20180109471A1 (en) * 2016-10-13 2018-04-19 Alcatel-Lucent Usa Inc. Generalized packet processing offload in a datacenter
US20180123911A1 (en) * 2016-10-27 2018-05-03 Hewlett Packard Enterprise Development Lp Verify service level agreement compliance of network function chains based on a stateful forwarding graph
WO2018203108A1 (en) * 2017-05-04 2018-11-08 Telefonaktiebolaget Lm Ericsson (Publ) Efficient troubleshooting in openflow switches
US10536379B2 (en) * 2017-09-28 2020-01-14 Argela Yazilim Ve Bilisim Teknolojileri San Ve Tic. A.S. System and method for control traffic reduction between SDN controller and switch
WO2019076471A1 (en) * 2017-10-20 2019-04-25 Telefonaktiebolaget Lm Ericsson (Publ) SECURITY ENFORCEMENT FOR VIRTUAL BRIDGES
US10541928B2 (en) * 2018-01-18 2020-01-21 Vmware, Inc. Policy aware framework for application input output management

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138425A (ja) * 2014-01-23 2015-07-30 株式会社日立製作所 システムの管理サーバ及び制御方法
JP2015149577A (ja) * 2014-02-06 2015-08-20 株式会社日立製作所 帯域制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113132682A (zh) * 2020-01-15 2021-07-16 株式会社东芝 信息处理装置

Also Published As

Publication number Publication date
US20210234802A1 (en) 2021-07-29
JP6981367B2 (ja) 2021-12-15
US11245630B2 (en) 2022-02-08
JP2019213026A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
US10805235B2 (en) Distributed application framework for prioritizing network traffic using application priority awareness
JP6096325B2 (ja) シンキングDiameterネットワークアーキテクチャを提供するための方法、システム、およびコンピュータ読取可能媒体
US8670310B2 (en) Dynamic balancing priority queue assignments for quality-of-service network flows
WO2018086569A1 (zh) 一种基于虚拟网络的应用感知的动态sdn配置方法
EP1851921B1 (en) Admission control and routing in a telecommunications network based on the consideration of all physical and logical links
EP1573966B1 (en) Adaptive classification of network traffic
WO2016015559A1 (zh) 云化数据中心网络的承载资源分配方法、装置及系统
JP7288980B2 (ja) 仮想サービスネットワークにおけるサービス品質
US20040153545A1 (en) Software, systems and methods for managing a distributed network
US9660932B2 (en) Scheduling for flows in a point-to-multipoint communications network
JP2006129213A (ja) パケット通信装置
CN103109505A (zh) 用于应用-传输网络中的交错层级优化的方法和系统
US20140029427A1 (en) Method for operating an openflow switch within a network, an openflow switch and a network
SE524696C2 (sv) Metod, datorprogramprodukt och arrangemang för att allokera nätresurser inuti ett IP-nät
KR20170033179A (ko) 소프트웨어 정의 네트워크 기반 가상 네트워크 사용 대역폭 관리 방법 및 가상 네트워크 관리장치
Skulysh et al. Managing the process of servicing hybrid telecommunications services. Quality control and interaction procedure of service subsystems
Volpato et al. An autonomic QoS management architecture for software-defined networking environments
WO2019235442A1 (ja) ネットワークシステムおよびネットワーク帯域制御管理方法
Mahajan et al. Managing QoS for multimedia applications in the differentiated services environment
CN111970149A (zh) 一种基于硬件防火墙qos的共享带宽实现方法
JP6292128B2 (ja) 通信システム、ノード、制御装置、通信方法およびプログラム
Thazin et al. End-to-end dynamic bandwidth resource allocation based on QoS demand in SDN
US6778523B1 (en) Connectionless oriented communications network
Takahashi et al. A programming interface for network resource management
CN116250223A (zh) 使用两层强化学习模型的边缘集群的过载保护

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19815811

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19815811

Country of ref document: EP

Kind code of ref document: A1