WO2017171011A1 - 通信システムと機能配備装置と機能配備方法並びにプログラム - Google Patents

通信システムと機能配備装置と機能配備方法並びにプログラム Download PDF

Info

Publication number
WO2017171011A1
WO2017171011A1 PCT/JP2017/013618 JP2017013618W WO2017171011A1 WO 2017171011 A1 WO2017171011 A1 WO 2017171011A1 JP 2017013618 W JP2017013618 W JP 2017013618W WO 2017171011 A1 WO2017171011 A1 WO 2017171011A1
Authority
WO
WIPO (PCT)
Prior art keywords
redeployment
function
network
network function
traffic
Prior art date
Application number
PCT/JP2017/013618
Other languages
English (en)
French (fr)
Inventor
紘也 金子
鈴木 一哉
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2017171011A1 publication Critical patent/WO2017171011A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]

Definitions

  • the present invention is based on a Japanese patent application: Japanese Patent Application No. 2016-072768 (filed on Mar. 31, 2016), and the entire contents of the application are incorporated herein by reference.
  • the present invention relates to a communication system, a function deployment device, a function deployment method, and a program.
  • a cloud service provider installs a server in a data center or the like, and enables a user to use a virtual server, a data storage area, an application, and the like through a network.
  • network virtualization technologies technologies such as SDN (Software Defined Network) / NFV (Network Functions Virtualization) have been attracting attention.
  • network devices and the like are realized by software on a virtual machine (Virtual Machine: VM) mounted on a virtual layer (Virtualization Layer) such as a hypervisor (Hypervisor).
  • VM Virtual Machine
  • Virtualization Layer Virtualization Layer
  • hypervisor Hypervisor
  • NFV Network Functions Virtualization
  • MANO Management & Orchestration
  • the network function can be aggregated as a virtual network function (virtual network function) in a data center or the like by NFV or the like, and can be operated as a cloud service.
  • vCPE virtual customer pre-equipment: vCPE
  • CPE Customer-Premises Equipment
  • tenant site for example, a router
  • vCPE is a network device such as a router, security device (security appliance), NAT (Network Address Translation), etc., which is implemented on a server V based on a function that is based on a network V based on a function of ETSI (European Telecommunications Standards) NFV framework. It is.
  • the tenant site is connected to, for example, a vCPE on a carrier cloud via a wide area network (WAN) without having a CPE at its own site, and is connected to the vCPE via the wide area network.
  • WAN wide area network
  • the carrier cloud is a cloud service provided by a carrier (communication carrier) and provides a cloud platform such as a data center, a server, and an application, and a network integrally.
  • a firewall prevents unauthorized access from an external network such as the Internet to an internal network such as an in-house network.
  • the firewall installed on the tenant site side is operated including the purpose of controlling unwanted communication from the tenant site side to the outside, for example.
  • the firewall monitors the destination IP (Internet Protocol) address and port number of the communication, and accepts (ACCEPT), discards (DROP), rejects (REJECT) the communication based on preset conditions.
  • the communication is controlled by the operation of.
  • the firewall may be configured to reject traffic generated from the outside and permit return traffic of the traffic generated from the inside to the outside.
  • the stateful packet inspection type firewall stores the SYN (Synchronization) flag of the TCP (Transmission Control Protocol) header, the handshake state of the ACK (Acknowledgement: positive) flag, etc., and stores the SYN / Discard the ACK packet.
  • IPS Intrusion Prevention System
  • IPS is an intrusion prevention system that detects and notifies malicious traffic such as unauthorized access, discards a packet corresponding to unauthorized access by referring to a signature, and disconnects and protects a session.
  • packet transfer paths are controlled for a plurality of network functions and the like arranged as virtual machines (VMs) on the server by virtualization. Even if a plurality of virtualized network functions are stored in different servers, the network functions necessary for the user can be provided.
  • VMs virtual machines
  • FIG. 1A is a diagram schematically illustrating an example in which a network device (for example, CPE) at a base (for example, a site of a tenant who is a customer of a carrier cloud) is implemented as a virtual network function on a server of the carrier cloud. is there.
  • the bases (sites) A and B are connected for communication via a wide area network (wide area network) 30.
  • the bases A and B may be data centers or the like.
  • each of the bases A and B may have a configuration (multi-tenant site) including a plurality of tenants (multi-tenant).
  • two bases facing each other through the wide area network 30 are illustrated, but it goes without saying that the number of bases is not limited to two.
  • the communication function (FW, IPS) performed by the base apparatus 10 at the base A in FIG. 1 (A) is replaced with the virtualization function (virtual FW: vFW) on the server of the carrier cloud 40.
  • Virtual IPS (vIPS) Virtual IPS
  • the base device 10 of the base A provides only the tunnel function up to the carrier cloud 40, for example.
  • the service chain (VNF transfer graph) is as follows.
  • the service chain is a directed graph, and the service from the base device 20 connected to the tenant B of the base B to the base device 10 of the base A is another service chain.
  • FIG. 2 is a diagram illustrating an example of FIG. A PE router on the MPLS network for transferring packets from, for example, a CE router (Customer Edge Router) or gateway of the base device 10 on the wide area network 30 including a MPLS (Multi Protocol Label Switching) network constructed by the carrier.
  • (Provider Edge Router) 31 sees the destination IP address, adds an MPLS label and encapsulates it, forwards the packet / frame based on the label, and PE router 32 removes the label and gateway (GW: data center gateway, for example) ) 41.
  • GW data center gateway
  • the packet / frame is transmitted through the hypervisor (HV) 43, the virtual switch (vSwitch), or the virtual network (VFirewall) of the server device 42 that provides the cloud service, and the virtual IPS (vIPS).
  • HV hypervisor
  • vSwitch virtual switch
  • VFirewall virtual network
  • vIPS virtual IPS
  • the packet / frame is transferred from the gateway (GW) 41 to the PE router 33, added with a label by the PE router 33, transferred to the PE router 34 in the MPLS network, and removed from the label by the PE router 34.
  • B base station 20 is transmitted.
  • a tunnel LSP Label Switched Path
  • the P router (Provider Router) between the PE routers 31 and 32 and the P router between the PE routers 33 and 34 are omitted.
  • a configuration may be adopted in which a gateway on the entrance side and a gateway on the exit side are separately provided for the server device 42.
  • the packet is discarded (DROP) or rejected (REJECT), and is not transmitted to the outside (the wide area network 30). That is, this type of FW reduces traffic (number of packets, number of bytes) transmitted from the base A to the wide area network 30.
  • the communication amount of the wide area network 30 between the base device 10 and the carrier cloud 40 increases as compared with the case where the FW is deployed at the base A as shown in FIG. .
  • the traffic and traffic of the wide area network 30 between the base device 10 and the carrier cloud 40 increase.
  • An increase in network load leads to a decrease in network performance, and for example, it may be difficult to realize the communication speed, quality, etc. guaranteed to the customer by SLA (Service Level Agreement).
  • SLA Service Level Agreement
  • Patent Document 1 discloses a service chain management system that realizes control of throughput performance of a service chain in accordance with dynamically changing traffic volume.
  • An increase / decrease in the number is calculated, a delay time is calculated from the increase / decrease in the number of scales, and a control schedule in which the increase / decrease timing of the scale number is set based on the delay time is generated.
  • Patent Document 2 as a method of deploying a virtual machine on a suitable server based on service chain information, when optimal placement of virtual machines is performed based on information on all service chain patterns, calculation of optimum placement calculation is performed. Because the volume is so large that it is almost impossible to calculate the optimal arrangement for all service chains, even in a large-scale network such as a carrier network, the amount of computation that can be scaled and the bandwidth and delay as a whole are optimal as much as possible It is described that it is necessary to consider an arrangement method that makes the arrangement of virtual machines close to. In Patent Document 2, when the same pattern appears frequently in the VNF list constituting the service function chain (SFC), the frequently occurring pattern is operated on the same physical machine to reduce the bandwidth on the network. A technique is disclosed.
  • SFC service function chain
  • a virtual switch executed on a microprocessor is associated with a plurality of virtual functions (VF), and each virtual function (VF) is a virtual interface (VI) space.
  • VF virtual function
  • VI virtual interface
  • a virtual machine and a virtual connection necessary for a requested network function virtualization service are calculated, and the virtual machine and the computer node are calculated based on the computer resource amount and the network resource amount.
  • a network function virtualization infrastructure management system that searches for a housing relationship and constructs the virtual machine and the virtual connection on a physical infrastructure is disclosed.
  • a set of servers that distribute each content is derived as an optimization problem (RPA: Replicaca Placement Algorithm) such as minimizing the average number of hops in the distribution flow.
  • RPA Replicaca Placement Algorithm
  • the bandwidth control device transmits the total amount of packets received by the bandwidth control device as being transmitted to the corresponding device (the number of packets per fixed time). And the total amount of packets received by the bandwidth control device addressed to individual virtual nodes.
  • Patent Document 7 discloses a distributed denial-of-service attack prevention method in which firewall rules are propagated autonomously in a distributed manner in order to protect against a DDoS (Distributed Denial of Service attack) attack.
  • This method generates a suspect signature that identifies the detected attack suspect packet and transmits it to an upstream communication device when communication traffic detects traffic that matches a predetermined attack suspect packet detection condition. And limiting the transmission bandwidth of the attack suspect packet identified by the suspect signature, and the communication device transmits the suspect signature received from the downstream device to the upstream communication device and is identified by the suspect signature. Performs processing to limit the transmission bandwidth of suspected attack packets.
  • DDoS Distributed Denial of Service attack
  • a network device such as a firewall (FW) that is deployed on the tenant site is implemented as a virtual network function (VNF) on the carrier cloud side
  • VNF virtual network function
  • the network device such as the FW is installed on the tenant site.
  • the traffic that is transferred from the tenant site to the carrier cloud via the wide area network increases due to the lack.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a system, apparatus, method, and program that enable optimal deployment of network functions constituting a service chain.
  • Second means for redeploying the means (apparatus, unit) and the network function to be redeployed upstream from the current deployment position while maintaining the dependency relationship between the functions in the service chain Is provided (first aspect).
  • At least one network function that contributes to traffic reduction is determined as a redeployment target.
  • a function deployment device is provided (second aspect).
  • At least one network function that contributes to traffic reduction is determined as a redeployment target based on a measurement result of traffic of one or more network functions constituting a service chain.
  • a process of determining at least one network function that contributes to traffic reduction as a redeployment target based on a measurement result of traffic of one or more network functions constituting a service chain There is provided a program for causing a computer to execute a process of redeploying a network function to be redeployed upstream from a current deployment position while maintaining a dependency relationship between functions in the service chain.
  • a computer-readable recording medium for example, a non-transitory computer computer readable recording medium such as a magnetic / optical recording medium or a semiconductor storage device
  • FIG. 5 is a diagram illustrating one embodiment of the present invention.
  • (A), (B) is a figure explaining a comparative example and this invention. It is a figure explaining the 1st form of this invention. It is a flowchart explaining the 1st Embodiment of this invention. It is a figure explaining an example of the 1st Embodiment of this invention. It is a figure explaining an example of the live migration in the 1st Embodiment of this invention. It is a figure explaining the 2nd Embodiment of this invention. It is a figure explaining an example of the 2nd Embodiment of this invention.
  • (A), (B) is a figure explaining the 3rd Embodiment of this invention.
  • (A), (B) is a figure explaining the 3rd Embodiment of this invention. It is a figure explaining another example of the 4th Embodiment of this invention. It is a figure explaining the 5th Embodiment of this invention. It is a figure explaining the 5th Embodiment of this invention. It is a figure explaining the 5th Embodiment of this invention. It is a figure explaining one form (basic concept) of the present invention.
  • FIG. 17 is a diagram for explaining the basic concept of the present invention.
  • a function deployment device 1 includes a storage unit 4 that stores traffic measurement results of network functions that constitute a service chain, and a redeployment function determination unit (device, unit) 2 ( And at least a redeployment means (apparatus, unit) 3 (corresponding to the “second means” of the first and second side surfaces).
  • the redeployment function determination means (unit) 2 refers to the storage unit 4 and is based on the measurement result of traffic of one or a plurality of network functions constituting the service chain, and is effective for at least one network that is effective in reducing traffic.
  • the redeployment unit (unit) 3 redeploys the network function to be redeployed to a redeployment destination located upstream from the current deployment position while maintaining the dependency relationship between the functions in the service chain. According to one aspect of the present invention having such a configuration, it is possible to optimally deploy network functions that constitute a service chain.
  • the redeployment function determining unit (unit) 2 and the redeployment unit (unit) 3 in FIG. 17 are, for example, the redeployment VNF / redeployment destination calculation unit 114 and the VNF redeployment in FIG.
  • the storage unit 4 in FIG. 17 can also correspond to the storage unit 113 in FIG.
  • the redeployment function determining unit (unit) 2 and the redeployment unit (unit) 3 realize the processing by a program executed by a processor (CPU (Central Processing Unit)) constituting the function deployment device 1. You may do it.
  • the program is read from a computer-readable medium (semiconductor memory, HDD (Hard Disk Drive), etc.) such as the storage unit 4 storing the program, and each process is executed by the processor constituting the function deployment device 1.
  • the function deployment device 1 may be configured by a computer device having a communication function (communication interface).
  • the redeployment unit (unit) 3 verifies whether or not the redeployment destination has a resource margin sufficient to accommodate the network function to be redeployed.
  • the network function to be redeployed may be configured to be redeployed to the deployment destination when there is a resource margin at the redeployment destination.
  • a base device for example, 10 in FIG. 5 (traffic flow source (Source)) forming the end point (Edge Point) of the service chain is connected to a wide area network (wide area network 30 in FIG. 5).
  • the re-deployment function determining means (unit) 2 measures traffic with respect to one or a plurality of network functions constituting the service chain and deployed on the cloud (carrier cloud 40 in FIG. 5). It is good also as a structure.
  • the redeployment means (unit) 3 moves the network function to be redeployed from the cloud (40 in FIG. 5) to a predetermined node of the wide area network (30 in FIG. 5), or The base device (10 in FIG. 5) that forms the end point may be moved.
  • the redeployment unit (unit) 3 applies the network function to be redeployed to a hardware device of a predetermined node (for example, 35 in FIG. 9) of the wide area network (30 in FIG. 5). It may be configured to be offloaded. Or it is good also as a structure offloaded to the hardware equipment of nodes, such as a data center connected to the end point (10 of FIG. 5) of the said service chain, or the network between bases (the said wide area network (30 of FIG. 5)).
  • the redeployment function determining means (unit) 2 preferentially selects the network function having a high traffic reduction rate when determining the network function to be redeployed based on the traffic measurement result. It is good also as a structure selected as.
  • the redeployment function determining means (unit) 2 may be configured to select the redeployment target in order from the network function having the highest traffic reduction rate across one or a plurality of service chains. . At that time, for example, network functions equal to or less than the number that can be accommodated at the end point (10 in FIG. 5) of the service chain that is the redeployment destination are selected.
  • the redeployment function determining means (unit) 2 determines the network function to be redeployed based on the traffic measurement result for each service chain in the depth direction (service chain A configuration in which the cumulative reduction rate of traffic is obtained by searching in the direction of the directed graph, that is, the direction of traffic in the service chain), and the network function to be redeployed is determined in consideration of the cumulative reduction rate of traffic of multiple network functions It is good.
  • the redeployment function determination means (unit) 2 determines the network function to be redeployed based on the cumulative reduction rate of the network function traffic for each service chain and the traffic reduction rate of the network function alone. A configuration may be selected. At that time, for example, it is possible to select a function equal to or less than the number that can be accommodated at the end point (10 in FIG. 5) of the service chain that is the redeployment destination.
  • the redeployment function determining unit (unit) 2 divides the network function into a plurality of units, determines the redeployment target in the divided unit, and the redeployment unit (unit) 3 A configuration may be adopted in which network functions are divided and redeployed upstream from the current deployment position of the network functions.
  • FIG. 3 is a diagram for schematically explaining one embodiment of the present invention.
  • VNFs vFW, vIPS, etc.
  • functions such as the firewall (FW) and IPS of the site A are virtualized by server virtualization technology are provided on the carrier cloud 40 (initially deployed).
  • the base device 10 at the base A may be configured by a general-purpose server or the like.
  • the base device 10 can deploy a VNF by using a server virtualization technology (even if a VNF such as vFW is deployed, it has sufficient resources to ensure required communication performance and quality).
  • the base device 10 of the base A and the carrier cloud 40 are connected via a tunnel on the wide area network 30. At both ends of the tunnel, for example, tunnel gateways (not shown) that serve as gateways of packets to the tunnel are arranged.
  • the packets are encapsulated at the tunnel entrance, decapsulated at the tunnel exit, and transferred back to the original packet.
  • At least one VNF having a large traffic reduction effect is deployed, for example, in the traffic upstream (the server that is the base unit 10 of the base A). By doing so, the amount of traffic transmitted from the base device 10 to the wide area network 30 is reduced.
  • the measurement based on the actual traffic is performed, and the traffic reduction effect of the VNF under the actual operation state is measured.
  • the VNF having a high traffic reduction effect is preferentially moved to the redeployment destination (for example, the base device 10 upstream of the traffic) by the live migration or the like.
  • the vFW having a high traffic reduction effect is determined as the redeployment target among the VNFs deployed on the server of the carrier cloud 40, and the base A that is the redeployment destination For example, live migration or the like.
  • the total amount of traffic passing through the tunnel on the wide area network 30 from the base device 10 to the carrier cloud 40 can be reduced.
  • a VNF having a high traffic reduction effect may be selected as a redeployment target based on a traffic measurement result in an actual operation state.
  • the actual traffic generation source for example, the base A
  • FIGS. 4A and 4B are diagrams for comparing the comparative example with one embodiment of the present invention, respectively.
  • the server general-purpose server or the like
  • the number of VNFs that can be allocated in the server of the base device 10 the amount of resources that can be allocated (CPU (Central Processing Unit), RAM (Random Access Memory) memory capacity, HDD (Hard Disk Drive) storage capacity), etc.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • FIG. 4A is a diagram schematically illustrating an example in which it is difficult to derive a VNF redeployment destination as a comparative example.
  • the resource constraint can accommodate two VNFs on the base device 10.
  • FIGS. 4A and 4B a network between multi-tenant bases is illustrated for ease of explanation.
  • the VNFs on the carrier cloud 40 server are preferentially deployed on the server of the base device 10 from the VNFs of the service chain with the large required bandwidth.
  • the virtual firewalls (vFW2, 3) of the service chains 2 and 3 with a bandwidth request of 100 Mbps (Mega bits per second) are redeployed from the carrier cloud 40 onto the server of the base device 10,
  • the virtual firewall (vFW1) of the service chain 1 is left on the carrier cloud 40.
  • the traffic reduction rate by the virtual firewall (vFW2, 3) moved to the server of the base device 10 is 10%
  • the traffic reduction rate by the virtual firewall (vFW1) on the carrier cloud 40 is 90%. %.
  • 50 + 90 + 90 230 Mb is transferred from the base unit 10 to the wide area network by combining the service chains 1, 2, and 3 (simple addition).
  • the virtual firewall (vFW1) of the service chain 1 having a large traffic reduction rate is preferentially moved onto the server of the base device 10.
  • the virtual firewall (vFW2) of the service chain 2 is moved to the server of the base device 10
  • 100 Mb per second is input to the vFW 2
  • 90 Mb is transmitted from the vFW 2 to the wide area network.
  • 5 + 90 + 100 195 Mb is transferred from the base apparatus 10 to the wide area network.
  • the traffic amount transferred from the base apparatus 10 to the wide area network in the entire service chains 1, 2, and 3 is (195/230) ⁇ 100 ⁇ 84.7 in the case of FIG. 4A. %. That is, the traffic reduction ratio is about 15.3%.
  • the traffic reduction rate is measured based on the traffic (number of transfer bits) has been described. However, the traffic reduction rate may be measured based on the traffic number (number of packets). Of course it is good.
  • FIG. 5 is a diagram for explaining the first embodiment of the present invention.
  • the measurement device 44 measures the traffic reduction effect of each VNF based on actual traffic after the VNFs constituting the service chain are deployed in the carrier cloud 40.
  • the measuring device 44 measures, for example, traffic (number of packets, number of bits) at the entrance and exit of the VNF, and calculates a traffic reduction rate.
  • the redeployment control device 45 dynamically determines the optimum placement destination (redeployment destination) of the VNF based on the measurement result of the traffic reduction effect by the measurement device 44.
  • the redeployment control device 45 can correspond to the redeployment function determining means (unit) 2 and the redeployment means (unit) 3 of FIG.
  • a management device or a controller (not shown) other than the redeployment control device 45 (for example, NFV-MANO or SDN controller) is installed at the deployment destination determined by the redeployment control device 45.
  • VNF migration may be executed.
  • the measuring device 44 may be mounted on a hypervisor on a server of the carrier cloud 40, for example.
  • the redeployment control device 45 may be mounted on a hypervisor on the server of the carrier cloud 40, or may be mounted as an application that operates on a virtual machine on the server. Alternatively, the redeployment control device 45 may be mounted on a server or the like different from the server that operates the VNF in the carrier cloud 40.
  • the controller or the like that controls the migration of the VNF to the deployment destination may be mounted on a node different from the server of the carrier cloud 40, or in a higher layer controller or manager.
  • the measurement device 44 measures the actual traffic flow (communication volume) of the VNF, and the deployment destination control device 45 migrates to the base device 10 in descending order of the traffic reduction effect. You may make it do.
  • VNF1 is selected as a redeployment target
  • VNF1 on the carrier cloud 40 is selected as a base device as indicated by an arrow. Migrating to 10 servers.
  • each base has a multi-tenant configuration, but it is needless to say that there may be one tenant.
  • FIG. 6 is a flowchart for explaining the first embodiment of the present invention. The operation of the first embodiment of the present invention will be described with reference to FIG.
  • step S1 On the basis of the service chain configuration information, all VNFs constituting the service chain are deployed on the carrier cloud server (step S1).
  • the measurement device 44 measures the traffic reduction effect of the VNF deployed on the carrier cloud server based on the actual traffic (step S2).
  • the redeployment control device 45 determines a VNF to be redeployed based on the measurement result of the traffic reduction effect among the VNFs deployed on the carrier cloud server (step S3). At that time, even if the deployment destination is moved upstream, VNFs having no problem in dependency in the service chain are redeployed. For example, in the service chain, when there is a restriction that the second VNF is premised on the completion of processing in the first VNF, the second VNF cannot be redeployed upstream of the first VNF. On the other hand, the first VNF can be redeployed to the end point (base device) of the service chain upstream from the current deployment position while maintaining the dependency relationship with the second VNF.
  • the redeployment control device 45 searches for the deployment destination of the VNF to be redeployed (step S4).
  • the redeployment control device 45 calculates a resource required by the VNF, and searches for a place where it can be deployed from a device upstream of the service chain (for example, a server device of the base device).
  • step S5 When redeployment of VNF is possible (Yes in step S5), the redeployment control device 45 performs redeployment to the deployment destination of the VNF on the carrier cloud server (step S6).
  • the redeployment control device 45 changes the placement destination by a technique that does not cause a live migration or other communication interruption. If a location where deployment is possible has not been found, step S6 is not executed and the process skips to step S7.
  • the redeployment control device 45 returns to step S4 (No in step S7) and repeats steps S4 to S7 until the redeployment of the VNF to be redeployed is completed (Yes in step S7).
  • step S3 the redeployment control device 45 selects, for example, the Greedy method (greedy method: solving the optimization problem, by selecting the partial decomposition with the greatest profit at each stage of the calculation, and combining those partial decompositions. Or the like, and the migration may be executed sequentially.
  • Greedy method greyedy method: solving the optimization problem, by selecting the partial decomposition with the greatest profit at each stage of the calculation, and combining those partial decompositions. Or the like, and the migration may be executed sequentially.
  • FIG. 7 is a diagram for explaining an example of a device configuration for controlling VNF deployment according to the first embodiment of the present invention.
  • the VNF deployment control apparatus 100 performs initial deployment of each VNF constituting the service chain on the carrier cloud server, and selects and selects the VNF to be redeployed from the initially deployed VNFs. The deployed VNF is redeployed to the deployment destination device 120.
  • the VNF deployment control device 100 includes a storage unit (device performance information storage unit) 101 that stores device performance information of a server device (for example, the server of the base device 10 in FIG. 5), and a storage unit (VNF) that stores VNF deployment destination information.
  • the redeployment control device 110 (corresponding to the redeployment control device 45 in FIG. 5) that controls the redeployment of the VNF includes a VNF statistical information measurement unit 115, a VNF consumption resource calculation unit 112, and a redeployment VNF / redeployment destination calculation.
  • the deployment destination device 120 is a server device of the base device 10 serving as an end point of the service chain, or a node of a wide area network (30 of FIG. 5) upstream of the carrier cloud (40 of FIG. 5) in the service chain. Server device or the like.
  • the service chain information in the storage unit 103 is, for example, A list of VNFs constituting the service chain (VNFs on the packet transfer path), ⁇ SLA (Service Level Agreement) of the service chain, -Including identification information (Ingress / Egress endpoint ID) of traffic entry / exit endpoints.
  • the SLA defines service quality guarantee items such as a minimum communication speed and processing performance, and an annual upper limit of unavailable time due to failure or maintenance.
  • the VNF initial deployment unit 104 refers to the service chain information and the device performance information stored in the storage unit 101, and initially deploys the VNF of each service chain to the server device (including a plurality) of the carrier cloud. To do.
  • the VNF initial deployment unit 104 stores the VNF deployment result in the storage unit 102 as VNF deployment destination information. At that time, the VNF initial deployment unit 104 stores the service chain ID and deployment destination information for each VNF in the service chain.
  • the VNF initial deployment unit 104 initially deploys VNF to the initial deployment destination device (server) 130.
  • the on-board VNF package (on-Board pack) from the requesting VNF initial deployment unit 104 to the NFV Orchestrator (NFV Orchestrator: NFVO) of NFV-MANO (NFV Management Orchestration)
  • NFV Orchestrator NFV Orchestrator: NFVO
  • NFV-MANO NFV Management Orchestration
  • the initial deployment destination apparatus 130 Upon receiving the instruction from the VNF initial deployment unit 104, the initial deployment destination apparatus 130 (for example, the server of the carrier cloud 40 in FIG. 5 or the server apparatus 42 in FIG. 2) deploys the instructed VNF. For example, under the control of the NFV orchestrator of the on-board VNF package NFV-MANO, a VNF instance is generated in NFVI (Network Functions Virtualization Infrastructure) that is a virtualization platform on the server.
  • NFVI Network Functions Virtualization Infrastructure
  • the VNF statistical information measurement unit 115 measures statistical information such as the traffic volume of VNF deployed on the server (carrier cloud 40 server) of the initial deployment destination apparatus 130 and the traffic reduction rate.
  • the VNF statistical information measurement unit 115 measures, for example, VNF identification information, the Ingress communication amount (inlet communication amount) and the Egress communication amount (exit communication amount) of the target VNF, and stores them in the storage unit 113 as VNF statistical information.
  • the VNF consumption resource calculation unit 112 includes the required performance information of the VNF stored in the storage unit 111 and the resources (for example, the number of virtual CPUs and the virtual memory capacity) required by the VNF that can be arranged on the server of the base device 10. And the like are supplied to the redeployment VNF / redeployment destination calculation unit 114.
  • the VNF consumption resource calculation unit 112 calculates the CPU usage rate using a predetermined calculation formula for the CPU usage rate related to the virtual software, for example, for the VNF. Further, the VNF consumption resource calculation unit 112 may calculate the usage rate of virtual memory, the average time of virtual storage transfer processing, the storage free capacity, the average packet transmission amount, the reception amount, and the like.
  • the redeployment VNF / redeployment destination calculation unit 114 refers to the VNF statistical information and selects, for example, a VNF having a high traffic reduction effect as a redeployment target. Further, the redeployment VNF / redeployment destination calculation unit 114 obtains the redeployment destination of the selected redeployment target VNF.
  • the redeployment VNF / redeployment destination calculation unit 114 for example, resources required by the VNF to satisfy SLA (communication speed, quality, etc.) and device performance information (for example, the base device 10) Server performance information), the VNF relocation destination information stored in the storage unit 102 is referred to, the VNF redeployment destination is calculated, and the redeployment destination of the VNF to be redeployed (for example, the server of the base device 10) Store in the storage unit 117.
  • the VNF redeployment unit 116 instructs the deployment destination device 120 to redeploy the redeployment target VNF stored in the storage unit 117.
  • the deployment destination device 120 refers to the VNF redeployment destination information stored in the storage unit 117 and sends the VNF from the initial deployment destination device 130 to the deployment destination device 120 (for example, the server of the base device 10 in FIG. 5). Redeploy VNF.
  • Each storage unit such as the storage units 111 and 113 may be configured by an individual storage device (for example, HDD: Hard Disk Drive) or a single storage device.
  • FIG. 8 is a diagram illustrating an example of redeployment of VNF by NFV-MANO.
  • the NFV-MANO NFV orchestrator performs orchestration of NFVI (Network Functions Virtualization Infrastructure) resources, lifecycle management of network services (NS) instances, and the like.
  • a VNF manager (VNF Manager) performs life cycle management of VNF instances.
  • a virtualized infrastructure manager (VIM) is a server NFVI (Network Function Infrastructure) computing, storage, network resource management, NFVI fault monitoring, etc.
  • the redeployment instruction from the redeployment control device 110 in FIG. 7 is transmitted to the NFV-MANO NFV orchestrator (step S11 in FIG. 8).
  • the redeployment instruction may be transmitted to the NFV orchestrator from an OSS / BSS, a maintenance terminal (connected to the redeployment control device 110 in FIG. 7), or the like.
  • OSS Operations Support Systems
  • BSS Business Support Systems
  • BSS Business Support Systems
  • the relocation instruction of VNF1 is transmitted from the NFV orchestrator to the VIM (step S12 in FIG. 8). Note that the relocation instruction of VNF1 from the NFV orchestrator may be transmitted to the VIM via the VNFM.
  • the VIM instructs the VNF 1 on the NFVI 1 on the server 1 (for example, the server of the carrier cloud 40) to perform live migration on the NFVI 2 of the server 2 (step S13 in FIG. 8).
  • VNF1 is transferred onto NFVI2 of server 2 (step S14 in FIG. 8).
  • live migration a virtual machine moves between servers, and the contents of memory and the like are transferred to the destination. It is assumed that the destination server device has sufficient hardware resources such as processor performance and memory capacity. Further, since the virtual machine exercises the execution right of the destination server at the destination server, it is assumed that the execution right is secured at the destination server.
  • the VIM receives a live my migration completion notification from the VNF 1 that has moved onto the NFVI 2 of the server 2 (step S15 in FIG. 8).
  • VIM transmits a live my migration completion notification to the NFV orchestrator (step S16 in FIG. 8).
  • the NFV orchestrator returns a notification of completion of redeployment of VNF1 to the deployment control device (step S17 in FIG. 8).
  • the VNF of each service chain initially arranged in the carrier cloud 40 is based on the measured value of traffic of each VNF, for example, from the VNF having a high degree of contribution to traffic reduction in a wide area network,
  • FIG. 9 is a diagram for explaining a second embodiment of the present invention.
  • the function of the VNF is offloaded to a hardware device that can process the function.
  • a hardware device For example, a wide area network 30, a firewall (FW) in a data center connected to the wide area network 30, an IDS (Intrusion Detection System) that monitors a communication line, detects an intrusion into the network, and notifies an administrator, the Internet, etc.
  • a function such as an SSL (Secure Sockets Layer) accelerator that encrypts communication in a TCP (Transmission Control Protocol) / IP network can be offloaded to a hardware device.
  • SSL Secure Sockets Layer
  • a function (vFW) corresponding to a firewall among the VNFs initially deployed on the server of the carrier cloud 40 is implemented in the router 35 (for example, a PE router).
  • the setting of the router 35 may be dynamically switched to activate the firewall implemented by hardware in which the vFW access control rule on the carrier cloud 40 is set.
  • FIG. 10 is a diagram illustrating a configuration of the VNF deployment control device 100 according to the second embodiment of the present invention illustrated in FIG. 9.
  • 7 is the VNF deployment destination information stored in the storage unit 102.
  • Information indicating the type of VNF that can be offloaded; Node information of the offload destination hardware device (in the case of FIG. 9, router address information, functions that the router can provide, etc.) is provided.
  • Node information of the offload destination hardware device in the case of FIG. 9, router address information, functions that the router can provide, etc.
  • the VNF statistical information measurement unit 115 measures statistical information such as the traffic reduction effect of VNFs deployed on the server of the carrier cloud 40.
  • the VNF consumption resource calculation unit 112 includes the required performance information of the VNF stored in the storage unit 111 and the resources (for example, the number of virtual CPUs and the virtual memory capacity) required by the VNF that can be arranged on the server of the base device 10. And the like are supplied to the redeployment VNF / redeployment destination calculation unit 114.
  • the redeployment VNF / redeployment destination calculation unit 114 displays the VNF statistical information, the resources required by the VNF, the device performance information stored in the storage unit 101, and the VNF deployment destination information stored in the storage unit 102. Referring to VNF redeployment destination (offload destination of VNF function).
  • the VNF redeployment unit 116 instructs the hardware device to activate a hardware function equivalent to the VNF function.
  • the re-deployment target VNF deployed on the server of the carrier cloud 40 is terminated by the control of the NFV-MANO NFV orchestrator (for example, life cycle management).
  • the VNF of each service chain initially placed in the carrier cloud 40 is based on the measured value of the traffic of each VNF, and the function of the VNF is offloaded to the hardware device.
  • the VNFs to be redeployed are migrated to the base device 10 and the functions of other VNFs (for example, VNFs in a critical path on the bandwidth) are implemented by hardware. You may make it off-load.
  • ⁇ Embodiment 3 Part 1> 11 and 12 are diagrams for explaining a third embodiment of the present invention.
  • the VNF function is divided, and for each function, the VNF for which the traffic reduction amount can be estimated is divided into the functions and the traffic upstream. Redeploy to.
  • frequently accessed content is stored in the cache entry and has a high hit rate.
  • the virtual content cache 50-2 on the carrier cloud 40 is a cache (virtual CPU, virtual memory, virtual storage) in which functions are virtualized as VNFs on the server. Etc.). Also, some cache entries from the higher hit rate are implemented as virtual content cache 50-1 virtualized on the server of base apparatus 10.
  • the content cache is virtualized as VNF
  • the virtual content cache (VNF) is divided for each cache entry, and the traffic reduction amount for each cache entry is estimated from the hit rate of the cache entry and the like. Then, based on the traffic reduction amount for each cache entry of the virtual content cache (VNF), some cache entries of the virtual content cache (VNF) may be moved upstream from the current deployment position. .
  • FIG. 11B is a diagram schematically showing a cache entry for storing content in the virtual content cache 50.
  • the content cache is implemented using memory such as RAM (Random Access Memory) and storage such as HDD (Hard Disk Drive), but the virtual content cache implemented on the virtual machine uses virtual memory and virtual storage.
  • the ID column of each cache entry is identification information (entry number) of the cache entry
  • the path / URL column is a path name or URL of the content.
  • the content column is, for example, a storage area for cached content (Web page, image information / audio information, etc.).
  • the content column may be an address (logical address, size) or the like of a storage (virtual storage) storing the content instead of storing the content itself.
  • the hit count (hit rate) is a count value (or a value obtained by dividing the number of hits by the number of access requests) when the cache entry hits the access request.
  • VNFC1 of cache entry 1 is redeployed to the server of base device 10 (virtual content cache 50-1 in FIG. 11A)
  • the remaining cache entries 2 to N may be deployed on the server of the carrier cloud 40 as they are (virtual content cache 50-2 in FIG. 11A).
  • the cache entry may be managed as VNFC (VNF Component), and a single VNF (virtual content cache) may be constructed by combining a plurality of VNFCs. Each VNFC can be run independently (independent of other VNFCs).
  • the wide area network 30 is the Internet and the base device 20 is a content distribution server.
  • the content requested by the access request (HTTP request) from the tenant A is cached in the virtual content cache 50-1 of the base device 10 (hit), the cached content is transmitted to the tenant A.
  • HTTP request an access request (HTTP request) is not transmitted from the base device 10 to the wide area network 30, and the traffic is reduced.
  • the access request (HTTP request) from the tenant A is not cached in the virtual content cache 50-1 of the base device 10 (cache miss)
  • the access request (HTTP request)
  • the data is transferred from the device 10 to the virtual content cache 50-2 of the carrier cloud 40 via the wide area network 30.
  • the cached content is sent to the base device 10 via the wide area network 30. Transferred and returned to Tenant A Also in this case, the access request is not transferred from the carrier cloud 40 to the base device 20 via the wide area network 30, and traffic is reduced.
  • the access request is made from the carrier cloud 40 via the wide area network 30. It is transferred to the device 20.
  • the content requested from the base device 20 is transferred to the base device 10 via the wide area network 30 and cached in, for example, the virtual content cache 50-1.
  • the CPU performance, memory capacity, etc. of the base device 10 where the cache entry with a high hit rate is deployed must satisfy the resource requirements.
  • one VNFC corresponding to the cache entry may be live migrated on the server of the base device 10 as a deployment unit (Virtual Deployment Unit: VDU).
  • VDU Virtual Deployment Unit
  • a combination of a plurality of VNFCs may be used as a VDU. In this case, it is possible to move several cache entries in a lump in units of VDUs from the higher hit rate.
  • the content cache entry deployed in the base device 10 can be dynamically changed in accordance with changes in the cache entry hit rate, etc.
  • FIG. 12 is a diagram illustrating an example in which a virtual firewall (vFW) is divided and redeployed.
  • vFW virtual firewall
  • FIG. 12B a rule for performing access control (packet filtering) is defined on the basis of “source / destination IP address” and “source / destination port” in the firewall.
  • the ACL (Access Control List) entry group is divided into VNFCs for each entry, the traffic reduction rate of each entry is estimated from the number of ACL entry hits, etc., and the entry is moved from a rule with a high traffic reduction rate to the upstream vFW To do.
  • the redeployment VNF / redeployment destination calculation unit 114 in FIG. 7 may derive a redeployment destination for each ACL entry of the firewall.
  • packet access control is performed in the order of ACL entries. If the destination address information of the packet matches one of the ACL entries, if the action (Action) is permitted (Permit), the transfer of the packet is permitted. Otherwise, the packet is dropped and logged. To be recorded. If the destination address information of the packet matches one of the ACL entries and the operation (Action) is not permitted (Deny), the packet is dropped and recorded in the log. The ACL entry hit count is incremented by one when the packet matches the ACL entry.
  • an entry with a low hit count (hit rate) of the ACL entry has a high packet drop rate. Therefore, an ACL entry with a low hit count (hit rate) is used as an upstream base device.
  • hit rate the rate at which packets are transferred from the base device 10 to the wide area network 30 is low. Note that matching with ACL entries is performed in ascending order of entry numbers. For this reason, the ACL entries deployed in the base apparatus 10 may be arranged in the order of the hit ratios to improve efficiency.
  • FIG. 13 is a diagram for explaining a fourth embodiment of the present invention.
  • the cumulative value of the reduction amount of the traffic of the VNF initially deployed on the server of the carrier cloud is considered.
  • the VNF block to be moved is determined using not only the traffic reduction amount of a single VNF but also the cumulative traffic reduction amount up to a certain VNF as an index.
  • the traffic reduction rate of VNF1 and VNF1 in the service chains 2 and 3 10% is superior to the traffic reduction rate of VNF1 in the service chain 1: 5%. Selected as. However, the cumulative reduction rate of traffic is better when the two-stage VNF1 (traffic reduction rate: 5%) and VNF2 (traffic reduction rate: 50%) of the service chain 1 are redeployed to the server of the base device 10. : 55%, and the effect of reducing traffic to the wide area network after redeployment is greater than when using the reduction amount of VNF alone as an index.
  • the number of VNFs at the redeployment destination instead of selecting the number of redeployment destinations from the one with the larger traffic reduction rate with a single VNF, it can be accommodated at the redeployment destination from one service chain.
  • the number of VNFs equal to or less than the number may be selected, and the combination with the higher traffic reduction rate may be selected as compared with the traffic reduction rate when the VNF alone is selected.
  • the VNFs that can change the order of the service chains are changed so that the VNF with the high traffic reduction rate comes first, and the number of VNFs that can be accommodated in the redeployment destination from one service chain. You may make it select VNF.
  • the traffic progress direction of one service chain is compared with the case of searching for a single VNF across service chains based on the traffic reduction effect (for example, FIG. 4B, breadth-first search in FIG. 5).
  • the traffic reduction effect for example, FIG. 4B, breadth-first search in FIG. 5.
  • (Direction of service chain directed graph: depth direction) Search (depth-first search), and VNF to be redeployed is determined in consideration of the accumulated traffic reduction effect. It is possible to realize more appropriate traffic reduction effect for wide area network.
  • FIG. 14 is a diagram for explaining a fifth embodiment of the present invention.
  • the service chain that does not need to go through the carrier cloud 40 is passed through the carrier cloud 40.
  • path control on the wide area network 30 is performed.
  • the wide area network 30 is an overlay network
  • a tunnel may be opened in advance between bases with a full mesh, and the Outer Destination (tunnel to be used) may be changed.
  • the overlay network may be constituted by, for example, an Internet VPN (Virtual Private Network) constructed on the Internet.
  • an SDN controller or the like can write a path information only in the virtual switch, thereby establishing a virtual network by tunnel connection between the virtual switches. As a result, the route is changed to the direct communication between bases without going through the VNF of the carrier cloud 40.
  • a path to be used on the wide area network 30 may be switched to construct a new path on the wide area network 30.
  • the transport network optical wavelength division multiplexing network
  • the transport network is a packet based on digital coherent technology (high-speed optical transmission technology), optical cross connect (OXC), and MPLS-TP (Multi Protocol Label Switching Transport Profile) as a transport protocol.
  • the switch packet transport
  • a path to be used on the wide area network 30 is switched to construct a new path on the wide area network 30.
  • FIG. 15A is a diagram illustrating a case where the wide area network 30 in FIG. 14 is an overlay network.
  • the VNF deployment controller (VNF deployment control device) 100 corresponds to the VNF deployment control device 100 of FIG.
  • FIG. 15B is a diagram for explaining a full mesh VPN connection on the Internet.
  • a VPN (Virtual Private Network) gateway (VPN GW) is directly connected to another VPN gateway through a VPN connection.
  • VPN GW A is directly connected to VPN GW and B, C, and D of the other three sites through VPN tunnels.
  • the VNF deployment controller (VNF deployment control device) 100 redeploys the VNF on the server of the carrier cloud 40 on the server of the base device 10.
  • a new IP header (Outer IP header) is added together with the GRE header, and the packet is transferred.
  • the VNF deployment controller (VNF deployment control device) 100 requests the overlay controller 200 to change the destination IP address (IP Destination Address) column of the IP header (Outer IP header) of the tunnel packet.
  • the tunnel gateway of the base device 10 switches the IP destination Address (destination IP address) of the Outer IP header from the tunnel gateway of the carrier cloud to the tunnel gateway of the base device 20 and transfers the packet.
  • a server such as the base device 10 or 20 is equipped with a virtual switch
  • the network switching of traffic transferred via the redeployed VNF is made efficient.
  • FIG. 16 is a diagram for explaining path switching on the transport network.
  • LSP Label Switched Path
  • MPLS Packets and frames are assigned to a tunnel called LSP (Label Switched Path), and transfer is controlled in units of tunnels.
  • An LSP called a tunnel LSP is extended between PE routers (Provider Edge router).
  • the LSP is a path of only one of the paths, and two LSPs are required when communication is performed using a path of a bidirectional path.
  • the VNF deployment controller (VNF deployment control device) 100 redeploys the VNF on the server of the carrier cloud 40 on the server of the base device 10, for example. At that time, the VNF deployment controller (VNF deployment control apparatus) 100 requests the SDN controller 210 to perform path control.
  • the SDN controller 210 performs a path between the base device 10 and the carrier cloud 40 (PE router: tunnel between PE1 and PE3) and a path between the carrier cloud 40 and the base device 20 (PE router: tunnel between PE4 and PE2). Delete and create a path (PE router: tunnel between PE1 and PE2) between the base device 10 and the base device 20. In FIG. 16, the provider router between the tunnels between PE1 and PE2 is omitted.
  • Patent Documents 1-7 and Non-Patent Document 1 above are incorporated herein by reference.
  • the embodiments and examples can be changed and adjusted based on the basic technical concept.
  • Various combinations or selections of various disclosed elements are possible within the scope of the claims of the present invention. . That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea.
  • Appendix 2 Verify whether there is sufficient resource in the redeployment destination upstream from the current deployment location to accommodate the network function to be redeployed.
  • the end point of the service chain is connected to the cloud via a wide area network,
  • the function deployment method according to appendix 1 or 2 characterized in that traffic is measured for one or a plurality of network functions configured in the service chain and deployed on the cloud.
  • the network function having a high traffic reduction rate is preferentially selected as the redeployment target.
  • the function deployment method according to any one of the above.
  • Appendix 7 Function deployment according to appendix 6, characterized in that, in order from the network function with the highest traffic reduction rate, network functions whose number is less than or equal to the number that can be accommodated at the redeployment destination upstream from the current deployment position are selected.
  • pass connected to the other end point of the said service chain through the said network function deployed in the redeployment destination 11.
  • the function deployment method according to any one of 11 above.
  • Redeployment control device 10 base device (server device) 20 Base equipment (server equipment) 30 Wide area network (WAN) 31-34 PE router 35 Router 40 Carrier cloud 41 Gateway (GW) 42 Server device 43 Hypervisor 44 Measuring device 45 Redeployment control device 50 Virtual content cache cache entries 50-1, 50-2 Virtual content cache 60 Virtual firewall ACL entries 60-1, 60-2 Virtual firewall 100 VNF deployment control Device (VNF deployment controller) 101 storage unit (device performance information storage unit) 102 storage unit (VNF deployment destination information storage unit) 103 storage unit (service chain information storage unit) 104 VNF initial deployment unit 110 redeployment control device 111 storage unit (VNF required performance information storage unit) 112 VNF consumption resource calculation unit 113 storage unit (VNF statistical information storage unit) 114 redeployment VNF / redeployment destination calculation unit 115 VNF statistical information measurement unit 116 VNF redeployment unit 117 storage unit (VNF deployment destination

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

サービスチェーンを構成するネットワーク機能の最適配備を可能とする。サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定する再配備機能決定手段と、再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、現在の配備位置より上流に再配備する再配備手段と備える。

Description

通信システムと機能配備装置と機能配備方法並びにプログラム
 [関連出願についての記載]
 本発明は、日本国特許出願:特願2016-072768号(2016年03月31日出願)に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、通信システムと機能配備装置と機能配備方法並びにプログラムに関する。
 近時、ネットワークを通じてソフトウェアやデータ、サーバ機能などを利用者に提供するクラウドサービスが普及している。クラウドサービス提供者は、例えばデータセンタ等にサーバを設置し、利用者に対して、ネットワークを通じて、仮想サーバやデータ保管領域、アプリケーション等の利用を可能としている。
 また、ネットワークの仮想化技術として、SDN(Software Defined Network)/NFV(Network Functions Virtualization)等の技術が注目されている。これらの技術によれば、ネットワーク機器等は、サーバ上で、例えばハイパーバイザ(HyperVisor)等の仮想化レイヤ(Virtualization Layer)上に実装した仮想マシン(Virtual Machine:VM)上でソフトウェア的に実現される。このうち、NFVは、例えば、MANO(Management & Orchestration)アーキテクチャに基づき実現される(非特許文献1)。そして、NFV等により、ネットワーク機能をデータセンタ等に、仮想ネットワーク機能(Virtual Network Function)として集約し、クラウドサービスとしての運用も可能となる。例えば、テナント拠点の通信設備(例えばルータ等)であるCPE(Customer-Premises Equipment)を、クラウド上に仮想化機能として実装した仮想化CPE (virtual Customer Premises Equipment:vCPE)の実用化も検討されている。
 vCPEは、ルータ、セキュリティ機器(security appliance)、NAT(Network Address Translation)などのネットワーク機器を、ETSI(European Telecommunications Standards Institute) NFVフレームワークをベースとしてサーバ上に仮想ネットワーク機能(VNF)として実装したものである。テナントサイトは、自サイトにCPEを具備することなく、広域ネットワーク(Wide Area Network:WAN)を介して、例えばキャリアクラウド上のvCPEに接続し、該vCPEから広域ネットワークを介して、接続先である他のサイトに接続する。キャリアクラウドは、キャリア(通信事業者)が提供するクラウドサービスであり、例えばデータセンタやサーバ、アプリケーションなどのクラウド基盤と、ネットワークを一体的に提供する。
 セキュリティ機器のうち、ファイアウォール(FireWall:FW)はインターネットなどの外部ネットワークから社内ネットワークなどの内部ネットワークへの不正なアクセスを防止する。テナントサイト側に設置されるファイアウォールは、例えばテナントサイト側から外部への望まない通信を制御する目的も含めて運用される。ファイアウォールは、例えば、該通信の宛先IP(Internet Protocol)アドレス、ポート番号などを監視し、予め設定した条件に基づき、当該通信を受け入れる(ACCEPT)、廃棄する(DROP)、拒否する(REJECT)などの動作によって、通信を制御する。あるいは、ファイアウォールは、外部から発生するトラフィックは拒否し、内部から外部へ発生したトラフィックの戻りのトラフィックは許可する構成としてもよい。あるいは、ステートフルパケットインスペクション型ファイアウォールでは、TCP(Transmission Control Protocol)ヘッダのSYN(Synchronization:同期)フラグやACK(Acknowledgement:肯定)フラグのハンドシェイクの状態などを記憶し、不正に送られてきたSYN/ACKパケットを廃棄する。IPS(Intrusion Prevention System)は、例えば不正アクセスなど悪意あるトラフィックを検出して通知し、シグネチャを参照し不正アクセスに該当するパケットを破棄したり、セッションを切断して防御する侵入防止システムである。
 また、サービスチェイニング技術では、仮想化によりサーバ上の仮想マシン(VM)として配置された複数のネットワーク機能等についてパケットの転送経路の制御が行われる。仮想化された複数のネットワーク機能が別々のサーバに格納されていても、ユーザに必要なネットワーク機能を提供可能としている。
 図1(A)は、拠点(例えばキャリアクラウドの顧客であるテナントのサイト)のネットワーク機器(例えばCPE)を、キャリアクラウドのサーバ上に仮想ネットワーク機能として実装した例を模式的に例示する図である。拠点(サイト)A、Bは広域ネットワーク(広域網)30を介して通信接続する。拠点A、Bはデータセンタ等であってもよい。また、各拠点A、Bは複数のテナント(マルチテナント)を備えた構成(マルチテナントサイト)としてもよい。なお、以下では、広域ネットワーク30を介して対向する二つの拠点が図示されるが、拠点の数は二つに制限されるものでないことは勿論である。
 図1(B)に示す例では、図1(A)の拠点Aの拠点装置10が担っていた通信機能(FW、IPS)を、キャリアクラウド40のサーバ上の仮想化機能(virtual FW:vFW、virtual IPS:vIPS)として実装している。拠点Aの拠点装置10は、例えばキャリアクラウド40までのトンネル機能のみを提供する。拠点中のテナント対(拠点AのテナントAと拠点BのテナントB)と、サービスチェーンを指定することで、当該経路で提供される通信サービスが指定される。
 図1(B)の例では、サービスチェーン(VNF転送グラフ)は以下のようになる。
例:サービスエッジの拠点装置10->FW(vFW)->IPS(vIPS)->サービスエッジの拠点装置20。
 なお、サービスチェーンは有向グラフであり、拠点BのテナントBが接続する拠点装置20から拠点Aの拠点装置10へのサービスは別のサービスチェーンとなる。
 図2は、図1(B)の一例を説明する図である。キャリアが構築したMPLS(Multi Protocol Label Switching)ネットワーク等からなる広域ネットワーク30上で、拠点装置10の例えばCEルータ(Customer Edge Router)又はゲートウェイからのパケットを転送するために、MPLSネットワーク上のPEルータ(Provider Edge Router)31では、宛先IPアドレスをみてMPLSラベルを付加してカプセル化し、パケット/フレームをラベルに基づき転送し、PEルータ32では、ラベルを外して、ゲートウェイ(GW:例えばデータセンタゲートウェイ)41に転送する。パケット/フレームは、クラウドサービスを提供するサーバ装置42のハイパーバイザ(HV)43、仮想スイッチ(vSwitch)、あるいは、仮想ネットワークを介して、仮想ファイアウォール(vFirewall)として機能するVNF1、仮想IPS(vIPS)として機能するVNF2、仮想NAT(Network Address Translation)として機能するVNF3に順次転送される。そして、パケット/フレームは、ゲートウェイ(GW)41から、PEルータ33に転送され、PEルータ33でラベルを付加してMPLSネットワーク内をPEルータ34まで転送され、PEルータ34でラベルを外して拠点Bの拠点装置20送信される。なお、PEルータ31、32間、PEルータ33、34間はトンネルLSP(Label Switched Path)が張られる。なお、PEルータ31、32間のPルータ(Provider Router)、PEルータ33、34間のPルータは省略されている。サーバ装置42に対して入口側のゲートウェイと、出口側のゲートウェイを別々に備えた構成としてもよい。
 拠点Aに設置され、例えば外部(広域ネットワーク30側)への望まない通信を制御する目的も含めて運用されるFWは、パケットヘッダの送信先IPアドレス等をチェックし、所定の条件に該当するパケットは、廃棄(DROP)又は拒否(REJECT)し、外部(広域ネットワーク30)への送信は行わない。すなわち、この種のFWは、拠点Aから広域ネットワーク30へ送出されるトラフィック(パケット数、バイト数)を削減する。
 拠点Aに配置され、トラフィック量を削減するFW(図1(A))を、図1(B)に示すように、キャリアクラウド40側に、vFWとして配備すると、拠点Aには、トラフィック量を削減するFWがなくなる。このため、拠点Aからのトラフィックがそのまま拠点装置10―キャリアクラウド40間の広域ネットワーク30を通過することになる。
 すなわち、図1(B)において、拠点装置10―キャリアクラウド40間の広域ネットワーク30の通信量は、図1(A)のように、拠点Aに当該FWを配備した場合と比べて、増加する。キャリアクラウド40に接続するサイト数(拠点)の増大、テナント数の増大に伴い、拠点装置10とキャリアクラウド40間の広域ネットワーク30のトラフィック、通信量が増大することになる。ネットワーク負荷の増大は、ネットワーク性能の低下につながり、例えば顧客に対してSLA(Service Level Agreement)で保証した通信速度、品質等の実現が困難となる場合がある。
 なお、サービスチェーンに関連して、例えば特許文献1には、動的に変化するトラフィック量に合わせたサービスチェーンのスループット性能の制御を実現するサービスチェーン管理システムが開示されている。サービスチェーンのトラフィック量の測定値を用いて一定時間後のトラフィック量を予測し、サービスチェーンを構成するノードに対して一定時間後のトラフィック量を処理可能なサービス量から、一定時間後に必要なスケール数の増減を算出し、スケール数の増減から、遅延時間を算出し、遅延時間を基に、スケール数の増減のタイミングを設定した制御スケジュールを生成する。
 特許文献2には、サービスチェーンの情報に基づいて適したサーバに仮想マシンを配備する方法として、すべてのサービスチェーンのパターンの情報に基づいて仮想マシンの最適配置を行う場合、最適配置計算の計算量が膨大となりすべてのサービスチェーンにとって最適な配置を計算することはほぼ不可能であるため、キャリアネットワークのような大規模ネットワークにおいても、スケールできる計算量で、かつ帯域と遅延が全体としてできるだけ最適に近い仮想マシンの配置になるような配置方法を検討する必要があることが記載されている。特許文献2では、サービスファンクションチェーン(SFC)を構成するVNFリスト中に、同一のパターンが頻出する場合に、頻出するパターンを同一の物理マシン上で動作させることで、ネットワーク上の帯域を削減する手法が開示されている。
 仮想マシンのライブマイグレーションに関して、例えば特許文献3には、マイクロプロセッサ上で実行される仮想スイッチが複数の仮想機能(VF)に関連付けられ、仮想機能(VF)の各々は、仮想インターフェイス(VI)スペースに関連付けられ、仮想インターフェイス(VI)に関連付けられる仮想機能(VF)が付与される少なくとも一つのVM(仮想マシン)を含み、該VMは、第1のホストから第2のホストにライブマイグレーションを行なうよう動作する構成が開示されている。
 NFVに関連して、例えば特許文献4には、要求されたネットワーク機能仮想化サービスに必要な仮想マシン及び仮想接続を算出し、計算機資源量とネットワーク資源量に基づいて前記仮想マシンと前記計算機ノードとの収容関係を探し、前記仮想マシン及び前記仮想接続を物理インフラ上に構築するネットワーク機能仮想化基盤管理システムが開示されている。
 後述するGreedy法に関連して、例えば特許文献5には、各コンテンツを配布するサーバ集合を、配信フローの平均ホップ数の最小化といった最適化問題(RPA:Replica Placement Algorithm)として導出し、事前に各コンテンツの複製を該当サーバに展開するにあたり、RPA問題はNP困難であるため近似解法を用いる必要があり、単に目的関数の改善度合いが最良のノードにコンテンツを配備していくGreedy法が最良であることが記載されている。
 トラフィック測定に関して、例えば特許文献6には、帯域制御装置は、仮想ノードの種別毎に、該当装置に向けて送信されるものとして帯域制御装置で受信したパケットの総量(一定時間当たりのパケット数とビット数)と、個別の仮想ノード宛として帯域制御装置で受信したパケットの総量の計測を行うことが記載されている。
 特許文献7には、DDoS(Distributed Denial of Service attack)攻撃を防御するため、ファイアウォールのルールを上流に自律分散的に伝播させていく分散型サービス不能攻撃防止方法が開示されている。この方法は、通信トラヒックが予め決められた攻撃容疑パケットの検出条件に合致したトラヒックを検出した場合に、検出された前記攻撃容疑パケットを識別する容疑シグネチャを生成して、上流の通信装置へ送信するとともに、前記容疑シグネチャによって識別される攻撃容疑パケットの伝送帯域を制限し、前記通信装置は、下流の装置から受信した前記容疑シグネチャを上流の通信装置へ送信すると共に、前記容疑シグネチャによって識別される攻撃容疑パケットの伝送帯域を制限する処理を行う。
国際公開第2015/194182号 特開2015-153330号公報 特表2015-514271号公報 特開2015-162147号公報 特開2010-057107号公報 特開2015-149577号公報 特開2003-283554号公報
ETSI GS NFV 002 V1.1.1 (2013-10)  Network Functions Virtualisation (NFV); Architectural Framework、2016年2月25日検索、インターネット<URL:http://www.etsi.org/deliver/etsi_gs/nfv/001_099/002/01.01.01_60/gs_nfv002v010101p.pdf>
 上記したように、テナントサイトに配備されトラフィックを削減するファイアォール(FW)等のネットワーク機器を、キャリアクラウド側に仮想ネットワーク機能(VNF)として実装した場合、テナントサイトに当該FW等のネットワーク機器を備えない分、テナントサイトから広域ネットワークを介してキャリアクラウドに転送されるトラフィックが増加する。
 テナントサイト数の増大、テナントの増大に伴い、テナントサイトとキャリアクラウド間の広域ネットワークのトラフィック通信量が増大し、ネットワーク性能の低下を招く。このため、ネットワーク機能等の最適配備を可能とする手法の実現が望まれる(本願発明者らの知見)。
 本発明は、上記課題に鑑みて創案されたものであって、その目的は、サービスチェーンを構成するネットワーク機能の最適配備を可能とするシステム、装置、方法、プログラムを提供することにある。
 本発明の一つの側面によれば、サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定する第1の手段(装置、ユニット)と、再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、現在の配備位置より上流に再配備する第2の手段(装置、ユニット)と、を備えた通信システムが提供される(第1の側面)。
 本発明の他の側面によれば、サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定する第1の手段(ユニット)と、再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、現在の配備位置より上流に再配備する第2の手段(ユニット)と、を備えた機能配備装置が提供される(第2の側面)。
 本発明の他の側面によれば、サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定し、再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、現在の配備位置より上流に再配備する機能配備方法が提供される。
 本発明の一つの側面によれば、サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定する処理と、再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、現在の配備位置より上流に再配備する処理と、をコンピュータに実行させるプログラムが提供される。本発明によれば、上記プログラムを記憶したコンピュータ読み出し可能な記録媒体(例えば磁気・光記録媒体、半導体ストレージデバイス等のnon-transitory computer readable recording medium)が提供される。
 本発明によれば、サービスチェーンを構成するネットワーク機能の最適配備を可能としている。
(A)、(B)は、関連技術を説明する図である。 図1(B)を説明する図である。 本発明の一形態を説明する図である。 (A)、(B)は比較例と本発明を説明する図である。 本発明の第1の形態を説明する図である。 本発明の第1の実施形態を説明する流れ図である。 本発明の第1の実施形態の一例を説明する図である。 本発明の第1の実施形態におけるライブマイグレーションの一例を説明する図である。 本発明の第2の実施形態を説明する図である。 本発明の第2の実施形態の一例を説明する図である。 (A)、(B)は本発明の第3の実施形態を説明する図である。 (A)、(B)は本発明の第3の実施形態を説明する図である。 本発明の第4の実施形態の別の例を説明する図である。 本発明の第5の実施形態を説明する図である。 本発明の第5の実施形態を説明する図である。 本発明の第5の実施形態を説明する図である。 本発明の一形態(基本概念)を説明する図である。
 本発明の実施形態について説明する。図17は、本発明の基本概念を説明する図である。図17を参照すると、本発明の一形態に係る機能配備装置1は、サービスチェーンを構成するネットワーク機能のトラフィック測定結果を記憶する記憶部4と、再配備機能決定手段(装置、ユニット)2(上記第1、2の側面の「第1の手段」に対応)と、再配備手段(装置、ユニット)3(上記第1、2の側面の「第2の手段」に対応)とを少なくとも備えている。再配備機能決定手段(ユニット)2は、記憶部4を参照して、サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィック削減効果に有効な、少なくとも一つのネットワーク機能を再配備対象として決定する。再配備手段(ユニット)3は、前記サービスチェーンにおける機能間の依存関係を維持しながら、再配備対象のネットワーク機能を、現在の配備位置に対して上流に位置する再配備先に再配備する。かかる構成の本発明の一形態によれば、サービスチェーンを構成するネットワーク機能の最適配備を可能としている。なお、図17の再配備機能決定手段(ユニット)2と再配備手段(ユニット)3は、後の説明で参照される図7において、例えば再配備VNF・再配備先計算部114、VNF再配備部116に対応させることができ、図17の記憶部4は、図7の記憶部113に対応させることもできる。
 図17において、再配備機能決定手段(ユニット)2と再配備手段(ユニット)3は、機能配備装置1を構成するプロセッサ(CPU(Central Processing Unit))で実行させるプログラムにより、その処理を実現するようにしてもよい。この場合、該プログラムを記憶した記憶部4等のコンピュータ読み出し可能な媒体(半導体メモリやHDD(Hard Disk Drive)等)から、プログラムを読み出し、機能配備装置1を構成するプロセッサで各処理を実行する。機能配備装置1は、通信機能(通信インタフェース)を備えたコンピュータ装置で構成してもよい。
 本発明の一形態において、前記再配備手段(ユニット)3は、再配備先に、前記再配備対象のネットワーク機能を収容するに足るリソース余裕(resource margin)があるか否かを検証し、前記再配備先にリソース余裕がある場合に、再配備対象のネットワーク機能を、前記配備先に再配備する構成としてもよい。
 本発明の一形態において、前記サービスチェーンの端点(Edge Point)をなす拠点装置(例えば図5の10)(トラフィック・フローのソース(Source))が、広域ネットワーク(図5の広域網30)を介してクラウド(図5のキャリアクラウド40)に接続される。再配備機能決定手段(ユニット)2は、前記サービスチェーンを構成しており前記クラウド(図5のキャリアクラウド40)上に配備された一つ又は複数のネットワーク機能に対して、トラフィックの測定を行う構成としてもよい。
 本発明の一形態において、再配備手段(ユニット)3は、前記再配備対象のネットワーク機能を、前記クラウド(図5の40)から、前記広域ネットワーク(図5の30)の所定のノード、又は、前記端点をなす拠点装置(図5の10)に移動させる構成としてもよい。
 本発明の一形態において、再配備手段(ユニット)3は、前記再配備対象のネットワーク機能を、前記広域ネットワーク(図5の30)の所定のノード(例えば図9の35)のハードウェア機器にオフロードする構成としてもよい。あるいは、前記サービスチェーンの端点(図5の10)又は拠点間ネットワーク(前記広域ネットワーク(図5の30))に接続するデータセンタ等のノードのハードウェア機器にオフロードする構成としてもよい。
 本発明の一形態において、再配備機能決定手段(ユニット)2は、トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、トラフィック削減率の高い前記ネットワーク機能を優先的に再配備対象として選択する構成としてもよい。
 本発明の一形態において、再配備機能決定手段(ユニット)2は、一つ又は複数のサービスチェーンに跨って、トラフィック削減率の高い前記ネットワーク機能から順に、再配備対象として選択する構成としてもよい。その際、例えば、再配備先である前記サービスチェーンの端点(図5の10)で収容可能な個数以下のネットワーク機能が選択される。
 本発明の一形態において、再配備機能決定手段(ユニット)2は、トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、サービスチェーン毎に、サービスチェーンを深さ方向(サービスチェーンの有向グラフの向き、すなわちサービスチェーンにおけるトラフィックの進行方向)に探索してトラフィックの累積削減率を求め、複数のネットワーク機能のトラフィックの累積削減率を考慮して、再配備対象のネットワーク機能を決定する構成としてもよい。
 本発明の一形態において、再配備機能決定手段(ユニット)2は、サービスチェーン毎のネットワーク機能のトラフィックの累積削減率と、ネットワーク機能単体でのトラフィック削減率に基づき、再配備対象のネットワーク機能を選択する構成としてもよい。その際、例えば、再配備先である前記サービスチェーンの端点(図5の10)で収容可能な個数以下の機能を選択する構成としてもよい。
 本発明の一形態において、再配備機能決定手段(ユニット)2は、前記ネットワーク機能を複数に分割し、前記分割した単位で前記再配備対象を決定し、再配備手段(ユニット)3は、前記ネットワーク機能を分割した単位で、前記ネットワーク機能の現在の配備位置に対して上流に再配備する構成としてもよい。
 図3は、本発明の一形態を模式的に説明するための図である。図3を参照すると、拠点Aのファイアウォール(FW)、IPS等の機能をサーバ仮想化技術で仮想化したVNF(vFW,vIPS等)を、キャリアクラウド40上に備えている(初期配備されている)。特に制限されないが、拠点Aの拠点装置10は、汎用サーバ等で構成してもよい。拠点装置10は、サーバ仮想化技術により、VNFを配備することが可能とされている(vFW等のVNFを配備しても、要求される通信性能、品質を確保するだけのリソースを有する)。拠点Aの拠点装置10とキャリアクラウド40とは、広域ネットワーク30上のトンネルを介して接続される。トンネルの両端には、例えばパケットのトンネルへの出入口となるトンネルゲートウェイ(不図示)が配置され、トンネル入口ではパケットをカプセル化、トンネル出口ではデカプセル化し元のパケットに戻して転送する。
 本発明によれば、キャリアクラウド40に配備された一つの又は複数のVNFのうち、トラフィック削減効果の大きい少なくとも一つのVNFを、例えば、トラフィック上流(拠点Aの拠点装置10であるサーバ)に配備することで、拠点装置10から広域ネットワーク30に送出されるトラフィック量を削減する。
 ここで、トラフィック削減効果(通信量削減効果)は、例えば、
a=VNFに入力されるトラフィック(例えば入力パケット数、入力ビット数)、
b=該VNFから出力されるトラフィック(例えば出力パケット数、出力ビット数)として、
 (a-b)×100/a  (%)
で計算してもよい。
 ところで、各VNFによるトラフィック削減効果は、実トラフィックのパターンに依存する。このため、一般に、VNFの適切な配置を事前(静的)に決定することは困難である。
 そこで、本発明の一形態によれば、キャリアクラウド40のサーバ上に当該VNFを配備した後に、実トラフィックに基づく計測を行い、実際の運用状態の下でのVNFのトラフィック削減効果を測定する。
 そして、トラフィック削減効果の測定結果に基づき、例えばトラフィック削減効果の高いVNFを優先して、再配備先(例えばトラフィック上流の拠点装置10)にライブマイグレーション等により動的に移動させる。図3の例では、トラフィック削減効果の測定結果に基づき、キャリアクラウド40のサーバ上に配備されたVNFのうち、トラフィック削減効果の高いvFWを再配備対象として決定し、再配備先である拠点Aの拠点装置10(サーバ)に、例えばライブマイグレーション等により移動させる。
 この結果、本発明の一形態によれば、拠点装置10からキャリアクラウド40への広域ネットワーク30上のトンネルを通過するトラフィックの総量を削減することができる。
 また、本発明の一形態によれば、実際の運用状態でトラフィック測定結果に基づき、トラフィック削減効果の高いVNFを再配備対象として選択するようにしてもよい。この場合、実際のトラフィック発生源(例えば拠点A)からのトラフィックパターンに対応した最適な配備先の決定を可能としている。
 図4(A)と図4(B)は、それぞれ、比較例と本発明の一形態を対比させて説明するための図である。拠点Aの拠点装置10のサーバ(汎用サーバ等)に、全てのVNFを配備することは、リソースの制約、要求性能の観点から、原則、不可能である。すなわち、拠点装置10のサーバにおけるVNFの配置可能数、割り当て可能なリソース量(CPU(Central Processing Unit)、RAM(Random Access Memory)等のメモリ容量、HDD(Hard Disk Drive)等のストレージ容量)などに依存する。
 前述したように、トライック削減効果の高いVNFを、優先的に、該トラフィックの上流側に再配備するにあたり、再配備によるトラフィック削減効果は、VNFを再配備した後ではないと、予測が難しい。これは、ファイアウォールやコンテンツキャッシュなどは、トラフィックパターンによってトラフィック削減率が変動するためである。
 図4(A)は、比較例として、VNFの再配備先の導出が難しい例を模式的に示す図である。図4(A)、(B)に示す例において、リソース制約は、拠点装置10上にはVNFを2個収容可能であるものとする。なお、図4(A)、図4(B)では、説明の容易化のため、マルチテナント拠点間のネットワークが例示されている。
 VNFの再配備の戦略として、キャリアクラウド40のサーバ上のVNFのうち、要求帯域の大きいサービスチェーンのVNFから、優先して、拠点装置10のサーバ上に配備するものとする。
 図4(A)の例では、帯域要求が100Mbps(Mega bits per second)のサービスチェーン2、3の仮想ファイアウォール(vFW2、3)をキャリアクラウド40から、拠点装置10のサーバ上に再配備し、サービスチェーン1の仮想ファイアウォール(vFW1)はキャリアクラウド40上に残している。
 しかしながら、実際のトラフィックに対して、拠点装置10のサーバ上に移された仮想ファイアウォール(vFW2、3)によるトラフィック削減率は10%、キャリアクラウド40上の仮想ファイアウォール(vFW1)によるトラフィック削減率は90%であったとする。
 ここで、簡単のため、トラフィック流量(通信量)として、要求帯域の通信速度を仮定すると、拠点装置10のサーバ上に移された、サービスチェーン2、3の各仮想ファイアウォール(vFW2、3)は、それぞれ、1秒あたり100Mb(Megabits)の通信量のうちの90%(=100%-削減率)、すなわち90Mbを広域ネットワークに送出することになる。
 図4(A)において、サービスチェーン1では、拠点装置10のサーバ上に仮想ファイアウォール(vFW1)が配置されていない。このため、拠点装置10から、1秒あたり50Mbが広域ネットワークを介して仮想ファイアウォール(vFW1)に転送されるものとする。この場合、仮想ファイアウォール(vFW1)の出口から、50Mb×(100-90)%=5Mbが出力される。
 したがって、サービスチェーン1、2、3を併せて(単純加算)、拠点装置10から広域ネットワークには、50+90+90=230Mbが転送されることになる。
 これに対して、本発明の一形態によれば、図4(B)のように、トラフィック削減率の大きなサービスチェーン1の仮想ファイアウォール(vFW1)を優先して拠点装置10のサーバ上に移す。この場合、拠点装置10のvFW1に1秒あたり50Mbが入力されるとすると、その10%=5Mbが広域ネットワーク(WAN)に送出される(45Mbは阻止される)。さらにサービスチェーン2の仮想ファイアウォール(vFW2)を拠点装置10のサーバ上に移した場合、vFW2に1秒あたり100Mbが入力されるとすると、vFW2から90Mbが広域ネットワークに送出される。サービスチェーン1、2、3を併せて(単純加算)、拠点装置10から広域ネットワークには、5+90+100=195Mbが転送されることになる。
 図4(B)において、サービスチェーン1、2、3全体で、拠点装置10から広域ネットワークに転送されるトラフィック量は、図4(A)の場合の(195/230)×100≒84.7%となる。すなわち、トラフィック削減の割合は約15.3%となる。なお、上記では、簡単のため、トラフィック削減率を通信量(転送ビット数)に基づき測定した例を説明したが、トラフィック削減率は、トラフィック件数(パケット数)に基づき測定したものであってもよいことは勿論である。
<実施形態1>
 図5は、本発明の第1の実施形態を説明する図である。図5を参照すると、キャリアクラウド40において、測定装置44は、サービスチェーンを構成するVNFがキャリアクラウド40に配備された後に、実際のトラフィックに基づき、各VNFのトラフィック削減効果を計測する。測定装置44は、例えばVNFの入口と出口のトラフィック(パケット数、ビット数)を測定し、トラフィック削減率を算出する。
 再配備制御装置45は、測定装置44によるトラフィック削減効果の測定結果に基づき、VNFの最適な配置先(再配備先)を動的に決定する。再配備制御装置45は、図17の再配備機能決定手段(ユニット)2、再配備手段(ユニット)3に対応させることができる。あるいは、VNFの再配備を行う手段として、再配備制御装置45とは別の不図示の管理装置又はコントローラ(例えばNFV-MANO又はSDNコントローラ等)が、再配備制御装置45が決定した配備先に、VNFのマイグレーションを実行するようにしてもよい。
 測定装置44は、例えばキャリアクラウド40のサーバ上のハイパーバイザに実装してもよい。再配備制御装置45は、キャリアクラウド40のサーバ上のハイパーバイザに実装してもよいし、あるいは、サーバ上の仮想マシン上で動作するアプリケーションとして実装してもよい。あるいは、再配備制御装置45は、キャリアクラウド40において、VNFを稼働させるサーバとは別のサーバ等に実装するようにしてもよい。配備先にVNFのマイグレーションを制御するコントローラ等は、キャリアクラウド40のサーバとは、別のノード、あるいは、さらに上位層のコントローラ、マネージャ等に実装するようにしてもよい。
 VNFをキャリアクラウド40に配備後、測定装置44によって、VNFの実トラフィックの流量(通信量)を測定し、配備先制御装置45では、トラフィックの削減効果が大きいものから順に、拠点装置10にマイグレーションするようにしてもよい。
 図5の例では、サービスチェーン1(Chain1)のVNF1のトラフィック削減率が90%であるため、VNF1を再配備対象として選択し、矢印で示すように、キャリアクラウド40上のVNF1を、拠点装置10のサーバ上にマイグレーションしている。この結果、実際のトラフィックパターンに応じ、広域ネットワーク30へ流入するトラフィックの削減の点で、最大の効果を齎すVNFの最適配備が可能となる。なお、図5では、各拠点をマルチテナント構成としているが、テナントは1つであってもよいことは勿論である。
 図6は、本発明の第1の実施形態を説明する流れ図である。図6を参照して、本発明の第1の実施形態の動作を説明する。
 最初に、サービスチェーンの構成情報を基に、該サービスチェーンを構成する全てのVNFをキャリアクラウドのサーバ上に配備する(ステップS1)。
 測定装置44によって、実トラフィックに基づき、キャリアクラウドのサーバ上に配備されたVNFのトラフィック削減効果を測定する(ステップS2)。
 再配備制御装置45は、キャリアクラウドのサーバ上に配備されたVNFのうち、トラフィック削減効果の測定結果に基づき、再配備対象のVNFを決定する(ステップS3)。その際、配備先を上流に移動させても、サービスチェーンにおいて、依存関係に問題のないVNFを再配備対象とする。例えばサービスチェーンにおいて、第2のVNFが第1のVNFでの処理完了を前提としてするという制約がある場合、第2のVNFを、第1のVNFよりも上流に再配備することはできない。一方、第1のVNFは、第2のVNFとの依存関係を維持したまま、現在の配備位置よりも上流のサービスチェーンの端点(拠点装置)等に再配備することは可能である。
 再配備制御装置45は、再配備対象のVNFの配備先を検索する(ステップS4)。再配備制御装置45は、当該VNFが必要とするリソースを計算し、サービスチェーンの上流の装置(例えば拠点装置のサーバ装置)から、配備可能な場所を検索する。
 VNFの再配備が可能の場合(ステップS5のYes)、再配備制御装置45は、キャリアクラウドのサーバ上のVNFの配備先への再配備を行う(ステップS6)。再配備制御装置45は、ライブマイグレーションやその他通信断の発生しない手法で配置先を変更する。配備可能な場所が発見できなかった場合、ステップS6は実行せず、ステップS7にスキップする。
 再配備対象のVNFの再配備が終わるまで(ステップS7のYes)、再配備制御装置45は、ステップS4に戻り(ステップS7のNo)、ステップS4-S7を繰り返す。 
 ステップS3では、再配備制御装置45は、例えば、Greedy法(貪欲法:最適化問題の解法において、計算の各段階で最も利益の大きい部分解を選んでいき、それらの部分解を組み合わせたものを最終的な解とする)等により、再配備対象のVNFと配備先を決定し、順次マイグレーションを実行するようにしてもよい。
 図7は、本発明の第1の実施形態におけるVNF配備の制御を行う装置構成の一例を説明する図である。図7において、VNF配備制御装置100は、キャリアクラウドのサーバ上に、サービスチェーンを構成する各VNFの初期配備を行うとともに、初期配備されたVNFの中から再配備対象のVNFを選択し、選択したVNFを、配備先装置120に再配備する。
 VNF配備制御装置100は、サーバ装置(例えば図5の拠点装置10のサーバ)の装置性能情報を記憶した記憶部(装置性能情報記憶部)101と、VNF配備先情報を記憶する記憶部(VNF配備先情報記憶部)102と、サービスチェーン情報を記憶した記憶部(サービスチェーン情報記憶部)103と、VNF初期配備部104とを備えている。
 VNFの再配備を制御する再配備制御装置110(図5の再配備制御装置45に対応)は、VNF統計情報測定部115と、VNF消費リソース計算部112と、再配備VNF・再配備先計算部114と、VNF再配備部116と、VNF要求性能情報を記憶した記憶部111と、VNF統計情報を記憶する記憶部113と、を備えている。なお、配備先装置120は、サービスチェーンの端点となる拠点装置10のサーバ装置、あるいは、サービスチェーンにおいて、キャリアクラウド(図5の40)の上流となる広域ネットワーク(図5の30)のノードのサーバ装置等である。
 記憶部103のサービスチェーン情報は、例えば、
・サービスチェーンを構成するVNFのリスト(パケット転送経路上のVNF)、
・サービスチェーンのSLA(Service Level Agreement)、
・トラフィックの入口/出口の端点の識別情報(Ingress/Egress端点ID)等を含む。なお、SLAは、通信速度や処理性能の最低限度や、障害やメンテナンス等による利用不能時間の年間上限などサービス品質の保証項目を定める。
 VNF初期配備部104は、上記サービスチェーン情報と、記憶部101に記憶されている装置性能情報を参照して、各サービスチェーンのVNFを、キャリアクラウドのサーバ装置(複数を含む)に、初期配備する。
 VNF初期配備部104は、VNFを配備した結果を、VNF配備先情報として記憶部102に記憶する。その際、VNF初期配備部104は、サービスチェーンのIDと、サービスチェーンのVNFごとの配備先情報を格納する。
 VNF初期配備部104は、初期配備先装置(サーバ)130にVNFを初期配備する。NFVアークテクチャを用いた場合、例えば要求元であるVNF初期配備部104から、NFV-MANO(NFV Management And Orchestration)のNFVオーケストレータ(NFV Orchestrator:NFVO)へのオンボードVNFパッケージ(on-board VNF package)要求等を送信することで、サーバ装置の仮想化基盤上でのVNFの生成(instantiation)を行うようにしてもよい。
 VNF初期配備部104からの指示を受けた初期配備先装置130(例えば図5のキャリアクラウド40のサーバ、あるいは図2のサーバ装置42)は、指示されたVNFを配備する。例えばオンボードVNFパッケージNFV-MANOのNFVオーケストレータの制御により、サーバ上の仮想化基盤であるNFVI(Network Functions Virtualization Infrastructure)に、VNFインスタンスを生成する。
 例えば図5の場合、キャリアクラウド40のサーバ上に初期配備されるVNFは、サービスチェーン1(Chain1:ID=1)ではVNF1、サービスチェーン2(Chain2:ID=2)ではVNF2となる。
 VNF統計情報測定部115は、初期配備先装置130のサーバ(キャリアクラウド40のサーバ)上に配備されたVNFのトラフィック量や、トラフィック削減率等の統計情報を測定する。VNF統計情報測定部115は、例えばVNF識別情報と、着目するVNFのIngress通信量(入口通信量)とEgress通信量(出口通信量)を測定し、VNF統計情報として記憶部113に記憶する。
 VNF消費リソース計算部112は、記憶部111に格納されているVNFの要求性能情報と、例えば拠点装置10のサーバ上に配置可能なVNFが必要とするリソース(仮想CPUの個数、仮想メモリの容量等)を、使用リソース計算式にしたがって計算し、計算結果を、再配備VNF・再配備先計算部114に供給する。
 VNF消費リソース計算部112は、例えば当該VNFに関して、仮想ソフトウェアに関するCPUの使用率について、所定の計算式を用いてCPUの使用率を計算する。また、VNF消費リソース計算部112は、仮想メモリの使用率、仮想ストレージ転送処理の平均時間、ストレージ空き容量、平均パケット送信量、受信量等を計算するようにしてもよい。
 再配備VNF・再配備先計算部114は、VNF統計情報を参照して、例えばトラフィック削減効果の高いVNFを、再配備対象として選択する。さらに、再配備VNF・再配備先計算部114は、選択した再配備対象のVNFの再配備先を求める。再配備VNF・再配備先計算部114は、例えばSLA(通信速度、品質等)を満たすためにVNFが必要とするリソースと、記憶部101に記憶されている装置性能情報(例えば拠点装置10のサーバの性能情報)、記憶部102に記憶されているVNF配備先情報を参照して、VNFの再配備先を算出し、再配備対象のVNFの再配備先(例えば拠点装置10のサーバ)を記憶部117に格納する。
 VNF再配備部116は、記憶部117に格納された再配備対象のVNFの再配備を、配備先装置120に指示する。
 配備先装置120は、記憶部117に格納されているVNF再配備先情報を参照して、該VNFを、初期配備先装置130から、配備先装置120(例えば図5の拠点装置10のサーバ)に、VNFを再配備する。尚、記憶部111、113等の各記憶部は、それぞれ個別の記憶装置(例えばHDD:Hard Disk Driveなど)で構成されても良いし、単一の記憶装置で構成されても良い。
<VNFのライブマイグレーション>
 図8は、NFV-MANOによるVNFの再配備の例を説明する図である。NFV-MANOのNFVオーケストレータは、NFVI(Network Functions Virtualization Infrastructure)のリソースのオーケストレーション、及び、ネットワークサービス(Network Service:NS)インスタンスのライフサイクル管理等を行う。VNFマネージャ(VNF Manager:VNFM)は、VNFインスタンスのライフサイクル管理等を行う。仮想化インフラストラクチャマネージャ(Virtualized Infrastructure Manager:VIM)は、サーバのNFVI(Network Function Virtualization Infrastructure)のコンピューティング、ストーレッジ、ネットワークのリソース管理、NFVIの障害監視、NFVIのリソース監視等を行う。
 図7の再配備制御装置110からの再配備指示は、NFV-MANOのNFVオーケストレータに送信される(図8のステップS11)。なお、再配備指示は、OSS/BSSや保守端末(図7の再配備制御装置110に接続される)等から、NFVオーケストレータに送信するようにしてもよい。OSS(Operations Support Systems)は、例えばキャリアがサービスを構築し、運営していくために必要なシステム(機器やソフトウェア、仕組みなど)を総称したものである。BSS(Business Support Systems)は、例えばキャリアが利用料などの課金、請求、顧客対応などのために使う情報システム(機器やソフトウェア、仕組みなど)の総称である。
 NFVオーケストレータからVIMにVNF1の再配備指示が送信される(図8のステップS12)。なお、NFVオーケストレータからのVNF1の再配備指示は、VNFMを経由してVIMに送信するようにしてもよい。
 VIMは、サーバ1(例えばキャリアクラウド40のサーバ)上のNFVI1上のVNF1に対して、サーバ2のNFVI2上にライブマイグレーションするように指示する(図8のステップS13)。
 VNF1は、サーバ2のNFVI2上に移転される(図8のステップS14)。ライブマイグレーションは、サーバ間を仮想マシンが移動し、メモリの内容等を移動先に引き継ぐことになる。移動先のサーバ装置は、プロセッサの性能やメモリ容量など、ハードウェアリソースに余裕があるものとする。また、仮想マシンは移動先サーバでは、移動先サーバの実行権を行使するため、移動先サーバで実行権が確保されているものとする。
 サーバ2のNFVI2上に移動したVNF1から、ライブマイマイグレーション完了通知をVIMが受ける(図8のステップS15)。
 VIMはライブマイマイグレーション完了通知をNFVオーケストレータに送信する(図8のステップS16)。
 NFVオーケストレータは配備制御装置にVNF1の再配備完了の通知を返す(図8のステップS17)。
 本実施形態によれば、キャリアクラウド40に初期配置した各サービスチェーンのVNFについて、各VNFのトラフィックの実測値に基づき、例えば広域ネットワークでのトラフィック削減に寄与する度合の高いVNFから、サービスチェーンの依存制約を維持しつつ、サービスチェーンのより上流に位置する再配備先に再配備する構成としたことで、システムの実際の運用等に適合したトラフィック削減効果を奏することを可能としている。その結果、ネットワーク性能の低下を回避可能とし、キャリアクラウド40が顧客に対して提供する通信サービスの性能、品質の向上を図ることを可能としている。
<実施形態2>
 図9は、本発明の第2の実施形態を説明する図である。本発明の第2の実施形態では、VNFの機能を、当該機能を処理可能なハードウェア装置へオフロードする。例えば、広域ネットワーク30や広域ネットワーク30に接続されるデータセンタ内のファイアウォール(FW)、通信回線を監視しネットワークへの侵入等を検知して管理者に通報するIDS(Intrusion Detection System)、インターネットなどのTCP(Transmission Control Protocol)/IPネットワークで通信を暗号化するSSL(Secure Sockets Layer)アクセラレータなどの機能が、ハードウェア装置にオフロード可能である。
 図9に示す例では、キャリアクラウド40のサーバ上に初期配備されたVNFのうちファイアウォールに相当する機能(vFW)を、ルータ35(例えばPEルータ)に実装する。この場合、ルータ35の設定を動的に切り替え、キャリアクラウド40上のvFWのアクセス制御ルールを設定したハードウェアで実装したファイアウォールを活性化するようにしてもよい。
 図10は、図9に示した本発明の第2の実施形態のVNF配備制御装置100の構成を示す図である。図7の構成とは、記憶部102に記憶されるVNF配備先情報として、
・オフロードが可能なVNFの種別を示す情報と、
・オフロード先のハードウェア装置のノード情報(図9の場合、ルータのアドレス情報、ルータが提供可能な機能等)を備えている。以下では、本発明の第2の実施形態のVNF配備制御装置100について、主に図7との相違点を説明する。
 図10において、VNF統計情報測定部115は、キャリアクラウド40のサーバ上に配備されたVNFのトラフィック削減効果等の統計情報を測定する。
 VNF消費リソース計算部112は、記憶部111に格納されているVNFの要求性能情報と、例えば拠点装置10のサーバ上に配置可能なVNFが必要とするリソース(仮想CPUの個数、仮想メモリの容量等)を使用リソース計算式にしたがって計算し、計算結果を再配備VNF・再配備先計算部114に供給する。
 再配備VNF・再配備先計算部114は、VNF統計情報と、VNFが必要とするリソースと、記憶部101に記憶されている装置性能情報、記憶部102に記憶されているVNF配備先情報を参照して、VNFの再配備先(VNFの機能のオフロード先)を求める。
 当該VNFの再配備先がハードウェア装置の場合、VNF再配備部116は、該ハードウェア装置に対して、VNF機能と等価のハードウェア機能を活性化させるように指示する。キャリアクラウド40のサーバ上に配備された再配備対象のVNFは、NFV-MANOのNFVオーケストレータの制御(例えばライフサイクル管理)により、停止(Terminate)される。
 本実施形態によれば、キャリアクラウド40に初期配置した各サービスチェーンのVNFについて各VNFのトラフィックの実測値に基づき、当該VNFの機能を、ハードウェア機器にオフロードすることで、ソフトウェアによるVNFに対して処理速度を向上させ、要求帯域が高いサービスチェーン等に適用して好適とされる。
 なお、本実施形態において、前記第1の実施形態と同様、拠点装置10に再配備対象のVNFをマイグレーションするとともに、他のVNF(例えば帯域上、クリティカルなパスのVNF)の機能等をハードウェアにオフロードするようにしてもよい。
<実施形態3:その1>
 図11、図12は、本発明の第3の実施形態を説明する図である。第3の実施形態をでは、VNFの再配備先を決定する際に、VNFの機能を分割し、それぞれの機能について、トラフィック削減量が推定可能なVNFについては、機能分割した上で、トラフィック上流への再配備を行う。
 コンテンツキャッシュにおいて、アクセス頻度の高いコンテンツはキャッシュエントリに保持され、ヒット率が高い。
 例えばアクセス要求元からのHTTP(Hypertext Transfer Protocol)リクエストを受け、該リクエストで指定されたパス又はURL(Uniform Resource Locator)のコンテンツ(例えばWebコンテンツ)がキャッシュされている場合(ヒット)、キャッシュされたコンテンツを要求元に返し、キャッシュされていない場合(キャッシュミス)、要求コンテンツを格納しているWebサーバ等(オリジンサーバ)から該コンテンツを取得してキャッシュし、要求元にWebコンテンツを返す。したがって、ヒット率が高いキャッシュエントリでは、キャッシュミスの割合が低いため、広域ネットワークへアクセス要求が転送される割合は、ヒット率が低い場合と比べて低くなる。即ち、トラフィック削減効果が高くなる。また、ヒット率が高いキャッシュエントリでは、コンテンツの配信元(例えば拠点装置20)から、コンテンツ要求元(拠点装置10)へ広域ネットワーク30を介して送信されるコンテンツのデータ量も少なくなる。
 なお、特に制限されないが、図11(A)の例では、キャリアクラウド40上の仮想コンテンツキャッシュ50-2は、サーバ上に、VNFとして機能を仮想化したキャッシュ(仮想CPU、仮想メモリ、仮想ストレージ等からなる仮想マシン)で構成されている。また、ヒット率の高い方からいくつかのキャッシュエントリは、拠点装置10のサーバ上で仮想化された仮想コンテンツキャッシュ50-1として実装される。
 本実施形態では、コンテンツキャッシュをVNFとして仮想化し、仮想化コンテンツキャッシュ(VNF)をキャッシュエントリごとに分割し、キャッシュエントリごとのトラフィック削減量を当該キャッシュエントリのヒット率等から推定する。そして、仮想化コンテンツキャッシュ(VNF)のキャッシュエントリごとのトラフィック削減量に基づき、仮想化コンテンツキャッシュ(VNF)の一部のキャッシュエントリを、現在の配備位置より上流側へ移動するようにしてもよい。
 図11(B)は、仮想コンテンツキャッシュ50において、コンテンツを格納するキャッシュエントリを模式的に示す図である。コンテンツキャッシュはRAM(Random Access Memory)等のメモリ、及びHDD(Hard Disk Drive)等のストレージを用いて実装されるが、仮想マシン上に実装される仮想コンテンツキャッシュは仮想メモリ、及び仮想ストレージを用いて実装される。特に制限されないが、各キャッシュエントリのID欄は、キャッシュエントリの識別情報(エントリ番号)、パス/URL欄は、コンテンツのパス名やURL等である。コンテンツ欄は、例えばキャッシュしているコンテンツ(Webページや画像情報・音声情報等)の格納領域である。コンテンツ欄は、コンテンツそのものを格納する代わりに、コンテンツを格納しているストレージ(仮想ストレージ)のアドレス(論理アドレス、サイズ)等であってもよい。ヒットカウント(ヒット率)は、アクセス要求に対して当該キャッシュエントリがヒットしたカウント値(又は、ヒットした回数をアクセス要求の回数で除算した値)である。
 例えば図11(B)のエントリ1のヒット率が、他のエントリよりも高い場合、キャッシュエントリ1のVNFC1が拠点装置10のサーバに再配備され(図11(A)の仮想コンテンツキャッシュ50-1)、残りのキャッシュエントリ2~Nはそのままキャリアクラウド40のサーバ上に配備するようにしてもよい(図11(A)の仮想コンテンツキャッシュ50-2)。
 なお、図11(B)に示すように、キャッシュエントリをVNFC(VNF Component)として管理し、複数のVNFCを組み合わせて一つのVNF(仮想化コンテンツキャッシュ)を構築するようにしてもよい。それぞれのVNFCは独立して実行できる(他のVNFCには依存しない)。
 ここで、広域ネットワーク30をインターネットとし、拠点装置20をコンテンツ配信サーバとする。テナントAからのアクセス要求(HTTPリクエスト)で要求されたコンテンツが、拠点装置10の仮想コンテンツキャッシュ50-1にキャッシュされている場合(ヒット)、キャッシュされているコンテンツがテナントAに送信される。この場合、拠点装置10から広域ネットワーク30へアクセス要求(HTTPリクエスト)が送信されることはなく、当該トラフィックが削減される。
 一方、テナントAからのアクセス要求(HTTPリクエスト)で要求されたコンテンツが、拠点装置10の仮想コンテンツキャッシュ50-1にキャッシュされていない場合(キャッシュミス)、当該アクセス要求(HTTPリクエスト)は、拠点装置10から広域ネットワーク30を介してキャリアクラウド40の仮想コンテンツキャッシュ50-2に転送される。
 テナントAからのアクセス要求(HTTPリクエスト)で要求されたコンテンツが、仮想コンテンツキャッシュ50-2にキャッシュされている場合(ヒット)、キャッシュされているコンテンツが、広域ネットワーク30を介して拠点装置10に転送されテナントAに返される。この場合も、キャリアクラウド40から、アクセス要求が広域ネットワーク30を介して拠点装置20へ転送されることはなく、トラフィックが削減される。
 テナントAからのアクセス要求(HTTPリクエスト)で要求されたコンテンツが、仮想コンテンツキャッシュ50-2にキャッシュされていない場合(キャッシュミスの場合)、アクセス要求がキャリアクラウド40から広域ネットワーク30を介して拠点装置20に転送される。拠点装置20から要求されたコンテンツが、広域ネットワーク30を介して、拠点装置10に転送され、例えば仮想コンテンツキャッシュ50-1にキャッシュされる。
 ヒット率の高いキャッシュエントリが配備される拠点装置10のCPU性能、メモリ容量等が、リソース要件を満たすことが必要である。
 なお、キャッシュエントリに対応する一つのVNFCを配備単位(Virtual Deployment Unit:VDU)として、拠点装置10のサーバ上にライブマイグレーションしてもよい。あるいは、VNFCを複数まとめたものをVDUとしてもよい。この場合、ヒット率の高い方からいくつかのキャッシュエントリを、VDU単位として、一括で移動することが可能となる。
 上記構成によれば、キャッシュエントリのヒット率の変化等に応じて、拠点装置10に配備するコンテンツキャッシュのエントリを動的に変更することを可能としたことで、実際の運用状況の推移によるコンテンツのアクセス傾向の変更に追従して、拠点装置10から広域ネットワーク30へ送出されるトラフィックの削減効果を適切に維持することを可能としている。
<実施形態3:その2>
 図12は、仮想ファイアウォール(vFW)を分割して再配備した例を説明する図である。図12(B)に模式的に示すように、ファイアウォールにおいて、「送信元/送信先IPアドレス」や「送信元/送信先ポート」を基に、アクセス制御(パケットフィルタリング)を行うルールを定めたACL(Access Control List)エントリ群を、エントリごとにVNFCに分割し、ACLエントリのヒット数等から、それぞれのエントリのトラフィック削減率を推定し、トラフィック削減率の多いルールから上流vFWへエントリを移動する。
 図7のVNF統計情報測定部115は、ACLエントリのVNFC(VNF)ごとにヒット数を計数し、VNF統計情報として記憶部113に記憶するようにしてもよい。図7の再配備VNF・再配備先計算部114は、ファイアウォールのACLエントリごとに、再配備先を導出するようにしてもよい。
 ファイアウォールにおいて、パケットのアクセス制御は、ACLエントリの順に行われる。パケットの宛先アドレス情報がACLエントリのいずれかに一致する場合に、動作(Action)が許可(Permit)であれば、当該パケットの転送が許可され、それ以外の場合、パケットはドロップされ、ログに記録される。パケットの宛先アドレス情報がACLエントリのいずれかに一致したときの、動作(Action)が不許可(Deny)であれば、当該パケットはドロップされ、ログに記録される。ACLエントリのヒットカウントはパケットがACLエントリに一致する場合に一つ増加する。
 動作がDenyのACLエントリの場合、当該ACLエントリのヒットカウント(ヒット率)が高いエントリは、パケットがドロップされる割合が高い。すなわち、ヒットカウント(ヒット率)が大きいACLエントリを上流の拠点装置10に配備した場合、拠点装置10から広域ネットワーク30にパケットが転送される割合は低くなる。そこで、図12(A)に示すように、例えばヒット率が高い1つ又の複数のACLエントリ(動作=Deny)を、拠点装置10のサーバ上に配備する。
 動作がPermitのACLエントリの場合、当該ACLエントリのヒットカウント(ヒット率)が低いエントリは、パケットがドロップされる割合が高いことから、ヒットカウント(ヒット率)が低いACLエントリを上流の拠点装置10に配備した場合、拠点装置10から広域ネットワーク30にパケットが転送される割合は低くなる。
 なお、ACLエントリとのマッチングが、エントリ番号の若い順から行われる。このため、拠点装置10に配備されたACLエントリは、ヒット率の順に配備することで、効率化を図るようにしてもよい。
 上記構成によれば、ファイアウォールのACLエントリのヒット率の変化等に応じて、拠点装置10に配備するACLエントリを動的に変更することを可能としたことで、実際の運用状況の推移によるアクセス傾向等が変化しても、該変化に追従して、拠点装置10から広域ネットワーク30へ送出されるトラフィックの削減効果を、適切に維持可能としている。
<実施形態4>
 図13は、本発明の第4の実施形態について説明する図である。VNFの再配備先を決定するにあたり、本実施形態では、キャリアクラウドのサーバ上に初期配備されたVNFのトラフィックの削減量の累積値を考慮する。キャリアクラウドのサーバにおいて、VNF単体のトラフィック削減量だけではなく、あるVNFまでのトラフィック累積削減量を指標として、移動すべきVNFブロックを決定する。
 拠点装置10のサーバ上にVNFを二つ再配備可能であるものとする。キャリアクラウド40のサーバ上に配備されたVNFから、再配備対象のVNFを二つ選択する場合、サービスチェーン1では、VNF1とVNF2のトラフィックの累積削減率は5%+50%=55%である。
 サービスチェーン2、3では、VNF1とVNF2のトラフィック削減率の合計は20%である。
 VNF単体のトラフィック削減量を指標とすると、サービスチェーン2、3のVNF1、VNF1のトラフィック削減率:10%の二つが、サービスチェーン1のVNF1のトラフィック削減率:5%に優るため、再配備対象として選択される。しかしながら、サービスチェーン1の前後2段のVNF1(トラフィック削減率:5%)とVNF2(トラフィック削減率:50%)の二つを、拠点装置10のサーバに再配備した方がトラフィックの累積削減率:55%となり、VNF単体の削減量を指標とした場合と比べて、再配備後の広域ネットワークへのトラフィックの削減効果が大きい。
 このように、再配備先のVNFの個数分を選択するにあたり、VNF単体でトラフィック削減率の大きい方から再配備先個数分選択するかわりに、1つのサービスチェーンから、再配備先で収容可能な個数分又はそれ以下の個数のVNFを選択し、VNF単体で選択した場合のトラフィック削減率と比較して、トラフィック削減率の高い方の組み合わせを選択するようにしてもよい。また、サービスチェーンの順序の入れ替えが可能なVNFは、トラフィック削減率の高いVNFが先となるように入れ替えて、1つのサービスチェーンから、再配備先で収容可能な個数分又はそれ以下の個数のVNFを選択するようにしてもよい。
 本実施形態によれば、トラフィック削減効果に基づき、VNF単体をサービスチェーンをまたがって探索する場合(例えば図4(B)、図5の幅優先探索)と比べて、一つのサービスチェーンをトラフィック進行方向(サービスチェーンの有向グラフの向き:深さ方向)に探索し(深さ優先探索)、累算したトラフィック削減効果を考慮して再配備対象のVNFを決定する構成としたことで、VNFの再配備による広域ネットワークに対する、より適切なトラフィック削減効果を実現可能としている。
<実施形態5>
 図14は、本発明の第5の実施形態を説明する図である。本実施形態は、キャリアクラウド40のサーバ上に配備したVNF1をマイグレーションし、拠点Aのサーバ装置上に再配備した結果、キャリアクラウド40を経由する必要がなくなったサービスチェーンについて、キャリアクラウド40を経由しないように、広域ネットワーク30上のパス制御を行う。
 例えば広域ネットワーク30が、オーバレイネットワークの場合、例えば、事前に、フルメッシュで拠点間にトンネルを開通させておき、Outer Destination(利用するトンネル)を変更するようにしてもよい。オーバレイネットワークは、例えばインターネット上に構築したインターネットVPN(Virtual Private Network)等で構成してもよい。オーバレイネットワークは、SDNコントローラ等が、仮想スイッチだけに経路情報を書き込むことにより、仮想スイッチの間をトンネル接続し、仮想ネットワークを構築することができる。この結果、キャリアクラウド40のVNFを経由せず、拠点間ダイレクト通信に経路が変更される。
 あるいは、広域ネットワーク30が、キャリアのトランスポートネットワークである場合、広域ネットワーク30上の使用するパスを切り替え、広域ネットワーク30上に新規パスを構築するようにしてもよい。トランスポートネットワーク(光波長多重ネットワーク)は、デジタルコーヒレント技術(高速光伝送技術)、光クロスコネクト(OXC:optical cross connect)、トランスポートプロトコルとしてMPLS-TP(Multi Protocol Label Switching Transport Profile)によるパケットスイッチ(パケットトランスポート)を統合し、高速大容量トラフィック伝送、中継ルータのIPルーティング負荷の軽減等を図るものである。広域ネットワーク30上の使用するパスを切り替え、広域ネットワーク30上に新規パスを構築する。
<オーバレイネットワーク>
 図15(A)は、図14の広域ネットワーク30がオーバレイネットワークの場合を説明する図である。VNF配備コントローラ(VNF配備制御装置)100は、図7のVNF配備制御装置100に対応している。
 図15(B)は、インターネット上のフルメッシュ型VPN接続を説明する図である。VPN(Virtual Private Network)ゲートウェイ(VPN GW)は、ほかのVPNゲートウェイと直接VPNコネクションで接続される。図15(B)の例では、VPN GW Aは、ほかの3つのサイトのVPN GWと B、C、DとそれぞれVPNトンネルで直接接続する。
 図15(A)において、VNF配備コントローラ(VNF配備制御装置)100は、キャリアクラウド40のサーバ上のVNFを、拠点装置10のサーバ上に再配備する。GRE(Generic Routing Encapsulation)トンネルを経由し通信が行われる場合、GREヘッダとともに新しいIPヘッダ(Outer IPヘッダ)が付加されてパケットが転送される。VNF配備コントローラ(VNF配備制御装置)100は、オーバレイコントローラ200に、トンネルパケットのIPヘッダ(Outer IPヘッダ)の宛先IPアドレス(IP Destination Address)欄の変更を依頼する。拠点装置10のトンネルゲートウェイは、Outer IPヘッダのIP destination Address(宛先先IPアドレス)を、キャリアクラウドのトンネルゲートウェイから、拠点装置20のトンネルゲートウェイに切り替えてパケットを転送する。
 あるいは、拠点装置10、20等のサーバが仮想スイッチを実装している場合、オーバレイコントローラ200から、拠点装置10、20の仮想スイッチに経路情報を書き込むだけで仮想ネットワークを作成することが可能である。
 本実施形態によれば、再配備後のVNFを経由して転送されるトラフィックのネットワーク切り替えを効率化している。
<トランスポートネットワーク>
 図16は、トランスポートネットワーク上でのパスの切り替えを説明する図である。MPLSでは、パケットやフレームを、LSP(Label Switched Path)と呼ばれるトンネルに割り当て、トンネル単位で転送を制御する。PEルータ(Provider Edge router)間は、トンネルLSPと呼ばれるLSPが張られる。LSPは経路の片方だけのパスであり、両方向の経路のパスで通信を行う場合はLSPが二つ必要になる。
 VNF配備コントローラ(VNF配備制御装置)100は、キャリアクラウド40のサーバ上のVNFを、例えば拠点装置10のサーバ上に再配備する。その際、VNF配備コントローラ(VNF配備制御装置)100は、SDNコントローラ210に対して、パス制御を依頼する。
 SDNコントローラ210は、拠点装置10とキャリアクラウド40間のパス(PEルータ:PE1、PE3間のトンネル)、キャリアクラウド40間と拠点装置20間のパス(PEルータ:PE4、PE2間のトンネル)を削除し、拠点装置10と拠点装置20間に、パス(PEルータ:PE1とPE2間のトンネル)を作成する。なお、図16におおいて、PE1とPE2間のトンネル間のプロバイダルータ(Provider router)等は省略されている。
 なお、上記の特許文献1-7、非特許文献1の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ乃至選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。
 上記した各実施形態は、方法の発明に関して、例えば以下のように付記される(ただし、以下に制限されない)。
(付記1) サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定し、
 再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、前記ネットワーク機能の現在の配備位置より上流に再配備する、
 ことを特徴とする機能配備方法。
(付記2) 前記現在の配備位置より上流の再配備先に、再配備対象の前記ネットワーク機能を収容するに足るリソース余裕があるか否かを検証し、リソース余裕がある場合に、再配備対象の前記ネットワーク機能を前記再配備先へ再配備する、ことを特徴とする付記1記載の機能配備方法。
(付記3) 前記サービスチェーンの端点が、広域網を介してクラウドに接続し、
 前記サービスチェーンを構成し前記クラウド上に配備された一つ又は複数のネットワーク機能に対してトラフィックの測定を行う、ことを特徴とする付記1又は2記載の機能配備方法。
(付記4) 再配備対象の前記ネットワーク機能を、前記クラウドから、前記広域網の所定のノード又は前記端点に移動させる、ことを特徴とする付記3記載の機能配備方法。
(付記5) 再配備対象の前記ネットワーク機能を、前記広域網に接続するノードのハードウェア機器にオフロードする、ことを特徴とする付記3記載の機能配備方法。
(付記6) トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、トラフィック削減率の高い前記ネットワーク機能を優先的に再配備対象として選択する、ことを特徴とする付記1乃至5のいずれか1に記載の機能配備方法。
(付記7) トラフィック削減率の高い前記ネットワーク機能から順に、前記現在の配備位置より上流の再配備先で収容可能な個数以下のネットワーク機能を選択する、ことを特徴とする付記6記載の機能配備方法。
(付記8) トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、サービスチェーン毎の複数の機能のトラフィックの累積削減率を考慮して再配備対象のネットワーク機能を決定する、ことを特徴とする付記1乃至5のいずれか1に記載の機能配備方法。
(付記9) 前記サービスチェーン毎の機能のトラフィックの累積削減率と、ネットワーク機能単体でのトラフィック削減率に基づき、前記ネットワーク機能の現在の配備位置より上流の再配備先で収容可能な個数以下の機能を選択する、ことを特徴とする付記8記載の機能配備方法。
(付記10) 前記ネットワーク機能を複数に分割し、前記分割した単位で再配備対象の前記ネットワーク機能を決定し、
 前記分割した単位で前記トラフィックの転送経路のより上流に再配備する、ことを特徴とする付記1乃至9のいずれか1に記載の機能配備方法。
(付記11) 再配備対象の前記ネットワーク機能が、サーバ上で仮想化された仮想化機能である、ことを特徴とする付記1乃至10のいずれか1に記載の機能配備方法。
(付記12) 前記サービスチェーンの端点から、再配備先に配備された前記ネットワーク機能を通り、前記サービスチェーンの他の端点へ接続するパスに切り替える手段を備えた、ことを特徴とする付記1乃至11のいずれか1に記載の機能配備方法。
1 機能配備装置
2 再配備機能決定手段(ユニット)
3 再配備手段(ユニット)
4 記憶部
10 拠点装置(サーバ装置)
20 拠点装置(サーバ装置)
30 広域ネットワーク(WAN)
31~34 PEルータ
35 ルータ
40 キャリアクラウド
41 ゲートウェイ(GW)
42 サーバ装置
43 ハイパーバイザ
44 測定装置
45 再配備制御装置
50 仮想コンテンツキャッシュのキャッシュエントリ
50-1、50-2 仮想コンテンツキャッシュ
60 仮想ファイアウォールのACLエントリ
60-1、60-2 仮想ファイアウォール
100 VNF配備制御装置(VNF配備コントローラ)
101 記憶部(装置性能情報記憶部)
102 記憶部(VNF配備先情報記憶部)
103 記憶部(サービスチェーン情報記憶部)
104 VNF初期配備部
110 再配備制御装置
111 記憶部(VNF要求性能情報記憶部)
112 VNF消費リソース計算部
113 記憶部(VNF統計情報記憶部)
114 再配備VNF・再配備先計算部
115 VNF統計情報測定部
116 VNF再配備部
117 記憶部(VNF配備先情報・サービスチェーンID)
120 配備先装置
130 初期配備先装置
200 オーバレイコントローラ
210 SDNコントローラ

Claims (25)

  1.  サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つの前記ネットワーク機能を再配備対象として決定する第1の手段と、
     再配備対象の前記ネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、前記ネットワーク機能の現在の配備位置より上流に再配備する第2の手段と、
     を備えたことを特徴とする通信システム。
  2.  前記第2の手段は、前記現在の配備位置より上流の再配備先に、再配備対象の前記ネットワーク機能を収容するに足るリソース余裕があるか否かを検証し、リソース余裕がある場合に、再配備対象の前記ネットワーク機能を前記再配備先へ再配備する、ことを特徴とする請求項1記載の通信システム。
  3.  前記サービスチェーンの端点が、広域網を介してクラウドに接続し、
     前記第1の手段は、前記サービスチェーンを構成し前記クラウド上に配備された一つ又は複数のネットワーク機能に対してトラフィックの測定を行う測定部を備えた、ことを特徴とする請求項1又は2記載の通信システム。
  4.  前記第2の手段は、再配備対象の前記ネットワーク機能を、前記クラウドから、前記広域網の所定のノード又は前記端点に移動させる、ことを特徴とする請求項3記載の通信システム。
  5.  前記第2の手段は、再配備対象の前記ネットワーク機能を、前記広域網に接続するノードのハードウェア機器にオフロードする、ことを特徴とする請求項3記載の通信システム。
  6.  前記第1の手段は、トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、トラフィック削減率の高い前記ネットワーク機能を優先的に再配備対象として選択する、ことを特徴とする請求項1乃至5のいずれか1項に記載の通信システム。
  7.  前記第1の手段は、トラフィック削減率の高い前記ネットワーク機能から順に、前記ネットワーク機能の現在の配備位置より上流の再配備先で収容可能な個数以下のネットワーク機能を選択する、ことを特徴とする請求項6記載の通信システム。
  8.  前記第1の手段は、トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、サービスチェーン毎の複数のネットワーク機能のトラフィックの累積削減率を考慮して、再配備対象のネットワーク機能を決定する、ことを特徴とする請求項1乃至5のいずれか1項に記載の通信システム。
  9.  前記第1の手段は、前記サービスチェーン毎のネットワーク機能のトラフィックの累積削減率と、ネットワーク機能単体でのトラフィック削減率と、に基づき、前記ネットワーク機能の前記現在の配備位置より上流の再配備先で収容可能な個数以下のネットワーク機能を選択する、ことを特徴とする請求項8記載の通信システム。
  10.  前記第1の手段は、前記ネットワーク機能を複数に分割し、前記分割した単位で再配備対象を決定し、
     前記第2の手段は、前記分割した単位で、前記ネットワーク機能の前記現在の配備位置より上流に再配備する、ことを特徴とする請求項1乃至9のいずれか1項に記載の通信システム。
  11.  再配備対象の前記ネットワーク機能が、サーバ上で仮想化された仮想化機能である、ことを特徴とする請求項1乃至10のいずれか1項に記載の通信システム。
  12.  前記サービスチェーンの端点から、再配備前の前記ネットワーク機能を通り、前記サービスチェーンの他の端点へ接続するパスから、
     前記サービスチェーンの端点から、再配備先に配備された前記ネットワーク機能を通り、前記サービスチェーンの他の端点へ接続するパスに切り替える手段を備えた、ことを特徴とする請求項1乃至11のいずれか1項に記載の通信システム。
  13.  サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定する再配備機能決定部と、
     再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、前記ネットワーク機能の現在の配備位置より上流に再配備する再配備部と、
     を備えたことを特徴とする機能配備装置。
  14.  前記再配備部は、前記ネットワーク機能の現在の配備位置より上流の再配備先に、再配備対象の前記ネットワーク機能を収容するに足るリソース余裕があるか否かを検証し、
     リソース余裕がある場合に、再配備対象の前記ネットワーク機能を、前記再配備先へ再配備する、ことを特徴とする請求項13記載の機能配備装置。
  15.  前記サービスチェーンの端点が、広域網を介してクラウドに接続し、
     前記再配備機能決定部は、前記サービスチェーンを構成し前記クラウド上に配備された一つ又は複数の機能に対して、トラフィックの測定を行う測定部を備えた、ことを特徴とする請求項13又は14記載の機能配備装置。
  16.  前記再配備部は、再配備対象の前記ネットワーク機能を、前記クラウドから、前記広域網の所定のノード又は前記端点に移動させる、ことを特徴とする請求項15記載の機能配備装置。
  17.  前記再配備部は、再配備対象の前記ネットワーク機能を、前記広域網に接続するノードのハードウェア機器にオフロードする、ことを特徴とする請求項15記載の機能配備装置。
  18.  前記再配備機能決定部は、トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、トラフィック削減率の高い前記ネットワーク機能を優先的に再配備対象として選択する、ことを特徴とする請求項13乃至17のいずれか1項に記載の機能配備装置。
  19.  前記再配備機能決定部は、トラフィック削減率の高い前記ネットワーク機能から順に、前記現在の配備位置より上流の再配備先で収容可能な個数以下のネットワーク機能を再配備対象として選択する、ことを特徴とする請求項18記載の機能配備装置。
  20.  前記再配備機能決定部は、トラフィックの測定結果に基づき再配備対象のネットワーク機能を決定するにあたり、サービスチェーン毎の複数の機能のトラフィックの累積削減率を考慮して、再配備対象のネットワーク機能を決定する、ことを特徴とする請求項13乃至17のいずれか1項に記載の機能配備装置。
  21.  前記再配備機能決定部は、前記サービスチェーン毎のネットワーク機能のトラフィックの累積削減率と、ネットワーク機能単体でのトラフィック削減率とに基づき、前記ネットワーク機能の現在の配備位置より上流の再配備先で収容可能な個数以下のネットワーク機能を選択する、ことを特徴とする請求項20記載の機能配備装置。
  22.  前記再配備機能決定部は、前記ネットワーク機能を複数に分割し、前記分割した単位で前記再配備対象を決定し、
     前記再配備部は、前記分割した単位で、前記現在の配備位置より上流に再配備する、ことを特徴とする請求項13乃至21のいずれか1項に記載の機能配備装置。
  23.  再配備対象の前記ネットワーク機能が、サーバ上で仮想化された仮想化機能である、ことを特徴とする請求項13乃至22のいずれか1項に記載の機能配備装置。
  24.  サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定し、
     再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、前記ネットワーク機能の現在の配備位置より上流に再配備する、
     ことを特徴とする機能配備方法。
  25.  サービスチェーンを構成する一つ又は複数のネットワーク機能のトラフィックの測定結果に基づき、トラフィックの削減に寄与する少なくとも一つのネットワーク機能を再配備対象として決定する処理と、
     再配備対象のネットワーク機能を、前記サービスチェーンにおける機能間の依存関係を維持しながら、前記ネットワーク機能の現在の配備位置より上流に再配備する処理と、
     をコンピュータに実行させるプログラム。
PCT/JP2017/013618 2016-03-31 2017-03-31 通信システムと機能配備装置と機能配備方法並びにプログラム WO2017171011A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-072768 2016-03-31
JP2016072768 2016-03-31

Publications (1)

Publication Number Publication Date
WO2017171011A1 true WO2017171011A1 (ja) 2017-10-05

Family

ID=59964871

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/013618 WO2017171011A1 (ja) 2016-03-31 2017-03-31 通信システムと機能配備装置と機能配備方法並びにプログラム

Country Status (1)

Country Link
WO (1) WO2017171011A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112637064A (zh) * 2020-12-31 2021-04-09 广东电网有限责任公司电力调度控制中心 一种基于改进深度优先搜索算法的业务链编排方法
CN113904923A (zh) * 2021-09-27 2022-01-07 重庆电子工程职业学院 一种基于软件定义网络的服务功能链联合优化方法
US11431636B2 (en) * 2018-08-03 2022-08-30 Nippon Telegraph And Telephone Corporation Communication system and communication method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082858A (ja) * 2009-10-08 2011-04-21 Nippon Telegr & Teleph Corp <Ntt> ネットワーク制御システムおよびネットワーク制御方法
WO2015194182A1 (ja) * 2014-06-19 2015-12-23 日本電気株式会社 サービスチェーン管理装置、サービスチェーン管理システム、サービスチェーン管理方法、及び、プログラム記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082858A (ja) * 2009-10-08 2011-04-21 Nippon Telegr & Teleph Corp <Ntt> ネットワーク制御システムおよびネットワーク制御方法
WO2015194182A1 (ja) * 2014-06-19 2015-12-23 日本電気株式会社 サービスチェーン管理装置、サービスチェーン管理システム、サービスチェーン管理方法、及び、プログラム記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431636B2 (en) * 2018-08-03 2022-08-30 Nippon Telegraph And Telephone Corporation Communication system and communication method
CN112637064A (zh) * 2020-12-31 2021-04-09 广东电网有限责任公司电力调度控制中心 一种基于改进深度优先搜索算法的业务链编排方法
CN113904923A (zh) * 2021-09-27 2022-01-07 重庆电子工程职业学院 一种基于软件定义网络的服务功能链联合优化方法
CN113904923B (zh) * 2021-09-27 2023-08-22 重庆电子工程职业学院 一种基于软件定义网络的服务功能链联合优化方法

Similar Documents

Publication Publication Date Title
US11677720B2 (en) Method and system of establishing a virtual private network in a cloud service for branch networking
US11374904B2 (en) Method and system of a cloud-based multipath routing protocol
US20230006929A1 (en) Method and system of application-aware routing with crowdsourcing
US20210344692A1 (en) Providing a virtual security appliance architecture to a virtual cloud infrastructure
US10771434B1 (en) Route signaling driven service management
US9596159B2 (en) Finding latency through a physical network in a virtualized network
JP6151363B2 (ja) フロー偏向を介したソフトウェア定義ネットワークのセキュリティ保護
CN107005584B (zh) 用于内联服务交换机的方法、设备和存储介质
US9305164B1 (en) Tiered network flow analysis
US11057387B2 (en) Infrastructure aware adaptive resource allocation
US9450981B2 (en) System and method thereof for mitigating denial of service attacks in virtual networks
Govindarajan et al. A literature review on software-defined networking (SDN) research topics, challenges and solutions
Dai et al. Enabling network innovation in data center networks with software defined networking: A survey
US9509631B2 (en) Quality of service (QoS) for information centric networks
US9712649B2 (en) CCN fragmentation gateway
US20170026461A1 (en) Intelligent load balancer
JP2017184168A (ja) 通信システムと制御装置と通信制御方法並びにプログラム
US20170302569A1 (en) Contract-defined execution of copy service
US9973578B2 (en) Real time caching efficient check in a content centric networking (CCN)
WO2017171011A1 (ja) 通信システムと機能配備装置と機能配備方法並びにプログラム
Rzepka et al. PARD: Hybrid proactive and reactive method eliminating flow setup latency in SDN
US11122115B1 (en) Workload distribution in a data network
RU2675212C1 (ru) Адаптивная балансировка нагрузки при обработке пакетов
US11477274B2 (en) Capability-aware service request distribution to load balancers
Dai et al. Elastically augmenting the control-path throughput in SDN to deal with internet DDoS attacks

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17775542

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17775542

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP