WO2014077313A1 - 通信システム、制御装置、その制御方法及びプログラム - Google Patents

通信システム、制御装置、その制御方法及びプログラム Download PDF

Info

Publication number
WO2014077313A1
WO2014077313A1 PCT/JP2013/080778 JP2013080778W WO2014077313A1 WO 2014077313 A1 WO2014077313 A1 WO 2014077313A1 JP 2013080778 W JP2013080778 W JP 2013080778W WO 2014077313 A1 WO2014077313 A1 WO 2014077313A1
Authority
WO
WIPO (PCT)
Prior art keywords
path
control
network
nodes
failure
Prior art date
Application number
PCT/JP2013/080778
Other languages
English (en)
French (fr)
Inventor
昌洋 林谷
長谷川 洋平
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP13856009.9A priority Critical patent/EP2922248B1/en
Priority to ES13856009T priority patent/ES2745637T3/es
Priority to US14/439,208 priority patent/US9544223B2/en
Priority to CN201380060175.5A priority patent/CN104798348A/zh
Priority to JP2014547027A priority patent/JP6311612B2/ja
Publication of WO2014077313A1 publication Critical patent/WO2014077313A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/28Routing or path finding of packets in data switching networks using route fault recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0686Additional information in the notification, e.g. enhancement of specific meta-data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/0816Configuration setting characterised by the conditions triggering a change of settings the condition being an adaptation, e.g. in response to network events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • H04L41/122Discovery or management of network topologies of virtualised topologies, e.g. software-defined networks [SDN] or network function virtualisation [NFV]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/34Signalling channels for network management communication
    • H04L41/342Signalling channels for network management communication between virtual entities, e.g. orchestrators, SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0805Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
    • H04L43/0817Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/20Arrangements for monitoring or testing data switching networks the monitoring system or the monitored elements being virtualised, abstracted or software-defined entities, e.g. SDN or NFV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/24Multipath
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/74Address processing for routing
    • H04L45/745Address table lookup; Address filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0631Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis
    • H04L41/065Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis involving logical or physical relationship, e.g. grouping and hierarchies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • H04L41/0659Management of faults, events, alarms or notifications using network fault recovery by isolating or reconfiguring faulty entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • H04L41/0663Performing the actions predefined by failover planning, e.g. switching to standby network elements

Definitions

  • the present invention is based on the priority claim of Japanese patent application: Japanese Patent Application No. 2012-252425 (filed on November 16, 2012), the entire contents of which are incorporated herein by reference. Shall.
  • the present invention relates to a communication system, a control device, a control method thereof, and a program.
  • the present invention relates to a communication system including a control device that centrally controls a network, a control device, a control method thereof, and a program.
  • Patent Document 1 when GMPLS (Generalized Multi-Protocol Label Switching) is adopted as a control plane and the failure can be recovered only by the optical switch (data plane in Patent Document 1), the failure is recovered by switching the optical switch. Technology is disclosed. On the other hand, when the failure cannot be recovered only by the optical switch, the failure is recovered by controlling the GMPLS control plane.
  • GMPLS Generalized Multi-Protocol Label Switching
  • Patent Document 2 discloses a technique for preventing path disconnection of a data plane during data transfer when a failure occurs only in the control plane in a network in which the data plane and the control plane are configured by different media.
  • Patent Document 3 discloses a technique for efficiently performing failure recovery at the time of multiple failures by distributed control.
  • Patent Document 4 discloses a technique for acquiring highly reliable path state information by synchronizing a data plane and a control plane, and managing the data plane and the control plane in cooperation with each other.
  • Acceleration of failure can be expected by performing failure recovery only on the data plane without depending on the control plane.
  • control route control
  • control route control
  • control plane in Patent Document 1 is distributed control using GMPLS. Therefore, it takes time to identify the fault location as compared to the control plane by centralized control. Furthermore, even if a single failure can be handled, if the control plane is distributed control, the response to multiple failures becomes complicated, and as a result, reliable failure recovery may not be possible. Further, with the technology disclosed in Patent Document 1, since it is determined that failure recovery by the data plane is impossible, failure information is notified to the control plane, so failure recovery on the control plane is delayed.
  • Patent Document 2 is a technology for preventing path disconnection in the data plane when a failure occurs in the control plane, and is irrelevant to failure recovery using the data plane and the control plane. Furthermore, since the technique disclosed in Patent Document 3 is a failure recovery method using distributed control as in Patent Document 1, it is complicated to deal with multiple failures. Furthermore, the technique disclosed in Patent Literature 4 links the data plane and the control plane to achieve highly reliable acquisition of route state information. That is, the technique disclosed in Patent Document 4 does not have a main purpose of failure recovery.
  • the present invention provides a communication system, a control device, a control method thereof, and a communication system that contributes to properly using failure recovery by a plurality of nodes and failure recovery by a control device that controls the plurality of nodes.
  • the purpose is to provide a program.
  • a plurality of nodes each having an OAM (Operation Administration and Maintenance) function and a control device that controls the plurality of nodes are included, and each of the plurality of nodes includes the plurality of nodes.
  • a state change notification including information related to a port affected by a failure occurring in a network including the nodes, and the control device transmits the state change notification and information regarding the configuration of the network; Based on the above, a communication system for determining whether or not to perform route control in the network is provided.
  • a port affected by a failure that has occurred in a network composed of a plurality of nodes from at least one of a plurality of nodes having an OAM (Operation Administration and Maintenance) function a communication unit that receives a state change notification including information, a route control determination unit that determines whether or not to perform route control in the network, based on the state change notification and information on the configuration of the network; are provided.
  • OAM Operaation Administration and Maintenance
  • a port affected by a failure that has occurred in a network composed of a plurality of nodes from at least one of a plurality of nodes having an OAM (Operation Administration and Maintenance) function including: receiving a state change notification including information; and determining whether or not to perform route control in the network based on the state change notification and information on a configuration of the network.
  • OAM Operaation Administration and Maintenance
  • An apparatus control method is provided. This method is linked to a specific machine called a control device for controlling the network.
  • At least one of nodes configuring a plurality of networks having an OAM (Operation Administration and Maintenance) function is affected by a failure occurring in the network configured by the plurality of nodes.
  • OAM Operaation Administration and Maintenance
  • a program for causing a computer that controls the control device to execute the process of determining the above can be recorded on a computer-readable storage medium.
  • the storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like.
  • the present invention can also be embodied as a computer program product.
  • a communication system a control device, a control method, and a program that contribute to properly using failure recovery by a plurality of nodes and failure recovery by a control device that controls the plurality of nodes.
  • FIG. 6 is a diagram for explaining an operation when both an active path and a backup path are affected by a failure.
  • FIG. 10 is a diagram for explaining an operation when a plurality of working paths are affected by a failure but a protection path is not shared. It is a figure which shows an example of the internal structure of the control apparatus 20a which concerns on 2nd Embodiment. It is a flowchart for demonstrating operation
  • FIG. 10 is a diagram for explaining an operation when a plurality of working paths are affected by a failure but a protection path is not shared. It is a figure which shows an example of the internal structure of the control apparatus 20a which concerns on 2nd Embodiment. It is a flowchart for demonstrating operation
  • FIG. 2 is a diagram illustrating an example of an internal configuration of an open flow switch 40.
  • FIG. It is a flowchart for demonstrating operation
  • the failure recovery by the data plane is, for example, failure recovery by a plurality of nodes having an OAM function.
  • the failure recovery by the control plane is, for example, failure recovery in which the control device executes path control of a network constituted by a plurality of nodes.
  • the data plane is composed of a plurality of nodes.
  • a control plane is comprised with a control apparatus.
  • the data plane may be regarded as a lower layer, and the control plane may be regarded as an upper layer with respect to the data plane (lower layer).
  • the communication system shown in FIG. 1 includes a plurality of nodes 100 having an OAM function, and a control device 101 that controls the plurality of nodes 100.
  • Each of the plurality of nodes 100 transmits, to the control device 101, a state change notification including information related to a port that has been affected by a failure that has occurred in a network including the plurality of nodes 100.
  • the control device 101 determines whether or not to execute route control in the network based on the state change notification and information related to the network configuration.
  • control device 101 determines that the route control by the control plane is not executed, the control device 101 does not perform any special operation. Rely on the data plane to recover from network failures. In other words, the control device 101 does not participate in the failure recovery operation when recovery from a failure by a data plane such as a single failure can be expected. As a result, the communication system shown in FIG. 1 can achieve quick failure recovery by the data plane.
  • the control apparatus 101 determines that the path control by the control plane is to be executed, the failure recovery by the data plane such as multiple faults is expected by performing appropriate path control for the plurality of nodes 100. A failure that cannot be recovered can be reliably recovered.
  • FIG. 2 is a diagram illustrating an example of a configuration in the communication system according to the first embodiment.
  • a configuration including nodes 10-1 to 10-4 and a control device 20 that centrally controls the nodes 10-1 to 10-4 is shown.
  • the data plane is a network composed of a plurality of nodes 10-1 to 10-4.
  • the control plane is configured by the control device 20.
  • the data plane may be regarded as a lower layer and the control plane as an upper layer with respect to the data plane (lower layer).
  • the control device 20 sets a processing rule that defines processing of the received packet for the nodes 10-1 to 10-4.
  • the nodes 10-1 to 10-4 perform packet processing (packet transfer) according to the processing rules set by the control device 20.
  • a path is set between the nodes 10-1 to 10-4. More specifically, in FIG. 2, paths P01 and P02 are set, the path P01 is an active path (solid line in FIG. 2), and the path P02 is a standby path (dotted line in FIG. 2).
  • the backup path P02 is used as a backup path when a failure occurs in the active path P01.
  • the nodes 10-1 to 10-4 are referred to as “node 10” when it is not necessary to distinguish them.
  • the node 10 When the node 10 detects a signal disconnection of communication, the node 10 transmits a state change notification to the control device 20.
  • the control device 20 determines whether or not route control for recovering from a failure occurring in the network should be performed based on the state change notification transmitted by the node 10 and the topology information and path information held therein. Route control is performed according to Details of the status change notification, topology information, and path information will be described later.
  • FIG. 3 is a diagram illustrating an example of the internal configuration of the control device 20.
  • the control device 20 includes a network configuration management unit 21, a network configuration database (network configuration DB) 22, a path control determination unit 23, and a communication unit 24 that communicates with devices such as the node 10. .
  • network configuration management unit 21 a network configuration management unit 21, a network configuration database (network configuration DB) 22, a path control determination unit 23, and a communication unit 24 that communicates with devices such as the node 10.
  • the network configuration management unit 21 receives topology information and path information input from the network administrator via the communication unit 24.
  • the network configuration management unit 21 registers the received topology information and path information in the network configuration DB 22.
  • the control device 20 may communicate with the node 10 to collect topology information and path information, and register the collected topology information and path information in the network configuration DB 22.
  • the route control determination unit 23 receives a state change notification from the node 10 via the communication unit 24. When receiving the state change notification, the route control determination unit 23 refers to the topology information and path information stored in the network configuration DB 22. The route control determination unit 23 determines whether route control for recovering from a failure is necessary (whether route control is executed) based on the state change notification, topology information, and path information.
  • the path control determination unit 23 determines whether the detour path is determined by a component (not shown) or the like. Instructs the determination of a detour route.
  • the route control determination unit 23 notifies the network administrator that the route control for recovering the failure is necessary using the communication unit 24 or the like. Upon receiving the notification, the network administrator sets a path necessary for recovering the failure in the node 10.
  • the control device 20 may communicate with the node 10 to collect topology information and path information, and register the collected topology information and path information in the network configuration DB 22.
  • each unit (processing means) of the control device 20 shown in FIG. 3 can be realized by a computer program that causes a computer constituting these devices to execute each process described later using its hardware.
  • the state change notification includes information regarding the port where the state change has occurred in the node 10. For example, when a link failure occurs in the node 10, information regarding the port corresponding to the link where the failure has occurred is included in the state change notification.
  • the topology information is information related to the topology (connection form) of the network to be controlled by the control device 20.
  • the topology information includes information regarding the ports connecting the nodes 10.
  • FIG. 4 is a diagram showing an example of topology information.
  • the description of the control device 20 is omitted when illustrating the topology of the network.
  • the topology of the network to be controlled by the control device 20 is as shown in FIG.
  • FIG. 4A the numbers given in the vicinity of the solid lines connecting the nodes 10-1 to 10-4 clearly indicate the connection ports at the nodes.
  • Information that summarizes the topology shown in FIG. 4A is topology information
  • FIG. 4B is an example of topology information.
  • the path information is information relating to a network path that is controlled by the control device 20.
  • the path information includes information on the working path and the backup path. More specifically, information such as a node through which each path passes and to which working path the backup path is associated is included.
  • FIG. 5 is a diagram illustrating an example of path information.
  • the path P01 is an active path that passes through the node 10-1 and the node 10-4.
  • the path P02 is a backup path that passes through the nodes 10-1, 10-2, and 10-4. Information obtained by collecting these pieces of information is path information, and FIG. 5B is an example of path information.
  • the backup path of the path P01 which is the active path is recognized as the path P02.
  • FIG. 6 is an exemplification, and the operation of the communication system according to the present embodiment is not limited to the flowchart of FIG.
  • FIG. 6 is a flowchart for explaining the operation of the communication system according to the first embodiment.
  • step S01 the path control determination unit 23 of the control device 20 receives the state change notification via the communication unit 24.
  • step S02 the route control determination unit 23 determines which path has an influence from the failure that has occurred in the network based on the information about the port that has undergone the state change obtained from the received state change notification, the topology information, and the path information. Identify if you received it.
  • step S03 the path control determination unit 23 identifies the affected path, and then confirms the number of affected paths. If the number of affected paths is one or less, the processing in FIG. (Step S03, Yes branch). If the number of affected paths is one or less, the control device 20 does not take any special action regardless of whether the path is an active path or a backup path. In other words, if there is one affected path and that path is a working path, the OAM function of the node 10 works to use the backup path, and the node 10 itself recovers from the failure. I do. On the other hand, if there is one affected path and the path is a backup path, the working path is not affected, and the link is maintained.
  • FIG. 7 is a diagram for explaining the operation when there is one path affected by the failure.
  • the nodes 10-1 and 10-4 transmit a state change notification to the control device 20.
  • the route control determination unit 23 recognizes from the state change notification that a state change has occurred in the port 2 of the node 10-1 and the port 2 of the node 10-4.
  • the path control determination unit 23 refers to the information related to the port 2 of the node 10-1 and the port 2 of the node 10-4 in the topology information, so that a failure occurs in the link between the nodes 10-1 and 10-4. Recognize that Further, the route control determination unit 23 identifies the affected path from the link failure position (nodes 10-1 and 10-4 in the example of FIG. 7) and the path information.
  • the path P01 which is the active path is a path affected by the failure. Since only the working path is affected by the failure, the failure can be recovered by the OAM function in the data plane. That is, in the case of a single failure, rapid failure recovery independent of the control plane is achieved.
  • step S03 When there are two or more paths affected by the failure (step S03, No branch), the processes of steps S04 to S07 are executed. That is, when multiple failures occur in the network, the processes of steps S04 to S07 may be executed.
  • step S04 in FIG. 6 the route control determination unit 23 determines whether or not both the active path and the backup path associated with the active path are affected by the failure. If both the active path and the backup path are affected by the failure (step S04, Yes branch), the path control determination unit 23 determines that the path control is necessary (determines that the path control is to be executed). ), Path control is performed (step S06).
  • FIG. 8 is a diagram for explaining the operation when both the active path and the backup path are affected by the failure. In FIG. 8, it is assumed that a failure has occurred not only in the link between the nodes 10-1 and 10-4 but also in the link between the nodes 10-2 and 10-4.
  • the path control determination unit 23 determines that the port 10 of the node 10-1, the port 2 of the node 10-2, the node 10- Recognize that a state change has occurred for each of the four ports 1 and 2.
  • the path control determining unit 23 refers to the information regarding each port in the topology information, and a failure occurs in the link between the nodes 10-1 and 10-4 and between the nodes 10-2 and 10-4. Recognize that Further, the route control determination unit 23 identifies the affected path from the link failure position (nodes 10-1, 10-2, and 10-4 in the example of FIG. 8) and the path information.
  • the path P01 that is the active path and the path P02 that is the backup path associated with the path P01 are the paths affected by the failure. Since both the active path and the backup path prepared as a backup path for the active path are affected by the failure, the failure can be recovered even if the OAM function on the data plane is used. Absent. Therefore, the failure recovery by the control plane using the control device 20 is performed (step S06).
  • step S05 If neither the active path nor the backup path is affected by the failure (step S04, No branch), the process of step S05 is executed.
  • step S05 the route control determination unit 23 determines whether or not a plurality of working paths sharing the protection path have been affected by the failure. When a plurality of working paths are affected by a failure (step S05, Yes branch), the route control determination unit 23 determines that route control is necessary (determines that route control is to be executed), and performs route control. (Step S07).
  • FIG. 9 is a diagram for explaining an operation when a plurality of working paths are affected by a failure.
  • the path information shown in FIG. 9B is set for the topology shown in FIG.
  • three paths (paths P01 to P03) are formed.
  • the path P01 is an active path that passes through the node 10-1 and the node 10-4.
  • the path P03 is an active path that passes through the nodes 10-1, 10-3, and 10-4.
  • the path P02 is a backup path that passes through the nodes 10-1, 10-2, and 10-4.
  • the path P02 is a backup path for the active paths P01 and P03.
  • FIG. 9B shows path information obtained by collecting these pieces of information. Further, in FIG. 9A, it is assumed that a failure has occurred in the links between the nodes 10-1 and 10-4 and between the nodes 10-3 and 10-4.
  • Each of the nodes 10-1, 10-3, and 10-4 transmits a state change notification to the control device 20.
  • the control device 20 recognizes the occurrence of a state change in each of the port 2 of the node 10-1, the port 2 of the node 10-3, the port 2 of the node 10-4, and the port 3 from the received state change notification.
  • the path control determination unit 23 refers to the information regarding each port in the topology information, and a failure has occurred in the link between the nodes 10-1 and 10-4 and between the nodes 10-3 and 10-4. Recognize that. Further, the route control determination unit 23 identifies the affected path from the link failure position (nodes 10-1, 10-3, and 10-4 in the example of FIG. 9) and the path information. In the example of FIG. 9, it is specified that the paths P01 and P03, which are active paths, are paths affected by the failure.
  • the path control determination unit 23 can recognize that these two working paths (paths P01 and P03) share the path P02 which is the backup path by referring to the path information.
  • paths P01 and P03 share the path P02 which is the backup path by referring to the path information.
  • the failure cannot be recovered for either of the active paths even if the OAM function of the data plane is used. Therefore, it is determined that the failure is recovered by the control plane using the control device 20 (step S07).
  • FIG. 10 is a diagram for explaining the operation when a plurality of working paths are affected by a failure, but the protection path is not shared.
  • a node 10-5 is added to the network shown in FIG.
  • FIG. 10B is a diagram summarizing the topology information of FIG.
  • the path P01 is an active path that passes through the node 10-1 and the node 10-4.
  • the path P03 is an active path that passes through the nodes 10-1, 10-3, and 10-4.
  • the path P02 is a backup path that passes through the nodes 10-1, 10-2, and 10-4, and is set as a backup path of the path P01.
  • the path P04 is a backup path that passes through the nodes 10-1, 10-5, and 10-4, and is set as a backup path of the path P03.
  • each of the nodes 10-1, 10-3, and 10-4 transmits a state change notification to the control device 20. From the received state change notification, the control device 20 recognizes the occurrence of the state change in each of the port 2 of the node 10-1, the port 2 of the node 10-3, the port 2 and the port 3 of the node 10-4.
  • the path control determination unit 23 refers to the information regarding each port in the topology information, and a failure has occurred in the link between the nodes 10-1 and 10-4 and between the nodes 10-3 and 10-4. Recognize that. Furthermore, the route control determination unit 23 identifies the affected path from the link failure position (nodes 10-1, 10-3, and 10-4 in the example of FIG. 8) and the path information. In the example of FIG. 10, the paths P01 and P03 that are working paths are identified as paths that are affected by the failure. When the path control determining unit 23 refers to the path information, it can recognize that these two working paths (paths P01 and P03) do not share the protection path. Therefore, each of the working paths P01 and P03 is recovered from a failure by the OAM function of the data plane.
  • the control device 20 since the failure can be recovered without depending on the control plane, the control device 20 does not take any special measures. That is, when a plurality of working paths sharing the protection path are not affected by the failure (step S05, No branch), the processing shown in FIG. 6 is terminated. As described above, even when there are two or more paths affected by the failure, there is a case where failure recovery by the control plane is not performed.
  • the control device 20 determines whether or not failure recovery by the data plane is possible or failure recovery by the control plane is necessary based on the state change notification transmitted by each node. As a result of the determination, if it is determined that the failure recovery by the data plane is possible, the control device 20 does not take any special measures and leaves the failure recovery to the data plane.
  • the control device 20 performs a measure for recovering the failure. That is, when the communication system according to the present embodiment receives a failure occurrence notification (state change notification) from a node and the failure recovery can be recovered only by the data plane, the failure recovery response is handled by the data plane. To quickly recover from failures. On the other hand, when it is determined that the failure cannot be recovered by handling only the data plane as in the case of multiple failures, the control device 20 takes appropriate measures to achieve reliable failure recovery by the control plane. To do.
  • FIG. 11 is a diagram illustrating an example of an internal configuration of the control device 20a according to the present embodiment. 11, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.
  • the difference between the control device 20a and the control device 20 is that the operation of the route control determination unit 23a is different and a route search unit 25 is added.
  • the route control determination unit 23a performs route control on the route search unit 25 when performing the processing according to the flowchart shown in FIG. 6 and determining that failure recovery by the control plane is necessary (steps S06 and S07 in FIG. 6). Output the path information necessary for this.
  • the route search unit 25 determines a detour route necessary for failure recovery based on the received path information and information stored in the network configuration DB 22. Further, the route search unit 25 sets a processing rule for realizing the determined path in the node 10 via the communication unit 24. That is, the control device 20a according to the present embodiment determines a detour route necessary for recovering from a failure when failure recovery by the control plane is necessary. Thereafter, a processing rule for realizing the determined path is set in the node 10.
  • FIG. 12 is an example, and the operation of the communication system according to the present embodiment is not limited to the flowchart of FIG.
  • FIG. 12 is a flowchart illustrating an example of operations in steps S06 and S07 of FIG. 6 described in the first embodiment.
  • the control device 20a performs an operation according to the flowchart shown in FIG. 12 when the determinations in steps S04 and S05 in FIG. 6 are true.
  • step S101 the route control determination unit 23a determines that route control by the control device 20a is necessary (determines that route control by the control device 20a is to be executed).
  • step S102 the route search unit 25 searches for a detour route from the path subject to route control and the topology information. If the determination in step S04 of FIG. 6 is true (step S04, Yes branch), both the active path and the backup path are affected by the failure. Therefore, in step S102 corresponding to step S06, the working path affected by the failure is a path to be searched for a detour route. In other words, the backup path is not a search target for a detour route.
  • step S05 when the determination in step S05 in FIG. 6 is true (step S05, Yes branch), there are a plurality of working paths affected by the failure. Therefore, one working path among a plurality of working paths is switched to a backup path. Therefore, the working path that cannot be switched to the backup path becomes a search target for the detour path.
  • priority is set in advance for the active path based on the network operation policy and the like. . The priority is held by the control device 20a and is determined in advance by, for example, a network administrator. Alternatively, the control device 20a can automatically determine which of the plurality of working paths is to be recovered by the backup path (the control device 20a determines the priority of the working path). Can also be determined).
  • step S103 the route search unit 25 determines a detour route and updates the processing rule held by the node 10.
  • FIG. 13 is a diagram for explaining an operation related to determination of a detour route. With reference to FIG. 13, a description will be given of the setting of a detour route when both the active path and the backup path as shown in FIG. 8 are affected by the failure.
  • FIG. 13B shows path information before a failure occurs.
  • the route search unit 25 searches for a detour route related to the active path P01.
  • the route search unit 25 recognizes that the nodes that terminate the active path P01 are the nodes 10-1 and 10-4 by referring to the path information. Further, based on the state change notification received from each of the nodes 10-1, 10-2, and 10-4, a link failure has occurred in the nodes 10-1 and 10-4 and the nodes 10-2 and 10-4. Recognize that it has occurred.
  • the route search unit 25 refers to the topology information (see FIG. 4) and determines a detour route while avoiding the port of the node where the link failure has occurred. For example, in FIG. 13A, the route search unit 25 determines the path P03 that terminates the nodes 10-1 and 10-4 as a bypass route. That is, the route search unit 25 sets the path P03 as a detour route of the working path P01 by referring to the topology information. After determining the detour route, the route search unit 25 sets a processing rule for realizing the detour route in the node 10 via the communication unit 24. Further, the route search unit 25 updates the path information. An example of the updated path information is shown in FIG.
  • the control device 20a determines a bypass route for recovering the failure, and sets a processing rule for realizing the bypass route in the node 10. As a result, it is possible to reliably and promptly cope with multiple failures that cannot be handled only by the data plane.
  • an open flow switch having an OAM function constitutes a data plane and an open flow is applied as a control plane.
  • FIG. 14 is a diagram illustrating an example of a configuration in the communication system according to the present embodiment.
  • the communication system shown in FIG. 14 includes an open flow controller (OFC) 30 and open flow switches (OFS) 40-1 to 40-4.
  • the open flow switches 40-1 to 40-4 have an OAM function.
  • a flow is set between the open flow switches 40-1 to 40-4. More specifically, in FIG. 14, flows F01 and F02 are set, the flow F01 is an active flow (solid line in FIG. 14), and the flow F02 is a standby flow (dotted line in FIG. 14).
  • the backup flow F02 is used as a backup when a failure occurs in the active flow F01. Note that the OpenFlow switches 40-1 to 40-4 are described as “OpenFlow switch 40” when it is not necessary to distinguish them.
  • the OpenFlow switch 40 sends a Port_status message to the OpenFlow controller 30 when it detects a broken link between the OpenFlow switches.
  • the OpenFlow controller 30 determines whether or not path control for failure recovery is necessary based on the Port_status message transmitted from the OpenFlow switch 40 and the topology information and flow information held in the OpenFlow controller 30. (Determining whether or not to execute path control). Further, when the OpenFlow controller 30 determines that route control is necessary, the OpenFlow controller 30 searches for a bypass route and determines a bypass route. Furthermore, the OpenFlow controller 30 sends a Flow_mod message to the OpenFlow switch 40 on the detour path. The open flow switch 40 updates the flow table based on the received Flow_mod message. The open flow switch 40 processes the received packet according to the updated flow table, thereby realizing a detour path (accommodating the flow in the detour path).
  • FIG. 15 is a diagram illustrating an example of an internal configuration of the OpenFlow controller 30 according to the present embodiment.
  • the OpenFlow controller 30 includes a network configuration management unit 31, a network configuration database (network configuration DB) 32, a route control determination unit 33, a route search unit 34, and an OpenFlow message conversion unit 35. And a communication unit 36 that communicates with a device such as the OpenFlow switch 40.
  • the network configuration DB 32 is a database that stores topology information and flow information. Note that there is no difference between the topology information and the topology information described in the first embodiment, and further description is omitted.
  • the flow information corresponds to the path information described in the first embodiment. That is, the flow attribute defines a flow attribute.
  • the flow information defines the type of flow (active system or standby system) and information related to the standby system flow with respect to the active system flow (presence / absence of standby system flow, specification of standby system flow).
  • the communication unit 36 When the Port_status message is received from the OpenFlow switch 40 and the Port_status message includes link-down information, the communication unit 36 notifies the path control determination unit 33 of the link-down port information. . Specifically, the communication unit 36 notifies the path control determination unit 33 of port information when the link down flag included in the Port_status message is set.
  • the path control determination unit 33 refers to the topology information stored in the network configuration DB 32 and identifies the fault location. Further, the path control determination unit 33 refers to the flow information stored in the network configuration DB 32 to identify the flow in which the failure has occurred and determines whether it is necessary to set a detour path for the flow. When the route control determination unit 33 determines that the setting of a bypass route is necessary, the route control determination unit 33 notifies the route search unit 34 of information on a flow that requires a bypass.
  • the route search unit 34 searches for a detour route that avoids the failure that has occurred, based on the flow information that is generated by the route control determination unit 33 and needs to be detoured. Information regarding the searched detour route is notified to the OpenFlow message conversion unit 35.
  • the OpenFlow message conversion unit 35 converts the information on the detour route notified from the route search unit 34 into a Flow_mod message, and uses the communication unit 36 to send the Flow_mod message to the OpenFlow switch 40 on the detour route. Send it out.
  • FIG. 16 is a diagram illustrating an example of an internal configuration of the open flow switch 40.
  • the OpenFlow switch 40 includes a communication unit 41, a table management unit 42, a table database (table DB) 43, and a transfer processing unit 44.
  • the communication unit 41 is means for realizing communication with the OpenFlow controller 30 that controls the OpenFlow switch 40. It is assumed that the communication unit 41 communicates with the OpenFlow controller 30 using the OpenFlow protocol.
  • the table management unit 42 is a means for managing the tables held in the table DB 43. More specifically, the table management unit 42 registers the flow table set from the OpenFlow controller 30 in the table DB 43. The table management unit 42 manages a group table described later.
  • the table DB 43 is configured by a database capable of storing a flow table and a group table that are referred to when the transfer processing unit 44 processes a received packet.
  • the transfer processing unit 44 includes a table search unit 141 and an action execution unit 142.
  • the table search unit 141 is a means for searching a rule (action) having a match field that matches the received packet from the flow table stored in the table DB 43.
  • the action execution unit 142 is a unit that performs packet processing according to the processing specified in the instruction field of the rule searched by the table search unit 141.
  • the OpenFlow switch 40 recovers a failure that has occurred between the OpenFlow switches 40 by processing the received packet in accordance with the processing defined in the flow table and the group table.
  • FIG. 17 is an exemplification, and the operation of the communication system according to the present embodiment is not limited to the flowchart of FIG.
  • step S11 the communication unit 36 of the OpenFlow controller 30 receives the Port_status message from the OpenFlow switch 40.
  • step S12 the path control determination unit 33 grasps the link-down port information included in the Port_status message.
  • FIG. 18 is a diagram illustrating an example of the Port_status message.
  • FIG. 18A shows the port configuration of the OpenFlow switch 40.
  • description of the open flow controller 30 is abbreviate
  • a data path identifier managed by the OpenFlow controller 30 is assigned to each OpenFlow switch 40.
  • the open flow switch 40-1 shown in FIG. 18 is given 0x0a as the data path identifier
  • the open flow switch 40-2 is given 0x0b as the data path identifier (see FIG. 18 (b)). ).
  • FIG. 18C is a diagram illustrating an example of a Port_status message transmitted by each of the open flow switches 40-1 and 40-4. Referring to FIG. 18A, since the ports 2 of the OpenFlow switches 40-1 and 40-4 are linked down, the information is notified to the OpenFlow controller 30.
  • the OpenFlow controller 30 grasps which port of the OpenFlow switch 40 is linked down based on the data path identifier managed by itself and the Port_status message.
  • step S ⁇ b> 13 the path control determination unit 33 of the OpenFlow controller 30 grasps the failure location based on the information related to the link-down port transmitted from the OpenFlow switch 40 and the topology information stored in the network configuration DB 32. .
  • FIG. 19 is a diagram for explaining an operation of grasping the failure point in the route control determination unit 33.
  • the path control determination unit 33 when receiving the Port_status message shown in FIG. 18C, the path control determination unit 33 is given port 2 of the OpenFlow switch 40-1 given 0x0a as the data path identifier and 0x0c as the data path identifier. That the port 2 of the open flow switch 40-4 is linked down is mapped to the topology information (the topology information in the network configuration DB 32 is updated). As a result, it is understood that a failure has occurred between the open flow switches 40-1 and 40-4.
  • step S14 the path control determination unit 33 identifies the flow affected by the failure that has occurred based on the updated topology information and flow information. Note that the flow affected by the failure corresponds to a flow that passes through the failure location (in the above example, the open flow switches 40-1 and 40-4).
  • step S15 the path control determination unit 33 confirms whether or not the number of flows affected by the failure is one or less. If the number of flows affected by the failure is one or less (step S15, Yes branch), the open flow controller 30 ends the process shown in FIG. In this case, the OAM function included in each OpenFlow switch 40 can recover from a failure without depending on the control plane. Therefore, the OpenFlow controller 30 is not involved in the failure recovery operation.
  • FIG. 20 is a diagram for explaining the operation when the OpenFlow controller 30 is not involved in failure recovery.
  • the flow F01 set in the active flow is a flow affected by the failure.
  • the flow F02 is a standby flow of the flow F01.
  • the OpenFlow switches 40-1 and 40-4 can perform failure recovery in the data plane (failure recovery independent of the control plane) by using the group table.
  • FIG. 21 is a diagram illustrating an example of a flow table and a group table.
  • FIGS. 21A and 21C are examples of flow tables provided in the open flow switches 40-1 and 40-4, respectively.
  • FIGS. 21B and 21D are examples of group tables provided in the open flow switches 40-1 and 40-4, respectively.
  • description of fields for describing revocation conditions and statistical information is omitted.
  • FIG. 21A it is described that the processing for the received packet at port 4 of the OpenFlow switch 40-1 follows the group table. Further, referring to FIG. 21B, an action and a type are specified in the group table. In the example shown in FIGS. 21B and 21D, “Failover” is specified as the type, and a monitoring port (port for monitoring survival confirmation) is set in the action. For example, the action 1 shown in FIG. 21B describes that the existence of the port 2 is confirmed and if the existence of the port 2 can be confirmed, the received packet is transferred from the port 2. It should be noted that an OAM signal or the like is used for the port existence confirmation.
  • “Fast Failover” is specified for the OpenFlow switches 40-1 and 40-4.
  • the OpenFlow switches 40-1 and 40-4 search for actions in ascending order (action 1, action 2,%), And execute the action for which the existence of the port is first confirmed.
  • action 1, action 2, the existence of port 2
  • action 2 the existence of port 1 is confirmed, so action 2 is executed.
  • the OpenFlow switch 40 detects the link down of the port, the OpenFlow switch 40 transfers the received packet to the port whose existence is confirmed according to the flow table and the group table that define the processing of the received packet.
  • the group table type in the OpenFlow switch 40-1 on the transmission side is set to ALL. In that case, the operation on the receiving side is not changed.
  • ALL is set as the group table type, the actions set in the group table are executed simultaneously. For example, in the example shown in FIG. 21B, actions 1 and 2 are executed, and flows are transmitted to ports 1 and 2 at the same time. As a result, the active and standby flows are transmitted simultaneously, and an operation equivalent to 1 + 1 protection for selecting one of the two flows on the receiving side can be performed.
  • the path control determination unit 33 causes both the active flow and the standby flow corresponding to the active flow to fail. It is confirmed whether or not it is received (step S16).
  • the route search unit 34 searches for and determines the detour route of the flow (step S17).
  • step S18 the OpenFlow message conversion unit 35 converts the detour route determined by the route search unit 34 into a Flow_mod message.
  • step S19 the OpenFlow message conversion unit 35 sends a Flow_mod message to the OpenFlow switch 40 on the detour path via the communication unit 36.
  • FIG. 22 is a diagram for explaining setting of a detour route by the OpenFlow controller 30.
  • the flows F01 and F02 shown in FIG. 22 are assumed to be affected by the failure.
  • the route search unit 34 determines the flow F03 as a detour route for the active flow F01.
  • the OpenFlow controller 30 sends a Flow_mod message to the OpenFlow switches 40-1, 40-3, and 40-4 in order to realize the flow F03, and updates the flow table included in each OpenFlow switch.
  • FIG. 23 is a diagram illustrating an example of a table updated by the Flow_mod message.
  • the open flow switch 40-1 is a transmission side switch. Therefore, the OpenFlow controller 30 sends a Flow_mod message for correcting the accommodation destination of the flow received at the port 4 of the OpenFlow switch 40-1 to the port 3 (see FIG. 23A). In this case, no action referring to the group table is set in the flow table of the open flow switch 40-1. This is because ports 1 and 2 are ports whose survival cannot be confirmed (see FIG. 23B).
  • the open flow switch 40-3 is a relay switch. For this reason, the OpenFlow controller 30 sends a Flow_mod message in which the destination of the flow received at the port 1 of the OpenFlow switch 40-3 is port 2 (see FIG. 23C). That is, since a new flow passes through the open flow switch 40-3, a Flow_mod message for adding a new rule to the flow table is transmitted.
  • the open flow switch 40-4 is a switch on the receiving side. Therefore, the OpenFlow controller 30 sends a Flow_mod message in which the destination of the flow received at the port 3 of the OpenFlow switch 40-4 is the port 4 (see FIG. 23 (d)). More specifically, a new condition is added to the flow table provided in the open flow switch 40-4.
  • a Group_mod message for updating the group table is opened.
  • the controller 30 may send it out.
  • step S16 When both the active flow and the standby flow are not affected by the failure (step S16 in FIG. 17, No branch), the open flow controller 30 has a plurality of active flows sharing the standby flow. It is confirmed whether or not has been affected by the failure (step S20).
  • step S20, Yes branch When a plurality of working flows are affected by a failure (step S20, Yes branch), if it is possible to transmit a backup path for only one flow, search for a detour route for other flows. There is a need to. Accordingly, when a plurality of active flows sharing the standby flow are affected by the failure (step S20, Yes branch), the open flow controller 30 performs the operation described in steps S17 to S19.
  • step S20 when a plurality of active flows are not affected by the failure (step S20, No branch), the open flow controller 30 ends the operation. That is, in such a case, similarly to step S15, the OAM function of the data plane can recover the failure independent of the control plane, so the OpenFlow controller 30 is not involved in the failure recovery operation.
  • the communication system according to the present embodiment employs OpenFlow as the control plane, and quickly determines whether or not failure recovery is necessary based on the message from the OpenFlow switch 40. Therefore, it is possible to reliably cope with multiple failures by open flow while supporting high-speed failure recovery on the data plane using the OAM function.
  • the control device includes: The communication system according to mode 1, wherein the network topology information and path information are used as information relating to the network configuration to determine whether or not the path control is necessary to recover from a failure occurring in the network.
  • the control device includes: The communication system according to mode 1 or 2, wherein the path control is determined not to be executed when the number of paths formed by the plurality of nodes is one or less affected by a failure occurring in the network.
  • the control device includes: If the path is formed by the plurality of nodes and the active path and the backup path corresponding to the active path are affected by a failure occurring in the network, the path control is performed.
  • the control device includes: When a plurality of working paths sharing a backup path that are formed by the plurality of nodes are affected by a failure that has occurred in the network, it is determined to execute the path control.
  • the control device includes: The communication system according to any one of Embodiments 1 to 5, wherein when it is determined that the route control is necessary, a path that avoids a failure that has occurred in the network is searched based on information about the network.
  • Each of the plurality of nodes requests a processing rule for processing the packet;
  • the control device creates a processing rule for processing the received packet in response to the request, and notifies the created processing rule to at least one of the plurality of nodes.
  • Each of the plurality of nodes forwards the received packet to a port other than the link-down port in accordance with a flow table and a group table that define processing of the received packet in response to detecting a link down of the port.
  • the communication system according to any one of Forms 1 to 7.
  • Form 9 It is as the control apparatus which concerns on the above-mentioned 2nd viewpoint.
  • the route control determination unit The control device according to mode 9, wherein the network topology information and path information are used as information relating to the network configuration to determine whether or not to execute the path control in order to recover from a failure occurring in the network.
  • the route control determination unit The control device according to mode 9 or 10 that determines that the route control is not executed when a path formed by a plurality of the nodes and less than one path is affected by a failure occurring in the network.
  • the route control determination unit If the path is formed by a plurality of the nodes, and the working path and the backup path corresponding to the working path are affected by a failure occurring in the network, the path control is performed.
  • the control device according to any one of Embodiments 9 to 11, which is determined to be executed.
  • the route control determination unit If a plurality of working paths sharing a backup path that are formed by a plurality of nodes are affected by a failure that has occurred in the network, it is determined that the path control is to be executed.
  • the control device according to any one of Forms 9 to 12.
  • the route control determination unit includes a route search unit that searches for a path that avoids a failure that has occurred in the network based on information about the network when the route control determination unit determines to execute the route control The control device according to any one of the above.
  • the step of determining whether or not the route control is necessary includes Control of the control device according to mode 15 for determining whether or not to execute the path control to recover from a failure occurring in the network, using the topology information and path information of the network as information relating to the network configuration Method.
  • the step of determining whether or not the route control is necessary includes The control device according to mode 15 or 16 that determines that the route control is not executed when the number of paths formed by the plurality of nodes is one or less affected by a failure occurring in the network. Control method.
  • the step of determining whether or not the route control is necessary includes If the path is formed by a plurality of the nodes, and the working path and the backup path corresponding to the working path are affected by a failure occurring in the network, the path control is performed.
  • the step of determining whether or not the route control is necessary includes If a plurality of working paths sharing a backup path that are formed by a plurality of nodes are affected by a failure that has occurred in the network, it is determined that the path control is to be executed.
  • the control method of the control apparatus as described in any one of form 15 thru
  • a form 15 including a step of searching for a path that avoids a failure that has occurred in the network based on information about the network when it is determined that the route control is to be executed by the step of determining whether or not the route control is necessary.
  • the control method of the control apparatus as described in any one of thru
  • [Form 21] It is as the program which concerns on the above-mentioned 4th viewpoint.
  • the process of determining whether the route control is necessary is as follows: The program of the form 21 which judges whether the said route control is performed in order to recover the failure which arose in the said network, using the topology information and path information of the said network as information regarding the structure of the said network.
  • the process of determining whether the route control is necessary is as follows: The program of the form 21 or 22 which judges not to perform the said route control, when it is a path
  • the process of determining whether the route control is necessary is as follows: If a plurality of working paths sharing a backup path that are formed by a plurality of nodes are affected by a failure that has occurred in the network, it is determined that the path control is to be executed. The program according to any one of forms 21 to 24. [Form 26] A mode of executing a process of searching for a path that avoids a failure occurring in the network based on information on the network when it is determined that the path control is to be executed by the process of determining whether the path control is necessary. The program according to any one of 21 to 25.

Abstract

 データプレーンによる迅速な障害回復と、制御プレーンによる確実な障害回復と、を適宜使い分けることに寄与する通信システムを提供する。通信システムは、OAM機能を備える複数のノードと、複数のノードを制御する制御装置と、を含む。複数のノードのそれぞれは、複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を制御装置に送信する。制御装置は、状態変更通知と、ネットワークの構成に関する情報と、に基づいて、ネットワークにおける経路制御を実行するか否かを判断する。

Description

通信システム、制御装置、その制御方法及びプログラム
[関連出願についての記載]
 本発明は、日本国特許出願:特願2012-252425号(2012年11月16日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、通信システム、制御装置、その制御方法及びプログラムに関する。特に、ネットワークを集中制御する制御装置を含む通信システム、制御装置、その制御方法及びプログラムに関する。
 近年、ネットワークを構成するノードにOAM(Operation Administration and Maintenance)機能を与え、制御プレーンに依存せずに、データプレーンでの障害回復が可能なトランスポートネットワークが運用されている。
 特許文献1において、GMPLS(Generalized Multi-Protocol Label Switching)を制御プレーンとして採用し、光スイッチ(特許文献1におけるデータプレーン)のみで障害回復できる場合には、光スイッチを切り替えることで障害を回復する技術が開示されている。一方、光スイッチだけでは障害回復できない場合には、GMPLS制御プレーンの制御により障害を回復する。
 特許文献2において、データプレーンと制御プレーンを異なる媒体により構成されるネットワークにおいて、制御プレーンにのみ障害が発生した場合は、データ転送中のデータプレーンのパス切断を防ぐ技術が開示されている。
 特許文献3において、多重障害時の障害回復を分散制御により効率的に行う技術が開示されている。
 特許文献4において、データプレーンと制御プレーンを同期させることにより、信頼性の高い経路状態情報を取得し、データプレーンと制御プレーンとを連携して管理する技術が開示されている。
特開2003-318983号公報 特開2012-170161号公報 特開2007-053793号公報 特開2008-066989号公報
 なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。
 制御プレーンに依存せず、データプレーンのみで障害の回復を行うことで、迅速な障害の回復が期待できる。一方で、多重障害が生じた場合には、データプレーンのみに依存した障害の回復は困難である。そのような場合には、制御プレーンにより新たな経路を設定する制御(経路制御)が必要となる。しかしながら、データプレーンによる障害の回復が期待できる単一障害に対しても、制御プレーンにより障害を回避したのでは迅速な障害の回復は期待できない。
 従って、単一障害が発生した場合にはデータプレーンによる迅速な障害回復が、多重障害が発生した場合には制御プレーンによる確実な障害回復が望まれる。
 なお、特許文献1における制御プレーンは、GMPLSを用いた分散制御である。従って、集中制御による制御プレーンの場合と比較して、障害箇所の特定に時間を要する。さらに、単一障害には対応できても、制御プレーンが分散制御である場合には多重障害への対応が複雑となり、結果として確実な障害回復が行えない可能性もある。また、特許文献1が開示する技術では、データプレーンによる障害の回復は不可能であると判断した後に、制御プレーンに対して障害情報を通知するため、制御プレーンでの障害回復が遅れる。
 また、特許文献2が開示する技術は、制御プレーンに障害が発生した際、データプレーンにおけるパス切断を防止する技術であって、データプレーン及び制御プレーンを用いた障害の回復とは無関係である。さらに、特許文献3が開示する技術では、特許文献1と同様に分散制御を用いた障害回復手法であるため、多重障害への対応が複雑である。さらにまた、特許文献4が開示する技術はデータプレーンと制御プレーンとを連携させ、信頼性の高い経路状態情報の取得を実現する。即ち、特許文献4が開示する技術は、障害回復を主たる目的としていない。
 以上のような状況を鑑み、本発明は、複数のノードによる障害回復と、複数のノードを制御する制御装置による障害回復と、を適宜使い分けることに寄与する通信システム、制御装置、その制御方法及びプログラムを提供することを目的とする。
 本発明の第1の視点によれば、OAM(Operation Administration and Maintenance)機能を備える複数のノードと、前記複数のノードを制御する制御装置と、を含み、前記複数のノードのそれぞれは、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を前記制御装置に送信し、前記制御装置は、前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける経路制御を実行するか否かを判断する通信システムが提供される。
 本発明の第2の視点によれば、OAM(Operation Administration and Maintenance)機能を備える複数のノードの少なくとも1つから、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を受信する通信部と、前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける経路制御を実行するか否かを判断する経路制御判断部と、を備える制御装置が提供される。
 本発明の第3の視点によれば、OAM(Operation Administration and Maintenance)機能を備える複数のノードの少なくとも1つから、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を受信する工程と、前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける経路制御を実行するか否かを判断する工程と、を含む制御装置の制御方法が提供される。
 なお、本方法は、ネットワークを制御する制御装置という、特定の機械に結びつけられている。
 本発明の第4の視点によれば、OAM(Operation Administration and Maintenance)機能を備える複数のネットワークを構成するノードの少なくとも1つから、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を受信する処理と、前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける制御プレーンによる経路制御を実行するが必要か否かを判断する処理と、を制御装置を制御するコンピュータに実行させるプログラムが提供される。
 なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明の各視点によれば、複数のノードによる障害回復と、複数のノードを制御する制御装置による障害回復と、を適宜使い分けることに寄与する通信システム、制御装置、その制御方法及びプログラムが、提供される。
一実施形態の概要を説明するための図である。 第1の実施形態に係る通信システムにおける構成の一例を示す図である。 制御装置20の内部構成の一例を示す図である。 トポロジ情報の一例を示す図である。 パス情報の一例を示す図である。 第1の実施形態に係る通信システムの動作を説明するためのフローチャートである。 障害の影響を受けたパスが1本の場合の動作を説明するための図である。 現用系パスと予備系パスが共に障害の影響を受ける場合の動作を説明するための図である。 複数の現用系パスが障害の影響を受ける場合の動作を説明するための図である。 複数の現用系パスが障害の影響を受けるが、予備系パスを共有していない場合の動作を説明するための図である。 第2の実施形態に係る制御装置20aの内部構成の一例を示す図である。 第2の実施形態に係る通信システムの動作を説明するためのフローチャートである。 迂回経路の決定に関する動作を説明するための図である。 第3の実施形態に係る通信システムにおける構成の一例を示す図である。 オープンフローコントローラ30の内部構成の一例を示す図である。 オープンフロースイッチ40の内部構成の一例を示す図である。 第3の実施形態に係る通信システムの動作を説明するためのフローチャートである。 Port_statusメッセージの一例を示す図である。 経路制御判断部33における障害箇所を把握する動作を説明するための図である。 障害回復にオープンフローコントローラ30が関与しない場合の動作を説明するための図である。 フローテーブルとグループテーブルの一例を示す図である。 オープンフローコントローラ30による迂回経路の設定を説明するための図である。 Flow_modメッセージにより更新されたテーブルの一例を示す図である。 Flow_modメッセージにより更新されたテーブルの一例を示す図である。
 初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。
 上述したように、制御プレーンに依存せず、データプレーンのみで障害の回復を行うことで、迅速な障害の回復が期待できる。一方で、多重障害が生じた場合には、データプレーンのみに依存した障害の回復は困難である。そのため、データプレーンによる迅速な障害回復と、制御プレーンによる確実な障害回復と、を適宜使い分けることに寄与する通信システムが望まれる。一実施形態において、データプレーンによる障害回復は、例えば、OAM機能を備える複数のノードによる障害回復である。また、一実施形態において、制御プレーンによる障害回復は、例えば、制御装置が複数のノードにより構成されるネットワークの経路制御を実行する障害回復である。なお、一実施形態において、データプレーンは、複数のノードで構成される。また、一実施形態において、制御プレーンは、制御装置で構成される。また、一実施形態において、データプレーンを下位レイヤ、制御プレーンをデータプレーン(下位レイヤ)に対する上位レイヤと捉えてもよい。
 そこで、一例として図1に示す通信システムを提供する。図1に示す通信システムは、OAM機能を備える複数のノード100と、複数のノード100を制御する制御装置101と、を含む。複数のノード100のそれぞれは、複数のノード100により構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を制御装置101に送信する。制御装置101は、状態変更通知と、ネットワークの構成に関する情報と、に基づいて、ネットワークにおける経路制御を実行するか否かを判断する。
 制御装置101は、制御プレーンによる経路制御を実行しないと判断すれば、特段の動作を行わない。ネットワークに生じた障害の回復をデータプレーンに委ねる。即ち、制御装置101は、単一障害のようなデータプレーンによる障害の回復が期待できる場合には、障害回復動作に関与しない。その結果、図1に示す通信システムでは、データプレーンによる迅速な障害回復が達成できる。
 一方、制御装置101が、制御プレーンによる経路制御を実行すると判断した場合には、適切な経路制御を複数のノード100に対して実施することで、多重障害のようなデータプレーンによる障害回復が期待できない障害を確実に回復させることができる。
 以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
 第1の実施形態について図面を参照して説明する。
 図2は、第1の実施形態に係る通信システムにおける構成の一例を示す図である。図2を参照すると、ノード10-1~10-4と、ノード10-1~10-4を集中制御する制御装置20と、を含む構成が示されている。第1の実施形態において、データプレーンは、複数のノード10-1~10-4で構成されるネットワークである。また、第1の実施形態において、制御プレーンは、制御装置20で構成される。あるいは、データプレーンを下位レイヤ、制御プレーンをデータプレーン(下位レイヤ)に対する上位レイヤと捉えてもよい。
 制御装置20は、ノード10-1~10-4に対して、受信パケットの処理を規定する処理規則を設定する。ノード10-1~10-4は、制御装置20が設定する処理規則に従い、パケット処理(パケットの転送)を行う。
 図2に示すネットワークでは、ノード10-1~10-4の間でパスが設定される。より具体的には、図2において、パスP01及びP02が設定され、パスP01は現用系パス(図2における実線)であり、パスP02は予備系パス(図2における点線)である。予備系パスP02は、現用系パスP01に障害が生じた場合の、パックアップ経路として使用される。なお、以降の説明において、ノード10-1~10-4を特に区別する必要のないときは「ノード10」と表記する。
 ノード10は、通信の信号断を検出すると、制御装置20に対して状態変更通知を送信する。制御装置20は、ノード10が送信する状態変更通知と、内部に保持するトポロジ情報及びパス情報と、からネットワークに生じた障害を回復するための経路制御を実施すべきか否かを判断し、必要に応じて経路制御を行う。なお、状態変更通知、トポロジ情報及びパス情報の詳細は後述する。
 図3は、制御装置20の内部構成の一例を示す図である。制御装置20は、ネットワーク構成管理部21と、ネットワーク構成データベース(ネットワーク構成DB)22と、経路制御判断部23と、ノード10等の装置と通信を行う通信部24と、を含んで構成される。
 ネットワーク構成管理部21は、通信部24を介してネットワーク管理者から入力されるトポロジ情報及びパス情報を受け付ける。ネットワーク構成管理部21は、受け付けたトポロジ情報及びパス情報をネットワーク構成DB22に登録する。あるいは、制御装置20が、ノード10と相互に通信し、トポロジ情報及びパス情報を収集し、収集したトポロジ情報及びパス情報をネットワーク構成DB22に登録してもよい。
 経路制御判断部23は、通信部24を介して、ノード10から状態変更通知を受信する。経路制御判断部23は、状態変更通知を受信すると、ネットワーク構成DB22が記憶するトポロジ情報及びパス情報を参照する。経路制御判断部23は、状態変更通知と、トポロジ情報及びパス情報と、に基づいて障害を回復するための経路制御が必要か否か(経路制御を実行するか否か)を判断する。
 経路制御判断部23は、障害の回復に経路制御は必要ない(経路制御を実行しない)と判断した場合には、特段の動作を行わない。一方、経路制御判断部23は、障害の回復のために経路制御が必要である(経路制御を実行する)と判断した場合には、迂回経路の決定をする構成要素(図示せず)等に迂回経路の決定を指示する。あるいは、経路制御判断部23は、通信部24等を用いてネットワーク管理者に、障害を回復するための経路制御が必要である旨の通知をする。通知を受けたネットワーク管理者は、障害を回復するのに必要なパスをノード10に設定する。あるいは、制御装置20が、ノード10と相互に通信し、トポロジ情報及びパス情報を収集し、収集したトポロジ情報及びパス情報をネットワーク構成DB22に登録してもよい。
 なお、図3に示す制御装置20の各部(処理手段)は、これらの装置を構成するコンピュータに、そのハードウェアを用いて、後述する各処理を実行させるコンピュータプログラムにより実現することもできる。
 状態変更通知は、ノード10において状態変更が生じたポートに関する情報を含む。例えば、ノード10においてリンク障害が発生した場合には、その障害が発生したリンクに対応するポートに関する情報が、状態変更通知に含まれる。
 トポロジ情報は、制御装置20が制御対象とするネットワークのトポロジ(接続形態)に関する情報である。トポロジ情報には、ノード10の間を接続するポートに関する情報が含まれている。
 図4は、トポロジ情報の一例を示す図である。なお、図4以降の図面において、ネットワークのトポロジを図示する際に、制御装置20の記載を省略する。制御装置20が制御対象とするネットワークのトポロジは、図4(a)のとおりとする。図4(a)において、ノード10-1~10-4を接続する実線の近傍に付した数字は、当該ノードにおける接続ポートを明示する。図4(a)示すトポロジをまとめた情報がトポロジ情報であり、図4(b)がトポロジ情報の一例である。
 パス情報は、制御装置20が制御対象とするネットワークのパスに関する情報である。パス情報には、現用系パスと予備系パスに関する情報が含まれている。より具体的には、各パスが経由するノードや、予備系パスがどの現用系パスに関連付けられているかといった情報が、含まれている。
 図5は、パス情報の一例を示す図である。図5(a)を参照すると、図4(a)に示すトポロジに対して、2本のパス(パスP01及びP02)が設定されている。
・パスP01は、ノード10-1とノード10-4を経由する現用系パスである。
・パスP02は、ノード10-1、10-2及び10-4を経由する予備系パスである。
 これらの情報をまとめた情報がパス情報であり、図5(b)がパス情報の一例である。図5(b)を参照することで、現用系パスであるパスP01の予備系パスは、パスP02であると認識される。
 次に、本実施形態の動作例について図面を参照して説明する。なお、図6は例示であり、本実施形態に係る通信システムの動作は図6のフローチャートに限定されない。図6は、第1の実施形態に係る通信システムの動作を説明するためのフローチャートである。
 ステップS01において、制御装置20の経路制御判断部23は、通信部24を介して状態変更通知を受信する。
 ステップS02において、経路制御判断部23は、受信した状態変更通知から得られる状態変更があったポートに関する情報と、トポロジ情報及びパス情報とに基づいて、ネットワークに生じた障害からどのパスが影響を受けたかを特定する。
 ステップS03において、経路制御判断部23は、影響を受けたパスを特定した後、影響を受けたパスの本数を確認し、影響を受けたパスの本数が1本以下であれば図6の処理を終了する(ステップS03、Yes分岐)。影響を受けたパスの本数が1本以下であれば、そのパスが現用系パス又は予備系パスのいずれであっても、制御装置20では特段の対応を行わない。つまり、影響を受けたパスが1本であって、そのパスが現用系パスである場合には、ノード10の持つOAM機能が働くことで予備系パスが使用され、ノード10自身が障害の回復を行う。一方、影響を受けたパスが1本であって、そのパスが予備系パスであれば、現用系パスが影響を受けていないので、リンクは維持される。
 図7は、障害の影響を受けたパスが1本の場合の動作を説明するための図である。図4及び図5に示すネットワークにおいて、ノード10-1及び10-4間のリンクに障害が発生したものとする。すると、ノード10-1及び10-4は、制御装置20に対して状態変更通知を送信する。
 経路制御判断部23は、状態変更通知から、ノード10-1のポート2と、ノード10-4のポート2に状態変更が生じたことを認識する。経路制御判断部23は、トポロジ情報におけるノード10-1のポート2と、ノード10-4のポート2に関する情報を参照することで、ノード10-1と10-4の間のリンクに障害が発生したことを認識する。さらに、経路制御判断部23は、リンクの障害位置(図7の例では、ノード10-1と10-4)と、パス情報と、から影響を受けたパスを特定する。
 図7の例においては、現用系パスであるパスP01が障害の影響を受けるパスであることが特定される。現用系パスに限り障害の影響を受けているため、データプレーンにおけるOAM機能により障害回復が可能である。即ち、単一障害の場合には、制御プレーンに依存しない迅速な障害回復が達成される。
 障害の影響を受けたパスが2本以上(ステップS03、No分岐)の場合に、ステップS04~S07の処理が実行される。即ち、ネットワークに多重障害が発生した場合に、ステップS04~S07の処理が実行される可能性がある。
 図6のステップS04において、経路制御判断部23は、現用系パスと、その現用系パスに関連付けられた予備系パスが共に障害の影響を受けているか否かを判断する。現用系パスと予備系パスが共に、障害の影響を受けている場合には(ステップS04、Yes分岐)、経路制御判断部23は、経路制御が必要と判断し(経路制御を実行すると判断し)、経路制御を実施する(ステップS06)。
 図8は、現用系パスと予備系パスが共に障害の影響を受ける場合の動作を説明するための図である。図8では、ノード10-1と10-4の間のリンクに加えて、ノード10-2と10-4の間のリンクにおいても障害が発生したものとする。
 この場合、経路制御判断部23は、ノード10-1、10-2及び10-4から送信される状態変更通知から、ノード10-1のポート2、ノード10-2のポート2、ノード10-4のポート1及び2、のそれぞれについて状態変更が発生したことを認識する。経路制御判断部23は、トポロジ情報における上記の各ポートに関する情報を参照することで、ノード10-1と10-4の間と、ノード10-2と10-4の間のリンクに障害が発生したことを認識する。さらに、経路制御判断部23は、リンクの障害位置(図8の例では、ノード10-1、10-2及び10-4)と、パス情報と、から影響を受けたパスを特定する。
 図8の例においては、現用系パスであるパスP01と、パスP01に関連付けられた予備系パスであるパスP02と、が障害の影響を受けたパスであることが特定される。現用系パスと、その現用系パスのパックアップ経路として用意されている予備系パスと、が共に障害の影響を受けているため、データプレーンでのOAM機能を使用したとしても障害の回復は行えない。そこで、制御装置20を使用した制御プレーンによる障害の回復を行う(ステップS06)。
 現用系パスと予備系パスが共に障害の影響を受けていない場合(ステップS04、No分岐)には、ステップS05の処理が実行される。
 ステップS05において、経路制御判断部23は、予備系パスを共有する複数の現用系パスが、障害の影響を受けたか否かを判断する。複数の現用系パスが障害の影響を受ける場合(ステップS05、Yes分岐)には、経路制御判断部23は、経路制御が必要と判断し(経路制御を実行すると判断し)、経路制御を実施する(ステップS07)。
 図9は、複数の現用系パスが障害の影響を受ける場合の動作を説明するための図である。図9では、図4(a)に示すトポロジに対して、図9(b)に示すパス情報が設定されているものとする。図9(a)に示すネットワークには、3本のパス(パスP01~P03)が形成されている。
・パスP01は、ノード10-1とノード10-4を経由する現用系パスである。
・パスP03は、ノード10-1、10-3及び10-4を経由する現用系パスである。
・パスP02は、ノード10-1、10-2及び10-4を経由する予備系パスである。
・パスP02は、現用系パスP01及びP03の予備系パスである。
 これらの情報をまとめたパス情報が、図9(b)である。さらに、図9(a)では、ノード10-1と10-4の間と、ノード10-3と10-4の間のリンクに障害が発生したものとする。
 ノード10-1、10-3及び10-4のそれぞれのノードは、状態変更通知を制御装置20に送信する。制御装置20は、受信した状態変更通知から、ノード10-1のポート2、ノード10-3のポート2、ノード10-4のポート2及びポート3のそれぞれにおける状態変更の発生を認識する。経路制御判断部23は、トポロジ情報における上記の各ポートに関する情報を参照することで、ノード10-1と10-4の間とノード10-3と10-4の間のリンクに障害が発生したことを認識する。さらに、経路制御判断部23は、リンクの障害位置(図9の例では、ノード10-1、10-3及び10-4)と、パス情報と、から影響を受けたパスを特定する。図9の例においては、現用系パスであるパスP01とP03が障害の影響を受けるパスであることが特定される。
 経路制御判断部23は、パス情報を参照することで、これら2本の現用系パス(パスP01及びP03)が予備系パスであるパスP02を共有していることが認識できる。予備系パスを共有する2本の現用系パスに障害が生じた場合には、どちらかの現用系パスについては、データプレーンのOAM機能を使用しても障害を回復することができない。そこで、制御装置20を使用した制御プレーンによる障害の回復を行うと判断される(ステップS07)。
 図10は、複数の現用系パスが障害の影響を受けるが、予備系パスを共有していない場合の動作を説明するための図である。図10(a)において、図4(a)に示すネットワークに対して、ノード10-5が追加されている。図10(a)のトポロジ情報をまとめた図が、図10(b)である。
 図10(a)のネットワークには、4本のパス(パスP01~P04)が形成されている。
・パスP01は、ノード10-1とノード10-4を経由する現用系パスである。
・パスP03は、ノード10-1、10-3及び10-4を経由する現用系パスである。
・パスP02は、ノード10-1、10-2及び10-4を経由する予備系パスであって、パスP01の予備系パスに設定されている。
・パスP04は、ノード10-1、10-5及び10-4を経由する予備系パスであって、パスP03の予備系パスに設定されている。
 これらの情報をまとめると、図10(c)となる。
 図10(a)では、図9(a)と同様に、ノード10-1と10-4の間と、ノード10-3と10-4の間のリンクに障害が発生したものとする。そのため、ノード10-1、10-3及び10-4のそれぞれのノードは、状態変更通知を制御装置20に送信する。制御装置20は、受信した状態変更通知から、ノード10-1のポート2、ノード10-3のポート2、ノード10-4のポート2及びポート3のそれぞれにおいて、状態変更の発生を認識する。
 経路制御判断部23は、トポロジ情報における上記の各ポートに関する情報を参照することで、ノード10-1と10-4の間とノード10-3と10-4の間のリンクに障害が発生したことを認識する。さらに、経路制御判断部23は、リンクの障害位置(図8の例では、ノード10-1、10-3及び10-4)と、パス情報と、から影響を受けたパスを特定する。図10の例においては、現用系パスであるパスP01とP03が障害の影響を受けるパスと特定される。経路制御判断部23は、パス情報を参照すると、これら2本の現用系パス(パスP01及びP03)は、予備系パスを共有していないことが認識できる。従って、それぞれの現用系パスP01及びP03は、データプレーンのOAM機能により障害の回復が行われる。
 このように、制御プレーンに依存せず、障害の回復が可能であるため、制御装置20では特段の対応を行わない。即ち、予備系パスを共有する複数の現用系パスが障害の影響を受けていない場合(ステップS05、No分岐)には、図6に示す処理を終了する。このように、障害の影響を受けるパスが2本以上の場合であっても、制御プレーンによる障害の回復を行わない場合もある。
 以上のように、制御装置20は、各ノードが送信する状態変更通知に基づいて、データプレーンによる障害の回復が可能であるか、あるいは、制御プレーンによる障害の回復が必要であるか判断する。判断した結果、データプレーンによる障害の回復が可能と判断すれば、制御装置20は特段の対応を行わず、データプレーンに障害の回復を委ねる。
 一方、ネットワークに多重障害が発生し、データプレーン単独による障害の回復は困難であると判断すれば、制御装置20は、その障害を回復するための処置を行う。即ち、本実施形態に係る通信システムは、ノードから障害発生の通知(状態変更通知)を受信した際に、その障害の回復がデータプレーンのみで回復できる場合には、障害回復の対応をデータプレーンに委ねることで迅速な障害の回復を実現する。一方、多重障害のようにデータプレーンのみの対応では、障害を回復することができないと判断した場合には、制御装置20が適切な対応を取ることで、制御プレーンによる確実な障害の回復を実現する。
[第2の実施形態]
 続いて、第2の実施形態について図面を参照して詳細に説明する。
 図11は、本実施形態に係る制御装置20aの内部構成の一例を示す図である。図11において図3と同一構成要素には、同一の符号を付し、その説明を省略する。
 制御装置20aと制御装置20の相違点は、経路制御判断部23aの動作が異なる点と、経路探索部25が追加されている点である。
 経路制御判断部23aは、図6に示すフローチャートに従って処理を行う際に、制御プレーンによる障害回復が必要と判断(図6のステップS06及びS07)すると、経路探索部25に対して経路制御を行うために必要なパス情報を出力する。
 経路探索部25は、受信したパス情報と、ネットワーク構成DB22が記憶する情報と、に基づいて障害の回復に必要な迂回経路を決定する。さらに、経路探索部25は、通信部24を介して、決定したパスを実現するための処理規則をノード10に設定する。即ち、本実施形態に係る制御装置20aは、制御プレーンによる障害回復が必要な場合において、障害を回復するのに必要な迂回経路を決定する。その後、決定したパスを実現するための処理規則をノード10に設定する。
 次に、本実施形態の動作例について図面を参照して説明する。なお、図12は例示であり、本実施形態に係る通信システムの動作は図12のフローチャートに限定されない。図12は、第1の実施形態において説明した図6のステップS06及びS07における動作の一例を示すフローチャートである。
 制御装置20aは、図6におけるステップS04及びS05の判断が真(True)である場合に、図12に示すフローチャートに従った動作を行う。
 ステップS101において、経路制御判断部23aは、制御装置20aによる経路制御が必要であると判断する(制御装置20aによる経路制御を実行すると判断する)。
 ステップS102において、経路探索部25は、経路制御の対象となるパスと、トポロジ情報と、から迂回経路を探索する。なお、図6のステップS04における判断が真(ステップS04、Yes分岐)の場合には、現用系パスと予備系パスが共に、障害の影響を受けたパスである。そのため、ステップS06に対応するステップS102では、障害の影響を受けた現用系パスが迂回経路の探索対象となるパスである。換言するならば、予備系パスは迂回経路の探索対象とはならない。
 また、図6のステップS05における判断が真(ステップS05、Yes分岐)の場合には、障害の影響を受けた複数の現用系パスが存在する。そのため、複数の現用系パスのうち、1本の現用系パスは予備系パスに切り替わる。そこで、予備系パスに切り替えることができない現用系パスが、迂回経路の探索対象となる。なお、複数の現用系パスのうち、いずれの現用系パスを予備系パスにより回復するかについては、ネットワークの運用方針等に基づき、運用パスに対して予め優先度が設定されているものとする。優先度は、制御装置20aが保持し、例えば、ネットワーク管理者により予め決定される。あるいは、制御装置20aが、複数の現用系パスのうち、いずれの現用系パスを予備系パスにより回復するかについて、自動的に定めることもできる(制御装置20aが、現用系パスの優先度を決定することもできる)。
 ステップS103において、経路探索部25は、迂回経路を決定し、ノード10が保持する処理規則を更新する。
 図13は、迂回経路の決定に関する動作を説明するための図である。図13を参照しつつ、図8に示すような現用系パスと予備系パスが共に障害の影響を受ける場合の迂回経路の設定について説明する。
 図13(b)は、障害が発生する前のパス情報である。上述したように、経路探索部25は、現用系のパスP01に関する迂回経路を探索する。経路探索部25は、パス情報を参照することで、現用系パスP01を終端するノードはノード10-1及び10-4であることを認識する。さらに、ノード10-1、10-2及び10-4の各ノードから受信する状態変更通知に基づき、ノード10-1及び10-4と、ノード10-2及び10-4と、にリンク障害が発生してことを認識する。
 経路探索部25は、トポロジ情報(図4参照)を参照し、これらのリンク障害が発生したノードのポートを避けつつ、迂回経路を決定する。例えば、図13(a)において、経路探索部25は、ノード10-1及び10-4を終端するパスP03を迂回経路に決定する。即ち、経路探索部25は、トポロジ情報を参照することで、現用系パスP01の迂回経路としてパスP03を設定する。経路探索部25は、迂回経路を決定した後は、通信部24を介して、当該迂回経路を実現するための処理規則をノード10に設定する。さらに、経路探索部25は、パス情報を更新する。更新されたパス情報の一例が、図13(c)である。
 以上のように、本実施形態に係る制御装置20aは、障害が発生した際に、その障害を回復するための迂回経路を決定し、迂回経路を実現する処理規則をノード10に設定する。その結果、データプレーンのみでは対応できない多重障害に対して、確実かつ迅速な対応を行うことができる。
[第3の実施形態]
 続いて、第3の実施形態について図面を参照して詳細に説明する。
 本実施形態に係る通信システムでは、OAM機能を備えるオープンフロースイッチによりデータプレーンを構成すると共に、制御プレーンとしてオープンフローを適用する。
 図14は、本実施形態に係る通信システムにおける構成の一例を示す図である。
 図14に示す通信システムは、オープンフローコントローラ(OFC;Open Flow Controller)30と、オープンフロースイッチ(OFS;Open Flow Switch)40-1~40-4と、を含んで構成される。オープンフロースイッチ40-1~40-4は、OAM機能を備えている。また、オープンフロースイッチ40-1~40-4の間にフローが設定される。より具体的には、図14において、フローF01及びF02が設定され、フローF01は現用系フロー(図14における実線)であり、フローF02は予備系フロー(図14における点線)である。予備系フローF02は、現用系フローF01に障害が生じた場合の、パックアップとして使用される。なお、オープンフロースイッチ40-1~40-4を特に区別する必要のないときは「オープンフロースイッチ40」と表記する。
 オープンフロースイッチ40は、それぞれのオープンフロースイッチ間のリンク断等を検出すると、オープンフローコントローラ30に対してPort_statusメッセージを送出する。
 オープンフローコントローラ30は、オープンフロースイッチ40から送出されたPort_statusメッセージと、オープンフローコントローラ30の内部に保持しているトポロジ情報及びフロー情報と、に基づき障害回復のための経路制御が必要か否かを判断する(経路制御を実行するか否かを判断する)。また、オープンフローコントローラ30は、経路制御が必要であると判断した場合には、迂回経路を探索し、迂回経路を決定する。さらに、オープンフローコントローラ30は、迂回経路上のオープンフロースイッチ40に対してFlow_modメッセージを送出する。オープンフロースイッチ40は、受信したFlow_modメッセージに基づきフローテーブルを更新する。オープンフロースイッチ40は、更新されたフローテーブルに従って受信パケットを処理することで、迂回経路を実現する(迂回経路にフローを収容する)。
 図15は、本実施形態に係るオープンフローコントローラ30の内部構成の一例を示す図である。図15に示すように、オープンフローコントローラ30は、ネットワーク構成管理部31と、ネットワーク構成データベース(ネットワーク構成DB)32と、経路制御判断部33と、経路探索部34と、オープンフローメッセージ変換部35と、オープンフロースイッチ40等の装置と通信を行う通信部36と、を含んで構成される。
 ネットワーク構成管理部31の機能は、第1の実施形態において説明したネットワーク構成管理部21と相違する点は存在しないので、さらなる説明を省略する。また、ネットワーク構成DB32は、トポロジ情報及びフロー情報を記憶するデータベースである。なお、トポロジ情報は、第1の実施形態において説明したトポロジ情報と相違する点は存在しないので、さらなる説明を省略する。また、フロー情報は、第1の実施形態において説明したパス情報に相当する。即ち、フロー情報には、フローの属性が規定される。例えば、フロー情報は、フローの種類(現用系又は予備系)や、現用系フローに対する予備系フローに関する情報(予備系フローの有無、予備系フローの特定)を規定する。
 通信部36は、オープンフロースイッチ40からPort_statusメッセージを受信した場合であって、Port_statusメッセージにリンクダウンの情報が含まれる場合には、経路制御判断部33に対してリンクダウンのポート情報を通知する。具体的には、通信部36は、Port_statusメッセージに含まれるリンクダウンのフラグがセットされている場合に、経路制御判断部33に対してポート情報を通知する。
 経路制御判断部33は、通信部36からリンクダウンのポート情報を受信した際、ネットワーク構成DB32に格納されているトポロジ情報を参照しつつ、障害箇所を特定する。また、経路制御判断部33は、ネットワーク構成DB32に格納されているフロー情報を参照することで、障害が発生したフローを特定し、当該フローに対する迂回経路の設定が必要か否かを判断する。経路制御判断部33は、迂回経路の設定が必要であると判断した場合には、経路探索部34に迂回が必要なフローの情報を通知する。
 経路探索部34は、経路制御判断部33が生成した迂回が必要なフローの情報に基づき、発生した障害を回避する迂回経路を探索する。探索した迂回経路に関する情報は、オープンフローメッセージ変換部35に通知される。
 オープンフローメッセージ変換部35は、経路探索部34から通知を受けた迂回経路の情報をFlow_modメッセージに変換し、迂回経路上のオープンフロースイッチ40に対してFlow_modメッセージを、通信部36を使用して送出する。
 図16は、オープンフロースイッチ40の内部構成の一例を示す図である。
 オープンフロースイッチ40は、通信部41と、テーブル管理部42と、テーブルデータベース(テーブルDB)43と、転送処理部44と、を含んで構成されている。
 通信部41は、オープンフロースイッチ40を制御するオープンフローコントローラ30との通信を実現する手段である。通信部41は、オープンフロープロトコルを用いてオープンフローコントローラ30と通信するものとする。
 テーブル管理部42は、テーブルDB43に保持されているテーブルを管理する手段である。より具体的には、テーブル管理部42は、オープンフローコントローラ30から設定されたフローテーブルをテーブルDB43に登録する。また、テーブル管理部42は、後述するグループテーブルに対する管理を行う。
 テーブルDB43は、転送処理部44が受信パケットの処理を行う際に参照するフローテーブル及びグループテーブルを格納可能なデータベースによって構成される。
 転送処理部44は、テーブル検索部141と、アクション実行部142と、を含んで構成される。テーブル検索部141は、テーブルDB43に格納されたフローテーブルから、受信パケットに適合するマッチフィールドを持つ規則(アクション)を検索する手段である。アクション実行部142は、テーブル検索部141にて検索された規則のインストラクションフィールドに規定された処理に従ってパケット処理を行う手段である。オープンフロースイッチ40は、フローテーブル及びグループテーブルに規定された処理に従って、受信パケットを処理することで、オープンフロースイッチ40間に生じた障害を回復する。
 次に、本実施形態の動作例について図面を参照して説明する。なお、図17は例示であり、本実施形態に係る通信システムの動作は図17のフローチャートに限定されない。
 ステップS11において、オープンフローコントローラ30の通信部36は、オープンフロースイッチ40からPort_statusメッセージを受信する。
 ステップS12において、経路制御判断部33は、Port_statusメッセージに含まれるリンクダウンのポート情報を把握する。
 図18は、Port_statusメッセージの一例を示す図である。図18(a)には、オープンフロースイッチ40のポート構成が示されている。なお、図18を含む以降の図面において、オープンフローコントローラ30の記載を省略する。
 各オープンフロースイッチ40には、オープンフローコントローラ30により管理されるデータパス識別子が付与されている。例えば、図18に示すオープンフロースイッチ40-1には、データパス識別子として0x0aが与えられ、オープンフロースイッチ40-2には、データパス識別子として0x0bが与えられている(図18(b)参照)。
 ここで、図18(a)に示すネットワークにおいて、オープンフロースイッチ40-1及び40-4の間のフローF01に障害が発生したものとする。その場合、オープンフロースイッチ40-1及び40-4のそれぞれが、Port_statusメッセージを送出する。つまり、オープンフロースイッチ40は、リンクダウンしたポート情報をPort_statusメッセージとしてオープンフローコントローラ30に送出する。図18(c)は、オープンフロースイッチ40-1及び40-4のそれぞれが送出するPort_statusメッセージの一例を示す図である。図18(a)を参照すると、オープンフロースイッチ40-1及び40-4のそれぞれのポート2がリンクダウンしているので、これらの情報がオープンフローコントローラ30に通知される。
 オープンフローコントローラ30では、自らが管理するデータパス識別子と、Port_statusメッセージと、に基づいて、いずれのオープンフロースイッチ40のポートがリンクダウンしたかを把握する。
 ステップS13において、オープンフローコントローラ30の経路制御判断部33は、オープンフロースイッチ40から送信されるリンクダウンしたポートに関する情報と、ネットワーク構成DB32が記憶するトポロジ情報と、に基づいて障害箇所を把握する。
 図19は、経路制御判断部33における障害箇所を把握する動作を説明するための図である。経路制御判断部33は、例えば、図18(c)に示すPort_statusメッセージを受信すると、データパス識別子として0x0aが与えられたオープンフロースイッチ40-1のポート2と、データパス識別子として0x0cが与えられたオープンフロースイッチ40-4のポート2がリンクダウンしていることをトポロジ情報にマッピングする(ネットワーク構成DB32のトポロジ情報を更新する)。その結果、オープンフロースイッチ40-1と40-4との間に障害が発生していることが把握される。
 ステップS14において、経路制御判断部33は、更新されたトポロジ情報と、フロー情報と、に基づいて、発生した障害の影響を受けるフローを特定する。なお、障害の影響を受けるフローとは、障害箇所(上記の例では、オープンフロースイッチ40-1及び40-4)を通過するフローが該当する。
 ステップS15において、経路制御判断部33は、障害の影響を受けるフローが1本以下であるか否かを確認する。障害の影響を受けるフローが1本以下であれば(ステップS15、Yes分岐)、オープンフローコントローラ30は図17に示す処理を終了する。この場合、各オープンフロースイッチ40が備えるOAM機能により、制御プレーンに依存せず、障害の回復が可能である。従って、オープンフローコントローラ30は、障害回復動作に関与しない。
 図20は、障害回復にオープンフローコントローラ30が関与しない場合の動作を説明するための図である。図20において、現用系のフローに設定されているフローF01が障害の影響を受けるフローである。また、フローF02は、フローF01の予備系のフローである。
 図20において、オープンフロースイッチ40-1及び40-4は、グループテーブルを使用することで、データプレーンでの障害回復(制御プレーンに依存しない障害回復)が可能である。
 図21は、フローテーブルとグループテーブルの一例を示す図である。図21(a)及び(c)は、それぞれオープンフロースイッチ40-1及び40-4が備えるフローテーブルの一例である。図21(b)及び(d)は、それぞれオープンフロースイッチ40-1及び40-4が備えるグループテーブルの一例である。なお、図21(a)及び(c)において、失効条件及び統計情報を記載するフィールドの記載は省略する。
 図21(a)を参照すると、オープンフロースイッチ40-1のポート4における受信パケットに対する処理はグループテーブルに従うことが記載されている。また、図21(b)を参照すると、グループテーブルにはアクション及びタイプが指定されている。図21(b)及び(d)に示す例では、タイプとして「フェイルオーバー(Failover)」が指定されると共に、アクションには監視ポート(生存確認の監視を行うポート)の設定がなされている。例えば、図21(b)に示すアクション1では、ポート2の生存確認を行い、ポート2の生存が確認できれば、ポート2から受信パケットの転送を行うことが記載されている。なお、ポートの生存確認には、OAMの信号等が用いられる。
 また、オープンフロースイッチ40-1及び40-4には、グループテーブルで指定されるタイプの中でも、「ファストフェイルオーバー(Fast Failover)」が指定されている。この場合には、オープンフロースイッチ40-1及び40-4は、アクションを昇順(アクション1、アクション2、・・・)で検索し、最初にポートの生存が確認されたアクションを実行する。図21(b)に示す例では、ポート2の生存確認がなされず、ポート1の生存が確認されるため、アクション2が実行される。このように、オープンフロースイッチ40は、ポートのリンクダウンを検出した際に、受信パケットの処理を規定するフローテーブル及びグループテーブルに従い、受信パケットを生存が確認されているポートに転送する。
 なお、図21に示すグループテーブルを使用した障害の回復は、1:1プロテクションを想定している。しかし、1+1プロテクションによる障害の回復も可能である。1+1プロテクションによる障害回復の場合には、送信側のオープンフロースイッチ40-1におけるグループテーブルのタイプをALLに設定する。その場合には、受信側の動作には変更が生じない。グループテーブルのタイプにALLが設定された場合には、グループテーブルに設定されたアクションを同時に実行する。例えば、図21(b)に示す例では、アクション1及び2が実行され、ポート1及び2に同時にフローを伝送する。その結果、現用系と予備系のフローが同時に伝送され、受信側で2本のフローのいずれか一方を選択する1+1プロテクションと同等の動作を行うことができる。
 障害の影響を受けたフローが2本以上の場合には(ステップS15、No分岐)、経路制御判断部33は、現用系フローと、当該現用系に対応する予備系フローと、が共に障害を受けるか否かを確認する(ステップS16)。
 現用系フローと予備系フローとが共に影響を受けた場合(ステップS16、Yes分岐)には、経路探索部34は、フローの迂回経路を探索し、決定する(ステップS17)。
 ステップS18において、オープンフローメッセージ変換部35は、経路探索部34が決定した迂回経路を、Flow_modメッセージに変換する。
 ステップS19において、オープンフローメッセージ変換部35は、迂回経路上のオープンフロースイッチ40に、通信部36を介してFlow_modメッセージを送出する。
 図22は、オープンフローコントローラ30による迂回経路の設定を説明するための図である。図22に示すフローF01及びF02が、障害の影響を受けるフローとする。経路探索部34は、現用系フローF01に対する迂回経路としてフローF03を決定する。オープンフローコントローラ30は、フローF03を実現するためにオープンフロースイッチ40-1、40-3及び40-4に対してFlow_modメッセージを送出し、それぞれのオープンフロースイッチが備えるフローテーブルを更新する。
 図23は、Flow_modメッセージにより更新されたテーブルの一例を示す図である。フローF03において、オープンフロースイッチ40-1は、送信側のスイッチとなる。そのため、オープンフローコントローラ30は、オープンフロースイッチ40-1のポート4で受け付けたフローの収容先をポート3に修正するFlow_modメッセージを送出する(図23(a)参照)。なお、この場合には、オープンフロースイッチ40-1のフローテーブルには、グループテーブルを参照するアクションを設定しない。ポート1及び2は生存が確認できないポートだからである(図23(b)参照)。
 フローF03において、オープンフロースイッチ40-3は、中継用のスイッチとなる。そのため、オープンフローコントローラ30は、オープンフロースイッチ40-3のポート1で受け付けたフローの収容先をポート2とするFlow_modメッセージを送出する(図23(c)参照)。つまり、新たなフローが、オープンフロースイッチ40-3を通過するため、フローテーブルに新たな規則を追加するFlow_modメッセージを送出する。
 フローF03において、オープンフロースイッチ40-4は、受信側のスイッチとなる。そのため、オープンフローコントローラ30は、オープンフロースイッチ40-4のポート3で受け付けたフローの収容先をポート4とするFlow_modメッセージを送出する(図23(d)参照)。より具体的には、オープンフロースイッチ40-4が備えるフローテーブルに新たな条件を追加する。
 また、図24に示すように、フローF01及びF02が回復した場合に備え(フローの切り戻しを想定し)、フローテーブルを変更するFlow_modメッセージに加えて、グループテーブルを更新するGroup_modメッセージをオープンフローコントローラ30が送出してもよい。
 現用系フロー及び予備系フローが共に、障害の影響を受けていない場合(図17のステップS16、No分岐)には、オープンフローコントローラ30は、予備系フローを共有している複数の現用系フローが障害の影響を受けたか否かを確認する(ステップS20)。
 複数の現用系フローが障害の影響を受けている場合(ステップS20、Yes分岐)には、1本のフローに限り、予備系パスを伝送できるとすれば、他のフローに関しては迂回経路を探索する必要がある。従って、予備系フローを共有している複数の現用系フローが障害の影響を受けた場合には(ステップS20、Yes分岐)、オープンフローコントローラ30は、ステップS17~S19において説明した動作を行う。
 また、複数の現用系フローが障害の影響を受けていない場合(ステップS20、No分岐)には、オープンフローコントローラ30は動作を終了する。つまり、このような場合には、ステップS15と同様に、データプレーンのOAM機能により、制御プレーンに依存しない障害の回復が可能であるため、オープンフローコントローラ30は障害の回復動作に関与しない。
 以上のように、本実施形態に係る通信システムにおいては、制御プレーンとしてオープンフローを採用し、オープンフロースイッチ40からのメッセージに基づいて、障害の回復が必要か否かを迅速に判断する。そのため、OAM機能を用いたデータプレーンでの高速な障害回復をサポートしつつ、オープンフローにより多重障害に対しても確実に対応することができる。
 上記の実施形態の一部又は全部は、以下のようにも記載され得るが、以下には限られない。
 [形態1]
 上述の第1の視点に係る通信システムのとおりである。
 [形態2]
 前記制御装置は、
 前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御が必要か否かを判断する形態1の通信システム。
 [形態3]
 前記制御装置は、
 前記複数のノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する形態1又は2の通信システム。
 [形態4]
 前記制御装置は、
 前記複数のノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態1乃至3のいずれか一に記載の通信システム。
 [形態5]
 前記制御装置は、
 前記複数のノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態1乃至4のいずれか一に記載の通信システム。
 [形態6]
 前記制御装置は、
 前記経路制御が必要と判断した場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する形態1乃至5のいずれか一に記載の通信システム。
 [形態7]
 前記複数のノードのそれぞれは、パケットを処理するための処理規則を要求し、
 前記制御装置は、前記要求に応じて、受信したパケットを処理するための処理規則を作成し、作成した処理規則を前記複数のノードの少なくとも1つに通知する形態1乃至6のいずれか一に記載の通信システム。
 [形態8]
 前記複数のノードのそれぞれは、ポートのリンクダウンを検出したことに応じて、受信したパケットの処理を規定するフローテーブル及びグループテーブルに従い、前記受信したパケットを前記リンクダウンしたポート以外のポートに転送する形態1乃至7のいずれか一に記載の通信システム。
 [形態9]
 上述の第2の視点に係る制御装置のとおりである。
 [形態10]
 前記経路制御判断部は、
 前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御を実行するか否かを判断する形態9の制御装置。
 [形態11]
 前記経路制御判断部は、
 複数の前記ノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する形態9又は10の制御装置。
 [形態12]
 前記経路制御判断部は、
 複数の前記ノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態9乃至11のいずれか一に記載の制御装置。
 [形態13]
 前記経路制御判断部は、
 複数の前記ノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態9乃至12のいずれか一に記載の制御装置。
 [形態14]
 前記経路制御判断部により、前記経路制御を実行すると判断された場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する経路探索部を備える形態9乃至13のいずれか一に記載の制御装置。
 [形態15]
 上述の第3の視点に係る制御装置の制御方法のとおりである。
 [形態16]
 前記経路制御の要否を判断する工程は、
 前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御を実行するか否かを判断する形態15の制御装置の制御方法。
 [形態17]
 前記経路制御の要否を判断する工程は、
 複数の前記ノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する形態15又は16の制御装置の制御方法。
 [形態18]
 前記経路制御の要否を判断する工程は、
 複数の前記ノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態15乃至17のいずれか一に記載の制御装置の制御方法。
 [形態19]
 前記経路制御の要否を判断する工程は、
 複数の前記ノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態15乃至18のいずれか一に記載の制御装置の制御方法。
 [形態20]
 前記経路制御の要否を判断する工程により、前記経路制御を実行すると判断された場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する工程を含む形態15乃至19のいずれか一に記載の制御装置の制御方法。
 [形態21]
 上述の第4の視点に係るプログラムのとおりである。
 [形態22]
 前記経路制御の要否を判断する処理は、
 前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御を実行するか否かを判断する形態21のプログラム。
 [形態23]
 前記経路制御の要否を判断する処理は、
 複数の前記ノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する形態21又は22のプログラム。
 [形態24]
 前記経路制御の要否を判断する処理は、
 複数の前記ノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態21乃至23のいずれか一に記載のプログラム。
 [形態25]
 前記経路制御の要否を判断する処理は、
 複数の前記ノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する形態21乃至24のいずれか一に記載のプログラム。
 [形態26]
 前記経路制御の要否を判断する処理により、前記経路制御を実行すると判断された場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する処理を実行させる形態21乃至25のいずれか一に記載のプログラム。
 なお、引用した上記の特許文献の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
10、10-1~10-5、100 ノード
20、20a、101 制御装置
21、31 ネットワーク構成管理部
22、32 ネットワーク構成データベース(ネットワーク構成DB)
23、23a、33 経路制御判断部
24、36、41 通信部
25、34 経路探索部
30 オープンフローコントローラ
35 オープンフローメッセージ変換部
40、40-1~40-4 オープンフロースイッチ
42 テーブル管理部
43 テーブルデータベース(テーブルDB)
44 転送処理部
141 テーブル検索部
142 アクション実行部

Claims (26)

  1.  OAM(Operation Administration and Maintenance)機能を備える複数のノードと、
     前記複数のノードを制御する制御装置と、
     を含み、
     前記複数のノードのそれぞれは、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を前記制御装置に送信し、
     前記制御装置は、前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける経路制御を実行するか否かを判断する、通信システム。
  2.  前記制御装置は、
     前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御が必要か否かを判断する請求項1の通信システム。
  3.  前記制御装置は、
     前記複数のノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する請求項1又は2の通信システム。
  4.  前記制御装置は、
     前記複数のノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項1乃至3のいずれか一項に記載の通信システム。
  5.  前記制御装置は、
     前記複数のノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項1乃至4のいずれか一項に記載の通信システム。
  6.  前記制御装置は、
     前記経路制御が必要と判断した場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する請求項1乃至5のいずれか一項に記載の通信システム。
  7.  前記複数のノードのそれぞれは、パケットを処理するための処理規則を要求し、
     前記制御装置は、前記要求に応じて、受信したパケットを処理するための処理規則を作成し、作成した処理規則を前記複数のノードの少なくとも1つに通知する請求項1乃至6のいずれか一項に記載の通信システム。
  8.  前記複数のノードのそれぞれは、ポートのリンクダウンを検出したことに応じて、受信したパケットの処理を規定するフローテーブル及びグループテーブルに従い、前記受信したパケットを前記リンクダウンしたポート以外のポートに転送する請求項1乃至7のいずれか一項に記載の通信システム。
  9.  OAM(Operation Administration and Maintenance)機能を備える複数のノードの少なくとも1つから、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を受信する通信部と、
     前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける経路制御を実行するか否かを判断する経路制御判断部と、
     を備える制御装置。
  10.  前記経路制御判断部は、
     前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御を実行するか否かを判断する請求項9の制御装置。
  11.  前記経路制御判断部は、
     複数の前記ノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する請求項9又は10の制御装置。
  12.  前記経路制御判断部は、
     複数の前記ノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項9乃至11のいずれか一項に記載の制御装置。
  13.  前記経路制御判断部は、
     複数の前記ノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項9乃至12のいずれか一項に記載の制御装置。
  14.  前記経路制御判断部により、前記経路制御を実行すると判断された場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する経路探索部を備える請求項9乃至13のいずれか一項に記載の制御装置。
  15.  OAM(Operation Administration and Maintenance)機能を備える複数のノードの少なくとも1つから、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を受信する工程と、
     前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける経路制御を実行するか否かを判断する工程と、
     を含む制御装置の制御方法。
  16.  前記経路制御の要否を判断する工程は、
     前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御を実行するか否かを判断する請求項15の制御装置の制御方法。
  17.  前記経路制御の要否を判断する工程は、
     複数の前記ノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する請求項15又は16の制御装置の制御方法。
  18.  前記経路制御の要否を判断する工程は、
     複数の前記ノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項15乃至17のいずれか一項に記載の制御装置の制御方法。
  19.  前記経路制御の要否を判断する工程は、
     複数の前記ノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項15乃至18のいずれか一項に記載の制御装置の制御方法。
  20.  前記経路制御の要否を判断する工程により、前記経路制御を実行すると判断された場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する工程を含む請求項15乃至19のいずれか一項に記載の制御装置の制御方法。
  21.  OAM(Operation Administration and Maintenance)機能を備える複数のノードの少なくとも1つから、前記複数のノードにより構成されるネットワークに生じた障害により影響を受けたポートに関する情報を含む状態変更通知を受信する処理と、
     前記状態変更通知と、前記ネットワークの構成に関する情報と、に基づいて、前記ネットワークにおける経路制御を実行するか否かを判断する処理と、
     を制御装置を制御するコンピュータに実行させるプログラム。
  22.  前記経路制御の要否を判断する処理は、
     前記ネットワークの構成に関する情報として、前記ネットワークのトポロジ情報とパス情報を用いて、前記ネットワークに生じた障害を回復するために前記経路制御を実行するか否かを判断する請求項21のプログラム。
  23.  前記経路制御の要否を判断する処理は、
     複数の前記ノードにより形成されるパスであって、前記ネットワークに生じた障害により影響を受けるパスが1本以下の場合には、前記経路制御を実行しないと判断する請求項21又は22のプログラム。
  24.  前記経路制御の要否を判断する処理は、
     複数の前記ノードにより形成されるパスであって、現用系パスと現用系パスに対応する予備系パスとが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項21乃至23のいずれか一項に記載のプログラム。
  25.  前記経路制御の要否を判断する処理は、
     複数の前記ノードにより形成されるパスであって、予備系パスを共有する複数の現用系パスが、前記ネットワークに生じた障害により影響を受けるパスである場合には、前記経路制御を実行すると判断する請求項21乃至24のいずれか一項に記載のプログラム。
  26.  前記経路制御の要否を判断する処理により、前記経路制御を実行すると判断された場合に、前記ネットワークに関する情報に基づいて、前記ネットワークに生じた障害を回避するパスを探索する処理を実行させる請求項21乃至25のいずれか一項に記載のプログラム。
PCT/JP2013/080778 2012-11-16 2013-11-14 通信システム、制御装置、その制御方法及びプログラム WO2014077313A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP13856009.9A EP2922248B1 (en) 2012-11-16 2013-11-14 Communication system, control device, method for controlling same, and program
ES13856009T ES2745637T3 (es) 2012-11-16 2013-11-14 Sistema de comunicación, dispositivo de control, método de control del mismo, y programa
US14/439,208 US9544223B2 (en) 2012-11-16 2013-11-14 Communication system, control apparatus, method for controlling same, and program
CN201380060175.5A CN104798348A (zh) 2012-11-16 2013-11-14 通信系统、控制装置、用于控制控制装置的方法以及程序
JP2014547027A JP6311612B2 (ja) 2012-11-16 2013-11-14 通信システム、制御装置、その制御方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-252425 2012-11-16
JP2012252425 2012-11-16

Publications (1)

Publication Number Publication Date
WO2014077313A1 true WO2014077313A1 (ja) 2014-05-22

Family

ID=50731222

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080778 WO2014077313A1 (ja) 2012-11-16 2013-11-14 通信システム、制御装置、その制御方法及びプログラム

Country Status (6)

Country Link
US (1) US9544223B2 (ja)
EP (1) EP2922248B1 (ja)
JP (1) JP6311612B2 (ja)
CN (1) CN104798348A (ja)
ES (1) ES2745637T3 (ja)
WO (1) WO2014077313A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000243A1 (zh) * 2015-06-30 2017-01-05 华为技术有限公司 一种路由的方法、相关设备及系统
JP2020522925A (ja) * 2017-05-31 2020-07-30 アファームド ネットワークス,インク. Ipsecの地理的冗長性のための分離した制御プレーンおよびデータプレーンの同期

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103929334B (zh) * 2013-01-11 2018-02-23 华为技术有限公司 网络异常通知方法和装置
EP3029893B1 (en) * 2013-09-03 2018-05-23 Huawei Technologies Co., Ltd. Method, controller, device and system for protecting service path
JP2017103519A (ja) * 2015-11-30 2017-06-08 日本電気株式会社 制御装置、通信システム、制御方法及びプログラム
US11271870B2 (en) 2016-01-27 2022-03-08 Oracle International Corporation System and method for supporting scalable bit map based P_Key table in a high performance computing environment
US10594627B2 (en) 2016-01-27 2020-03-17 Oracle International Corporation System and method for supporting scalable representation of switch port status in a high performance computing environment
US10063407B1 (en) * 2016-02-08 2018-08-28 Barefoot Networks, Inc. Identifying and marking failed egress links in data plane
US10313231B1 (en) 2016-02-08 2019-06-04 Barefoot Networks, Inc. Resilient hashing for forwarding packets
US10404619B1 (en) 2017-03-05 2019-09-03 Barefoot Networks, Inc. Link aggregation group failover for multicast
US10237206B1 (en) 2017-03-05 2019-03-19 Barefoot Networks, Inc. Equal cost multiple path group failover for multicast
US10362631B2 (en) * 2017-04-03 2019-07-23 Level 3 Communications, Llc Last resource disaster routing in a telecommunications network
US20190334808A1 (en) * 2018-04-28 2019-10-31 Hewlett Packard Enterprise Development Lp Data plane forwarding table downed link updating
CN109194592B (zh) * 2018-09-25 2021-06-25 盛科网络(苏州)有限公司 一种解决multi-link网络中孤岛问题的方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003318983A (ja) 2002-04-26 2003-11-07 Hitachi Ltd 光クロスコネクト網の障害回復方法
JP2007053793A (ja) 2003-02-21 2007-03-01 Nippon Telegr & Teleph Corp <Ntt> 通信ネットワークにおけるパスの故障救済を行うための装置及び方法
JP2008066989A (ja) 2006-09-06 2008-03-21 Ntt Communications Kk 経路状態管理システム、制御装置、ネットワーク管理装置、通信装置および経路状態管理方法
JP2012090058A (ja) * 2010-10-19 2012-05-10 Nec Corp 通信システム、制御装置、処理規則の設定方法およびプログラム
JP2012170161A (ja) 2012-06-13 2012-09-06 Hitachi Ltd ノード、制御装置及び通信システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995485A (en) 1996-11-26 1999-11-30 Mci Communications Corporation Method and apparatus for isolating network failures by correlating paths issuing alarms with failure spans
US6347074B1 (en) 1997-08-13 2002-02-12 Mci Communications Corporation Centralized method and system for excluding components from a restoral route in a communications network
DE19737359C2 (de) * 1997-08-27 1999-08-19 Siemens Ag Kommunikationseinrichtung für die Übertragung von Nachrichtensignalen
JP3467681B2 (ja) * 1998-11-04 2003-11-17 日本電信電話株式会社 二重化構成を有するパスの故障管理方法
JP3871467B2 (ja) * 1999-03-25 2007-01-24 富士通株式会社 通信パスの障害復旧装置
US7085224B1 (en) * 2001-06-14 2006-08-01 Cisco Technology, Inc. Method and apparatus for fast failure detection in switched LAN networks
US20030005095A1 (en) * 2001-06-29 2003-01-02 Fee John A. Method and system for programmable submarine network configuration plans to enable diverse service level agreements in telecommunication networks
JP4437984B2 (ja) * 2005-08-24 2010-03-24 アラクサラネットワークス株式会社 ネットワーク中継装置及びその制御方法
JP2008269462A (ja) 2007-04-24 2008-11-06 Hitachi Ltd ノードの管理装置及び方法
CN101990133B (zh) * 2009-07-31 2014-02-19 中兴通讯股份有限公司 一种自动交换光网络业务降级告警状态的维护方法及系统
JP5621781B2 (ja) * 2009-10-06 2014-11-12 日本電気株式会社 ネットワークシステムとコントローラと方法とプログラム
CN102792636B (zh) * 2010-01-22 2016-10-26 瑞典爱立信有限公司 提供恢复生存性的方法、设备和通信网络
WO2011144495A1 (en) * 2010-05-19 2011-11-24 Telefonaktiebolaget L M Ericsson (Publ) Methods and apparatus for use in an openflow network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003318983A (ja) 2002-04-26 2003-11-07 Hitachi Ltd 光クロスコネクト網の障害回復方法
JP2007053793A (ja) 2003-02-21 2007-03-01 Nippon Telegr & Teleph Corp <Ntt> 通信ネットワークにおけるパスの故障救済を行うための装置及び方法
JP2008066989A (ja) 2006-09-06 2008-03-21 Ntt Communications Kk 経路状態管理システム、制御装置、ネットワーク管理装置、通信装置および経路状態管理方法
JP2012090058A (ja) * 2010-10-19 2012-05-10 Nec Corp 通信システム、制御装置、処理規則の設定方法およびプログラム
JP2012170161A (ja) 2012-06-13 2012-09-06 Hitachi Ltd ノード、制御装置及び通信システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KENJI FUJIHIRA: "PROPOSAL OF SERVICE RECOVERY METHOD AGAINST WIDE AREA DISASTER", PROCEEDINGS OF COMMUNICATIONS SOCIETY IEICE, vol. 2, 28 August 2012 (2012-08-28), pages 57, XP008179437 *
See also references of EP2922248A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000243A1 (zh) * 2015-06-30 2017-01-05 华为技术有限公司 一种路由的方法、相关设备及系统
EP3306873A4 (en) * 2015-06-30 2018-05-30 Huawei Technologies Co., Ltd. Routing method, and relevant device and system
US10630592B2 (en) 2015-06-30 2020-04-21 Huawei Technologies Co., Ltd. Routing method, related device, and system
US11509584B2 (en) 2015-06-30 2022-11-22 Huawei Technologies Co., Ltd. Routing method, related device, and system
JP2020522925A (ja) * 2017-05-31 2020-07-30 アファームド ネットワークス,インク. Ipsecの地理的冗長性のための分離した制御プレーンおよびデータプレーンの同期
JP7234141B2 (ja) 2017-05-31 2023-03-07 マイクロソフト テクノロジー ライセンシング,エルエルシー Ipsecの地理的冗長性のための分離した制御プレーンおよびデータプレーンの同期

Also Published As

Publication number Publication date
EP2922248A4 (en) 2016-07-13
ES2745637T3 (es) 2020-03-03
US9544223B2 (en) 2017-01-10
CN104798348A (zh) 2015-07-22
JP6311612B2 (ja) 2018-04-18
US20150295818A1 (en) 2015-10-15
JPWO2014077313A1 (ja) 2017-01-05
EP2922248B1 (en) 2019-06-26
EP2922248A1 (en) 2015-09-23

Similar Documents

Publication Publication Date Title
JP6311612B2 (ja) 通信システム、制御装置、その制御方法及びプログラム
JP5941404B2 (ja) 通信システム、経路切替方法及び通信装置
JP5033856B2 (ja) ネットワーク構成の想定のための装置、システム
JP5546461B2 (ja) チェーン及びリングネットワークにおける透過的なオートリカバリのための方法及びシステム
JP6095583B2 (ja) データ転送装置システム及びネットワークシステム
JP5743809B2 (ja) 網管理システムおよび網管理方法
RU2612599C1 (ru) Устройство управления, система связи, способ управления коммутаторами и программа
Chen et al. When software defined networks meet fault tolerance: a survey
JP2008167315A (ja) 回線冗長接続方法および広域通信網ノード装置
JP4895972B2 (ja) リングプロトコル高速切替方法およびその装置
JP5822236B2 (ja) 通信装置、通信装置を制御する方法及び通信システム
EP2479926B1 (en) Method and device for backing up user information
WO2014175423A1 (ja) 通信ノード、通信システム、パケット処理方法及びプログラム
Liao et al. Fast failover with hierarchical disjoint paths in SDN
JP6781288B2 (ja) マルチノード装置及びその予備通信方法
CN102045259B (zh) 分组交换设备以及管理用户业务的方法
WO2013185583A1 (zh) 智能光网络中保护业务的恢复方法和装置
JP4541367B2 (ja) 故障救済方法およびパケット通信装置
EP2180636B1 (en) Method for signaling a unidirectional failure of a packet-switched link
WO2017010078A1 (ja) 制御装置、障害通知方法及び記録媒体
JP6282222B2 (ja) 通信装置
JP2007088866A (ja) 通信システム
WO2016045276A1 (zh) 报文转发方法、装置、sdn及系统
JP2008166942A (ja) ノード装置およびパス設定方法
JP2015138987A (ja) 通信システムおよび通信システムにおけるサービス復旧方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856009

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14439208

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014547027

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013856009

Country of ref document: EP