WO2014199471A1 - 通信システム、通信装置およびプロテクション方法 - Google Patents

通信システム、通信装置およびプロテクション方法 Download PDF

Info

Publication number
WO2014199471A1
WO2014199471A1 PCT/JP2013/066260 JP2013066260W WO2014199471A1 WO 2014199471 A1 WO2014199471 A1 WO 2014199471A1 JP 2013066260 W JP2013066260 W JP 2013066260W WO 2014199471 A1 WO2014199471 A1 WO 2014199471A1
Authority
WO
WIPO (PCT)
Prior art keywords
ring
failure
shared
major
shared link
Prior art date
Application number
PCT/JP2013/066260
Other languages
English (en)
French (fr)
Inventor
幸子 谷口
竜介 川手
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2013/066260 priority Critical patent/WO2014199471A1/ja
Priority to US14/897,094 priority patent/US9787496B2/en
Priority to PCT/JP2014/054765 priority patent/WO2014199670A1/ja
Priority to DE112014002835.5T priority patent/DE112014002835T5/de
Priority to CN201480032747.3A priority patent/CN105324959B/zh
Priority to JP2015522577A priority patent/JP5955461B2/ja
Publication of WO2014199471A1 publication Critical patent/WO2014199471A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/437Ring fault isolation or reconfiguration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0823Errors, e.g. transmission errors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L2012/421Interconnected ring systems

Definitions

  • the present invention relates to a communication system, a communication device, and a protection method.
  • a ring network in which a plurality of communication devices are connected in a ring shape is widely adopted as a configuration for providing a communication path with redundancy in order to achieve high network reliability.
  • a method of logically disconnecting a single port on the ring network (hereinafter referred to as blocking) is usually used.
  • blocking a method of logically disconnecting a single port on the ring network
  • communication is possible by switching the blocked port from the port that was previously set as a blocked port to the failed port in order to prevent the communication path from being divided.
  • RPL Protection Link Owner
  • RPL owner By blocking one port of Protection Link Owner (hereinafter referred to as RPL owner), the link on the blocked port side is logically disconnected to prevent the occurrence of a normal loop.
  • R-APS Ring-Automatic Protection Switching
  • the path switching is performed by releasing the blockage of one of the blocked ports.
  • a major ring is a ring network that performs failure management of a transmission line (hereinafter referred to as a shared link) shared by a plurality of ring networks
  • a sub-ring is a ring network that does not perform this failure management.
  • a shared link failure when a shared link failure occurs, the port that has been previously blocked by the RPL owner in both ring networks is released, and a loop that spans both ring networks occurs. Therefore, in a multi-ring network, one major ring and one or more sub-rings are set for a plurality of ring networks connected by a shared link. In the major ring and sub ring, protection is performed independently for failures other than shared links, and when a failure occurs in the own ring, the blocked port in the own ring is released. On the other hand, when a shared link failure occurs, only the major ring performs failure management and performs a protection operation for switching paths, thereby avoiding the occurrence of a loop.
  • Non-Patent Document 1 when a plurality of failures including a failure in a shared link, that is, a failure in a shared link and a failure in a link other than the shared link, occur as described above. However, since no failure has occurred in the sub-ring, the blocked port in the sub-ring is not released. For this reason, when multiple failures including shared links occur in the major ring, the major ring and sub ring are protected independently, even though a physical detour exists. In the sub-ring, there is a problem that the protection does not operate, the network is divided, and a node that cannot communicate is generated.
  • the present invention has been made in view of the above, and an object of the present invention is to obtain a communication system, a communication device, and a protection method capable of continuing communication when a multiple failure including a shared link occurs.
  • the present invention includes two or more ring networks in which a plurality of communication devices are connected in a ring shape, and a single port is blocked as a blocked port for each ring network.
  • ring protection is performed to switch the blocked port to the failure port
  • one of the ring networks is a major ring that detects a failure of a shared link that is a transmission path shared between the ring networks
  • Each of the ring networks in the ring network A failure monitoring unit that detects a failure and detects a failure of the shared link; a switching processing unit that switches between measuring and sub-ring based on a detection result of the failure by the failure monitoring unit; and the switching processing unit And a ring processing unit for notifying the ring network of
  • the communication system, communication apparatus, and protection method according to the present invention have an effect that communication can be continued when a multiple failure including a shared link occurs.
  • FIG. 1 is a diagram illustrating a configuration example of a multi-ring network according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration example of the shared node according to the first embodiment.
  • FIG. 3 is a diagram illustrating a functional configuration example of the ERP control unit of the shared node according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a format of an R-APS frame for notifying a failure state in the first embodiment.
  • FIG. 5 is a diagram illustrating a configuration example of the multi-ring managing unit according to the first embodiment.
  • FIG. 6 is a flowchart illustrating an example of a processing procedure in the multi-ring management unit when a failure according to the first embodiment is detected.
  • FIG. 1 is a diagram illustrating a configuration example of a multi-ring network according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration example of the shared node according to the first embodiment.
  • FIG. 3 is a diagram illustrating a functional
  • FIG. 7 is a diagram illustrating a configuration example of an ERP control unit included in a node other than the shared node according to the first embodiment.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure when an R-APS frame is received in a node other than the shared node according to the first embodiment.
  • FIG. 10 is a diagram illustrating a situation where multiple failures occur in the multi-ring network.
  • FIG. 11 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • FIG. 12 is a diagram illustrating a state in which a shared link failure has occurred after switching between the major ring and the sub ring.
  • FIG. 13 is a diagram illustrating a state in which a failure has occurred in the shared link from the state without a failure.
  • FIG. 14 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link.
  • FIG. 15 is a diagram illustrating a configuration example of a multi-ring network according to the second embodiment.
  • FIG. 16 is a diagram illustrating a state in which a failure has occurred in the sub-ring.
  • FIG. 17 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • FIG. 18 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • FIG. 19 is a diagram illustrating a situation in which a failure of two shared links has occurred after switching between the major ring and the sub ring.
  • FIG. 20 is a diagram illustrating a state in which a failure has occurred in one shared link from the state of no failure.
  • FIG. 21 is a diagram illustrating a situation in which a failure has occurred in the other shared link after the failure in one shared link.
  • FIG. 22 is a diagram illustrating a state in which a failure has occurred in majoring after a failure has occurred in two shared links.
  • FIG. 23 is a diagram illustrating a configuration example of a multi-ring network according to the third embodiment.
  • FIG. 24 is a diagram illustrating a configuration example of the ERP control unit of the shared node according to the third embodiment.
  • FIG. 25 is a diagram illustrating a configuration example of a multi-ring managing unit according to the third embodiment.
  • FIG. 26 is a flowchart illustrating an example of a processing procedure in the multi-ring managing unit according to the third embodiment when a failure is detected.
  • FIG. 27 is a diagram illustrating a state in which a failure has occurred in the sub-ring.
  • FIG. 28 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • FIG. 29 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • FIG. 30 is a diagram illustrating a state in which a failure occurs in the shared link after the switching between the sub-ring and the major ring due to the failure illustrated in FIG.
  • FIG. 31 is a diagram illustrating a state in which a failure has occurred in the shared link from the state without failure.
  • FIG. 32 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link.
  • FIG. 33 is a diagram illustrating a state in which a failure further occurs in measuring after the occurrence of the failure in FIG. 32.
  • FIG. 1 is a diagram showing a configuration example of a first embodiment of a multi-ring network (communication system) according to the present invention.
  • the nodes 1 and 4 are connected by a shared link 10.
  • FIG. 1 a multi-ring network having six devices including two shared nodes is shown as an example, but the number of nodes connected to each ring is not limited to this.
  • FIG. 1 shows a configuration example in which two rings are connected, this embodiment can also be applied to a structure in which three or more ring networks are connected. Further, the present invention can be applied to a case where three or more shared nodes are connected to the shared link.
  • Each node 1-6 has multiple ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • the nodes 1 and 4 that are shared nodes have three or more ports, and the other nodes 2, 3, 5, and 6 have two or more ports.
  • Nodes 2 and 6 operate as RRP owner nodes of ERP, and other nodes 1, 3, 4, and 5 operate as non-RPL owner nodes of ERP.
  • RRP owner nodes of ERP and other nodes 1, 3, 4, and 5 operate as non-RPL owner nodes of ERP.
  • the setting of the RPL owner and the setting and release of the blocked port an operation according to the ERP standard which is a conventional technique is performed.
  • ERP is used as a ring protection method for setting a blocked port in order to avoid a loop in a ring network
  • the ring protection method is not limited to ERP.
  • a link with an adjacent node is logically disconnected by closing one port of the RPL owner node.
  • the link break point is referred to as BP (Blocking Point)
  • the blocked port blocked port
  • the port on the node 3 side of the node 2 and the port on the node 5 side of the node 6 are set to BP.
  • control frames and data frames are discarded without being transferred to adjacent nodes at ports set to BP.
  • transfer of control frames and data frames to adjacent nodes is permitted at ports where BP is not set.
  • FIG. 2 is a diagram illustrating a configuration example of the shared nodes (nodes 1 and 4 in the configuration example of FIG. 1) according to the present embodiment.
  • the shared node includes input processing units 11-1 to 11-n (n is an integer greater than or equal to 3), multiplexing unit 12, transfer destination management unit 13, ERP control unit 14, buffer A memory 15, a buffer control unit 16, and output processing units 17-1 to 17-n are provided.
  • the node 1 has n ports (not shown), and each port functions as an input / output port.
  • at least one of the n ports is connected to the shared link 10.
  • the node 1 holds the transfer management table 18 in a storage unit (not shown).
  • the nodes other than the shared node include an ERP control unit 14a instead of the ERP control unit 14 as described later, n is set to 2 or more, and the input processing units 11-1 to 11- n, except that the output processing units 17-1 to 17-n are not connected to the shared link.
  • the input processing units 11-1 to 11-n perform processing such as error checking of frames input from each port.
  • One of the input processing units 11-1 to 11-n processes a frame input from the shared link port (port connected to the shared link 10).
  • the multiplexing unit 12 multiplexes the frames (input frames from each port) input from the input processing units 11-1 to 11-n, and outputs the multiplexed frame to the transfer destination management unit 13.
  • the transfer management table 18 is a table storing information for managing the frame transfer destination. For example, an output destination port is stored for each piece of information for identifying a flow such as a destination.
  • the transfer destination management unit 13 searches the transfer management table 18 to determine a frame transfer destination (transfer destination port) for each destination of the input frame, and transfers the transfer destination information determined together with the frame data to the buffer control unit 16. To notify.
  • the buffer memory 15 is a memory that functions as a queue that stores frames in the order of input for each transfer destination.
  • the buffer control unit 16 performs control to write and read frame data to and from the buffer memory 15, and manages the frame data storage state of the buffer memory 15 for each transfer destination.
  • the stored frame is read from the buffer memory 15 according to the transmission speed of the output destination for each transfer destination port, and the output processing unit 17 corresponding to the transfer destination port. -1 to 17-n.
  • the output processing units 17-1 to 17-n generate a read request so that a frame read from the buffer can be output to the outside within the range of the transmission speed for each port, and notify the buffer control unit 16 of the read request. May be.
  • the output processing units 17-1 to 17-n are connected to different ports, generate read requests to output the frames read from the buffer within the range of the transmission speed for each port, and perform buffer control. Notification to the unit 16.
  • the ERP control unit 14 performs termination processing and transfer processing of CCM frames and R-APS frames that are ERP control frames input from an ERP port connected in a ring shape. Further, the ERP control unit 14 manages the ERP state (whether there is a failure or the like) of each ring network from the information in the received frame.
  • FIG. 3 is a diagram illustrating a functional configuration example of the ERP control unit 14 of the shared node according to the present embodiment.
  • the ERP control unit 14 includes a multi-ring management unit 21 and ERP processing units (ring processing units) 22-1 and 22-2.
  • the ERP processing units 22-1 and 22-2 manage a failure state or the like by ERP for each ring.
  • the multi-ring managing unit 21 manages a plurality of ERP processing units 22-1 and 22-2 in order to avoid network division due to multiple failures in the multi-ring network.
  • the number of shared ring networks is two.
  • the ERP control unit 14 includes ERP processing units as many as the number of shared ring networks.
  • FIG. 4 is a diagram illustrating an example of a format of an R-APS frame for notifying a failure state in the present embodiment.
  • major sub-identification information M / M in FIG. 4
  • S an identification bit of majoring or subring
  • R ring ID
  • the major sub identification information indicates whether the ring with the subsequent ring ID is a major ring or a sub ring.
  • Information to be added in the present embodiment is hatched in FIG.
  • the relationship between the value stored in the Request / State field and the indicated information is as follows. 1011b: SF (Signal Fail) 1110b: Event 0000b: NR (No Request) 0111b: MS (Manual Switch) 1101b: FS (Force Switch) Also, BPR (Blocked Port Reference) indicates which side the port is blocked, DNF (Do Not Flush) indicates whether FDB (Forwarding DataBase) can be flushed, and RB (RPL Blocked) is RPL Indicates whether the owner's blocked port is blocked.
  • ITU-T G In the ERP specified by 8032, when no failure has occurred, the RPL owner stores NR in Request / State, and RB stores a value indicating that the blocked port of the RPL owner is blocked. APS frames are transmitted at regular intervals. When a node in the ring network detects a failure, the node that has detected the failure transmits an R-APS frame with Request / State as SF to both ports. Each node in the ring network transfers the received R-APS frame to an adjacent node.
  • the ring ID is 3 bits, but it is only necessary to secure an area for the required number of bits depending on the number of ring networks configured by multi-rings.
  • the R-APS frame is used to notify information about major ring or sub-ring and ring ID information.
  • a failure monitoring control frame (failure monitoring control frame) is included in the R-APS frame.
  • any format may be used.
  • the switching of the major ring may be notified to the ring network sharing the shared link 10 by another frame other than the failure monitoring control frame.
  • FIG. 5 is a diagram illustrating a configuration example of the multi-ring managing unit 21 according to the present embodiment.
  • the multi-ring management unit 21 includes a failure management unit 31, a local node information management unit 32, and a shared node information management unit 33.
  • the own node information management unit 32 for a plurality of ring IDs of the ring network shared by the shared node (own node), the ring ID of the major ring, the port number of the port connected to the major ring, the ring ID of the sub ring and the sub ID It manages its own node information, which is information about its own node, such as the port number of the port connected to the ring and the port number of the port connected to the shared link.
  • ITU-T G Similar to the 8032 multi-ring network, a major ring is a ring that recognizes a failure of a shared link, and a sub-ring is a ring that does not recognize a failure of a shared link.
  • the shared node information management unit 33 of the multi-ring management unit 21 also terminates the shared link on the opposite side of the shared link (in the example of FIG. 1, the node 4 is viewed from the node 1 and the node is viewed from the node 4).
  • a shared link intermediate node to which the shared link 10 is connected may be provided between the node 1 and the node 4.
  • the failure management unit 31 of the multi-ring management unit 21 includes the local node information, shared node information, and information stored in the R-APS frame when a failure occurs in the multi-ring network (the ring ID and node ID that detected the failure). And a failure monitoring unit 311 for determining the presence / absence of a failure ring and the presence / absence of a shared link failure from port information (information of a port in which a failure is detected).
  • the failure management unit 31 performs sub-ring and measuring when a failure other than the shared link occurs in the major ring, or when a failure other than the shared link occurs in the major ring after the failure in the shared link.
  • a switching processing unit 312 that switches the corresponding ring ID is provided. If the failure occurrence probability of each link is the same, in the former case (when a failure other than a shared link occurs in the major ring), change the ring that becomes the major ring (change the ring ID that is the major ring) By doing so, it is possible to reduce the probability of multiple failures including a shared link in one ring.
  • the failure management unit 31 of the multi-ring management unit 21 includes an output control unit 313 that performs R / APS frame transfer / transmission processing based on the failure status of both rings and shared links and the result of switching processing.
  • FIG. 6 is a flowchart illustrating an example of processing (failure occurrence processing) in the multi-ring managing unit 21 when a failure is detected.
  • this failure occurrence process is performed by a shared node other than the shared link intermediate node, that is, a shared link end node that terminates the shared link.
  • the multi-ring managing unit 21 first determines whether or not a failure has occurred on the side of Major (hereinafter abbreviated as “majoring” as appropriate) (step S1). Specifically, the multi-ring managing unit 21 determines whether a failure has occurred in the major ring based on the R-APS frame received from the node belonging to the major ring.
  • the multi-ring management unit 21 determines whether a failure has occurred other than on the shared link (step S2). Whether or not a failure has occurred in the shared link can be determined based on the shared node information and the R-APS frame that are held. If a failure has occurred other than the shared link (step S2, Yes), it is determined whether or not a failure has occurred in the sub-ring (step S3).
  • the multi-ring managing unit 21 manages the failure occurrence state in the sub-ring based on the R-APS frame received from the node belonging to the sub-ring, and thereby whether or not a failure has occurred in the sub-ring. Can be judged.
  • step S5 it is determined whether a failure has occurred in the shared link. If a failure has occurred in the shared link (step S5, Yes), the FDBs of the ERP ports of both rings are cleared and the sub-ring The function of transferring the R-APS frame from to the major ring is enabled (step S6). By enabling this transfer function, a frame that cannot be transferred to the sub-ring due to a failure in the shared link can be transferred via the major ring. In each ring, it is assumed that the received frame and port number are registered in the FDB and transferred using the FDB in the initial state as usual.
  • the multi-ring managing unit 21 performs processing in each ring according to the ERP state machine (step S7), and ends the processing. Since the processing according to the ERP state machine is the same as the conventional one, detailed description thereof is omitted.
  • step S1 if no failure has occurred on the Major side (No in step S1), the process proceeds to step S7. If no failure has occurred other than the shared link in step S2 (No in step S2), the process proceeds to step S5. If a failure has occurred in the sub ring in step S3 (step S3 Yes), the process proceeds to step S5. If no failure has occurred in the shared link in step S5 (No in step S5), the process proceeds to step S7.
  • FIG. 7 is a diagram illustrating a configuration example of the ERP control unit 14a included in a node other than the shared node according to the present embodiment.
  • the ERP control unit 14 a includes a local node information management unit 23, a frame identification unit 24, and an ERP processing unit 25.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure when an R-APS frame is received in a node other than the shared node.
  • the own node information management unit 23 manages information about the own node such as a ring ID to which the own node belongs. As shown in FIG. 8, the frame identification unit 24 determines whether or not an R-APS frame has been received (step S11). If no R-APS frame has been received (step S11: No), the process goes to step S14. move on. When the R-APS frame is received (step S11, Yes), the ring ID (Ring ID in FIG. 4) in the received R-APS frame is determined by the own node based on the information managed by the own node information management unit 23. It is determined whether or not it matches the ring ID to which it belongs (step S12).
  • the frame identifying unit 24 If it matches the ring ID to which the own node belongs (step S12, Yes), the frame identifying unit 24 outputs the R-APS frame that matches the ring ID to which the own node belongs to the ERP processing unit 25. A normal ERP process is performed based on the input R-APS frame (step S13). At this time, if the ring network to which the node belongs is changed to the major ring or the sub ring based on the major sub identification information of the R-APS frame, this change is reflected.
  • the blocking port of the own node is not released.
  • the blocking port of the node is blocked when an R-APS frame for detecting a shared link failure is received. To release.
  • the frame identification unit 24 does not output to the ERP processing unit 25, but outputs the other (received) If the ERP port (port connected to the link constituting the ERP ring) on the non-port side is a blocked port, the frame is terminated (discarded), and if it is not a blocked port, it is transferred to the other port (step S14).
  • R-APS Request / State is NR without failure detection
  • Each RPL owner transmits an R-APS frame in which a value indicating that the blocked port of the RPL owner is blocked in the RB.
  • Nodes 1 and 4 that are shared nodes perform ERP processing of the corresponding ring ID (ring ID stored in the R-APS frame) on the R-APS frame input from the port connected to each ring. After that, the frame is transferred to the port connected to the shared link. Similarly, the R-APS frame received from the shared link is also transferred to the port to which the transfer destination ring is connected after performing the ERP process for the corresponding ring ID.
  • one port of the node 2 that is the RPL owner of the ring is blocked, and an R-APS (NR, RB) frame indicating no failure detection is received from the RPL owner.
  • R-APS NR, RB
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • FIG. 10 is a diagram illustrating a situation where multiple failures occur in the multi-ring network.
  • the ports on the shared link 10 side of the nodes 1 and 4 that are shared nodes are blocked.
  • the blocking of one port of the node 2 that is the RPL owner of the majoring is released.
  • the shared node receives the R-APS frame on the sub-ring side, a failure has occurred in the shared link 10 and is transferred to the majoring side. Communication between each node is possible even in such a multiple failure.
  • FIG. 11 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • one port of the node 6 that is the RPL owner of the sub-ring is blocked and R means no failure detection.
  • -APS (NR, RB) frames are transmitted.
  • the failure detection port is blocked, and the R-APS (SF) frame is transmitted from nodes 1 and 2.
  • the default blocked port of the node 2 that is transmitted and is the RPL owner is unblocked.
  • Nodes 1 and 4 that are shared nodes recognize that a failure has occurred on the major ring side by detecting an R-APS frame input from a port connected to each ring or a failure of its own node, and follow the flow of FIG. , Switch between major and sub.
  • FIG. 12 is a diagram showing a state in which a failure of the shared link 10 occurs after switching between the major ring and the sub ring.
  • a failure occurs in the shared link 10 after a failure occurs in the major ring and the major ring and the sub ring are switched.
  • the ports on the shared link 10 side of the nodes 1 and 4 that are the shared nodes are blocked, and the failure of the shared link 10 is detected by measuring.
  • the block of one port of the node 6 that is the RPL owner of the major ring is released.
  • FIG. 13 is a diagram illustrating a state in which a failure has occurred in the shared link 10 from a state where there is no failure.
  • -APS (NR, RB) frames are transmitted.
  • FIG. 14 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link 10.
  • the example of FIG. 14 shows an example in which a failure occurs between the node 2 and the node 1 in the major ring after the failure has occurred in the shared link 10 as shown in FIG.
  • the shared link 10 is supposed to perform failure processing in the major ring. However, if a failure occurs between the node 2 and the node 1 other than the shared link 10 in the major ring, the failure occurs between the nodes 1 and 2.
  • the port where the failure is detected is blocked, and an R-APS (SF) frame is transmitted from the nodes 1 and 2 to the major ring.
  • R-APS SF
  • the shared node that terminates the shared link detects a failure other than the shared link of the major ring, and the sub-ring has not failed, the major ring and the sub ring are Instructed to switch. For this reason, when a multiple failure including a shared link occurs in the major ring, a detour can be set and communication can be continued.
  • the above-described effect can be obtained with a small circuit and processing amount.
  • FIG. FIG. 15 is a diagram illustrating a configuration example of a second embodiment of the multi-ring network according to the present invention.
  • the multi-ring network shown in FIG. 15 there are two shared links, shared link 10-1 and shared link 10-2.
  • a ring is set as a major ring
  • FIG. 15 shows a multi-ring network having eight nodes including four shared nodes, but the number of nodes connected to each ring is not limited to this. Further, FIG. 15 shows a structure in which three ring networks are connected, but the present embodiment can also be applied to a structure in which four or more ring networks are connected. Furthermore, the present invention can be applied to a case where three or more shared nodes are connected to the shared link.
  • Each node 1-8 has multiple ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • nodes 1, 4, 5, and 6 that are shared nodes have three or more ports, and other nodes 2, 3, 7, and 8 have two or more ports. is doing.
  • Nodes 2, 6, and 8 operate as ERP RPL owner nodes, and other nodes 1, 3, 4, 5, and 7 operate as ERP non-RPL owner nodes.
  • an operation according to the ERP standard which is a conventional technique is performed.
  • the port on the node 3 side of the node 2 the port on the node 1 side of the node 6, and the port on the node 7 side of the node 8 are set to BP.
  • the nodes 1, 4, 5, and 6 in the present embodiment have the same configuration as the shared node (shared link termination node) in the first embodiment as shown in FIGS.
  • the configuration of the nodes (nodes 2, 3, 7, and 8) other than the shared node of the present embodiment is the same as that of the nodes other than the shared node of the first embodiment.
  • the functions of the multi-ring managing unit 21 of the nodes 1, 4, 5, and 6 that are shared link terminal nodes are the same as those in the first embodiment, as shown in FIG.
  • the processing flow when a new failure is detected and the processing flow of nodes other than the shared node are the same as in the first embodiment.
  • the format of the R-APS frame used in the present embodiment is the same as that in the first embodiment.
  • the operation when there is no failure in the multi-ring network is explained.
  • one of the ports 2, 6 and 8 which are RPL owners of each ring is blocked, and an R-APS (NR, RB) frame without failure detection is transmitted from each RPL owner.
  • the shared nodes of the nodes 1, 4, 5, and 6 perform the ERP process of the ring ID stored in the R-APS frame on the R-APS frame input from the port connected to each ring.
  • the frame is transferred to the port to which the shared link (shared link 10-1 or 10-2) is connected.
  • the ERP process of the ring ID stored in the corresponding R-APS frame is performed, and then the transfer destination ring is changed. Forward to connected port.
  • FIG. 16 is a diagram illustrating a state in which a failure has occurred in the sub-ring.
  • an R-APS (NR, RB) frame signifies no failure detection. Is sent from the RPL owner.
  • the shared nodes of the nodes 1, 4, 5, and 6 perform the ERP processing of the ring with the ring ID stored in the R-APS frame in response to the R-APS frame or failure detection input from the port connected to each ring. Then, the frame is transferred or generated to the port to which the shared links 10-1 and 10-2 are connected and transmitted. Similarly, the ERP processing of the ring ID ring stored in the R-APS frame is similarly performed on the R-APS frames received from the shared links 10-1 and 10-2, and then the ring ID of the corresponding ring ID is Forward to the port to which is connected.
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • FIG. 17 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • a failure further occurs in the shared link 10-1.
  • FIG. 18 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • ERP processing of the ring ID stored in the received R-APS frame is performed, major sub-identification information after switching is added, and the R-APS frame is transferred to the port to which the shared link is connected. Also, for the R-APS frames received from the shared links 10-1 and 10-2, if the major sub identification information in the frames is the information before switching, it is updated to the value after switching, After performing the ERP process of the ring corresponding to the ring ID of the frame, the frame is transferred to the port connected to the ring of the ring ID.
  • FIG. 19 is a diagram showing a state in which a failure has occurred in the shared links 10-1 and 10-2 after switching between the major ring and the sub ring.
  • FIG. 19 shows an example in which the failure of the shared links 10-1 and 10-2 occurs after the failure shown in FIG. 18 occurs and the major ring and the sub ring are switched.
  • the ports on the shared links 10-1 and 10-2 side of the nodes 1, 4, 5, and 6 that are shared nodes are blocked. Then, the blocking of one port of the nodes 2 and 8 which are the RPL owners of the major ring after the switching is released.
  • FIG. 19 shows an example in which a failure occurs in both the shared links 10-1 and 10-2, but the same applies when a failure occurs in one of the shared links 10-1 and 10-2.
  • the above-described operation is performed in the major ring of the shared link 10-1 where the failure has occurred.
  • the shared nodes of the nodes 5 and 6 connected to the shared link 10-2 switch between major and sub in accordance with the flow of FIG. 6 when a major ring failure other than the shared link 10-2 occurs. Then, the ERP process of the ring corresponding to the ring ID of the frame is performed on the received R-APS frame, the major sub-identification information after switching is added, and the R to the port to which the shared link 10-2 is connected -Forward the APS frame.
  • FIG. 21 is a diagram illustrating a situation in which a failure of the shared link 10-2 occurs after the failure of the shared link 10-1.
  • FIG. 21 shows an example in which a failure further occurs in the shared link 10-2 after the failure of the shared link 10-1 occurs as shown in FIG.
  • R-APS SF
  • FIG. 22 is a diagram illustrating a state in which a failure has occurred in the measuring for the shared link 10-2 after the failure has occurred in the two shared links 10-1 and 10-2.
  • FIG. 22 shows an example in which a failure occurs between the nodes 5 and 7 of the measuring ring for the shared link 10-2 after the failure of the shared links 10-1 and 10-2 as shown in FIG. Yes.
  • the nodes 5 and 6, which are shared nodes, determine that there is a major ring multiple failure based on the R-APS frame input from the port connected to the ring with the ring ID 3 or failure detection, and the flow of FIG.
  • the major ring and the sub ring for the shared link 10-2 are switched according to the above.
  • the nodes 1 and 4 that are the shared nodes perform R-APS (SF) for failure detection in the shared link 10-1.
  • a configuration in which three rings are connected by two shared links is taken as an example, and in the same manner as in the first embodiment, a shared node that terminates a shared link is a shared major ring.
  • a failure other than a link was detected and no failure occurred in the sub-ring and the operation of switching between the major ring and the sub-ring were shown.
  • a detour can be set when a multiple failure including a shared link occurs in the major ring as in the first embodiment. Communication can be continued.
  • FIG. 23 is a diagram illustrating a configuration example of a third embodiment of the multi-ring network according to the present invention.
  • a link connecting the nodes 1 and 4 belonging to the three rings is a shared link 10.
  • FIG. 23 shows a multi-ring network having eight devices including two shared nodes, but the number of nodes connected to the ring is not limited to this.
  • FIG. 23 shows a structure in which three ring networks are connected, but the present invention is also applicable to a structure in which four or more ring networks are connected. Further, the present invention is applicable to a case where three or more shared nodes are connected to the shared link 10.
  • Each node 1-8 has multiple ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • nodes 1 and 4 that are shared nodes have four or more ports, and other nodes 2, 3, 5, 6, 7, and 8 have two or more ports. is doing.
  • Nodes 2, 6, and 8 operate as ERP RPL owner nodes, and other nodes 1, 3, 4, 5, and 7 operate as ERP non-RPL owner nodes.
  • an operation according to the ERP standard which is a conventional technique is performed.
  • the port on the node 3 side of the node 2 the port on the node 5 side of the node 6, and the port on the node 7 side of the node 8 are set to BP.
  • the nodes 1 and 4 of the present embodiment are the same as those of the first embodiment except that the ERP control unit 14b is provided instead of the ERP control unit 14 of the shared node (shared link termination node) of the first embodiment as shown in FIG.
  • the configuration is the same as that of one shared node (shared link end node).
  • Components having the same functions as those in the first embodiment are denoted by the same reference numerals as those in the first embodiment, and redundant description is omitted.
  • differences from the first embodiment will be described.
  • FIG. 24 is a diagram illustrating a configuration example of the ERP control unit 14b in the shared node according to the present embodiment.
  • the ERP control unit 14b of the present embodiment includes a multi-ring management unit 21a and ERP processing units 22-1 to 22-3.
  • the ERP processing unit 14b has ERP processing units as many as the number of shared ring networks, and each ERP processing unit manages a failure state and the like for each ring.
  • the multi-ring managing unit 21a manages a plurality of ERP processing units in order to avoid network division due to multiple failures in the multi-ring network.
  • FIG. 25 is a diagram illustrating a configuration example of the multi-ring managing unit 21a according to the present embodiment.
  • the multi-ring management unit 21a is the same as the multi-ring management unit 21 of the first embodiment except that it includes a failure management unit 31a that controls the three ERP processing units 22-1 to 22-3 instead of the failure management unit 31. It is.
  • the failure management unit 31a includes a failure monitoring unit 311a, a switching processing unit 312a, and an output control unit 313a.
  • the failure monitoring unit 311a uses the shared node information, the shared node information, the information stored in the R-APS frame when a failure occurs in the multi-ring network, and the port information (information about the port that received the R-APS frame). The presence or absence of a failure ring and the presence or absence of a failure of the shared link 10 are determined.
  • the switching processing unit 312a responds to sub-rings and measuring when a failure other than the shared link occurs in the major ring, or when a failure other than the shared link occurs in the major ring after the failure of the shared link.
  • Switch ring ID since there are a plurality of sub-rings, it is determined which sub-ring is changed to the major ring.
  • a ring in which a failure has not occurred is selected from among a plurality of sub-rings, and when there are a plurality of selected rings, for example, one ring is selected according to a predetermined order (for example, the order of young ring IDs). Measure.
  • the failure management unit 31a of the multi-ring management unit 21a includes an output control unit 313a that performs R / APS frame transfer / transmission processing based on the failure status of three rings and shared links and the result of switching processing.
  • the functions of the multi-ring management unit 21a of the nodes 1 and 4 that are shared link terminal nodes are also the same as those in the first embodiment, as shown in FIG.
  • the processing flow of nodes other than the shared node is the same as in the first embodiment.
  • the format of the R-APS frame used in the present embodiment is the same as that in the first embodiment.
  • FIG. 26 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring management unit 21a when a failure is detected.
  • Steps S31 and S32 are the same as steps S1 and S2 in the multi-ring managing unit 21 of the first embodiment.
  • the multi-ring managing unit 21a determines whether or not a failure has occurred in all sub-rings (step S33).
  • the multi-ring managing unit 21a changes one of the sub-rings in which no failure has occurred to a major ring and sub-measures the sub-ring.
  • the major ring and the sub ring are switched so as to change to the ring (step S34).
  • step S33 If it is determined in step S33 that a failure has occurred in all sub-rings (step S33: Yes), the process proceeds to step S35.
  • Steps S35 to S37 are the same as steps S5 to S7 in the multi-ring managing unit 21 of the first embodiment. However, in step S36, the FDB is cleared for all rings.
  • each node in this embodiment will be described.
  • one of the ports of nodes 2 and 6 and node 8 which are RPL owners of each ring is blocked, and an R-APS (NR, RB) frame without failure detection is transmitted from each RPL owner. Is done.
  • the shared nodes of the nodes 1 and 4 perform the ERP process of the ring with the ring ID stored in the R-APS frame on the R-APS frame input from the port connected to each ring, and then perform the shared link.
  • the frame is transferred to the port to which 10 is connected.
  • the R-APS frame received from the shared link 10 is transferred to the port to which the transfer destination ring is connected after performing the ERP process of the corresponding ring ID.
  • FIG. 27 is a diagram showing a state in which a failure has occurred in the sub-ring.
  • one port of the node 2 that is the RPL owner of the ring is blocked, and an R-APS (NR, RB) frame that means no failure is detected. Sent from the RPL owner.
  • R-APS NR, RB
  • the R-APS (SF) frame is transmitted from the nodes 4, 5, 1 and 8
  • the blocked ports of the nodes 6 and 8 that are transmitted and are the RPL owner are released from the block.
  • the shared nodes 10 and 4 are connected to the shared link 10 after performing ERP processing of the ring with the ring ID in the frame for the R-APS frame input from the port connected to each ring. Transfer the frame to the port.
  • the R-APS frame received from the shared link 10 is subjected to ERP processing of the ring ID in the frame and then transferred to the port connected to the ring with the ring ID.
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • FIG. 28 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • FIG. 28 shows an example in which a failure further occurs in the shared link 10 after a failure has occurred in the sub-ring as shown in FIG.
  • the shared link 10 side port of the nodes 1 and 4 that are shared nodes is blocked, and one port of the node 2 that is the RPL owner of the major ring is blocked. Is released.
  • the shared node receives the R-APS frame on the sub-ring side, a failure has occurred in the shared link 10, so that it is transferred to the measuring side. Communication between each node is possible even in such a multiple failure.
  • FIG. 29 is a diagram showing a state in which a failure has occurred in the major ring.
  • one port of nodes 6 and 8 which are RPL owners of the ring is blocked, and no failure is detected. Meaning R-APS (NR, RB) frames are transmitted.
  • R-APS (NR, RB) frames are transmitted.
  • an R-APS frame notifying the occurrence of the failure with the major sub-identification information after switching is transmitted to the ring corresponding to the failure. Also, for the R-APS frame received from the shared link 10, if the major sub-identification information in the frame is the information before switching, it is updated to the value after switching, and the ring ID of the frame is updated. After performing the ERP process of the corresponding ring, the transfer is performed to the port connected to the ring of the ring ID.
  • FIG. 30 is a diagram illustrating a state in which a failure has occurred in the shared link 10 after switching between the sub ring and the major ring due to the failure illustrated in FIG. 29, and a failure has occurred in the major ring.
  • FIG. 30 illustrates an example in which switching is performed due to the occurrence of a majoring failure as described in FIG. 29, and further, a failure occurs in the shared link 10, and then a failure occurs between the nodes 4 and 5 in the majoring. Show. When a failure occurs in the shared link 10, the ports on the shared link 10 side of the nodes 1 and 4 that are shared nodes are blocked.
  • FIG. 31 is a diagram showing a state in which a failure has occurred in the shared link 10 from a state where there is no failure.
  • the example of FIG. 31 shows an example in which a failure has occurred in the common link 10 from the state of no failure shown in FIG.
  • FIG. 32 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link 10.
  • the shared link is supposed to perform failure processing in the major ring, but if a failure occurs between the nodes 1 and 2 that are locations other than the shared link in the major ring, the port where the failure of the nodes 1 and 2 is detected Is blocked, and an R-APS (SF) frame is transmitted from the nodes 1 and 2 to the major ring.
  • R-APS SF
  • FIG. 33 is a diagram illustrating a state in which a failure has occurred in measuring after the failure in FIG. 32 has occurred.
  • a failure occurs in the shared link 10
  • the configuration in which three rings share one shared link is taken as an example, and the shared node that terminates the shared link is the shared link of the major ring, as in the first embodiment.
  • An operation to switch between the major ring and the sub ring was shown when a fault other than the above was detected and no fault occurred in the sub ring.
  • a detour can be set when a multiple failure including a shared link occurs in the major ring as in the first embodiment. , Communication can be continued.
  • the communication system, communication apparatus, and protection method according to the present invention are useful for multi-ring networks.

Abstract

 ノードがリング状に接続されるリングネットワークを2つ以上備え、リングネットワークごとにERPを実施し、リングネットワークのうちの1つを共有リンクの障害を検出するメジャーリングとし、他のリングネットワークをサブリングとする通信システムであって、共有リンクを終端する共有ノードは、共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、共有リンクの障害を検出する障害監視部311と、障害の検出結果に基づいて、メジャーリングとするリングネットワークを決定する切替処理部312と、切替処理部312により切替が行われた場合、R-APSフレームに切替後の識別情報を格納して当該フレームを転送または送信するERP処理部22-1,22-2と、を備える。

Description

通信システム、通信装置およびプロテクション方法
 本発明は、通信システム、通信装置およびプロテクション方法に関する。
 ネットワークの高信頼化を実現するために通信経路に冗長性を持たせる構成として、複数の通信装置をリング状に接続するリング型ネットワーク(リングネットワーク)が広く採用されている。リング型ネットワークでは、ループが発生すると、ブロードキャストフレームの無限巡回により、伝送路の帯域が消費され、他の通信が不可能となるため、フレームの無限巡回を防止することが必要となる。そこで、通常、リングネットワーク上の単一ポートを論理的に切断(以下、閉塞という)する方法が用いられている。また、リングネットワーク上に障害が発生した際に、通信経路の分断を防止するため、閉塞ポートを、それまで閉塞ポートとして設定していたポートから障害が発生したポートに切替えることにより、通信可能な経路を確保する方式がいくつか考案されている。
 例えば、非特許文献1のイーサネット(登録商標)リングのプロテクション規格であるERP(Ethernet(登録商標) Ring Protection)では、マルチリングネットワークを構成する各リングネットワークにおいて、代表となる1つのノード装置(Ring Protection Linkオーナ:以下RPLオーナーという)の1つのポートを閉塞することで、閉塞したポート側のリンクを論理的に切断し、正常時のループの発生を回避している。障害が発生した場合には、障害を検出したノード装置が障害を検出したポートを閉塞し、障害通知用の制御フレームであるR-APS(Ring-Automatic Protection Switching)フレームをもう一方のポートから送信する。RPLオーナーが、その制御フレームを受信すると、閉塞させていた一方のポートの閉塞を解除することで、経路切替を行う。
 また、非特許文献1のERPのマルチリングネットワークでは、2つのリングネットワークが接続された場合、一方を閉ループ形状のメジャーリング、他方を開ループ形状のサブリングと設定する。ここで、メジャーリングとは、複数のリングネットワークで共有する伝送路(以下共有リンク)の障害管理を行うリングネットワークのことであり、サブリングとはこの障害管理を行わない方のリングネットワークである。このようにメジャーリングとサブリングとを設定しない場合、共有リンク障害時に両方のリングで共有リンクの障害管理を行うこととなる。すなわち、共有リンク障害時に、両方のリングネットワークでRPLオーナーの予め閉塞させたポートを解除することとなり、両方のリングネットワークをまたがったループが発生することとなる。したがって、マルチリングネットワークでは、共有リンクで接続される複数のリングネットワークに対して1つのメジャーリングと1つ以上のサブリングを設定する。メジャーリング、サブリングでは、共有リンク以外の障害についてそれぞれ独立してプロテクションを実施し、自リングにおける障害の発生時には自リング内の閉塞ポートの解除を行う。一方、共有リンクの障害時には、メジャーリングのみが障害管理を行って経路切替を行うプロテクション動作を実施することにより、ループの発生を回避している。
ITU-T G.8032/Y.1344 "Ethernet ring protection switching",02/2012
 しかしながら、上記非特許文献1に記載の技術では、メジャーリング内で、共有リンクにおける障害を含む複数の障害、すなわち、共有リンクにおける障害と共有リンク以外のリンクにおける障害が発生した場合、上述のようにサブリング内では障害が発生していないためサブリング内の閉塞ポートの解除は行われない。このため、メジャーリング内で、共有リンクを含む複数の障害が発生した場合、物理的な迂回路が存在するにもかかわらず、メジャーリング、サブリングは独立してプロテクションを実施していることから、サブリング内ではプロテクションが動作せず、ネットワークの分断が発生してしまい、通信不能となるノードが発生するという課題があった。
 本発明は、上記に鑑みてなされたものであって、共有リンクを含む多重障害が発生した場合に、通信を継続することができる通信システム、通信装置およびプロテクション方法を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムであって、前記共有リンクを終端する前記通信装置である共有装置は、前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視部と、前記障害監視部による障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替処理部と、前記切替処理部により切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理部と、を備えることを特徴とする。
 本発明にかかる通信システム、通信装置およびプロテクション方法は、共有リンクを含む多重障害が発生した場合に、通信を継続することができるという効果を奏する。
図1は、実施の形態1のマルチリングネットワークの構成例を示す図である。 図2は、実施の形態1の共有ノードの構成例を示す図である。 図3は、実施の形態1の共有ノードのERP制御部の機能構成例を示す図である。 図4は、実施の形態1における障害状態を通知するR-APSフレームのフォーマットの一例を示す図である。 図5は、実施の形態1のマルチリング管理部の構成例を示す図である。 図6は、実施の形態1の障害を検出した場合のマルチリング管理部における処理手順の一例を示すフローチャートである。 図7は、実施の形態1の共有ノード以外のノードが備えるERP制御部の構成例を示す図である。 図8は、実施の形態1の共有ノード以外のノードにおけるR-APSフレームの受信時の処理手順の一例を示すフローチャートである。 図9は、リングID=2のリング内に障害が発生した様子を示す図である。 図10は、マルチリングネットワーク内で多重障害が発生した様子を示す図である。 図11は、メジャーリング内で障害が発生した様子を示す図である。 図12は、メジャーリングとサブリングを切替後、共有リンクの障害が発生した様子を示す図である。 図13は、障害無しの状態から共有リンクで障害が発生した様子を示す図である。 図14は、共有リンクに障害が発生した後、メジャーリングに障害が発生した様子を示す図である。 図15は、実施の形態2のマルチリングネットワークの構成例を示す図である。 図16は、サブリング内で障害が発生した様子を示す図である。 図17は、サブリングに障害が発生した後に、共有リンクで障害が発生した様子を示す図である。 図18は、メジャーリング内に障害が発生した様子を示す図である。 図19は、メジャーリングとサブリングを切替後、2つの共有リンクの障害が発生した様子を示す図である。 図20は、障害無しの状態から一方の共有リンクで障害が発生した様子を示す図である。 図21は、一方の共有リンクの障害発生後、他方の共有リンクの障害が発生した様子を示す図である。 図22は、2つの共有リンクに障害が発生後、メジャーリングに障害が発生した様子を示す図である。 図23は、実施の形態3のマルチリングネットワークの構成例を示す図である。 図24は、実施の形態3の共有ノードのERP制御部の構成例を示す図である。 図25は、実施の形態3のマルチリング管理部の構成例を示す図である。 図26は、障害を検出した場合の実施の形態3のマルチリング管理部における処理手順の一例を示すフローチャートである。 図27は、サブリングで障害が発生した様子を示す図である。 図28は、サブリングに障害が発生後、共有リンクで障害が発生した様子を示す図である。 図29は、メジャーリング内で障害が発生した様子を示す図である。 図30は、図29に示した障害によりサブリングとメジャーリングの切替の後、共有リンクに障害が発生し、さらにメジャーリングで障害が発生した様子を示す図である。 図31は、障害無しの状態から共有リンクで障害が発生した様子を示す図である。 図32は、共有リンクに障害が発生した後、メジャーリングに障害が発生した様子を示す図である。 図33は、図32の障害発生の後、さらにメジャーリングで障害が発生した様子を示す図である。
 以下に、本発明にかかる通信システム、通信装置およびプロテクション方法の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明にかかるマルチリングネットワーク(通信システム)の実施の形態1の構成例を示す図である。実施の形態のマルチリングネットワーク(マルチリングネットワークシステム)は、リングID(IDentifier)=1であるリングネットワーク(以下、適宜リングと略す)と、リングID=2であるリングとを構成される。リングID=1のリングは、通信装置であるノード(Node)1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有する。リングID=1のリングとリングID=2のリングとは、2つのリングで共有される通信装置(以下、適宜共有ノードという)であるノード1,4を介して接続される。ノード1,4間は、共有リンク10で接続される。
 図1に示すように、あらかじめID=1のリングを、共有リンク10の障害管理を行うメジャーリング(Major Ring)、リングID=2のリングを、共有リンク10の障害管理を行わないサブリング(Sub Ring)に設定している。
 なお、図1では、2つの共有ノードを含む6つの装置を有するマルチリングネットワークを例として示しているが、各リングに接続されるノード数はこれに限られない。また、図1では、2つのリングが接続された構成例を示したが、本実施の形態は、3つ以上のリングネットワークが接続された構造についても適用可能である。また、共有リンクに3つ以上の共有ノードが接続される場合についても適用可能とする。
 各ノード1~6は、複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図1に示すマルチリングネットワークでは、共有ノードであるノード1,4は3つ以上のポートを有し、それ以外のノード2,3,5,6は2つ以上のポートを有している。
 ノード2,6は、ERPのRPLオーナーノードとして動作し、それ以外のノード1,3,4,5はERPの非RPLオーナーノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。なお、ここでは、リングネットワークにおいてループ回避のために閉塞ポートを設定するリングプロテクション方式としてERPを用いる例について説明するが、リングプロテクション方式はERPに限定されない。
 リングID=1,2の各リングは、リング内でループフレームが発生しない様に、各リング内の特定の1つのリンクを論理的に切断した状態で動作させる。通常は、RPLオーナーノードの1つのポートを閉塞させることにより隣接するノードとのリンクを論理的に切断させている。ここで、リンクの切断点をBP(Blocking Point)と呼び、閉塞させたポート(閉塞ポート)をBP設定されたポートと呼ぶこととする。図1の構成例では、ノード2のノード3側のポート、および、ノード6のノード5側のポートをBPに設定している。通常のERPでは、BP設定されたポートでは制御フレームおよびデータフレームは隣接するノードへ転送されず廃棄される。一方、BP設定されていないポートでは、制御フレームおよびデータフレームを隣接するノードへ転送することが許可される。
 図2は、本実施の形態の共有ノード(図1の構成例ではノード1,4)の構成例を示す図である。図2に示すように、共有ノードは、入力処理部11-1~11-n(nは3以上の整数)と、多重部12と、転送先管理部13と、ERP制御部14と、バッファメモリ15と、バッファ制御部16と、出力処理部17-1~17-nと、を備える。ノード1は図示しないn個のポートを有し、各ポートは入出力ポートとして機能する。k(k=1,2,…,n)番目ポートは、入力処理部11-kおよび出力処理部17-kに接続する。また、n個のポートのうち、少なくとも1つは共有リンク10に接続する。また、ノード1は、図示しない記憶部に転送管理テーブル18を保持している。共有ノード以外のノード(ノード2,3,5,6)は、後述のようにERP制御部14の替わりにERP制御部14aを備え、nを2以上とし、入力処理部11-1~11-n、出力処理部17-1~17-nが共有リンクに接続しないこと以外は、図2の共有ノードと同様である。
 入力処理部11-1~11-nは各ポートから入力されるフレームのエラーチェック等の処理を行う。入力処理部11-1~11-nのうちの1つは共有リンクポート(共有リンク10に接続するポート)から入力されたフレームの処理を行う。多重部12は入力処理部11-1~11-nから入力されるフレーム(各ポートからの入力フレーム)を多重し、多重したフレームを転送先管理部13へ出力する。
 転送管理テーブル18はフレームの転送先を管理するため情報が格納されるテーブルであり、例えば、宛先等のフローを識別する情報ごとに出力先のポートが格納される。転送先管理部13は、転送管理テーブル18を検索し、入力されたフレームの宛先ごとにフレームの転送先(転送先のポート)を決定し、フレームデータとともに決定した転送先情報をバッファ制御部16へ通知する。
 バッファメモリ15は転送先ごとに入力順にフレームを格納するキューとして機能するメモリである。バッファ制御部16は、バッファメモリ15にフレームデータをライト及びリードする制御を行い、バッファメモリ15のフレームデータ格納状態を転送先ごとに管理する。バッファメモリ15にフレームデータが格納されている場合に、転送先のポートごとに、出力先の伝送速度に従って、格納されたフレームをバッファメモリ15から読み出し、転送先のポートに対応する出力処理部17-1~17-nへ出力する。なお、出力処理部17-1~17-nで、ポートごとに伝送速度の範囲内でバッファから読み出されたフレームを外部に出力できるよう読出し要求を生成して、バッファ制御部16へ通知してもよい。
 出力処理部17-1~17-nは、それぞれ異なるポートに接続され、ポートごとに伝送速度の範囲内でバッファから読み出されたフレームを外部に出力するよう読出し要求を生成して、バッファ制御部16へ通知する。
 ERP制御部14は、リング状に接続するERP用のポートから入力されたERP用の制御フレームであるCCMフレームやR-APSフレーム等の終端処理や転送処理を実施する。また、ERP制御部14は、受信したフレーム内の情報などから、各リングネットワークのERP状態(障害の有無等)を管理する。
 図3は、本実施の形態の共有ノードのERP制御部14の機能構成例を示す図である。ERP制御部14は、マルチリング管理部21と、ERP処理部(リング処理部)22-1,22-2とを備える。図1の例では、共有するリングネットワークの数が2であるため、ERP処理部を2つ備える。ERP処理部22-1,22-2では、リングごとにERPにより障害状態などを管理する。例えば、ERP処理部22-1は、リングID=1のリングのERP処理を実施し、ERP処理部22-2は、リングID=2のリングのERP処理を実施する。マルチリング管理部21は、マルチリングネットワークにおける多重障害によるネットワークの分断を回避するために、複数のERP処理部22-1,22-2を管理する。なお、ここでは、共有するリングネットワークの数が2つの例を示しているが、ERP制御部14は、共有するリングネットワークの数分のERP処理部を備える。
 図4は、本実施の形態における障害状態を通知するR-APSフレームのフォーマットの一例を示す図である。図4に示すように、ITU-T G.8032で規定されたERPのR-APSフレームに、従来の送信元のノードIDや閉塞ポート情報に加えて、メジャーリングかサブリングかの識別ビットであるメジャーサブ識別情報(図4中のM/S)と送信元のノードが所属するリングを示すリングID(図4中のRing ID)をReserved 2の領域に追加している。メジャーサブ識別情報は、後続のリングIDのリングがメジャーリングであるかサブリングであるかを示す。本実施の形態で追加する情報は、図4でハッチングして示している。図4中の括弧内の数字は、ITU-T G.8032で規定されている値である。また、Request/Stateのフィールドに格納される値と示される情報との関係は次の通りである。
1011b:SF(Signal Fail)
1110b:Event
0000b:NR(No Request)
0111b:MS(Manual Switch)
1101b:FS(Force Switch)
また、BPR(Blocked Port Reference)はどちら側がポートが閉塞となるかを示し、DNF(Do Not Flush)はFDB(Forwarding DataBase)のフラッシュが可能か禁止かを示し、RB(RPL Blocked)は、RPLオーナーの閉塞ポートが閉塞されているか否かを示す。
 ITU-T G.8032で規定されたERPでは、障害が発生していない場合は、RPLオーナーからRequest/StateにNRが格納され、RBにRPLオーナーの閉塞ポート閉塞されていることを示す値が格納されたR-APSフレームが一定周期で送信される。また、リングネットワーク内のノードが障害を検出した場合は、障害を検出したノードが、Request/StateをSFとしたR-APSフレームを両側のポートに送信する。リングネットワーク内の各ノードは受信したR-APSフレームを隣接するノードへ転送する。
 図4の例では、リングIDを3bitとしているが、マルチリングで構成されるリングネットワークの数により、必要なビット数分の領域が確保できればよいこととする。なお、ここでは、R-APSフレームを用いてメジャーリングかサブリングかの情報とリングID情報を通知するようにしたが、障害監視用の制御フレーム(障害監視制御フレーム)はR-APSフレームに限定されず、どのようなフォーマットを用いてもよい。また、障害監視制御フレーム以外の別のフレームにより、メジャーリングの切替を共有リンク10を共有するリングネットワークへ通知してもよい。
 次に、本実施の形態における共有ノードのマルチリング管理部21の機能について説明する。図5は、本実施の形態のマルチリング管理部21の構成例を示す図である。マルチリング管理部21は、障害管理部31、自ノード情報管理部32と、共有ノード情報管理部33を備える。自ノード情報管理部32は、共有ノード(自ノード)が共有するリングネットワークの複数のリングIDに対し、メジャーリングのリングIDとメジャーリングに接続するポートのポート番号、サブリングのリングIDとサブリングに接続するポートのポート番号、共有リンクに接続するポートのポート番号などの自ノードに関する情報である自ノード情報を管理する。なお、ITU-T G.8032のマルチリングネットワークと同様に、メジャーリングとは、共有リンクの障害を認識するリングであり、サブリングとは、共有リンクの障害を認識しないリングである。
 また、マルチリング管理部21の共有ノード情報管理部33は、共有リンクの反対側で共有リンクを終端する共有ノード(図1の例では、ノード1からみた場合ノード4、ノード4からみた場合ノード1)のノードIDと当該共有ノードに接続するポート番号などのポートを識別する情報や、共有リンクに接続されるが共有リンクを終端しない共有リンク中間ノードのノードIDなどの他の共有ノードに関する情報である共有ノード情報を管理する。なお、図1の例では共有中間ノードは存在しないが、ノード1とノード4の間に共有リンク10の接続する共有リンク中間ノードを備えていてもよい。
 マルチリング管理部21の障害管理部31は、これらの自ノード情報、共有ノード情報、マルチリングネットワークにおける障害発生時にR-APSフレームに格納されている情報(障害を検出したリングIDやノードID)、ポート情報(障害を検出したポートの情報)から、障害発生リングの有無、および共有リンクの障害の有無を判別する障害監視部311を備える。
 また、障害管理部31は、メジャーリング内に共有リンク以外の障害が発生した場合や、共有リンクに障害が発生後にメジャーリング内に共有リンク以外で障害が発生した場合、サブリングとメジャーリングに対応するリングIDを切替える切替処理部312を備える。各リンクの障害発生確率が同じであるとすると、前者の場合(メジャーリング内に共有リンク以外の障害が発生した場合)は、メジャーリングとなるリングを変更する(メジャーリングとするリングIDを変更する)ことにより、1つのリングで共有リンクを含む多重障害の発生する確率を低くすることができる。なお、マルチリングにおける障害が各リング内で同時に発生した場合、障害を通知するR-APSフレームを受信するタイミングが共有リンクの両端の共有ノードで異なるため、メジャーリングとサブリングの認識が両端の共有ノードで異なってしまう場合があり得る。これを避けるため、予め優先共有ノードを決めておき、非優先共有ノードは優先共有ノードからのメジャー/サブリングの識別情報に従うことも可能である。また、マルチリング管理部21の障害管理部31は、両リングや共有リンクの障害状態や切替処理の結果に基づき、R-APSフレームの転送/送信処理を行う出力制御部313を備える。
 次に、共有ノードのマルチリング管理部21において、新たに障害を検出した場合の処理について説明する。図6は、障害を検出した場合のマルチリング管理部21における処理(障害発生処理)手順の一例を示すフローチャートである。なお、共有リンク中間ノードが存在する場合は、この障害発生処理は、共有リンク中間ノード以外の共有ノード、すなわち共有リンクを終端する共有リンク終端ノードが実施する。
 図6に示すように、マルチリング管理部21は、まず、Major(以下、適宜メジャーリングをMajorと略す)側に障害が発生したか否かを判断する(ステップS1)。具体的には、マルチリング管理部21は、メジャーリングに属するノードから受信したR-APSフレームに基づいて、メジャーリングに障害が発生したか否かを判断する。
 Major側で障害が発生した場合(ステップS1 Yes)、マルチリング管理部21は、共有リンク以外で障害が発生したか否かを判断する(ステップS2)。共有リンクで障害が発生したか否かは、保持している共有ノード情報とR-APSフレームに基づいて判断することができる。共有リンク以外で障害が発生した場合(ステップS2 Yes)、サブリングで障害が発生中であるか否かを判断する(ステップS3)。マルチリング管理部21は、サブリングに属するノードから受信したR-APSフレームに基づいて、サブリングに障害発生状態を管理しており、これにより、サブリングで障害が発生中であるか否かを判断することができる。
 サブリングで障害が発生中でない場合(ステップS3 No)、マルチリング管理部21は、MajorとSub(以下、適宜サブリングをSubと略す)を切替える(ステップS4)。すなわち、図1の状態であった場合に、メジャーリングであるリングID=1のリングをサブリングに変更し、サブリングであるリングID=2のリングをメジャーリングに変更する。
 ステップS3の後、共有リンクで障害が発生したか否かを判断し(ステップS5)、共有リンクで障害が発生した場合(ステップS5 Yes)、両リングのERPポートのFDBをクリアし、サブリングからメジャーリングへのR-APSフレームの転送機能を有効にする(ステップS6)。この転送機能を有効にすることにより、共有リンクに障害が発生したことによりサブリングに転送できないフレームをメジャーリング経由で転送することができる。なお、各リングでは、通常と同様に初期状態では受信したフレームとポート番号をFDBに登録し、FDBを用いて転送を行っているとする。
 次に、マルチリング管理部21は、各リングでそれぞれERPステートマシンに従って処理を実施し(ステップS7)、処理を終了する。ERPステートマシンに従った処理は、従来と同様であるため詳細な説明は省略する。
 ステップS1で、Major側で障害が発生していない場合(ステップS1 No)、ステップS7へ進む。ステップS2で、共有リンク以外で障害が発生していない場合(ステップS2 No)、ステップS5へ進む。ステップS3で、サブリングで障害が発生中である場合(ステップS3 Yes)、ステップS5へ進む。ステップS5で、共有リンクで障害が発生していない場合(ステップS5 No)、ステップS7へ進む。
 次に、共有ノード以外のノードが備えるERP制御部14aについて説明する。図7は、本実施の形態の共有ノード以外のノードが備えるERP制御部14aの構成例を示す図である。ERP制御部14aは、図7に示すように、自ノード情報管理部23、フレーム識別部24およびERP処理部25を備える。図8は、共有ノード以外のノードにおけるR-APSフレームの受信時の処理手順の一例を示すフローチャートである。
 自ノード情報管理部23は、自ノードの属するリングID等の自ノードに関する情報を管理する。フレーム識別部24は、図8に示すように、R-APSフレームを受信したか否かを判断し(ステップS11)、R-APSフレームを受信していない場合(ステップS11 No)、ステップS14へ進む。R-APSフレームを受信する(ステップS11 Yes)と、自ノード情報管理部23が管理する情報に基づいて、受信したR-APSフレーム内のリングID(図4中のRing ID)が自ノードが属するリングIDと一致するか否かを判断する(ステップS12)。自ノードが属するリングIDと一致する場合(ステップS12 Yes)、フレーム識別部24は、自ノードが属するリングIDと一致するR-APSフレームをERP処理部25へ出力し、ERP処理部25は、入力されたR-APSフレームに基づいて通常のERP処理を実施する(ステップS13)。このとき、R-APSフレームのメジャーサブ識別情報に基づいて、自ノードが所属するリングネットワークがメジャーリングであるかサブリングであるかが変更されている場合、この変更を反映する。
 例えば、自ノードが、当初はサブリングとして設定されていたリングネットワークのRPLオーナーであった場合、この状態では、共有リンクに障害が発生しても、自ノードの閉塞ポートの解除は行わない。その後に、自ノードが属するリングネットワークがメジャーリングであることを示すR-APSフレームを受信すると、以降は、共有リンクの障害を検出するR-APSフレームを受信すると自ノードの閉塞ポートの閉塞を解除する。
 受信したR-APSフレームのリングIDが自ノードが属するリングIDと一致しない場合(ステップS12 No)、フレーム識別部24は、ERP処理部25へ出力せずに、転送先のもう一方(受信したポートでない側)のERPポート(ERPリングを構成するリンクに接続するポート)が閉塞ポートの場合はフレームを終端(廃棄)し、閉塞ポートでない場合はもう一方のポートに転送する(ステップS14)。
 次に、本実施の形態における各ノードの動作について説明する。初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。マルチリングネットワーク内では、予めリングID=1またはリングID=2の何れかのリングがメジャーリングに設定され、他方がサブリングに設定されていることとする。ここでは、図1のようにリングID=1のリングがメジャーリングと設定され、ID=2のリングがサブリングと設定されているとする。
 図1に示すように、各リングのRPLオーナーであるノード2とノード6の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレーム(Request/StateがNRであり、RBにRPLオーナーの閉塞ポート閉塞されていることを示す値が格納されたR-APSフレーム)が各RPLオーナーから送信される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、該当のリングID(R-APSフレームに格納されたリングID)のERP処理を実施した後、共有リンクに接続されるポートにフレームを転送する。また、共有リンクから受信したR-APSフレームに対しても、同様に該当のリングIDのERP処理を実施後、転送先のリングが接続されるポートに転送する。
 次に、マルチリングネットワーク内のサブリング上で障害が発生した場合の動作について説明する。図9は、リングID=2のリング内に障害が発生した様子を示す図である。図9に示す例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態でサブリングであるリングID=2のリングのノード4とノード5間で障害が発生していることを示している。この場合、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、サブリング側はノード4とノード5間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレーム(Request/StateがSFのR-APSフレーム)がノード4,5から送信され、RPLオーナーであるノード6の閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、フレーム内のリングIDに対応したリングのERP処理を実施後、共有リンク10が接続されるポートにフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様にフレーム内のリングIDのERP処理を実施後、当該リングIDのリングに接続するポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 図10は、マルチリングネットワーク内で多重障害が発生した様子を示す図である。図10の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態で共有リンク10とノード4とノード5の間とで障害が発生している。図10の例のように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞する。また、共有リンク10についてはメジャーリング側で障害を検出し、メジャーリングのRPLオーナーであるノード2の一方のポートの閉塞が解除される。また、共有ノードがサブリング側のR-APSフレームを受信した場合は、共有リンク10に障害が発生しているため、メジャーリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図11は、メジャーリング内で障害が発生した様子を示す図である。図11の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態でメジャーリング内のノード2とノード1の間に障害が発生したとする。図11に示すように、サブリングであるリングID=2のリングでは障害が発生していないため、サブリングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、ノード2とノード1の間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレームがノード1,2から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリング側で障害が発生したと認識し、図6のフローに従い、メジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し(例えば、リングID=1のリングであればERP処理部22-1がERP処理を実施し)、新たな(切替後の)メジャーリングかサブリングかを識別する情報(メジャーサブ識別情報)を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 図12は、メジャーリングとサブリングを切替後、共有リンク10の障害が発生した様子を示す図である。図12の例では、図11で示したようにメジャーリングに障害が発生してメジャーリングとサブリングを切替後、さらに共有リンク10で障害が発生した様子を示している。図12に示すように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞し、共有リンク10の障害はメジャーリングで検出するため、切替後のメジャーリングのRPLオーナーであるノード6の一方のポートの閉塞が解除される。また、共有ノードでサブリングであるリングID=1のR-APSフレームを受信した場合、出力制御部313は、共有リンク10で障害が発生しているため、メジャーリングであるリングID=2側に転送する。このような多重障害時にも各ノード間の通信は可能である。
 図13は、障害無しの状態から共有リンク10で障害が発生した様子を示す図である。図13の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態で共有リンク10に障害が発生した例を示している。図13に示すように、サブリングであるリングID=2のリング側は障害が発生していないため、リングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリング側では、共有ノードであるノード1-4間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレームがノード1,4から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、共有リンク10の障害検出により、図6のフローに従い、サブリングであるリングID=2のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=1のリング側に当該フレームを転送する。
 共有リンク10に障害が発生後、サブリングに障害が発生し、マルチリングネットワーク内で多重障害が発生した場合は図10と同じ状態になり、このような多重障害時にも各ノード間の通信は可能である。
 図14は、共有リンク10に障害が発生した後、メジャーリングに障害が発生した様子を示す図である。図14の例では、図13に示したように共有リンク10に障害は発生した後、メジャーリング内のノード2とノード1の間に障害が発生した例を示している。共有リンク10はメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク10以外の場所であるノード2とノード1の間で障害が発生すると、ノード1,2間の障害を検出したポートが閉塞し、ノード1,2からR-APS(SF)フレームがメジャーリングに送信される。この時、共有ノードであるノード1,4は、リングID=1のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図6のフローに従い、メジャーリングとサブリングを切替える。これにより、リングID=2のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンクにおける障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のRPLオーナーであるノード6の閉塞が解除される。また、ノード1,4では、共有リンク10で障害が発生しているため、リングID=1のリング側のポートから受信したR-APSフレームは、リングID=2のリング側に転送される。以上のような多重障害時にも各ノード間の通信が可能である。
 以上のように、本実施の形態では、共有リンクを終端する共有ノードが、メジャーリングの共有リンク以外の障害を検出し、かつサブリングに障害が発生中でない場合に、メジャーリングとサブリングを切替えるよう指示するようにした。このため、メジャーリング内で共有リンクを含む多重障害が発生した場合に、迂回路を設定することができ、通信を継続することができる。また、この切替をR-APSフレーム内のReserved 2のフィールドを用いて指示することにより、少ない回路や処理量で上記の効果を得ることができる。
実施の形態2.
 図15は、本発明にかかるマルチリングネットワークの実施の形態2の構成例を示す図である。図15に示すように、本実施の形態のマルチリングネットワークは、リングID=1のリング、リングID=2のリングおよびリングID=3のリングを備える。図15に示すマルチリングネットワークでは、共有リンク10-1と共有リンク10-2の2か所の共有リンクが存在する。ここでは、あらかじめ、共有リンク10-1については、リングID=2のリングをメジャーリングとし、リングID=1のリングをサブリングとして設定し、共有リンク10-2については、リングID=2のリングをメジャーリングとし、リングID=3のリングをサブリングとして設定している。
 リングID=1のリングは、ノード1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有し、リングID=3のリングは、ノード5,6,7,8を有する。これら3つのリングは、リングID=1,2で互いに共有する共有ノードであるノード1,4と、リングID=2,3で互いに共有する共有ノードであるノード5,6とを介して、互いのリングが接続される。なお、図15では、4つの共有ノードを含む8つのノードを有するマルチリングネットワークについて示すが、各リングに接続されるノード数はこれに限られない。また、図15では、3つのリングネットワークが接続された構造について示したが、本実施の形態は4つ以上のリングネットワークが接続された構造についても適用可能である。更に、共有リンクに3つ以上の共有ノードが接続される場合についても適用可能である。
 各ノード1~8は、複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図15に示すマルチリングネットワークでは、共有ノードであるノード1,4,5,6は3つ以上のポートを有し、それ以外のノード2,3,7,8は2つ以上のポートを有している。
 ノード2,6,8はERPのRPLオーナーのノード、それ以外のノード1,3,4,5,7は、ERPの非RPLオーナーのノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。
 リングID=1,2,3の各リングは、実施の形態1のリングID=1,2のリングと同様に、内部でループフレームが発生しない様に、各リングネットワーク内の特定の1つのリンクを論理的に切断した状態で動作させる。図15に示すリングネットワークでは、ノード2のノード3側のポート、ノード6のノード1側のポート、および、ノード8のノード7側のポートをBPに設定している。
 本実施の形態のノード1,4,5,6は、図2,3で示したように実施の形態1の共有ノード(共有リンク終端ノード)と同様の構成を有する。本実施の形態の共有ノード以外のノード(ノード2,3,7,8)の構成も、実施の形態1の共有ノード以外のノードと同様である。また、共有リンク終端ノードであるノード1,4,5,6のマルチリング管理部21の機能についても、実施の形態1と同じであり、図5のようになる。共有ノードのマルチリング管理部21において、新たに障害を検出した場合の処理フロー、共有ノード以外のノードの処理フローも実施の形態1と同様である。本実施の形態で用いるR-APSフレームのフォーマットも実施の形態1と同様である。以下、実施の形態1と異なる点について説明する。
 初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。図15に示すように、各リングのRPLオーナーであるノード2、ノード6、ノード8の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレームが各RPLオーナーから送信される。ノード1,4,5,6の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームに対して、R-APSフレームに格納されたリングIDのERP処理を実施した後、共有リンク(共有リンク10-1または10-2)が接続されるポートに当該フレームを転送する。また、共有リンク10-1,10-2から受信したR-APSフレームに対しても、同様に該当のR-APSフレームに格納されたリングIDのERP処理を実施した後、転送先のリングが接続されるポートに転送する。
 次に、マルチリングネットワーク内の各サブリング上で障害が発生した場合の動作について説明する。図16は、サブリング内で障害が発生した様子を示す図である。図16の例では、共有リンク10-1に対するサブリングであるリングID=1のノード3とノード4の間と、共有リンク10-2に対するサブリングであるリングID=3のノード6とノード8の間と、に障害が発生した例を示している。図16に示すように、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、共有リンク10-1に対するサブリング側では、ノード3とノード4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード3,4から送信され、RPLオーナーであるノード2の閉塞ポートは閉塞解除される。同様に、共有リンク10-2に対するサブリング側では、ノード6とノード8間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード6,8から送信され、RPLオーナーであるノード8の閉塞ポートは閉塞解除される。
 ノード1,4,5,6の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームまたは障害検出に対して、R-APSフレームに格納されたリングIDのリングのERP処理を実施した後、共有リンク10-1,10-2が接続されるポートにフレームを転送または生成して送信する。また、共有リンク10-1,10-2から受信したR-APSフレームに対しても、同様にR-APSフレームに格納されたリングIDのリングのERP処理を実施した後、該当リングIDのリングが接続されるポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 図17は、サブリングに障害が発生した後に、共有リンクで障害が発生した様子を示す図である。図17の例では、図16で示した障害が発生した後に、さらに共有リンク10-1に障害が発生している。図17に示すように、共有リンク10-1に障害が発生すると、共有リンク10-1の共有ノードであるノード1,4の共有リンク10-1側のポートが閉塞し、共有リンク10-1はメジャーリングで障害を検出することになるため、メジャーリングであるリングID=2のRPLオーナーであるノード6の一方のポートの閉塞が解除される。また、共有ノードが、サブリング側であるリングID=1のR-APSフレームを受信した場合は、共有リンク10-1に障害が発生しているため、メジャーリング側のリングID=2側のポートに転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図18は、メジャーリング内に障害が発生した様子を示す図である。図18では、障害発生前に図15の設定がなされている場合に、リングID=2のリング内のノード4とノード5の間に障害が発生した例を示している。図18に示すように、サブリングであるリングID=1,3の各リング内では障害が発生していないため、これらのリングのRPLオーナーであるノード2,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=2のリングでは、ノード4とノード5間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード4,5から送信され、RPLオーナーであるノード6のデフォルトの閉塞ポートは閉塞解除される。ノード1,4,5,6の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームまたは障害検出により、各共有リンク10-1,10-2のメジャーリング側で障害が発生したと認識し、図6のフローに従い、各々メジャーとサブを切替える。そして、受信したR-APSフレームに格納されているリングIDのERP処理を実施し、切替後のメジャーサブ識別情報を付与し、共有リンクが接続されるポートにR-APSフレームを転送する。また、共有リンク10-1,10-2から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 図19は、メジャーリングとサブリングを切替後、共有リンク10-1,10-2に障害が発生した様子を示す図である。図19では、図18に示した障害が発生してメジャーリングとサブリングを切替後に、共有リンク10-1,10-2の障害が発生した例を示している。図19に示すように、共有リンク10-1,10-2に障害が発生すると、共有ノードであるノード1,4,5,6の共有リンク10-1,10-2側のポートがそれぞれ閉塞し、切替後のメジャーリングのRPLオーナーであるノード2,8の一方のポートの閉塞が解除される。また、サブリングであるリングID=2のR-APSフレームを共有ノードで受信した場合は、共有リンクで障害が発生しているため、メジャーリングであるリングID=1,3側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。なお、図19では、共有リンク10-1,10-2の両方に障害が発生する例を示しているが、共有リンク10-1,10-2の一方に障害が発生した場合にも、同様に、障害が発生した共有リンク10-1のメジャーリングにおいて上記の動作が実施される。
 図20は、障害無しの状態から共有リンク10-1で障害が発生した様子を示す図である。図20に示すように、サブリングであるリングID=1のリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=2のリング側では共有リンク10-1のノード1とノード4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード1,4から送信され、RPLオーナーであるノード6のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、共有リンク10-1の障害検出により、図6のフローに従い、サブリングであるリングID=1のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=2のリング側に当該フレームを転送する。また、共有リンク10-2に接続されるノード5,6の共有ノードは、共有リンク10-2以外のメジャーリングの障害発生により、図6のフローに従い、メジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し、切替後のメジャーサブ識別情報を付与し、共有リンク10-2が接続されるポートにR-APSフレームを転送する。
 図21は、共有リンク10-1の障害発生後、共有リンク10-2の障害が発生した様子を示す図である。図21は、図20で示したように共有リンク10-1の障害が発生した後に、さらに共有リンク10-2に障害が発生した例を示している。図21に示すように、共有リンク10-1に障害発生後、共有リンク10-2に障害が発生した場合、共有リンク10-2のメジャーリングであるリングID=3のリングでは共有リンク10-2のノード5,6間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード5,6から送信され、RPLオーナーであるノード8のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード5,6は、共有リンク10-2の障害検出により、図6のフローに従い、サブリングであるリングID=2のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=3のリング側にR-APSフレームを転送する。
 図22は、2つの共有リンク10-1,10-2に障害が発生後、共有リンク10-2に対するメジャーリングに障害が発生した様子を示す図である。図22は、図21で示したように共有リンク10-1,10-2に障害した後、さらに、共有リンク10-2に対するメジャーリングのノード5,7間で障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たに共有リンク10-2のメジャーリングの共有リンク10-2以外の場所であるノード5,7間で障害が発生すると、ノード5,7の障害を検出したポートが閉塞し、ノード5,7からR-APS(SF)フレームがリングID=3のリングに送信される。この時、共有ノードであるノード5,6は、リングID=3のリングに接続されるポートから入力されたR-APSフレームまたは障害検出により、メジャーリングの多重障害と判断し、図6のフローに従い、共有リンク10-2に対するメジャーリングとサブリングを切替える。これにより、共有リンク10-2に対しては、リングID=2のリングがメジャーリングとなり、共有ノードであるノード5,6から、共有リンク10-2における障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のノード1,4が受信する。
 ノード1,4は、共有リンク10-1のメジャーリングであるリングID=2のリングの共有リンク10-1以外の障害を検出し、図6のフローに従い、共有リンク10-1に対するメジャーリングとサブリングを切替える。これにより、共有リンク10-1に対しては、リングID=1のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンク10-1における障害検出用のR-APS(SF)フレームがリングID=1のリング側のポートに対し出力され、リングID=1のリングのRPLオーナーであるノード2が受信し、閉塞ポートを閉塞解除する。共有ノードであるノード5,6では、リングID=3のリング側のポートから受信したR-APSフレームは、共有リンク10-2で障害が発生しているため、リングID=2のリング側に転送される。また、ノード1,4でリングID=2のリング側のポートから受信したR-APSフレームは、共有リンク10-1で障害が発生しているため、リングID=1のリング側に転送される。このような多重障害時にも各ノード間の通信が可能である。
 以上のように、本実施の形態では、3つのリングが2つの共有リンクにより接続される構成を例にして、実施の形態1と同様に、共有リンクを終端する共有ノードが、メジャーリングの共有リンク以外の障害を検出し、かつサブリングに障害が発生中でない場合と、メジャーリングとサブリングを切替える動作を示した。このように、3つのリングが2つの共有リンクにより接続される場合にも、実施の形態1と同様にメジャーリング内で共有リンクを含む多重障害が発生した場合に、迂回路を設定することができ、通信を継続することができる。
実施の形態3.
 図23は、本発明にかかるマルチリングネットワークの実施の形態3の構成例を示す図である。図23に示すように、本実施の形態のマルチリングネットワークは、リングID=1のリング、リングID=2のリングおよびリングID=3のリングを備える。図23の例では、共有リンク10が、リングID=1,2,3の3つのリングで共有される。図23の例では、予めリングID=1のリングがメジャーリングと設定され、リングID=2,3のリングがサブリングとして設定されている。
 リングID=1のリングは、ノード1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有し、リングID=3のリングは、ノード1,4,7,8を有し、3つのリングを互いに共有する共有ノードであるノード1,4を介して互いのリングが接続される。この3つのリングに属するノード1,4間を接続するリンクを共有リンク10とする。なお、図23では、2つの共有ノードを含む8つの装置を有するマルチリングネットワークについて示すが、リングに接続されるノード数はこれに限られない。また、図23では、3つのリングネットワークが接続された構造について示したが、本発明は4つ以上のリングネットワークが接続された構造についても適用可能である。更に、共有リンク10に3つ以上の共有ノードが接続される場合についても適用可能とする。
 各ノード1~8は、複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図23に示すマルチリングネットワークでは、共有ノードであるノード1,4は4つ以上のポートを有し、それ以外のノード2,3,5,6,7,8は2つ以上のポートを有している。
 ノード2,6,8はERPのRPLオーナーのノード、それ以外のノード1,3,4,5,7はERPの非RPLオーナーのノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。
 リングID=1,2,3の各リングは、実施の形態1のリングID=1,2のリングと同様に、内部でループフレームが発生しない様に、各リングネットワーク内の特定の1つのリンクを論理的に切断した状態で動作させる。図23に示すリングネットワークでは、ノード2のノード3側のポート、ノード6のノード5側のポート、および、ノード8のノード7側のポートをBPに設定している。
 本実施の形態のノード1,4は、図2で示したよう実施の形態1の共有ノード(共有リンク終端ノード)のERP制御部14の替わりにERP制御部14bを備える以外は、実施の形態1の共有ノード(共有リンク終端ノード)の構成と同様である。実施の形態1と同様の機能を有する構成要素は、実施の形態1と同一の符号を付して重複する説明を省略する。以下、実施の形態1と異なる点について説明する。
 図24は、本実施の形態の共有ノードにおけるERP制御部14bの構成例を示す図である。図24に示すように、本実施の形態のERP制御部14bは、マルチリング管理部21aと、ERP処理部22-1~22-3とを備える。このように、ERP処理部14bは、共有するリングネットワークの数分のERP処理部を持ち、各ERP処理部ではリングごとに障害状態などを管理する。マルチリング管理部21aは、マルチリングネットワークにおける多重障害によるネットワークの分断を回避するために複数のERP処理部を管理する。
 図25は、本実施の形態のマルチリング管理部21aの構成例を示す図である。マルチリング管理部21aは、障害管理部31の替わりに3つのERP処理部22-1~22-3を制御する障害管理部31aを備える以外は、実施の形態1のマルチリング管理部21と同様である。障害管理部31aは、障害監視部311a、切替処理部312aおよび出力制御部313aを備える。障害監視部311aは、自ノード情報、共有ノード情報、マルチリングネットワークにおける障害発生時にR-APSフレームに格納されている情報、ポート情報(R-APSフレームを受信したポートの情報)から、共有ノードが共有するリングID=1,2,3のリングのうちの障害発生リングの有無および共有リンク10の障害の有無を判別する。
 切替処理部312aは、メジャーリング内に共有リンク以外の障害が発生した場合や、共有リンクに障害が発生後にメジャーリング内に共有リンク以外で障害が発生した場合、サブリングとメジャーリングに対応するリングIDを切替える。ただし、本実施の形態では、サブリングが複数存在するため、どのサブリングをメジャーリングに変更するかを決定することになる。複数のサブリングのうち、障害の発生していないリングを選択し、選択したリングが複数の場合には、例えば予め定めた順序(例えば、リングIDの若い順)に従って1つのリングを選択してメジャーリングとする。
 また、マルチリング管理部21aの障害管理部31aは、3つのリングや共有リンクの障害状態や切替処理の結果に基づき、R-APSフレームの転送/送信処理を行う出力制御部313aを備える。
 共有リンク終端ノードであるノード1,4のマルチリング管理部21aの機能についても、実施の形態1と同じであり、図5のようになる。共有ノード以外のノードの処理フローも実施の形態1と同様である。本実施の形態で用いるR-APSフレームのフォーマットも実施の形態1と同様である。
 次に、共有ノードのマルチリング管理部21aにおいて、新たに障害を検出した場合の処理について説明する。図26は、障害を検出した場合のマルチリング管理部21aにおける処理(障害発生処理)手順の一例を示すフローチャートである。ステップS31,S32は、実施の形態1のマルチリング管理部21におけるステップS1,S2と同様である。ステップS32の後、マルチリング管理部21aは、全てのサブリングで障害が発生中であるか否かを判断する(ステップS33)。障害の発生していないサブリングが1つ以上ある場合(ステップS33 No)、マルチリング管理部21aは、障害の発生していないサブリングのうちの1つをメジャーリングに変更しメジャーリングをサブリングと変更するよう、メジャーリングとサブリングを切替える(ステップS34)。
 ステップS33で、全てのサブリングで障害が発生中である場合(ステップS33 Yes)、ステップS35へ進む。ステップS35~S37は、実施の形態1のマルチリング管理部21におけるステップS5~S7と同様である。ただし、ステップS36では、全リングについてFDBをクリアする。
 次に、本実施の形態における各ノードの動作について説明する。初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。予めリングID=1,2,3のリングの何れかをメジャーリング、残りのリングをサブリングに設定する。ここでは、図23のようにリングID=1のリングをメジャーリングに設定し、リングID=2,3のリングをサブリングに設定しているとする。図23に示すように、各リングのRPLオーナーであるノード2とノード6、ノード8の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレームが各RPLオーナーから送信される。ノード1,4の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームに対して、R-APSフレームに格納されたリングIDのリングのERP処理を実施した後、共有リンク10が接続されるポートに当該フレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様に該当のリングIDのERP処理を実施後、転送先のリングが接続されるポートに転送する。
 図27は、サブリングで障害が発生した様子を示す図である。図27は、サブリングであるリングID=3のリングのノード1とノード8の間と、サブリングであるリングID=2のリングのノード4とノード5の間と、に障害が発生した例を示している。図27の例では、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、サブリング側はノード4,5間、ノード1,8間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード4,5,1,8から送信され、RPLオーナーであるノード6,8の閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、フレーム内のリングIDのリングのERP処理を実施した後、共有リンク10が接続されるポートに当該フレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様にフレーム内のリングIDのERP処理を実施後、当該リングIDのリングに接続するポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 図28は、サブリングに障害が発生後、共有リンクで障害が発生した様子を示す図である。図28では、図27に示したようにサブリングに障害が発生した後に、さらに共有リンク10に障害が発生した例を示している。図28に示すように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞し、メジャーリングのRPLオーナーであるノード2の一方のポートの閉塞が解除される。また、共有ノードが、サブリング側のR-APSフレームを受信した場合は、共有リンク10に障害が発生しているため、メジャーリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図29は、メジャーリング内で障害が発生した様子を示す図である。図29は、メジャーリングであるリングID=1のノード3とノード4の間に障害が発生した例を示している。図29に示すように、サブリングであるリングID=2,3のリングでは障害が発生していないため、リングのRPLオーナーであるノード6,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、ノード3,4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード3,4から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリング側で障害が発生したと認識し、図26のフローに従い、リングID=1とリングID=2のリングの間でメジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し、切替後のメジャーサブ識別情報を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。自ノードで障害を検出した場合は、障害に対応するリングに、切替後のメジャーサブ識別情報を付与した障害発生を通知するR-APSフレームを送信する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 図30は、図29に示した障害によりサブリングとメジャーリングの切替の後、共有リンク10に障害が発生し、さらにメジャーリングで障害が発生した様子を示す図である。図30は、図29で説明したようにメジャーリングの障害発生により切替を行い、さらに、共有リンク10に障害が発生し、さらにその後、メジャーリングのノード4,5間で障害が発生した例を示している。共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞する。この障害はメジャーリングであるリングID=2のリングが検出して、リングID=2のリングのRPLオーナーであるノード6の閉塞が解除される。さらにその後、図30に示すように、メジャーリングのノード4,5に障害が発生すると、リングID=2とリングID=3のリングの間でメジャーとサブを切替える。これにより、切替後のメジャーリングのRPLオーナーであるノード8の一方のポートの閉塞が解除される。また、共有ノードがサブリングであるリングID=1,2のリングからR-APSフレームを受信した場合は、共有リンク10で障害が発生しているため、メジャーリングであるリングID=3のリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図31は、障害無しの状態から共有リンク10で障害が発生した様子を示す図である。図31の例では、図23に示した障害無しの状態から、共通リンク10に障害が発生した例を示している。図31に示すように、サブリングであるリングID=2,3のリングでは障害が発生していないため、リングのRPLオーナーであるノード6,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、共有ノードであるノード1,4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード1,4から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、共有リンク10の障害検出により、図26のフローに従い、サブリングであるリングID=2のリングからR-APSを受信すると、ERP処理を実施し、メジャーリングであるリングID=1のリングにR-APSフレームを転送する。
 共有リンク10に障害が発生後、サブリングに障害が発生し、マルチリングネットワーク内で多重障害が発生した場合は図28と同じ状態になり、このような多重障害時にも各ノード間の通信は可能である。
 図32は、共有リンク10に障害が発生した後、メジャーリングに障害が発生した様子を示す図である。図32は、図31に示したように共有リンク10に障害が発生後、メジャーリングであるリングID=1のリングのノード1,2間に障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク以外の場所であるノード1,2間で障害が発生すると、ノード1,2の障害を検出したポートが閉塞し、ノード1,2からR-APS(SF)フレームがメジャーリングに送信される。この時、共有ノードであるノード1,4は、リングID=1のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図26のフローに従い、リングID=1とリングID=2のリングの間でメジャーリングとサブリングを切替える。これにより、リングID=2のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンクにおける障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のRPLオーナーであるノード6の閉塞が解除される。また、ノード1,4では、リングID=1のリング側のポートから受信したR-APSフレームは、共有リンクで障害が発生しているため、リングID=2のリング側に転送される。
 図33は、図32の障害発生の後、さらにメジャーリングで障害が発生した様子を示す図である。図33は、共有リンク10に障害が発生後、メジャーリングであるリングID=1のリングのノード1,2間に障害が発生し、さらにその時点でのメジャーリングであるリングID=2のリングのノード4,5間に障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク以外の場所であるノード4,5間で障害が発生すると、ノード4,5の障害を検出したポートが閉塞し、ノード4,5からR-APS(SF)フレームがメジャーリングであるリングID=2のリングに送信される。この時、共有ノードであるノード1,4は、リングID=2のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図26のフローに従い、リングID=2とリングID=3のリングの間でメジャーリングとサブリングを切替える。これにより、リングID=3のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンク10における障害検出用のR-APS(SF)フレームがリングID=3側のポートに対し出力され、リングID=3のリングのRPLオーナーであるノード8の閉塞が解除される。また、ノード1,4は、共有リンク10で障害が発生しているため、リングID=1,2のリング側のポートから受信したR-APSフレームは、リングID=3側に転送される。以上のような多重障害時にも各ノード間の通信が可能である。
 以上のように、本実施の形態では、1つの共有リンクを3つのリングが共有する構成を例にして、実施の形態1と同様に、共有リンクを終端する共有ノードが、メジャーリングの共有リンク以外の障害を検出し、かつサブリングに障害が発生中でない場合と、メジャーリングとサブリングを切替える動作を示した。このように、1つの共有リンクを3つのリングが共有する場合にも、実施の形態1と同様にメジャーリング内で共有リンクを含む多重障害が発生した場合に、迂回路を設定することができ、通信を継続することができる。
 以上のように、本発明にかかる通信システム、通信装置およびプロテクション方法は、マルチリングネットワークに有用である。
 1~8 ノード、10,10-1,10-2 共有リンク、11-1~11-n 入力処理部、12 多重部、13 転送先管理部、14,14a,14b ERP制御部、15 バッファメモリ、16 バッファ制御部、17-1~17-n 出力処理部、21,21a マルチリング管理部、22-1~22-3,25 ERP処理部、23,32 自ノード情報管理部、24 フレーム識別部、31,31a 障害管理部、33 共有ノード情報管理部、311,311a 障害監視部、312,312a 切替処理部、313,313a 出力制御部。

Claims (10)

  1.  複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムであって、
     前記共有リンクを終端する前記通信装置である共有装置は、
     前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視部と、
     前記障害監視部による障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替処理部と、
     前記切替処理部により切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理部と、
     を備えることを特徴とする通信システム。
  2.  前記通信装置は、前記リングネットワークで障害の発生の有無を通知する障害監視制御フレームを送信する際に、前記障害監視制御フレームに自ノードが属するリングネットワークを示す情報と当該リングネットワークがメジャーリングであるかサブリングであるかを示す識別情報とを格納して送信し、他の前記通信装置から前記障害監視制御フレームを受信すると、隣接する前記通信装置へ当該障害監視制御フレームを転送し、
     前記リング処理部は、前記切替処理部により切替が行われた場合、前記障害監視制御フレームに切替後の前記識別情報を格納して隣接する前記通信装置へ当該障害監視制御フレームを転送または送信することを特徴とする請求項1に記載の通信システム。
  3.  前記共有装置は、
     前記共有リンクに障害が発生したことにより、サブリングに設定されている前記リングネットワークから受信した前記障害監視制御フレームを当該リングネットワーク内で転送できない場合に、当該障害監視制御フレームをメジャーリングに設定されている前記リングネットワークへ転送することを特徴とする請求項2に記載の通信システム。
  4.  前記リングネットワークでは、ERPにより前記リングプロテクションを実施し、前記障害監視制御フレームをR-APSフレームとすることを特徴とする請求項2または3に記載の通信システム。
  5.  前記切替処理部は、メジャーリングとして設定されている前記リングネットワークにおいて前記共有リンク以外で障害が発生した場合に、当該リングネットワークをサブリングに変更し、サブリングとして設定されている前記リングネットワークのうち障害の発生していない前記リングネットワークをメジャーリングに変更することを特徴とする請求項1~4のいずれか1つに記載の通信システム。
  6.  2つの前記リングネットワークで1つの前記共有リンクを共有することを特徴とする請求項1~5のいずれか1つに記載の通信システム。
  7.  3つ以上の前記リングネットワークで1つの前記共有リンクを共有することを特徴とする請求項1~5のいずれか1つに記載の通信システム。
  8.  前記共有リンクを複数有し、前記共有リンクごとに当該共有リンクを共有する前記リングネットワークに関してメジャーリングとサブリングを切替える前記共有装置を備えることを特徴する請求項1~7のいずれか1つに記載の通信システム。
  9.  複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムにおいて、前記共有リンクを終端する前記通信装置であって、
     前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視部と、
     前記障害監視部による障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替処理部と、
     前記切替処理部により切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理部と、
     を備えることを特徴とする通信装置。
  10.  複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムにおけるプロテクション方法であって、
     前記共有リンクを終端する前記通信装置である共有装置が、前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視ステップと、
     前記共有装置が、前記障害監視ステップによる障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替ステップと、
     前記切替ステップで切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理ステップと、
     を含むことを特徴とするプロテクション方法。
PCT/JP2013/066260 2013-06-12 2013-06-12 通信システム、通信装置およびプロテクション方法 WO2014199471A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP2013/066260 WO2014199471A1 (ja) 2013-06-12 2013-06-12 通信システム、通信装置およびプロテクション方法
US14/897,094 US9787496B2 (en) 2013-06-12 2014-02-26 Communication system, communication apparatus, and protection method
PCT/JP2014/054765 WO2014199670A1 (ja) 2013-06-12 2014-02-26 通信システム、通信装置およびプロテクション方法
DE112014002835.5T DE112014002835T5 (de) 2013-06-12 2014-02-26 Kommunikationssystem, Kommunikationsvorrichtung und Schutzverfahren
CN201480032747.3A CN105324959B (zh) 2013-06-12 2014-02-26 通信系统、通信装置以及保护方法
JP2015522577A JP5955461B2 (ja) 2013-06-12 2014-02-26 通信システム、通信装置およびプロテクション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/066260 WO2014199471A1 (ja) 2013-06-12 2013-06-12 通信システム、通信装置およびプロテクション方法

Publications (1)

Publication Number Publication Date
WO2014199471A1 true WO2014199471A1 (ja) 2014-12-18

Family

ID=52021802

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2013/066260 WO2014199471A1 (ja) 2013-06-12 2013-06-12 通信システム、通信装置およびプロテクション方法
PCT/JP2014/054765 WO2014199670A1 (ja) 2013-06-12 2014-02-26 通信システム、通信装置およびプロテクション方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054765 WO2014199670A1 (ja) 2013-06-12 2014-02-26 通信システム、通信装置およびプロテクション方法

Country Status (5)

Country Link
US (1) US9787496B2 (ja)
JP (1) JP5955461B2 (ja)
CN (1) CN105324959B (ja)
DE (1) DE112014002835T5 (ja)
WO (2) WO2014199471A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014201373A1 (de) * 2014-01-27 2015-07-30 Robert Bosch Gmbh Verfahren zum Betreiben eines redundanten Kommunikationsnetzwerkes
JP2016122896A (ja) * 2014-12-24 2016-07-07 日立金属株式会社 中継システムおよびスイッチ装置
US20160204976A1 (en) * 2015-01-14 2016-07-14 Rajnath Singh Identifying the absence and presence of a ring protection link owner node in an ethernet network
WO2016189947A1 (ja) * 2015-05-26 2016-12-01 日立オートモティブシステムズ株式会社 通信装置および通信システム
AT517779B1 (de) * 2015-10-01 2021-10-15 B & R Ind Automation Gmbh Verfahren zum Querverkehr zwischen zwei Slaves eines ringförmigen Datennetzwerks
WO2017146718A1 (en) * 2016-02-26 2017-08-31 Hewlett Packard Enterprise Development Lp Ring protection network division
KR102390465B1 (ko) * 2016-04-14 2022-04-22 현대자동차주식회사 네트워크에서 전원 관리 방법 및 장치
US10135715B2 (en) * 2016-08-25 2018-11-20 Fujitsu Limited Buffer flush optimization in Ethernet ring protection networks
TWI633773B (zh) * 2016-10-19 2018-08-21 神雲科技股份有限公司 電腦叢集系統
WO2019038853A1 (ja) * 2017-08-23 2019-02-28 三菱電機株式会社 転送装置、転送方法および転送プログラム
CN109495286B (zh) * 2017-09-13 2021-11-12 中兴通讯股份有限公司 相交环复用段告警检测方法及装置、计算机可读存储介质
CN108366013B (zh) * 2018-02-26 2021-05-28 新华三技术有限公司 一种报文转发方法及装置
WO2019187089A1 (ja) * 2018-03-30 2019-10-03 三菱電機株式会社 転送装置、転送方法および転送プログラム
WO2020016901A1 (en) * 2018-07-18 2020-01-23 Telefonaktiebolaget Lm Ericsson (Publ) A method in an ethernet ring protection switching (erps) network of handling a sub-ring link failure
JP7183853B2 (ja) * 2019-02-15 2022-12-06 日本電信電話株式会社 ネットワーク装置、ネットワークシステム、ネットワーク接続方法、およびプログラム
US11212164B2 (en) * 2019-04-22 2021-12-28 Hewlett Packard Enterprise Development Lp Preventing multicast outages in ring networks
CN115714698B (zh) * 2022-09-26 2024-04-16 重庆长安汽车股份有限公司 车载以太网的环网通信方法、装置、车辆及存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040252688A1 (en) * 2001-08-28 2004-12-16 May George Anthony Routing packets in frame-based data communication networks
US6766482B1 (en) * 2001-10-31 2004-07-20 Extreme Networks Ethernet automatic protection switching
ES2311901T3 (es) * 2005-05-31 2009-02-16 NOKIA SIEMENS NETWORKS GMBH & CO. KG Procedimiento para conmutacion de proteccion.
CN100401712C (zh) * 2005-10-14 2008-07-09 杭州华三通信技术有限公司 以太网自动保护系统相切环的故障处理方法
CN100454880C (zh) * 2006-11-01 2009-01-21 华为技术有限公司 一种实现环网保护的方法及系统
JP4848254B2 (ja) 2006-11-29 2011-12-28 アラクサラネットワークス株式会社 リングネットワークを構成する装置
CN101232427A (zh) * 2007-01-23 2008-07-30 华为技术有限公司 一种以太网环保护方法及装置
US8345576B2 (en) * 2007-06-19 2013-01-01 Red Hat, Inc. Methods and systems for dynamic subring definition within a multi-ring
JP4874185B2 (ja) 2007-07-19 2012-02-15 アラクサラネットワークス株式会社 多重障害対処システムおよびそれに用いる共有リンク終端装置
CN101662421B (zh) * 2008-08-28 2012-09-05 中兴通讯股份有限公司 基于以太多环网的控制报文的传输方法和装置
CN101741672B (zh) * 2008-11-07 2012-04-04 中兴通讯股份有限公司 自动保护通道的切换方法和装置
CN101741670B (zh) * 2008-11-27 2012-12-19 中兴通讯股份有限公司 一种多环以太网的保护方法
US8203932B2 (en) * 2008-12-02 2012-06-19 Electronics And Telecommunications Research Institute Method and system for protection switching in ethernet ring
KR101252828B1 (ko) * 2009-07-24 2013-04-11 한국전자통신연구원 Vlan기반 브리지의 이더넷 링 네트워크 관리 방법
CN101997748B (zh) * 2009-08-28 2015-08-12 中兴通讯股份有限公司 无虚拟通道的子环控制信道阻塞协议报文的方法和系统
CN101645812A (zh) * 2009-08-31 2010-02-10 武汉烽火网络有限责任公司 一种以太网相交环保护倒换方法
WO2011142697A1 (en) * 2010-05-10 2011-11-17 Telefonaktiebolaget L M Ericsson (Publ) A ring node, an ethernet ring and methods for loop protection in an ethernet ring
JP5404938B2 (ja) 2010-12-21 2014-02-05 三菱電機株式会社 通信装置、通信システムおよび通信方法
US9491041B2 (en) * 2011-03-07 2016-11-08 Tejas Networks Limited Ethernet chain protection switching
US8804748B2 (en) * 2011-03-31 2014-08-12 Nokia Siemens Networks Ethernet Solutions Ltd. Hitless node insertion for Ethernet networks
JP2013157682A (ja) 2012-01-27 2013-08-15 Mitsubishi Electric Corp リング接続ノード、マルチリングネットワークおよび経路切替方法
US9716652B2 (en) * 2012-03-05 2017-07-25 Telefonaktiebolaget L M Ericsson (Publ) Handling of data transfers in a network with a ring topology
US8659993B2 (en) * 2012-05-04 2014-02-25 Extreme Networks, Inc. Priority domains for protection switching processes
US9148346B2 (en) * 2012-09-05 2015-09-29 Brocade Communications Systems, Inc. Multiple ring identification and configuration protocol
US9444641B2 (en) * 2012-09-05 2016-09-13 Brocade Communications Systems, Inc. MAC flush optimizations for ethernet rings
US9264348B2 (en) * 2012-09-14 2016-02-16 Juniper Networks, Inc. Avoiding data traffic loss in an ethernet ring multihomed, in an active-standby manner, to a virtual private LAN service transport network
US9319240B2 (en) * 2013-09-24 2016-04-19 Ciena Corporation Ethernet Ring Protection node

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KOJI SHIBATA ET AL.: "Protection Switching Mechanism in case of Multiple Failure on the ERP Multi-Ring Network", PROCEEDINGS OF THE 2012 IEICE GENERAL CONFERENCE TSUSHIN 2, 6 March 2012 (2012-03-06), pages 74, B-6 - 74 *

Also Published As

Publication number Publication date
JP5955461B2 (ja) 2016-07-20
CN105324959B (zh) 2018-10-23
US20160142225A1 (en) 2016-05-19
WO2014199670A1 (ja) 2014-12-18
DE112014002835T5 (de) 2016-03-24
US9787496B2 (en) 2017-10-10
JPWO2014199670A1 (ja) 2017-02-23
CN105324959A (zh) 2016-02-10

Similar Documents

Publication Publication Date Title
WO2014199471A1 (ja) 通信システム、通信装置およびプロテクション方法
JP5061748B2 (ja) パケットリングネットワークシステム、パケット転送方法
JP5152642B2 (ja) パケットリングネットワークシステム、パケット転送方法、およびノード
JP5546461B2 (ja) チェーン及びリングネットワークにおける透過的なオートリカバリのための方法及びシステム
JP5404938B2 (ja) 通信装置、通信システムおよび通信方法
US9819536B2 (en) Relay system and switching device
US8072878B2 (en) Packet ring network system, packet transfer system, redundancy node, and packet transfer program
US20140219080A1 (en) Method and apparatus for interworking protection switching
WO2016135828A1 (ja) 中継装置および通信システム
JP2008167315A (ja) 回線冗長接続方法および広域通信網ノード装置
JP2007251817A (ja) リングノード装置及びリングノード冗長方法
JP5106706B1 (ja) ネットワークシステム
JP4895972B2 (ja) リングプロトコル高速切替方法およびその装置
JP5029612B2 (ja) パケットリングネットワークシステム、パケット転送方法およびインタリンクノード
JP5006342B2 (ja) 交換システム
JP4175965B2 (ja) リングネットワークおよびリングネットワークにおける通信方法
JP5635029B2 (ja) 通信ネットワーク、中継ノードおよび通信経路切替方法
JP5622687B2 (ja) 相互接続ノード、通信システムおよび通信方法
JP4455105B2 (ja) 冗長経路を有するリングネットワークシステムとそのシステムに使用される転送装置
US20220141123A1 (en) Network device, network system, network connection method, and program
JP2013157682A (ja) リング接続ノード、マルチリングネットワークおよび経路切替方法
KR20100062835A (ko) 이더넷 링 보호 절체 방법 및 시스템
WO2013014764A1 (ja) 通信システム、通信装置および通信方法
JP2015136079A (ja) 通信ノード装置及びネットワークシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13886929

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13886929

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP