WO2014199670A1 - 通信システム、通信装置およびプロテクション方法 - Google Patents

通信システム、通信装置およびプロテクション方法 Download PDF

Info

Publication number
WO2014199670A1
WO2014199670A1 PCT/JP2014/054765 JP2014054765W WO2014199670A1 WO 2014199670 A1 WO2014199670 A1 WO 2014199670A1 JP 2014054765 W JP2014054765 W JP 2014054765W WO 2014199670 A1 WO2014199670 A1 WO 2014199670A1
Authority
WO
WIPO (PCT)
Prior art keywords
ring
failure
shared
node
major
Prior art date
Application number
PCT/JP2014/054765
Other languages
English (en)
French (fr)
Inventor
幸子 谷口
竜介 川手
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2015522577A priority Critical patent/JP5955461B2/ja
Priority to CN201480032747.3A priority patent/CN105324959B/zh
Priority to US14/897,094 priority patent/US9787496B2/en
Priority to DE112014002835.5T priority patent/DE112014002835T5/de
Publication of WO2014199670A1 publication Critical patent/WO2014199670A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/437Ring fault isolation or reconfiguration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0823Errors, e.g. transmission errors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L2012/421Interconnected ring systems

Definitions

  • the present invention relates to a communication system, a communication device, and a protection method.
  • a ring network in which a plurality of communication devices are connected in a ring shape is widely adopted as a configuration for providing a communication path with redundancy in order to achieve high network reliability.
  • a method of logically disconnecting a single port on the ring network (hereinafter referred to as blocking) is usually used.
  • blocking a method of logically disconnecting a single port on the ring network
  • communication is possible by switching the blocked port from the port that was previously set as a blocked port to the failed port in order to prevent the communication path from being divided.
  • RPL Protection Link Owner
  • RPL owner By blocking one port of Protection Link Owner (hereinafter referred to as RPL owner), the link on the blocked port side is logically disconnected to prevent the occurrence of a normal loop.
  • R-APS Ring-Automatic Protection Switching
  • the path switching is performed by releasing the blockage of one of the blocked ports.
  • a major ring is a ring network that performs failure management of a transmission line (hereinafter referred to as a shared link) shared by a plurality of ring networks
  • a sub-ring is a ring network that does not perform this failure management.
  • a shared link failure when a shared link failure occurs, the port that has been previously blocked by the RPL owner in both ring networks is released, and a loop that spans both ring networks occurs. Therefore, in a multi-ring network, one major ring and one or more sub-rings are set for a plurality of ring networks connected by a shared link. In the major ring and sub ring, protection is performed independently for failures other than shared links, and when a failure occurs in the own ring, the blocked port in the own ring is released. On the other hand, when a shared link failure occurs, only the major ring performs failure management and performs a protection operation for switching paths, thereby avoiding the occurrence of a loop.
  • Non-Patent Document 1 when a plurality of failures including a failure in a shared link, that is, a failure in a shared link and a failure in a link other than the shared link, occur as described above. However, since no failure has occurred in the sub-ring, the blocked port in the sub-ring is not released. For this reason, when multiple failures including shared links occur in the major ring, the major ring and sub ring are protected independently, even though a physical detour exists. In the sub-ring, there is a problem that the protection does not operate, the network is divided, and a node that cannot communicate is generated.
  • the present invention has been made in view of the above, and an object of the present invention is to obtain a communication system, a communication device, and a protection method capable of continuing communication when a multiple failure including a shared link occurs.
  • the present invention includes two or more ring networks in which a plurality of communication devices are connected in a ring shape, and a single port is blocked as a blocked port for each ring network.
  • ring protection is performed to switch the blocked port to the failure port
  • one of the ring networks is a major ring that detects a failure of a shared link that is a transmission path shared between the ring networks
  • Each of the ring networks in the ring network A failure monitoring unit that detects a failure and detects a failure of the shared link; a switching processing unit that switches between measuring and sub-ring based on a detection result of the failure by the failure monitoring unit; and the switching processing unit And a ring processing unit for notifying the ring network of
  • the communication system, communication apparatus, and protection method according to the present invention have an effect that communication can be continued when a multiple failure including a shared link occurs.
  • FIG. 1 is a diagram illustrating a configuration example of a multi-ring network according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration example of the shared node according to the first embodiment.
  • FIG. 3 is a diagram illustrating a functional configuration example of the ERP control unit of the shared node according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a format of an R-APS frame for notifying a failure state in the first embodiment.
  • FIG. 5 is a diagram illustrating a configuration example of the multi-ring managing unit according to the first embodiment.
  • FIG. 6 is a flowchart illustrating an example of a processing procedure in the multi-ring management unit when a failure according to the first embodiment is detected.
  • FIG. 1 is a diagram illustrating a configuration example of a multi-ring network according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration example of the shared node according to the first embodiment.
  • FIG. 3 is a diagram illustrating a functional
  • FIG. 7 is a diagram illustrating a configuration example of an ERP control unit included in a node other than the shared node according to the first embodiment.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure when an R-APS frame is received in a node other than the shared node according to the first embodiment.
  • FIG. 10 is a diagram illustrating a situation where multiple failures occur in the multi-ring network.
  • FIG. 11 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • FIG. 12 is a diagram illustrating a state in which a shared link failure has occurred after switching between the major ring and the sub ring.
  • FIG. 13 is a diagram illustrating a state in which a failure has occurred in the shared link from the state without a failure.
  • FIG. 14 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link.
  • FIG. 15 is a diagram illustrating a configuration example of a multi-ring network according to the second embodiment.
  • FIG. 16 is a diagram illustrating a state in which a failure has occurred in the sub-ring.
  • FIG. 17 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • FIG. 18 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • FIG. 19 is a diagram illustrating a situation in which a failure of two shared links has occurred after switching between the major ring and the sub ring.
  • FIG. 20 is a diagram illustrating a state in which a failure has occurred in one shared link from the state of no failure.
  • FIG. 21 is a diagram illustrating a situation in which a failure has occurred in the other shared link after the failure in one shared link.
  • FIG. 22 is a diagram illustrating a state in which a failure has occurred in majoring after a failure has occurred in two shared links.
  • FIG. 23 is a diagram illustrating a configuration example of a multi-ring network according to the third embodiment.
  • FIG. 24 is a diagram illustrating a configuration example of the ERP control unit of the shared node according to the third embodiment.
  • FIG. 25 is a diagram illustrating a configuration example of a multi-ring managing unit according to the third embodiment.
  • FIG. 26 is a flowchart illustrating an example of a processing procedure in the multi-ring managing unit according to the third embodiment when a failure is detected.
  • FIG. 27 is a diagram illustrating a state in which a failure has occurred in the sub-ring.
  • FIG. 28 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • FIG. 29 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • FIG. 30 is a diagram illustrating a state in which a failure occurs in the shared link after the switching between the sub-ring and the major ring due to the failure illustrated in FIG.
  • FIG. 31 is a diagram illustrating a state in which a failure has occurred in the shared link from the state without failure.
  • FIG. 32 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link.
  • FIG. 33 is a diagram illustrating a state in which a failure further occurs in measuring after the occurrence of the failure in FIG. 32.
  • FIG. 34 is a diagram illustrating a configuration example of a multi-ring network according to the fourth embodiment.
  • FIG. 35 is a diagram illustrating a configuration example of a multi-ring managing unit according to the fourth embodiment.
  • FIG. 36 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring management unit according to the fourth embodiment when a failure is detected.
  • FIG. 37 is a flowchart illustrating an example of a processing procedure when receiving an R-APS frame in a node other than the shared node according to the fourth embodiment.
  • FIG. 38 is a diagram illustrating a situation in which failures other than the shared links in the major ring and the sub ring occur at the same time.
  • FIG. 39 is a diagram illustrating a configuration example of a multi-ring network according to the fifth embodiment.
  • FIG. 40 is a diagram illustrating a configuration example of a multi-ring managing unit according to the fifth embodiment.
  • FIG. 41 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring management unit according to the fifth embodiment when a failure is detected.
  • FIG. 42 is a diagram illustrating a situation in which failures occur simultaneously in all the rings other than the shared link.
  • FIG. 43 is a diagram illustrating a configuration example of a multi-ring network according to the sixth embodiment.
  • FIG. 44 is a diagram showing an example of a format of an R-APS frame for notifying a failure state in the sixth embodiment.
  • FIG. 45 is a diagram illustrating a configuration example of the multi-ring managing unit of the shared node according to the sixth embodiment.
  • FIG. 46 is a diagram illustrating an example of the ring management table.
  • FIG. 47 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring management unit according to the sixth embodiment when a failure is detected.
  • FIG. 48 is a diagram illustrating a situation in which a failure has occurred in two shared links.
  • FIG. 49 is a diagram illustrating a state in which a failure has occurred in the measuring for a shared link after a failure has occurred in two shared links.
  • FIG. 1 is a diagram showing a configuration example of a first embodiment of a multi-ring network (communication system) according to the present invention.
  • the nodes 1 and 4 are connected by a shared link 10.
  • FIG. 1 a multi-ring network having six devices including two shared nodes is shown as an example, but the number of nodes connected to each ring is not limited to this.
  • FIG. 1 shows a configuration example in which two rings are connected, this embodiment can also be applied to a structure in which three or more ring networks are connected. Further, the present invention can be applied to a case where three or more shared nodes are connected to the shared link.
  • Each node 1-6 has multiple ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • the nodes 1 and 4 that are shared nodes have three or more ports, and the other nodes 2, 3, 5, and 6 have two or more ports.
  • Nodes 2 and 6 operate as RRP owner nodes of ERP, and other nodes 1, 3, 4, and 5 operate as non-RPL owner nodes of ERP.
  • RRP owner nodes of ERP and other nodes 1, 3, 4, and 5 operate as non-RPL owner nodes of ERP.
  • the setting of the RPL owner and the setting and release of the blocked port an operation according to the ERP standard which is a conventional technique is performed.
  • ERP is used as a ring protection method for setting a blocked port in order to avoid a loop in a ring network
  • the ring protection method is not limited to ERP.
  • a link with an adjacent node is logically disconnected by closing one port of the RPL owner node.
  • the link break point is referred to as BP (Blocking Point)
  • the blocked port blocked port
  • the port on the node 3 side of the node 2 and the port on the node 5 side of the node 6 are set to BP.
  • control frames and data frames are discarded without being transferred to adjacent nodes at ports set to BP.
  • transfer of control frames and data frames to adjacent nodes is permitted at ports where BP is not set.
  • FIG. 2 is a diagram illustrating a configuration example of the shared nodes (nodes 1 and 4 in the configuration example of FIG. 1) according to the present embodiment.
  • the shared node includes input processing units 11-1 to 11-n (n is an integer greater than or equal to 3), multiplexing unit 12, transfer destination management unit 13, ERP control unit 14, buffer A memory 15, a buffer control unit 16, and output processing units 17-1 to 17-n are provided.
  • the node 1 has n ports (not shown), and each port functions as an input / output port.
  • at least one of the n ports is connected to the shared link 10.
  • the node 1 holds the transfer management table 18 in a storage unit (not shown).
  • the nodes other than the shared node include an ERP control unit 14a instead of the ERP control unit 14 as described later, n is set to 2 or more, and the input processing units 11-1 to 11- n, except that the output processing units 17-1 to 17-n are not connected to the shared link.
  • the input processing units 11-1 to 11-n perform processing such as error checking of frames input from each port.
  • One of the input processing units 11-1 to 11-n processes a frame input from the shared link port (port connected to the shared link 10).
  • the multiplexing unit 12 multiplexes the frames (input frames from each port) input from the input processing units 11-1 to 11-n, and outputs the multiplexed frame to the transfer destination management unit 13.
  • the transfer management table 18 is a table storing information for managing the frame transfer destination. For example, an output destination port is stored for each piece of information for identifying a flow such as a destination.
  • the transfer destination management unit 13 searches the transfer management table 18 to determine a frame transfer destination (transfer destination port) for each destination of the input frame, and transfers the transfer destination information determined together with the frame data to the buffer control unit 16. To notify.
  • the buffer memory 15 is a memory that functions as a queue that stores frames in the order of input for each transfer destination.
  • the buffer control unit 16 performs control to write and read frame data to and from the buffer memory 15, and manages the frame data storage state of the buffer memory 15 for each transfer destination.
  • the stored frame is read from the buffer memory 15 according to the transmission speed of the output destination for each transfer destination port, and the output processing unit 17 corresponding to the transfer destination port. -1 to 17-n.
  • the output processing units 17-1 to 17-n generate a read request so that a frame read from the buffer can be output to the outside within the range of the transmission speed for each port, and notify the buffer control unit 16 of the read request. May be.
  • the output processing units 17-1 to 17-n are connected to different ports, generate read requests to output the frames read from the buffer within the range of the transmission speed for each port, and perform buffer control. Notification to the unit 16.
  • the ERP control unit 14 performs termination processing and transfer processing of CCM frames and R-APS frames that are ERP control frames input from an ERP port connected in a ring shape. Further, the ERP control unit 14 manages the ERP state (whether there is a failure or the like) of each ring network from the information in the received frame.
  • FIG. 3 is a diagram illustrating a functional configuration example of the ERP control unit 14 of the shared node according to the present embodiment.
  • the ERP control unit 14 includes a multi-ring management unit 21 and ERP processing units (ring processing units) 22-1 and 22-2.
  • the ERP processing units 22-1 and 22-2 manage a failure state or the like by ERP for each ring.
  • the multi-ring managing unit 21 manages a plurality of ERP processing units 22-1 and 22-2 in order to avoid network division due to multiple failures in the multi-ring network.
  • the number of shared ring networks is two.
  • the ERP control unit 14 includes ERP processing units as many as the number of shared ring networks.
  • FIG. 4 is a diagram illustrating an example of a format of an R-APS frame for notifying a failure state in the present embodiment.
  • major sub-identification information M / M in FIG. 4
  • S an identification bit of majoring or subring
  • R ring ID
  • the major sub identification information indicates whether the ring with the subsequent ring ID is a major ring or a sub ring.
  • Information to be added in the present embodiment is hatched in FIG.
  • the relationship between the value stored in the Request / State field and the indicated information is as follows. 1011b: SF (Signal Fail) 1110b: Event 0000b: NR (No Request) 0111b: MS (Manual Switch) 1101b: FS (Force Switch) Also, BPR (Blocked Port Reference) indicates which side the port is blocked, DNF (Do Not Flush) indicates whether FDB (Forwarding DataBase) can be flushed, and RB (RPL Blocked) is RPL Indicates whether the owner's blocked port is blocked.
  • ITU-T G In the ERP specified in 8032, when no failure has occurred, the RPL owner stores NR in Request / State, and RB stores a value indicating that the blocked port of the RPL owner is blocked. -APS frames are transmitted at regular intervals. When a node in the ring network detects a failure, the node that has detected the failure transmits an R-APS frame with Request / State as SF to both ports. Each node in the ring network transfers the received R-APS frame to an adjacent node.
  • the ring ID is 3 bits, but it is only necessary to secure an area for the required number of bits depending on the number of ring networks configured by multi-rings.
  • the R-APS frame is used to notify information about major ring or sub-ring and ring ID information.
  • a failure monitoring control frame (failure monitoring control frame) is included in the R-APS frame.
  • any format may be used.
  • the switching of the major ring may be notified to the ring network sharing the shared link 10 by another frame other than the failure monitoring control frame.
  • FIG. 5 is a diagram illustrating a configuration example of the multi-ring managing unit 21 according to the present embodiment.
  • the multi-ring management unit 21 includes a failure management unit 31, a local node information management unit 32, and a shared node information management unit 33.
  • the own node information management unit 32 for a plurality of ring IDs of the ring network shared by the shared node (own node), the ring ID of the major ring, the port number of the port connected to the major ring, the ring ID of the sub ring and the sub ID It manages its own node information, which is information about its own node, such as the port number of the port connected to the ring and the port number of the port connected to the shared link.
  • ITU-T G Similar to the 8032 multi-ring network, a major ring is a ring that recognizes a failure of a shared link, and a sub-ring is a ring that does not recognize a failure of a shared link.
  • the shared node information management unit 33 of the multi-ring management unit 21 also terminates the shared link on the opposite side of the shared link (in the example of FIG. 1, the node 4 is viewed from the node 1 and the node is viewed from the node 4).
  • a shared link intermediate node to which the shared link 10 is connected may be provided between the node 1 and the node 4.
  • the failure management unit 31 of the multi-ring management unit 21 includes the local node information, shared node information, and information stored in the R-APS frame when a failure occurs in the multi-ring network (the ring ID and node ID that detected the failure). And a failure monitoring unit 311 for determining the presence / absence of a failure ring and the presence / absence of a shared link failure from port information (information of a port in which a failure is detected).
  • the failure management unit 31 performs sub-ring and measuring when a failure other than the shared link occurs in the major ring, or when a failure other than the shared link occurs in the major ring after the failure in the shared link.
  • a switching processing unit 312 that switches the corresponding ring ID is provided. If the failure occurrence probability of each link is the same, in the former case (when a failure other than a shared link occurs in the major ring), change the ring that becomes the major ring (change the ring ID that is the major ring) By doing so, it is possible to reduce the probability of multiple failures including a shared link in one ring.
  • the failure management unit 31 of the multi-ring management unit 21 includes an output control unit 313 that performs R / APS frame transfer / transmission processing based on the failure status of both rings and shared links and the result of switching processing.
  • FIG. 6 is a flowchart illustrating an example of processing (failure occurrence processing) in the multi-ring managing unit 21 when a failure is detected.
  • this failure occurrence process is performed by a shared node other than the shared link intermediate node, that is, a shared link end node that terminates the shared link.
  • the multi-ring managing unit 21 first determines whether or not a failure has occurred on the side of Major (hereinafter abbreviated as “majoring” as appropriate) (step S1). Specifically, the multi-ring managing unit 21 determines whether a failure has occurred in the major ring based on the R-APS frame received from the node belonging to the major ring.
  • the multi-ring management unit 21 determines whether a failure has occurred other than on the shared link (step S2). Whether or not a failure has occurred in the shared link can be determined based on the shared node information and the R-APS frame that are held. If a failure has occurred other than the shared link (step S2, Yes), it is determined whether or not a failure has occurred in the sub-ring (step S3).
  • the multi-ring managing unit 21 manages the failure occurrence state in the sub-ring based on the R-APS frame received from the node belonging to the sub-ring, and thereby whether or not a failure has occurred in the sub-ring. Can be judged.
  • step S4 it is determined whether or not a failure has occurred in the shared link (step S5). If a failure has occurred in the shared link (step S5, Yes), the FDBs of the ERP ports of both rings are cleared, and the sub-ring The function of transferring the R-APS frame from to the major ring is enabled (step S6). By enabling this transfer function, a frame that cannot be transferred to the sub-ring due to a failure in the shared link can be transferred via the major ring. In each ring, it is assumed that the received frame and port number are registered in the FDB and transferred using the FDB in the initial state as usual.
  • the multi-ring managing unit 21 performs processing in each ring according to the ERP state machine (step S7), and ends the processing. Since the processing according to the ERP state machine is the same as the conventional one, detailed description thereof is omitted.
  • step S1 if no failure has occurred on the Major side (No in step S1), the process proceeds to step S7. If no failure has occurred other than the shared link in step S2 (No in step S2), the process proceeds to step S5. If a failure has occurred in the sub ring in step S3 (step S3 Yes), the process proceeds to step S5. If no failure has occurred in the shared link in step S5 (No in step S5), the process proceeds to step S7.
  • FIG. 7 is a diagram illustrating a configuration example of the ERP control unit 14a included in a node other than the shared node according to the present embodiment.
  • the ERP control unit 14 a includes a local node information management unit 23, a frame identification unit 24, and an ERP processing unit 25.
  • FIG. 8 is a flowchart illustrating an example of a processing procedure when an R-APS frame is received in a node other than the shared node.
  • the own node information management unit 23 manages information about the own node such as a ring ID to which the own node belongs. As shown in FIG. 8, the frame identification unit 24 determines whether or not an R-APS frame has been received (step S11). If no R-APS frame has been received (step S11: No), the process goes to step S14. move on. When the R-APS frame is received (step S11, Yes), the ring ID (Ring ID in FIG. 4) in the received R-APS frame is determined by the own node based on the information managed by the own node information management unit 23. It is determined whether or not it matches the ring ID to which it belongs (step S12).
  • the frame identifying unit 24 If it matches the ring ID to which the own node belongs (step S12, Yes), the frame identifying unit 24 outputs the R-APS frame that matches the ring ID to which the own node belongs to the ERP processing unit 25. A normal ERP process is performed based on the input R-APS frame (step S13). At this time, if the ring network to which the node belongs is changed to the major ring or the sub ring based on the major sub identification information of the R-APS frame, this change is reflected.
  • the blocking port of the own node is not released.
  • the blocking port of the node is blocked when an R-APS frame for detecting a shared link failure is received. To release.
  • the frame identification unit 24 does not output to the ERP processing unit 25, but outputs the other (received) If the ERP port (port connected to the link constituting the ERP ring) on the non-port side is a blocked port, the frame is terminated (discarded), and if it is not a blocked port, it is transferred to the other port (step S14).
  • R-APS Request / State is NR without failure detection
  • Each RPL owner transmits an R-APS frame in which a value indicating that the blocked port of the RPL owner is blocked in the RB.
  • Nodes 1 and 4 that are shared nodes perform ERP processing of the corresponding ring ID (ring ID stored in the R-APS frame) on the R-APS frame input from the port connected to each ring. After that, the frame is transferred to the port connected to the shared link. Similarly, the R-APS frame received from the shared link is also transferred to the port to which the transfer destination ring is connected after performing the ERP process for the corresponding ring ID.
  • one port of the node 2 that is the RPL owner of the ring is blocked, and an R-APS (NR, RB) frame indicating no failure detection is received from the RPL owner.
  • R-APS NR, RB
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • FIG. 10 is a diagram illustrating a situation where multiple failures occur in the multi-ring network.
  • the ports on the shared link 10 side of the nodes 1 and 4 that are shared nodes are blocked.
  • the blocking of one port of the node 2 that is the RPL owner of the majoring is released.
  • the shared node receives the R-APS frame on the sub-ring side, a failure has occurred in the shared link 10 and is transferred to the majoring side. Communication between each node is possible even in such a multiple failure.
  • FIG. 11 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • one port of the node 6 that is the RPL owner of the sub-ring is blocked and R means no failure detection.
  • -APS (NR, RB) frames are transmitted.
  • the failure detection port is blocked, and the R-APS (SF) frame is transmitted from nodes 1 and 2.
  • the default blocked port of the node 2 that is transmitted and is the RPL owner is unblocked.
  • Nodes 1 and 4 that are shared nodes recognize that a failure has occurred on the major ring side by detecting an R-APS frame input from a port connected to each ring or a failure of its own node, and follow the flow of FIG. , Switch between major and sub.
  • FIG. 12 is a diagram showing a state in which a failure of the shared link 10 occurs after switching between the major ring and the sub ring.
  • a failure occurs in the shared link 10 after a failure occurs in the major ring and the major ring and the sub ring are switched.
  • the ports on the shared link 10 side of the nodes 1 and 4 that are the shared nodes are blocked, and the failure of the shared link 10 is detected by measuring.
  • the block of one port of the node 6 that is the RPL owner of the major ring is released.
  • FIG. 13 is a diagram illustrating a state in which a failure has occurred in the shared link 10 from a state where there is no failure.
  • -APS (NR, RB) frames are transmitted.
  • FIG. 14 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link 10.
  • the example of FIG. 14 shows an example in which a failure occurs between the node 2 and the node 1 in the major ring after the failure of the shared link 10 as shown in FIG.
  • the shared link 10 is supposed to perform failure processing in the major ring. However, if a failure occurs between the node 2 and the node 1 other than the shared link 10 in the major ring, the failure occurs between the nodes 1 and 2.
  • the port where the failure is detected is blocked, and an R-APS (SF) frame is transmitted from the nodes 1 and 2 to the major ring.
  • R-APS SF
  • the shared node that terminates the shared link detects a failure other than the shared link of the major ring, and the sub-ring has not failed, the major ring and the sub ring are Instructed to switch. For this reason, when a multiple failure including a shared link occurs in the major ring, a detour can be set and communication can be continued.
  • the above-described effect can be obtained with a small circuit and processing amount.
  • FIG. FIG. 15 is a diagram illustrating a configuration example of a second embodiment of the multi-ring network according to the present invention.
  • the multi-ring network shown in FIG. 15 there are two shared links, shared link 10-1 and shared link 10-2.
  • a ring is set as a major ring
  • FIG. 15 shows a multi-ring network having eight nodes including four shared nodes, but the number of nodes connected to each ring is not limited to this. Further, FIG. 15 shows a structure in which three ring networks are connected, but the present embodiment can also be applied to a structure in which four or more ring networks are connected. Furthermore, the present invention can be applied to a case where three or more shared nodes are connected to the shared link.
  • Each node 1-8 has multiple ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • nodes 1, 4, 5, and 6 that are shared nodes have three or more ports, and other nodes 2, 3, 7, and 8 have two or more ports. is doing.
  • Nodes 2, 6, and 8 operate as ERP RPL owner nodes, and other nodes 1, 3, 4, 5, and 7 operate as ERP non-RPL owner nodes.
  • an operation according to the ERP standard which is a conventional technique is performed.
  • the port on the node 3 side of the node 2 the port on the node 1 side of the node 6, and the port on the node 7 side of the node 8 are set to BP.
  • the nodes 1, 4, 5, and 6 in the present embodiment have the same configuration as the shared node (shared link termination node) in the first embodiment as shown in FIGS.
  • the configuration of the nodes (nodes 2, 3, 7, and 8) other than the shared node of the present embodiment is the same as that of the nodes other than the shared node of the first embodiment.
  • the functions of the multi-ring managing unit 21 of the nodes 1, 4, 5, and 6 that are shared link terminal nodes are the same as those in the first embodiment, as shown in FIG.
  • the processing flow when a new failure is detected and the processing flow of nodes other than the shared node are the same as in the first embodiment.
  • the format of the R-APS frame used in the present embodiment is the same as that in the first embodiment.
  • the operation when there is no failure in the multi-ring network is explained.
  • one of the ports 2, 6 and 8 which are RPL owners of each ring is blocked, and an R-APS (NR, RB) frame without failure detection is transmitted from each RPL owner.
  • the shared nodes of the nodes 1, 4, 5, and 6 perform the ERP process of the ring ID stored in the R-APS frame on the R-APS frame input from the port connected to each ring.
  • the frame is transferred to the port to which the shared link (shared link 10-1 or 10-2) is connected.
  • the ERP process of the ring ID stored in the corresponding R-APS frame is performed, and then the transfer destination ring is changed. Forward to connected port.
  • FIG. 16 is a diagram illustrating a state in which a failure has occurred in the sub-ring.
  • an R-APS (NR, RB) frame signifies no failure detection. Is sent from the RPL owner.
  • the shared nodes of the nodes 1, 4, 5, and 6 perform the ERP processing of the ring with the ring ID stored in the R-APS frame in response to the R-APS frame or failure detection input from the port connected to each ring. Then, the frame is transferred or generated to the port to which the shared links 10-1 and 10-2 are connected and transmitted. Similarly, the ERP processing of the ring ID ring stored in the R-APS frame is similarly performed on the R-APS frames received from the shared links 10-1 and 10-2, and then the ring ID of the corresponding ring ID is Forward to the port to which is connected.
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • FIG. 17 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • a failure further occurs in the shared link 10-1.
  • FIG. 18 is a diagram illustrating a state in which a failure has occurred in the major ring.
  • ERP processing of the ring ID stored in the received R-APS frame is performed, major sub-identification information after switching is added, and the R-APS frame is transferred to the port to which the shared link is connected. Also, for the R-APS frames received from the shared links 10-1 and 10-2, if the major sub identification information in the frames is the information before switching, it is updated to the value after switching, After performing the ERP process of the ring corresponding to the ring ID of the frame, the frame is transferred to the port connected to the ring of the ring ID.
  • FIG. 19 is a diagram showing a state in which a failure has occurred in the shared links 10-1 and 10-2 after switching between the major ring and the sub ring.
  • FIG. 19 shows an example in which the failure of the shared links 10-1 and 10-2 occurs after the failure shown in FIG. 18 occurs and the major ring and the sub ring are switched.
  • the ports on the shared links 10-1 and 10-2 side of the nodes 1, 4, 5, and 6 that are shared nodes are blocked. Then, the blocking of one port of the nodes 2 and 8 which are the RPL owners of the major ring after the switching is released.
  • FIG. 19 shows an example in which a failure occurs in both the shared links 10-1 and 10-2, but the same applies when a failure occurs in one of the shared links 10-1 and 10-2.
  • the above-described operation is performed in the major ring of the shared link 10-1 where the failure has occurred.
  • the shared nodes of the nodes 5 and 6 connected to the shared link 10-2 switch between major and sub in accordance with the flow of FIG. 6 when a major ring failure other than the shared link 10-2 occurs. Then, the ERP process of the ring corresponding to the ring ID of the frame is performed on the received R-APS frame, the major sub-identification information after switching is added, and the R to the port to which the shared link 10-2 is connected -Forward the APS frame.
  • FIG. 21 is a diagram illustrating a situation in which a failure of the shared link 10-2 occurs after the failure of the shared link 10-1.
  • FIG. 21 shows an example in which a failure further occurs in the shared link 10-2 after the failure of the shared link 10-1 occurs as shown in FIG.
  • R-APS SF
  • FIG. 22 is a diagram illustrating a state in which a failure has occurred in the measuring for the shared link 10-2 after the failure has occurred in the two shared links 10-1 and 10-2.
  • FIG. 22 shows an example in which a failure occurs between the nodes 5 and 7 of the major ring for the shared link 10-2 after the failure has occurred in the shared links 10-1 and 10-2 as shown in FIG. Show.
  • the nodes 5 and 6, which are shared nodes, determine that there is a major ring multiple failure based on the R-APS frame input from the port connected to the ring with the ring ID 3 or failure detection, and the flow of FIG.
  • the major ring and the sub ring for the shared link 10-2 are switched according to the above.
  • the nodes 1 and 4 that are the shared nodes perform R-APS (SF) for failure detection in the shared link 10-1.
  • a configuration in which three rings are connected by two shared links is taken as an example, and in the same manner as in the first embodiment, a shared node that terminates a shared link is a shared major ring.
  • a failure other than a link was detected and no failure occurred in the sub-ring and the operation of switching between the major ring and the sub-ring were shown.
  • a detour can be set when a multiple failure including a shared link occurs in the major ring as in the first embodiment. Communication can be continued.
  • FIG. 23 is a diagram illustrating a configuration example of a third embodiment of the multi-ring network according to the present invention.
  • a link connecting the nodes 1 and 4 belonging to the three rings is a shared link 10.
  • FIG. 23 shows a multi-ring network having eight devices including two shared nodes, but the number of nodes connected to the ring is not limited to this.
  • FIG. 23 shows a structure in which three ring networks are connected, but the present invention is also applicable to a structure in which four or more ring networks are connected. Further, the present invention is applicable to a case where three or more shared nodes are connected to the shared link 10.
  • Each node 1-8 has multiple ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • nodes 1 and 4 that are shared nodes have four or more ports, and other nodes 2, 3, 5, 6, 7, and 8 have two or more ports. is doing.
  • Nodes 2, 6, and 8 operate as ERP RPL owner nodes, and other nodes 1, 3, 4, 5, and 7 operate as ERP non-RPL owner nodes.
  • an operation according to the ERP standard which is a conventional technique is performed.
  • the port on the node 3 side of the node 2 the port on the node 5 side of the node 6, and the port on the node 7 side of the node 8 are set to BP.
  • the nodes 1 and 4 of the present embodiment are the same as those of the first embodiment except that the ERP control unit 14b is provided instead of the ERP control unit 14 of the shared node (shared link termination node) of the first embodiment as shown in FIG.
  • the configuration is the same as that of one shared node (shared link end node).
  • Components having the same functions as those in the first embodiment are denoted by the same reference numerals as those in the first embodiment, and redundant description is omitted.
  • differences from the first embodiment will be described.
  • FIG. 24 is a diagram illustrating a configuration example of the ERP control unit 14b in the shared node according to the present embodiment.
  • the ERP control unit 14b of the present embodiment includes a multi-ring management unit 21a and ERP processing units 22-1 to 22-3.
  • the ERP processing unit 14b has ERP processing units as many as the number of shared ring networks, and each ERP processing unit manages a failure state and the like for each ring.
  • the multi-ring managing unit 21a manages a plurality of ERP processing units in order to avoid network division due to multiple failures in the multi-ring network.
  • FIG. 25 is a diagram illustrating a configuration example of the multi-ring managing unit 21a according to the present embodiment.
  • the multi-ring management unit 21a is the same as the multi-ring management unit 21 of the first embodiment except that it includes a failure management unit 31a that controls the three ERP processing units 22-1 to 22-3 instead of the failure management unit 31. It is.
  • the failure management unit 31a includes a failure monitoring unit 311a, a switching processing unit 312a, and an output control unit 313a.
  • the failure monitoring unit 311a uses the shared node information, the shared node information, the information stored in the R-APS frame when a failure occurs in the multi-ring network, and the port information (information about the port that received the R-APS frame). The presence or absence of a failure ring and the presence or absence of a failure of the shared link 10 are determined.
  • the switching processing unit 312a responds to sub-rings and measuring when a failure other than the shared link occurs in the major ring, or when a failure other than the shared link occurs in the major ring after the failure of the shared link.
  • Switch ring ID since there are a plurality of sub-rings, it is determined which sub-ring is changed to the major ring.
  • a ring in which a failure has not occurred is selected from among a plurality of sub-rings, and when there are a plurality of selected rings, for example, one ring is selected according to a predetermined order (for example, the order of young ring IDs). Measure.
  • the failure management unit 31a of the multi-ring management unit 21a includes an output control unit 313a that performs R / APS frame transfer / transmission processing based on the failure status of three rings and shared links and the result of switching processing.
  • the functions of the multi-ring management unit 21a of the nodes 1 and 4 that are shared link terminal nodes are also the same as those in the first embodiment, as shown in FIG.
  • the processing flow of nodes other than the shared node is the same as in the first embodiment.
  • the format of the R-APS frame used in the present embodiment is the same as that in the first embodiment.
  • FIG. 26 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring management unit 21a when a failure is detected.
  • Steps S31 and S32 are the same as steps S1 and S2 in the multi-ring managing unit 21 of the first embodiment.
  • the multi-ring managing unit 21a determines whether or not a failure has occurred in all sub-rings (step S33).
  • the multi-ring managing unit 21a changes one of the sub-rings in which no failure has occurred to a major ring and sub-measures the sub-ring.
  • the major ring and the sub ring are switched so as to change to the ring (step S34).
  • step S33 If it is determined in step S33 that a failure has occurred in all sub-rings (step S33: Yes), the process proceeds to step S35.
  • Steps S35 to S37 are the same as steps S5 to S7 in the multi-ring managing unit 21 of the first embodiment. However, in step S36, the FDB is cleared for all rings.
  • each node in this embodiment will be described.
  • one of the ports of nodes 2 and 6 and node 8 which are RPL owners of each ring is blocked, and an R-APS (NR, RB) frame without failure detection is transmitted from each RPL owner. Is done.
  • the shared nodes of the nodes 1 and 4 perform the ERP process of the ring with the ring ID stored in the R-APS frame on the R-APS frame input from the port connected to each ring, and then perform the shared link.
  • the frame is transferred to the port to which 10 is connected.
  • the R-APS frame received from the shared link 10 is transferred to the port to which the transfer destination ring is connected after performing the ERP process of the corresponding ring ID.
  • FIG. 27 is a diagram showing a state in which a failure has occurred in the sub-ring.
  • one port of the node 2 that is the RPL owner of the ring is blocked, and an R-APS (NR, RB) frame that means no failure is detected. Sent from the RPL owner.
  • R-APS NR, RB
  • the R-APS (SF) frame is transmitted from the nodes 4, 5, 1 and 8
  • the blocked ports of the nodes 6 and 8 that are transmitted and are the RPL owner are released from the block.
  • the shared nodes 10 and 4 are connected to the shared link 10 after performing ERP processing of the ring with the ring ID in the frame for the R-APS frame input from the port connected to each ring. Transfer the frame to the port.
  • the R-APS frame received from the shared link 10 is subjected to ERP processing of the ring ID in the frame and then transferred to the port connected to the ring with the ring ID.
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • FIG. 28 is a diagram illustrating a state in which a failure has occurred in the shared link after a failure has occurred in the sub-ring.
  • FIG. 28 shows an example in which a failure further occurs in the shared link 10 after a failure has occurred in the sub-ring as shown in FIG.
  • the shared link 10 side port of the nodes 1 and 4 that are shared nodes is blocked, and one port of the node 2 that is the RPL owner of the major ring is blocked. Is released.
  • the shared node receives the R-APS frame on the sub-ring side, a failure has occurred in the shared link 10, so that it is transferred to the measuring side. Communication between each node is possible even in such a multiple failure.
  • FIG. 29 is a diagram showing a state in which a failure has occurred in the major ring.
  • one port of nodes 6 and 8 which are RPL owners of the ring is blocked, and no failure is detected. Meaning R-APS (NR, RB) frames are transmitted.
  • R-APS (NR, RB) frames are transmitted.
  • an R-APS frame notifying the occurrence of the failure with the major sub-identification information after switching is transmitted to the ring corresponding to the failure. Also, for the R-APS frame received from the shared link 10, if the major sub-identification information in the frame is the information before switching, it is updated to the value after switching, and the ring ID of the frame is updated. After performing the ERP process of the corresponding ring, the transfer is performed to the port connected to the ring of the ring ID.
  • FIG. 30 is a diagram illustrating a state in which a failure has occurred in the shared link 10 after switching between the sub ring and the major ring due to the failure illustrated in FIG. 29, and a failure has occurred in the major ring.
  • FIG. 30 illustrates an example in which switching is performed due to the occurrence of a majoring failure as described in FIG. 29, and further, a failure occurs in the shared link 10, and then a failure occurs between the nodes 4 and 5 in the majoring. Show. When a failure occurs in the shared link 10, the ports on the shared link 10 side of the nodes 1 and 4 that are shared nodes are blocked.
  • FIG. 31 is a diagram showing a state in which a failure has occurred in the shared link 10 from a state where there is no failure.
  • the example of FIG. 31 shows an example in which a failure has occurred in the shared link 10 from the state of no failure shown in FIG.
  • FIG. 32 is a diagram illustrating a state in which a failure has occurred in the majoring after a failure has occurred in the shared link 10.
  • the shared link is supposed to perform failure processing in the major ring, but if a failure occurs between the nodes 1 and 2 that are locations other than the shared link in the major ring, the port where the failure of the nodes 1 and 2 is detected Is blocked, and an R-APS (SF) frame is transmitted from the nodes 1 and 2 to the major ring.
  • R-APS SF
  • FIG. 33 is a diagram illustrating a state in which a failure has occurred in measuring after the failure in FIG. 32 has occurred.
  • a failure occurs in the shared link 10
  • the configuration in which three rings share one shared link is taken as an example, and the shared node that terminates the shared link is the shared link of the major ring, as in the first embodiment.
  • An operation to switch between the major ring and the sub ring was shown when a fault other than the above was detected and no fault occurred in the sub ring.
  • a detour can be set when a multiple failure including a shared link occurs in the major ring as in the first embodiment. , Communication can be continued.
  • FIG. 34 is a diagram illustrating a configuration example of a multi-ring network according to a fourth embodiment of the present invention.
  • the nodes 1 and 4 are connected by a shared link 10.
  • the method for determining the major ring and the sub-ring is not particularly limited. For example, it can be determined by comparing information such as a ring ID.
  • node 1 is preliminarily determined as a shared link master node (master shared device) that determines the major ring for performing shared link failure management, and node 4 is subjected to major ring for performing shared link failure management.
  • master shared device master shared device
  • slave node slave shared device
  • the method for determining the shared link master node and the slave node is not particularly limited, but can be determined by comparing information such as a node ID, for example.
  • FIG. 34 a multi-ring network having six devices including two shared nodes is shown as an example, but the number of nodes connected to each ring is not limited to this.
  • FIG. 1 shows a configuration example in which two rings are connected, this embodiment can also be applied to a structure in which three or more ring networks are connected. Further, the present invention can be applied to a case where three or more shared nodes are connected to the shared link.
  • Each node 1 to 6 has a plurality of ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • the nodes 1 and 4 that are shared nodes have three or more ports, and the other nodes 2, 3, 5, and 6 have two or more ports.
  • Nodes 2 and 6 operate as RRP owner nodes of ERP, and other nodes 1, 3, 4, and 5 operate as non-RPL owner nodes of ERP.
  • RRP owner nodes of ERP and other nodes 1, 3, 4, and 5 operate as non-RPL owner nodes of ERP.
  • the setting of the RPL owner and the setting and release of the blocked port an operation according to the ERP standard which is a conventional technique is performed.
  • ERP is used as a ring protection method for setting a blocked port in order to avoid a loop in a ring network
  • the ring protection method is not limited to ERP.
  • a link with an adjacent node is logically disconnected by closing one port of the RPL owner node.
  • the port on the node 3 side of the node 2 and the port on the node 5 side of the node 6 are set to BP.
  • control frames and data frames are discarded without being transferred to adjacent nodes at ports set to BP.
  • transfer of control frames and data frames to adjacent nodes is permitted at ports where BP is not set.
  • the shared nodes 1 and 4 of the present embodiment have the same configuration as the shared node of the first embodiment except that the multi-ring management unit 21 is replaced with a multi-ring management unit 21b.
  • the configuration of the nodes other than the shared node according to the present embodiment (nodes 2, 3, 5, 6) is the same as that of the node other than the shared node according to the first embodiment.
  • FIG. 35 is a diagram illustrating a configuration example of the multi-ring managing unit 21b according to the present embodiment.
  • the multi-ring management unit 21b includes a failure management unit 31, a local node information management unit 32, a shared node information management unit 33, and a ring attribute information management unit 34.
  • the own node information management unit 32 for a plurality of ring IDs of the ring network shared by the shared node (own node), the ring ID of the major ring, the port number of the port connected to the major ring, the ring ID of the sub ring and the sub ID It manages its own node information, which is information about its own node, such as the port number of the port connected to the ring and the port number of the port connected to the shared link.
  • ITU-T G Similar to the 8032 multi-ring network, a major ring is a ring that recognizes a failure of a shared link, and a sub-ring is a ring that does not recognize a failure of a shared link.
  • the shared node information management unit 33 of the multi-ring management unit 21b terminates the shared link on the opposite side of the shared link (in the example of FIG. 34, the node 4 when viewed from the node 1, the node when viewed from the node 4) 1) Node ID and information for identifying a port such as a port number connected to the shared node, information on other shared nodes such as a node ID of a shared link intermediate node that is connected to the shared link but does not terminate the shared link To manage shared node information. In the example of FIG. 34, no shared intermediate node exists, but a shared link intermediate node to which the shared link 10 is connected may be provided between the node 1 and the node 4.
  • the ring attribute information management unit 34 of the multi-ring management unit 21b terminates the shared link on the opposite side of the shared link with the own node (in the example of FIG. 34, from the node 4 and the node 4 when viewed from the node 1).
  • the own node in the example of FIG. 34, from the node 4 and the node 4 when viewed from the node 1).
  • master node shared link master node
  • slave node shared link slave node
  • the ring attribute information management unit 34 manages ring attribute information for identifying whether the own node is a master node or a slave node.
  • This ring attribute information is information necessary for the shared node to control the ring ID information of the major ring that manages the failure of the shared link of the slave node so as to match the ring ID information of the major ring of the master node.
  • the failure management unit 31 of the multi-ring management unit 21b includes the local node information, shared node information, ring attribute information, and information stored in the R-APS frame when a failure occurs in the multi-ring network (the ring ID that detected the failure). And a node ID) and port information (information on the port where the failure is detected), a failure monitoring unit 311 is provided for determining whether there is a failure ring and whether there is a shared link failure.
  • the failure management unit 31 terminates the shared link when a failure other than the shared link occurs in the major ring, when a failure other than the shared link occurs in the major ring after the failure of the shared link, or Switching to switch the ring ID corresponding to the sub-ring and the major ring when the master node and the slave node do not match the major ring information or when a failure other than the shared link occurs in all the rings with the same shared link
  • a processing unit 312 is provided.
  • the failure occurrence probability of each link is the same, in the former case (when a failure other than a shared link occurs in the major ring), change the ring that becomes the major ring (change the ring ID that is the major ring) By doing so, it is possible to reduce the probability of multiple failures including a shared link in one ring.
  • the timing of receiving the R-APS frame notifying the failure differs between the shared nodes at both ends of the shared link. May differ on shared nodes.
  • the slave node matches the shared link major / subring identification information of the own node with the shared link major / subring identification information of the master node.
  • the failure management unit 31 of the multi-ring management unit 21b includes an output control unit 313 that performs R / APS frame transfer / transmission processing based on the failure state of both rings and shared links and the result of switching processing.
  • FIG. 36 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring managing unit 21b when a failure is detected.
  • this failure occurrence process is performed by a shared node other than the shared link intermediate node, that is, a shared link end node that terminates the shared link.
  • the multi-ring managing unit 21b first determines whether or not a failure has occurred on the Major side (step S41). Specifically, the multi-ring managing unit 21b determines whether or not a failure has occurred in the majoring based on the R-APS frame received from the node belonging to the majoring.
  • the multi-ring managing unit 21b determines whether a failure has occurred other than on the shared link (step S42). Whether or not a failure has occurred in the shared link can be determined based on the shared node information and the R-APS frame that are held. If a failure has occurred other than the shared link (step S42, Yes), it is determined whether or not a failure has occurred in the sub-ring (step S43). The multi-ring managing unit 21b manages the failure occurrence state in the sub-ring based on the R-APS frame received from the node belonging to the sub-ring, and whether or not a failure has occurred in the sub-ring. Can be judged.
  • both rings belonging to the shared link have a failure other than the shared link, and therefore have a predetermined high priority ring ID.
  • the multi-ring managing unit 21b determines whether or not a failure has occurred in the shared link (step S45). When a failure occurs in the shared link (step S45, Yes), it is determined whether or not its own node is a shared link master node (slave node) (step S46). If the node is a shared link slave node (No in step S46), it is determined whether an R-APS frame due to a shared link failure is received from the master node (step S47). When the R-APS frame due to the shared link failure is received from the master node (step S47, Yes), the major ring is set to the same ring ID as the shared link master node (step S48).
  • the identification of the major ring is determined based on the information stored in the R-APS frame received from the master node due to the failure of the shared link.
  • the process returns to step S47.
  • the multi-ring management unit 21b clears the FDB of the ERP port of both rings, and changes from the sub ring to the major ring.
  • the R-APS frame transfer function is enabled (step S49). Also, by enabling this transfer function on both rings, a frame that cannot be transferred due to a failure of the shared link on the sub-ring side due to a failure of the shared link can be transferred via the major ring. In each ring, it is assumed that the received frame and port number are registered in the FDB and transferred using the FDB in the initial state as usual.
  • the multi-ring managing unit 21b performs processing in each ring according to the ERP state machine (step S50), and ends the processing. Since the processing according to the ERP state machine is the same as the conventional one, detailed description thereof is omitted.
  • step S50 processing is performed in accordance with each ERP state machine in each ring. If no failure has occurred other than the shared link of the major ring (No at step S42), the process proceeds to step S45. If no failure has occurred in the shared link in step S45 (No in step S45), the process proceeds to step S50. When it is a shared link master node in step S46 (step S46 Yes), the process proceeds to step S49.
  • Nodes other than shared nodes include the ERP control unit 14a as in the first embodiment.
  • the ERP control unit 14a of the present embodiment performs the following operation.
  • the ERP control unit 14 a includes a local node information management unit 23, a frame identification unit 24, and an ERP processing unit 25.
  • FIG. 37 is a flowchart illustrating an example of a processing procedure when an R-APS frame is received in a node other than the shared node according to the present embodiment.
  • the own node information management unit 23 manages information about the own node such as a ring ID to which the own node belongs. As shown in FIG. 37, when the frame identification unit 24 receives the R-APS frame, the frame identification unit 24 uses the ring ID (in FIG. 4) in the received R-APS frame based on the information managed by the local node information management unit 23. It is determined whether or not (Ring ID) matches the ring ID to which the own node belongs (step S61). If it matches the ring ID to which the own node belongs (step S61, Yes), the frame identifying unit 24 outputs the R-APS frame that matches the ring ID to which the own node belongs to the ERP processing unit 25.
  • a normal ERP process is performed based on the input R-APS frame (step S62). At this time, if the ring network to which the node belongs is changed to the major ring or the sub ring based on the major sub identification information of the R-APS frame, this change is reflected.
  • the blocking port of the own node is not released.
  • the blocking port of the node is blocked when an R-APS frame for detecting a shared link failure is received. To release.
  • the frame identification unit 24 does not output to the ERP processing unit 25, but outputs the other (received) If the ERP port (port connected to the link constituting the ERP ring) on the non-port side is a blocked port, the frame is terminated (discarded), and if it is not a blocked port, it is transferred to the other port (step S63). At this time, if there is an FDB flush instruction, the FDB is flushed.
  • R-APS Request / State is NR without failure detection
  • Each RPL owner transmits an R-APS frame in which a value indicating that the blocked port of the RPL owner is blocked in the RB.
  • Nodes 1 and 4 that are shared nodes perform ERP processing of the corresponding ring ID (ring ID stored in the R-APS frame) on the R-APS frame input from the port connected to each ring. After that, the frame is transferred to the port connected to the shared link. Similarly, the R-APS frame received from the shared link is also transferred to the port to which the transfer destination ring is connected after performing the ERP process for the corresponding ring ID.
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • the ports on the shared link 10 side of the nodes 1 and 4 that are shared nodes are blocked.
  • an R-APS frame that notifies the failure of the shared link is transmitted from the node 1 that is the shared link master node.
  • the node 4 that is the shared link slave node does not transfer the R-APS frame that notifies the failure of the shared link until the R-APS frame that notifies the failure of the shared link from the node 1 is received.
  • the shared node receives the R-APS frame on the sub-ring side, a failure has occurred in the shared link 10 and is transferred to the majoring side. Communication between each node is possible even in such a multiple failure.
  • the failure detection port is blocked, and the R-APS (SF) frame is transmitted from nodes 1 and 2.
  • the default blocked port of the node 2 that is transmitted and is the RPL owner is unblocked.
  • Nodes 1 and 4 that are shared nodes recognize that a failure has occurred on the major ring side by detecting an R-APS frame input from a port connected to each ring or a failure of its own node, and follow the flow of FIG. , Switch between major and sub.
  • a failure of the shared link 10 occurs after switching between the major ring and the sub ring shown in FIG.
  • FIG. 12 shows a failure occurs in the shared link 10 after a failure occurs in the major ring and the major ring and the sub ring are switched.
  • FIG. 12 when a failure occurs in the shared link 10, the ports on the shared link 10 side of the nodes 1 and 4 that are the shared nodes are blocked, and the failure of the shared link 10 is detected by the measuring link.
  • An R-APS frame that notifies the failure of the node is transmitted from the shared link master node 1 to the new majoring side, and the block of one port of the node 6 that is the RPL owner of the majoring after switching is released. .
  • the node 4 that is the shared link slave node does not transfer the R-APS frame that notifies the failure of the shared link until the R-APS frame that notifies the failure of the shared link from the node 1 is received.
  • -APS (NR, RB) frames are transmitted.
  • a failure has occurred between the nodes 1-4, which are the shared nodes.
  • the frame is transmitted from node 1 which is the shared link master node to the new majoring side, and the default blocked port of node 2 which is the RPL owner is unblocked.
  • the node 4 that is the shared link slave node does not transfer the R-APS frame that notifies the failure of the shared link until the R-APS frame that notifies the failure of the shared link from the node 1 is received.
  • FIG. 14 shows an example in which a failure occurs between the node 2 and the node 1 in the major ring after the failure of the shared link 10 as shown in FIG.
  • the shared link 10 is supposed to perform failure processing in the major ring. However, if a failure occurs between the node 2 and the node 1 other than the shared link 10 in the major ring, the failure occurs between the nodes 1 and 2.
  • the port where the failure is detected is blocked, and an R-APS (SF) frame is transmitted from the nodes 1 and 2 to the major ring.
  • R-APS SF
  • the major ring and the sub ring are switched according to the flow of 36.
  • FIG. 38 is a diagram illustrating a situation in which failures other than the shared links in the major ring and the sub ring occur at the same time.
  • the failure detection port is blocked, R-APS (SF) frames are transmitted from the nodes 1, 2, 4, and 5, and the node 2 that is the RPL owner The default blocked port of node 6 is released from blocking.
  • the ring IDs of the major ring and the sub-ring are different between the nodes 1 and 4 which are the shared nodes.
  • the major sub-identification information in the frame is the information before switching, it is updated to the value after switching, and the ring ID of the frame is updated.
  • the transfer is performed to the port connected to the ring of the ring ID.
  • the ring ID of the major link of the shared link master node is set as the major ring also in the shared link slave node. did. Further, when multiple failures occur simultaneously in major rings and sub-rings other than the shared link, priority is set in advance, and a ring ID having a higher priority is set as major ring. For this reason, the shared link master node that terminates the shared link and the shared link slave node have the same ring ID of the major ring that manages the failure of the shared link, and can normally set a detour when the shared link fails. Communication can be continued even when multiple failures occur. In addition, by instructing this switching using the Reserved 2 field in the R-APS frame, the above-described effect can be obtained with a small circuit and processing amount.
  • FIG. 39 is a diagram illustrating a configuration example of a multi-ring network according to a fifth embodiment of the present invention.
  • a link connecting the nodes 1 and 4 belonging to the three rings is a shared link 10.
  • node 1 is determined in advance as a shared link master node for determining a major link for managing a shared link failure
  • node 4 is determined as a master node for determining a shared link for failure management.
  • the shared link master node and the slave node may be determined in any way, but can be determined by comparing information such as a node ID, for example.
  • FIG. 39 shows a multi-ring network having eight devices including two shared nodes, but the number of nodes connected to the ring is not limited to this.
  • FIG. 39 shows a structure in which three ring networks are connected, but the present invention can also be applied to a structure in which four or more ring networks are connected. Further, the present invention is applicable to a case where three or more shared nodes are connected to the shared link 10.
  • Each node 1-8 has a plurality of ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • nodes 1 and 4 that are shared nodes have four or more ports, and other nodes 2, 3, 5, 6, 7, and 8 have two or more ports. is doing.
  • Nodes 2, 6, and 8 operate as ERP RPL owner nodes, and other nodes 1, 3, 4, 5, and 7 operate as ERP non-RPL owner nodes.
  • an operation according to the ERP standard which is a conventional technique is performed.
  • the port on the node 3 side of the node 2 the port on the node 5 side of the node 6, and the port on the node 7 side of the node 8 are set to BP.
  • the nodes 1 and 4 of this embodiment are the same as those of the first embodiment except that they include an ERP control unit 14c instead of the ERP control unit 14 of the shared node (shared link termination node) of the first embodiment as shown in FIG.
  • the configuration is the same as that of one shared node (shared link termination node).
  • Components having the same functions as those in the first embodiment are denoted by the same reference numerals as those in the first embodiment, and redundant description is omitted.
  • differences from the first embodiment will be described.
  • the ERP control unit 14c in the shared node includes a multi-ring management unit 21c and ERP processing units 22-1 to 22-3 similar to those in the third embodiment.
  • the ERP processing unit 14c has as many ERP processing units as the number of shared ring networks, and each ERP processing unit manages a failure state and the like for each ring.
  • the multi-ring management unit 21c manages a plurality of ERP processing units in order to avoid network division due to multiple failures in the multi-ring network.
  • the configuration of the multi-ring management unit 21c of the nodes 1 and 4 that are shared link terminal nodes is as shown in FIG.
  • the processing flow of nodes other than the shared node is the same as in the first embodiment.
  • the format of the R-APS frame used in the present embodiment is the same as that in the first embodiment.
  • FIG. 40 is a diagram illustrating a configuration example of the multi-ring managing unit 21c according to the present embodiment.
  • the multi-ring management unit 21c includes a failure management unit 31a that controls the three ERP processing units 22-1 to 22-3 instead of the failure management unit 31, and includes a ring attribute information management unit 34 similar to that of the fourth embodiment. Except for the addition, it is the same as the multi-ring management unit 21 of the fourth embodiment.
  • the failure management unit 31a includes a failure monitoring unit 311a, a switching processing unit 312a, and an output control unit 313a.
  • the switching processing unit 312a is a master node that terminates the shared link when a failure other than the shared link occurs in the major ring, or when a failure other than the shared link occurs in the major ring after the failure of the shared link.
  • the ring IDs corresponding to the sub-ring and the major ring are switched when the major ring information does not match between the slave node and the slave node, or when a failure other than the shared link occurs in all the rings having the same shared link.
  • a ring in which a failure has not occurred is selected from among a plurality of sub-rings, and when there are a plurality of selected rings, for example, one ring is selected according to a predetermined order (for example, the order of young ring IDs). Measure.
  • a failure in multi-ring occurs simultaneously in each ring, the timing of receiving the R-APS frame notifying the failure differs between the shared nodes at both ends of the shared link. May differ on shared nodes.
  • the slave node matches the shared link major / subring identification information of the own node with the shared link major / subring identification information of the master node. Match the recognition of the major ring and sub-ring in the shared node at both ends.
  • the output control unit 313a performs R-APS frame transfer / transmission processing based on the failure status of three rings and shared links and the result of switching processing.
  • FIG. 41 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring managing unit 21c when a failure is detected.
  • this failure occurrence process is performed by a shared node other than the shared link intermediate node, that is, a shared link end node that terminates the shared link.
  • the multi-ring managing unit 21c first determines whether or not a failure has occurred on the Major side (step S71). Specifically, the multi-ring managing unit 21c determines whether a failure has occurred in the major ring based on the R-APS frame received from the node belonging to the major ring.
  • the multi-ring managing unit 21c determines whether a failure has occurred other than on the shared link (step S72). Whether or not a failure has occurred in the shared link can be determined based on the shared node information and the R-APS frame that are held. If a failure has occurred other than the shared link (Yes in step S72), it is determined whether or not a failure has occurred in the sub-ring (step S73). The multi-ring managing unit 21c manages the failure occurrence state of the plurality of sub-rings based on the R-APS frames received from the nodes belonging to the plurality of sub-rings. It can be determined whether or not there is.
  • step S81 If a failure has occurred in all the sub-rings (Yes in step S73), a failure has occurred in all the rings belonging to the shared link other than the shared link.
  • step S74 it is determined whether or not a failure has occurred in the shared link (step S75). If a failure has occurred in the shared link (step S75, Yes), it is determined whether the node is a shared link master node or a slave node. Judgment is made (step S76). If it is not a shared link master node (slave node) (No in step S76), it is determined whether an R-APS frame due to a shared link failure has been received from the master node (step S77). When the R-APS frame due to the failure of the shared link is received from the master node (step S77, Yes), the major ring is set to the same ring ID as the shared link master node (step S78).
  • the identification of the major ring is determined based on the information stored in the R-APS frame received from the master node due to the failure of the shared link. If it is determined in step S77 that an R-APS frame due to a shared link failure has not been received from the master node (No in step S77), the process returns to step S77.
  • the FDB of the ERP port of the major ring is cleared, and the R-APS frame transfer function from the sub ring to the major ring Is enabled (step S79). Also, by enabling this transfer function on both rings, a frame that cannot be transferred due to a failure of the shared link on the sub-ring side due to a failure of the shared link can be transferred via the major ring.
  • the received frame and port number are registered in the FDB and transferred using the FDB in the initial state as usual.
  • the multi-ring managing unit 21c performs processing in each ring according to the ERP state machine, and ends the processing (step S80). Since the processing according to the ERP state machine is the same as the conventional one, detailed description thereof is omitted.
  • step S71 If no failure has occurred on the Major side (No in step S71), the process proceeds to step S80, and processing is performed in each ring according to the respective ERP state machine.
  • step S72 if no failure has occurred other than the shared link of the major ring (No in step S72), the process proceeds to step S75. If no failure has occurred in the shared link in step S75 (No in step S75), the process proceeds to step S80. If it is determined in step S76 that the node is a shared link master node (Yes in step S76), the process proceeds to step S79.
  • each node in this embodiment will be described.
  • one of the ports of nodes 2 and 6 and node 8 which are RPL owners of each ring is blocked, and an R-APS (NR, RB) frame without failure detection is transmitted from each RPL owner. Is done.
  • the shared nodes of the nodes 1 and 4 perform the ERP process of the ring with the ring ID stored in the R-APS frame on the R-APS frame input from the port connected to each ring, and then perform the shared link.
  • the frame is transferred to the port to which 10 is connected.
  • the R-APS frame received from the shared link 10 is transferred to the port to which the transfer destination ring is connected after performing the ERP process of the corresponding ring ID.
  • the R-APS (SF) frame is transmitted from the nodes 4, 5, 1 and 8
  • the blocked ports of the nodes 6 and 8 that are transmitted and are the RPL owner are released from the block.
  • the shared nodes 10 and 4 are connected to the shared link 10 after performing ERP processing of the ring with the ring ID in the frame for the R-APS frame input from the port connected to each ring. Transfer the frame to the port.
  • the R-APS frame received from the shared link 10 is subjected to ERP processing of the ring ID in the frame and then transferred to the port connected to the ring with the ring ID.
  • each ring when there is no failure and when a failure occurs in a sub-ring, each ring operates in the same manner as a normal single-ring ERP except for determining the ring ID. .
  • FIG. 28 shows an example in which a failure further occurs in the shared link 10 after a failure has occurred in the sub-ring as shown in FIG.
  • the shared link 10 side port of the nodes 1 and 4 that are shared nodes is blocked, and one port of the node 2 that is the RPL owner of the major ring is blocked. Is released.
  • the shared node receives the R-APS frame on the sub-ring side, a failure has occurred in the shared link 10, so that it is transferred to the measuring side. Communication between each node is possible even in such a multiple failure.
  • one port of nodes 6 and 8 which are RPL owners of the ring is blocked, and no failure is detected. Meaning R-APS (NR, RB) frames are transmitted.
  • R-APS (NR, RB) frames are transmitted.
  • SF R-APS
  • an R-APS frame notifying the occurrence of the failure with the major sub-identification information after switching is transmitted to the ring corresponding to the failure. Also, for the R-APS frame received from the shared link 10, if the major sub-identification information in the frame is the information before switching, it is updated to the value after switching, and the ring ID of the frame is updated. After performing the ERP process of the corresponding ring, the transfer is performed to the port connected to the ring of the ring ID.
  • FIG. 30 illustrates an example in which switching is performed due to the occurrence of a majoring failure as described in FIG. 29, and further, a failure occurs in the shared link 10, and then a failure occurs between the nodes 4 and 5 in the majoring.
  • a failure occurs in the shared link 10
  • the ports on the shared link 10 side of the nodes 1 and 4 that are shared nodes are blocked.
  • the node 4 that is the shared link slave node does not transfer the R-APS frame that notifies the failure of the shared link until the R-APS frame that notifies the failure of the shared link from the node 1 is received.
  • FIG. 31 shows an example in which a failure has occurred in the shared link 10 from the state of no failure shown in FIG.
  • the example of FIG. 31 shows an example in which a failure has occurred in the shared link 10 from the state of no failure shown in FIG.
  • the default blocked port of the node 2 that is the RPL owner and is transmitted from the node 1 is released.
  • the node 4 that is the shared link slave node does not transfer the R-APS frame that notifies the failure of the shared link until the R-APS frame that notifies the failure of the shared link from the node 1 is received.
  • the shared link is supposed to perform failure processing in the major ring, but if a failure occurs between the nodes 1 and 2 that are locations other than the shared link in the major ring, the port where the failure of the nodes 1 and 2 is detected Is blocked, and an R-APS (SF) frame is transmitted from the nodes 1 and 2 to the major ring.
  • SF R-APS
  • FIG. 42 is a diagram illustrating a situation in which failures occur simultaneously in all rings other than the shared link.
  • the R-APS (SF) frame is transmitted from the nodes 1, 2, 4, 5, 7, and 8, and the default blocked ports of the node 2 and the node 6 that are RPL owners are released from blocking.
  • the major sub-identification information in the frame is the information before switching, it is updated to the value after switching, and the ring ID of the frame is updated.
  • the transfer is performed to the port connected to the ring of the ring ID.
  • the shared link master node In this embodiment, a configuration in which three rings share one shared link is taken as an example, and in the case where a failure occurs in a shared link, as in the fourth embodiment, the shared link master node The ring ID of the major ring is set as the major ring even in the shared link slave node. Also, when multiple failures occur simultaneously in all rings other than the shared link, a priority is set in advance, and a ring ID having a high priority is set as a major ring. For this reason, the shared link master node that terminates the shared link and the shared link slave node have the same ring ID of the major ring that manages the failure of the shared link, and can normally set a detour when the shared link fails. Communication can be continued even when multiple failures occur. In addition, by instructing this switching using the Reserved 2 field in the R-APS frame, the above-described effect can be obtained with a small circuit and processing amount.
  • FIG. 43 is a diagram showing a configuration example of a sixth embodiment of the multi-ring network according to the present invention.
  • there are two shared links a shared link 10-1 and a shared link 10-2.
  • a ring is set as a major ring
  • Rings are connected.
  • 43 shows a multi-ring network having eight nodes including four shared nodes, the number of nodes connected to each ring is not limited to this.
  • FIG. 43 shows a structure in which three ring networks are connected.
  • the present embodiment can also be applied to a structure in which four or more ring networks are connected.
  • the present invention can be applied to a case where three or more shared nodes are connected to the shared link.
  • Each node 1-8 has multiple ports.
  • a ring is formed by connecting ports of adjacent nodes to form a multi-ring network.
  • nodes 1, 4, 5, and 6 that are shared nodes have three or more ports, and other nodes 2, 3, 7, and 8 have two or more ports. is doing.
  • Nodes 2, 6, and 8 operate as ERP RPL owner nodes, and other nodes 1, 3, 4, 5, and 7 operate as ERP non-RPL owner nodes.
  • an operation according to the ERP standard which is a conventional technique is performed.
  • the port on the node 3 side of the node 2 the port on the node 1 side of the node 6, and the port on the node 7 side of the node 8 are set to BP.
  • the nodes 1, 4, 5, and 6 in the present embodiment have the same configuration as the shared node (shared link termination node) in the first embodiment as shown in FIGS.
  • the configuration of the nodes (nodes 2, 3, 7, and 8) other than the shared node of the present embodiment is the same as that of the nodes other than the shared node of the first embodiment.
  • FIG. 44 is a diagram showing an example of a format of an R-APS frame for notifying a failure state in the present embodiment.
  • major sub-identification information that is an identification bit of majoring or sub-ring described in the first embodiment is added to the ERP R-APS frame.
  • M / S in FIG. 44 and the ring ID (Ring ID in FIG. 44) indicating the ring to which the transmission source node belongs, as well as the path switching even when multiple failures occur in shared links in multiple rings
  • Major sub switching request information Req in FIG. 44 for switching a major sub to a ring capable of continuing communication is added to the Reserved 2 area.
  • Information added in the present embodiment is hatched in FIG.
  • FIG. 45 is a diagram illustrating a configuration example of the multi-ring managing unit 21d of the shared node according to the present embodiment.
  • the multi-ring management unit 21c includes a failure management unit 31, a local node information management unit 32, a shared node information management unit 33, a ring attribute information management unit 34, and an all-ring information management unit 35.
  • the own node information management unit 32 for a plurality of ring IDs of the ring network shared by the shared node (own node), the ring ID of the major ring, the port number of the port connected to the major ring, the ring ID of the sub ring and the sub ID It manages its own node information, which is information about its own node, such as the port number of the port connected to the ring and the port number of the port connected to the shared link.
  • ITU-T G Similar to the 8032 multi-ring network, a major ring is a ring that recognizes a failure of a shared link, and a sub-ring is a ring that does not recognize a failure of a shared link.
  • the shared node information management unit 33 of the multi-ring management unit 21d is a shared node that terminates the shared link on the opposite side of the shared link (in the example of FIG. 1.
  • there is no shared intermediate node but there may be shared link intermediate nodes connecting the shared links 10-1 and 10-2 between the nodes 1 and 4 and between the nodes 5 and 6. Good.
  • the ring attribute information management unit 34 of the multi-ring management unit 21d has one shared link master node (hereinafter referred to as a master node) and the other shared node that terminates the shared link on the opposite side of the own node and the shared link.
  • a shared link slave node hereinafter referred to as a slave node
  • the ring ID information of the major ring that manages the failure of the shared link of the slave node is controlled to match the ring ID information of the major ring of the master node. It manages ring attribute information for identifying whether the own node is a master node or a slave node, which is information necessary for the shared node.
  • the all-ring information management unit 35 of the multi-ring management unit 21d allows a network configured with multi-rings to continue communication as much as possible even when multiple failures including failures of a plurality of shared links occur. It manages the connection order of all the rings and the failure presence / absence information of the ring that can be switched.
  • FIG. 46 is a diagram illustrating an example of the ring management table.
  • the all-ring information management unit 35 includes, for example, a table for constantly managing the order of ring IDs, the presence / absence of failure of each ring (path switching availability) as shown in FIG. I will have it.
  • the connection order of ring IDs is set by some means.
  • each ring The presence or absence of a failure in each ring is monitored for R-APS frames periodically received from each ring, and there is no failure for a ring that periodically receives R-APS (NR, RB) from a plurality of ports. It is determined that a ring that has received APS (SF) periodically is faulty and a ring that does not receive R-APS is unknown.
  • R-APS R-APS
  • the failure management unit 31 of the multi-ring management unit 21d is stored in the R-APS frame for transferring the own node information, shared node information, ring attribute information, all ring information, and the failure state in the multi-ring network into the network.
  • Fault monitoring unit that determines the presence or absence of a faulty ring and the presence or absence of a shared link fault from the information (the presence or absence of a fault, the ring ID or node ID that detected the fault), and the port information (information of the port that detected the fault) 311 is provided.
  • the failure management unit 31 terminates the shared link when a failure other than the shared link occurs in the major ring, when a failure other than the shared link occurs in the major ring after the failure of the shared link, or
  • a switching processing unit 312 is provided for switching ring IDs corresponding to the sub-ring and the major ring when the information on the major ring does not match between the master node and the slave node. If the failure occurrence probability of each link is the same, in the former case (when a failure other than a shared link occurs in the major ring), change the ring that becomes the major ring (change the ring ID that is the major ring) By doing so, it is possible to reduce the probability of multiple failures including a shared link in one ring.
  • the timing of receiving the R-APS frame notifying the failure differs between the shared nodes at both ends of the shared link. May differ on shared nodes.
  • the slave node matches the shared link major / subring identification information of the own node with the shared link major / subring identification information of the master node. Match the recognition of the major ring and sub-ring in the shared node at both ends.
  • the failure management unit 31 of the multi-ring management unit 21d constantly monitors the received R-APS frame and notifies all ring information management units.
  • the failure management unit 31 of the multi-ring management unit 21d includes an output control unit 313 that performs R-APS frame transfer / transmission processing based on the failure status of all rings and shared links and the result of switching processing.
  • FIG. 47 is a flowchart illustrating an example of a processing (failure occurrence processing) procedure in the multi-ring managing unit 21d when a failure is detected.
  • this failure occurrence process is performed by a shared node other than the shared link intermediate node, that is, a shared link end node that terminates the shared link.
  • the multi-ring managing unit 21d first determines whether or not a failure has occurred on the Major side (step S91). Specifically, the multi-ring managing unit 21d determines whether a failure has occurred in the major ring based on the R-APS frame received from the node belonging to the major ring.
  • the multi-ring managing unit 21d determines whether a failure has occurred other than on the shared link (step S92). Whether or not a failure has occurred in the shared link can be determined based on the shared node information and the R-APS frame that are held. If a failure has occurred other than the shared link (Yes in step S92), it is determined whether or not a failure has occurred in the sub-ring (step S93). The multi-ring managing unit 21d manages the failure occurrence state in the sub-ring based on the R-APS frame received from the node belonging to the sub-ring. Can be judged.
  • step S101 If a failure has occurred even in the sub-ring (step S93, Yes), it is determined whether or not a failure has occurred in the shared link (step S101). If there is no failure in the shared link (No in step S101), a failure other than the shared link has occurred in both rings belonging to the shared link.
  • step S102 it is determined whether or not there is a ring that does not have a failure and becomes a detour. If there is a ring that can be switched (Yes in step S102), the major and the sub are switched (step S103). Then, it is determined whether or not it is a shared link master node (step S104). If it is a shared link master node (step S104, Yes), the FDB of the ERP port of the ring in which the failure has occurred is cleared, and the path is switched. The R-APS frame in which the request is validated is transferred to the port to which the shared link master node of the ring capable of switching the path is connected (step S105), and the process proceeds to step S100.
  • Step S93 If no failure has occurred even in the sub-ring (No in Step S93), Steps S94 to S100 similar to Steps S44 to S50 in FIG. 36 are performed. If there is no ring that can be switched (No in step S102), the process proceeds to step S96.
  • the FDB of the ERP port of both rings is cleared, and the R-APS frame transfer function from the sub ring to the major ring Enable Also, by enabling this transfer function on both rings, a frame that cannot be transferred due to a failure of the shared link on the sub-ring side due to a failure of the shared link can be transferred via the major ring.
  • the received frame and port number are registered in the FDB and transferred using the FDB in the initial state as usual.
  • FIG. 48 is a diagram illustrating a situation in which a failure has occurred in the shared link 10-1 and the shared link 10-2.
  • the ring ID 1, which is the major link of the shared link 10-1, and the major ring of the shared link 10-2.
  • a failure occurs between the nodes 1 and 4 of the shared link 10-1 and between the nodes 5 and 6 of the shared link 10-2.
  • An APS (SF) frame is transmitted from nodes 1, 4, 5, 6 and the default blocked port of node 8 which is the RPL owner is unblocked.
  • FIG. 49 is a diagram illustrating a state in which a failure has occurred in the measuring for the shared link 10-1 after the failure has occurred in the two shared links 10-1 and 10-2.
  • FIG. 49 shows an example in which a failure occurs between the nodes 3 and 4 of the major ring for the shared link 10-1 after the failure of the shared links 10-1 and 10-2 as shown in FIG. Yes.
  • the shared link is supposed to perform failure processing in the major ring, but if a failure occurs between the nodes 3 and 4 that are locations other than the shared link 10-1 in the major ring of the shared link 10-1,
  • R-APS (SF) storing information indicating that a path switching request is valid for detecting a majoring failure is transferred from the shared link master node 1 to the node 6 side, and the shared link 10- 2 shared nodes 6 receive.
  • a configuration in which three rings are connected by two shared links is taken as an example, and a failure occurs in two shared links and a failure other than the shared link in the major ring is detected.
  • the operation to switch the major ring and sub ring in each shared node was shown. In this way, even when three rings are connected by two shared links, a detour can be set and communication continues when a multiple failure including a shared link occurs in the major ring. Can do.
  • the communication system, communication apparatus, and protection method according to the present invention are useful for multi-ring networks.
  • 1-8 nodes 10, 10-1, 10-2 shared link, 11-1-11-n input processing unit, 12 multiplexing unit, 13 transfer destination management unit, 14, 14a, 14b ERP control unit, 15 buffer memory 16 buffer control unit, 17-1 to 17-n output processing unit, 21, 21a, 21b, 21c multi-ring management unit, 22-1 to 22-3, 25 ERP processing unit, 23, 32 own node information management unit , 24 frame identification unit, 31, 31a failure management unit, 33 shared node information management unit, 34 ring attribute information management unit, 35 all ring information management unit, 311, 311a failure monitoring unit, 312, 312a switching processing unit, 313 313a Output control unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Environmental & Geological Engineering (AREA)
  • Small-Scale Networks (AREA)

Abstract

 ノードがリング状に接続されるリングネットワークを2つ以上備え、リングネットワークごとにERPを実施し、リングネットワークのうちの1つを共有リンクの障害を検出するメジャーリングとし、他のリングネットワークをサブリングとする通信システムであって、共有リンクを終端する共有ノードは、共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、共有リンクの障害を検出する障害監視部311と、障害の検出結果に基づいて、メジャーリングとするリングネットワークを決定する切替処理部312と、切替処理部312により切替が行われた場合、R-APSフレームに切替後の識別情報を格納して当該フレームを転送または送信するERP処理部22-1,22-2と、を備える。

Description

通信システム、通信装置およびプロテクション方法
 本発明は、通信システム、通信装置およびプロテクション方法に関する。
 ネットワークの高信頼化を実現するために通信経路に冗長性を持たせる構成として、複数の通信装置をリング状に接続するリング型ネットワーク(リングネットワーク)が広く採用されている。リング型ネットワークでは、ループが発生すると、ブロードキャストフレームの無限巡回により、伝送路の帯域が消費され、他の通信が不可能となるため、フレームの無限巡回を防止することが必要となる。そこで、通常、リングネットワーク上の単一ポートを論理的に切断(以下、閉塞という)する方法が用いられている。また、リングネットワーク上に障害が発生した際に、通信経路の分断を防止するため、閉塞ポートを、それまで閉塞ポートとして設定していたポートから障害が発生したポートに切替えることにより、通信可能な経路を確保する方式がいくつか考案されている。
 例えば、非特許文献1のイーサネット(登録商標)リングのプロテクション規格であるERP(Ethernet(登録商標) Ring Protection)では、マルチリングネットワークを構成する各リングネットワークにおいて、代表となる1つのノード装置(Ring Protection Linkオーナ:以下RPLオーナーという)の1つのポートを閉塞することで、閉塞したポート側のリンクを論理的に切断し、正常時のループの発生を回避している。障害が発生した場合には、障害を検出したノード装置が障害を検出したポートを閉塞し、障害通知用の制御フレームであるR-APS(Ring-Automatic Protection Switching)フレームをもう一方のポートから送信する。RPLオーナーが、その制御フレームを受信すると、閉塞させていた一方のポートの閉塞を解除することで、経路切替を行う。
 また、非特許文献1のERPのマルチリングネットワークでは、2つのリングネットワークが接続された場合、一方を閉ループ形状のメジャーリング、他方を開ループ形状のサブリングと設定する。ここで、メジャーリングとは、複数のリングネットワークで共有する伝送路(以下共有リンク)の障害管理を行うリングネットワークのことであり、サブリングとはこの障害管理を行わない方のリングネットワークである。このようにメジャーリングとサブリングとを設定しない場合、共有リンク障害時に両方のリングで共有リンクの障害管理を行うこととなる。すなわち、共有リンク障害時に、両方のリングネットワークでRPLオーナーの予め閉塞させたポートを解除することとなり、両方のリングネットワークをまたがったループが発生することとなる。したがって、マルチリングネットワークでは、共有リンクで接続される複数のリングネットワークに対して1つのメジャーリングと1つ以上のサブリングを設定する。メジャーリング、サブリングでは、共有リンク以外の障害についてそれぞれ独立してプロテクションを実施し、自リングにおける障害の発生時には自リング内の閉塞ポートの解除を行う。一方、共有リンクの障害時には、メジャーリングのみが障害管理を行って経路切替を行うプロテクション動作を実施することにより、ループの発生を回避している。
ITU-T G.8032/Y.1344 "Ethernet ring protection switching",02/2012
 しかしながら、上記非特許文献1に記載の技術では、メジャーリング内で、共有リンクにおける障害を含む複数の障害、すなわち、共有リンクにおける障害と共有リンク以外のリンクにおける障害が発生した場合、上述のようにサブリング内では障害が発生していないためサブリング内の閉塞ポートの解除は行われない。このため、メジャーリング内で、共有リンクを含む複数の障害が発生した場合、物理的な迂回路が存在するにもかかわらず、メジャーリング、サブリングは独立してプロテクションを実施していることから、サブリング内ではプロテクションが動作せず、ネットワークの分断が発生してしまい、通信不能となるノードが発生するという課題があった。
 本発明は、上記に鑑みてなされたものであって、共有リンクを含む多重障害が発生した場合に、通信を継続することができる通信システム、通信装置およびプロテクション方法を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムであって、前記共有リンクを終端する前記通信装置である共有装置は、前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視部と、前記障害監視部による障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替処理部と、前記切替処理部により切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理部と、を備えることを特徴とする。
 本発明にかかる通信システム、通信装置およびプロテクション方法は、共有リンクを含む多重障害が発生した場合に、通信を継続することができるという効果を奏する。
図1は、実施の形態1のマルチリングネットワークの構成例を示す図である。 図2は、実施の形態1の共有ノードの構成例を示す図である。 図3は、実施の形態1の共有ノードのERP制御部の機能構成例を示す図である。 図4は、実施の形態1における障害状態を通知するR-APSフレームのフォーマットの一例を示す図である。 図5は、実施の形態1のマルチリング管理部の構成例を示す図である。 図6は、実施の形態1の障害を検出した場合のマルチリング管理部における処理手順の一例を示すフローチャートである。 図7は、実施の形態1の共有ノード以外のノードが備えるERP制御部の構成例を示す図である。 図8は、実施の形態1の共有ノード以外のノードにおけるR-APSフレームの受信時の処理手順の一例を示すフローチャートである。 図9は、リングID=2のリング内に障害が発生した様子を示す図である。 図10は、マルチリングネットワーク内で多重障害が発生した様子を示す図である。 図11は、メジャーリング内で障害が発生した様子を示す図である。 図12は、メジャーリングとサブリングを切替後、共有リンクの障害が発生した様子を示す図である。 図13は、障害無しの状態から共有リンクで障害が発生した様子を示す図である。 図14は、共有リンクに障害が発生した後、メジャーリングに障害が発生した様子を示す図である。 図15は、実施の形態2のマルチリングネットワークの構成例を示す図である。 図16は、サブリング内で障害が発生した様子を示す図である。 図17は、サブリングに障害が発生した後に、共有リンクで障害が発生した様子を示す図である。 図18は、メジャーリング内に障害が発生した様子を示す図である。 図19は、メジャーリングとサブリングを切替後、2つの共有リンクの障害が発生した様子を示す図である。 図20は、障害無しの状態から一方の共有リンクで障害が発生した様子を示す図である。 図21は、一方の共有リンクの障害発生後、他方の共有リンクの障害が発生した様子を示す図である。 図22は、2つの共有リンクに障害が発生後、メジャーリングに障害が発生した様子を示す図である。 図23は、実施の形態3のマルチリングネットワークの構成例を示す図である。 図24は、実施の形態3の共有ノードのERP制御部の構成例を示す図である。 図25は、実施の形態3のマルチリング管理部の構成例を示す図である。 図26は、障害を検出した場合の実施の形態3のマルチリング管理部における処理手順の一例を示すフローチャートである。 図27は、サブリングで障害が発生した様子を示す図である。 図28は、サブリングに障害が発生後、共有リンクで障害が発生した様子を示す図である。 図29は、メジャーリング内で障害が発生した様子を示す図である。 図30は、図29に示した障害によりサブリングとメジャーリングの切替の後、共有リンクに障害が発生し、さらにメジャーリングで障害が発生した様子を示す図である。 図31は、障害無しの状態から共有リンクで障害が発生した様子を示す図である。 図32は、共有リンクに障害が発生した後、メジャーリングに障害が発生した様子を示す図である。 図33は、図32の障害発生の後、さらにメジャーリングで障害が発生した様子を示す図である。 図34は、実施の形態4のマルチリングネットワークの構成例を示す図である。 図35は、実施の形態4のマルチリング管理部の構成例を示す図である。 図36は、障害を検出した場合の実施の形態4のマルチリング管理部における処理(障害発生処理)手順の一例を示すフローチャートである。 図37は、実施の形態4の、共有ノード以外のノードにおけるR-APSフレームの受信時の処理手順の一例を示すフローチャートである。 図38は、メジャーリングとサブリングで各々の共有リンク以外での障害が同時に発生した様子を示す図である。 図39は、実施の形態5のマルチリングネットワークの構成例を示す図である。 図40は、実施の形態5のマルチリング管理部の構成例を示す図である。 図41は、障害を検出した場合の実施の形態5のマルチリング管理部における処理(障害発生処理)手順の一例を示すフローチャートである。 図42は、共有リンク以外の全てのリングで障害が同時に発生した様子を示す図である。 図43は、実施の形態6のマルチリングネットワークの構成例を示す図である。 図44は、実施の形態6における障害状態を通知するR-APSフレームのフォーマットの一例を示す図である。 図45は、実施の形態6の共有ノードのマルチリング管理部の構成例を示す図である。 図46は、リング管理テーブルの一例を示す図である。 図47は、障害を検出した場合の実施の形態6のマルチリング管理部における処理(障害発生処理)手順の一例を示すフローチャートである。 図48は、2つの共有リンクに障害が発生した様子を示す図である。 図49は、2つの共有リンクに障害が発生した後、共有リンクに対するメジャーリングに障害が発生した様子を示す図である。
 以下に、本発明にかかる通信システム、通信装置およびプロテクション方法の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明にかかるマルチリングネットワーク(通信システム)の実施の形態1の構成例を示す図である。実施の形態のマルチリングネットワーク(マルチリングネットワークシステム)は、リングID(IDentifier)=1であるリングネットワーク(以下、適宜リングと略す)と、リングID=2であるリングとで構成される。リングID=1のリングは、通信装置であるノード(Node)1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有する。リングID=1のリングとリングID=2のリングとは、2つのリングで共有される通信装置(以下、適宜共有ノードという)であるノード1,4を介して接続される。ノード1,4間は、共有リンク10で接続される。
 図1に示すように、あらかじめID=1のリングを、共有リンク10の障害管理を行うメジャーリング(Major Ring)、リングID=2のリングを、共有リンク10の障害管理を行わないサブリング(Sub Ring)に設定している。
 なお、図1では、2つの共有ノードを含む6つの装置を有するマルチリングネットワークを例として示しているが、各リングに接続されるノード数はこれに限られない。また、図1では、2つのリングが接続された構成例を示したが、本実施の形態は、3つ以上のリングネットワークが接続された構造についても適用可能である。また、共有リンクに3つ以上の共有ノードが接続される場合についても適用可能とする。
 各ノード1~6は、複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図1に示すマルチリングネットワークでは、共有ノードであるノード1,4は3つ以上のポートを有し、それ以外のノード2,3,5,6は2つ以上のポートを有している。
 ノード2,6は、ERPのRPLオーナーノードとして動作し、それ以外のノード1,3,4,5はERPの非RPLオーナーノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。なお、ここでは、リングネットワークにおいてループ回避のために閉塞ポートを設定するリングプロテクション方式としてERPを用いる例について説明するが、リングプロテクション方式はERPに限定されない。
 リングID=1,2の各リングは、リング内でループフレームが発生しない様に、各リング内の特定の1つのリンクを論理的に切断した状態で動作させる。通常は、RPLオーナーノードの1つのポートを閉塞させることにより隣接するノードとのリンクを論理的に切断させている。ここで、リンクの切断点をBP(Blocking Point)と呼び、閉塞させたポート(閉塞ポート)をBP設定されたポートと呼ぶこととする。図1の構成例では、ノード2のノード3側のポート、および、ノード6のノード5側のポートをBPに設定している。通常のERPでは、BP設定されたポートでは制御フレームおよびデータフレームは隣接するノードへ転送されず廃棄される。一方、BP設定されていないポートでは、制御フレームおよびデータフレームを隣接するノードへ転送することが許可される。
 図2は、本実施の形態の共有ノード(図1の構成例ではノード1,4)の構成例を示す図である。図2に示すように、共有ノードは、入力処理部11-1~11-n(nは3以上の整数)と、多重部12と、転送先管理部13と、ERP制御部14と、バッファメモリ15と、バッファ制御部16と、出力処理部17-1~17-nと、を備える。ノード1は図示しないn個のポートを有し、各ポートは入出力ポートとして機能する。k(k=1,2,…,n)番目ポートは、入力処理部11-kおよび出力処理部17-kに接続する。また、n個のポートのうち、少なくとも1つは共有リンク10に接続する。また、ノード1は、図示しない記憶部に転送管理テーブル18を保持している。共有ノード以外のノード(ノード2,3,5,6)は、後述のようにERP制御部14の替わりにERP制御部14aを備え、nを2以上とし、入力処理部11-1~11-n、出力処理部17-1~17-nが共有リンクに接続しないこと以外は、図2の共有ノードと同様である。
 入力処理部11-1~11-nは各ポートから入力されるフレームのエラーチェック等の処理を行う。入力処理部11-1~11-nのうちの1つは共有リンクポート(共有リンク10に接続するポート)から入力されたフレームの処理を行う。多重部12は入力処理部11-1~11-nから入力されるフレーム(各ポートからの入力フレーム)を多重し、多重したフレームを転送先管理部13へ出力する。
 転送管理テーブル18はフレームの転送先を管理するため情報が格納されるテーブルであり、例えば、宛先等のフローを識別する情報ごとに出力先のポートが格納される。転送先管理部13は、転送管理テーブル18を検索し、入力されたフレームの宛先ごとにフレームの転送先(転送先のポート)を決定し、フレームデータとともに決定した転送先情報をバッファ制御部16へ通知する。
 バッファメモリ15は転送先ごとに入力順にフレームを格納するキューとして機能するメモリである。バッファ制御部16は、バッファメモリ15にフレームデータをライト及びリードする制御を行い、バッファメモリ15のフレームデータ格納状態を転送先ごとに管理する。バッファメモリ15にフレームデータが格納されている場合に、転送先のポートごとに、出力先の伝送速度に従って、格納されたフレームをバッファメモリ15から読み出し、転送先のポートに対応する出力処理部17-1~17-nへ出力する。なお、出力処理部17-1~17-nで、ポートごとに伝送速度の範囲内でバッファから読み出されたフレームを外部に出力できるよう読出し要求を生成して、バッファ制御部16へ通知してもよい。
 出力処理部17-1~17-nは、それぞれ異なるポートに接続され、ポートごとに伝送速度の範囲内でバッファから読み出されたフレームを外部に出力するよう読出し要求を生成して、バッファ制御部16へ通知する。
 ERP制御部14は、リング状に接続するERP用のポートから入力されたERP用の制御フレームであるCCMフレームやR-APSフレーム等の終端処理や転送処理を実施する。また、ERP制御部14は、受信したフレーム内の情報などから、各リングネットワークのERP状態(障害の有無等)を管理する。
 図3は、本実施の形態の共有ノードのERP制御部14の機能構成例を示す図である。ERP制御部14は、マルチリング管理部21と、ERP処理部(リング処理部)22-1,22-2とを備える。図1の例では、共有するリングネットワークの数が2であるため、ERP処理部を2つ備える。ERP処理部22-1,22-2では、リングごとにERPにより障害状態などを管理する。例えば、ERP処理部22-1は、リングID=1のリングのERP処理を実施し、ERP処理部22-2は、リングID=2のリングのERP処理を実施する。マルチリング管理部21は、マルチリングネットワークにおける多重障害によるネットワークの分断を回避するために、複数のERP処理部22-1,22-2を管理する。なお、ここでは、共有するリングネットワークの数が2つの例を示しているが、ERP制御部14は、共有するリングネットワークの数分のERP処理部を備える。
 図4は、本実施の形態における障害状態を通知するR-APSフレームのフォーマットの一例を示す図である。図4に示すように、ITU-T G.8032で規定されたERPのR-APSフレームに、従来の送信元のノードIDや閉塞ポート情報に加えて、メジャーリングかサブリングかの識別ビットであるメジャーサブ識別情報(図4中のM/S)と送信元のノードが所属するリングを示すリングID(図4中のRing ID)をReserved 2の領域に追加している。メジャーサブ識別情報は、後続のリングIDのリングがメジャーリングであるかサブリングであるかを示す。本実施の形態で追加する情報は、図4でハッチングして示している。図4中の括弧内の数字は、ITU-T G.8032で規定されている値である。また、Request/Stateのフィールドに格納される値と示される情報との関係は次の通りである。
1011b:SF(Signal Fail)
1110b:Event
0000b:NR(No Request)
0111b:MS(Manual Switch)
1101b:FS(Force Switch)
また、BPR(Blocked Port Reference)はどちら側がポートが閉塞となるかを示し、DNF(Do Not Flush)はFDB(Forwarding DataBase)のフラッシュが可能か禁止かを示し、RB(RPL Blocked)は、RPLオーナーの閉塞ポートが閉塞されているか否かを示す。
 ITU-T G.8032で規定されたERPでは、障害が発生していない場合は、RPLオーナーからRequest/StateにNRが格納され、RBにRPLオーナーの閉塞ポートが閉塞されていることを示す値が格納されたR-APSフレームが一定周期で送信される。また、リングネットワーク内のノードが障害を検出した場合は、障害を検出したノードが、Request/StateをSFとしたR-APSフレームを両側のポートに送信する。リングネットワーク内の各ノードは受信したR-APSフレームを隣接するノードへ転送する。
 図4の例では、リングIDを3bitとしているが、マルチリングで構成されるリングネットワークの数により、必要なビット数分の領域が確保できればよいこととする。なお、ここでは、R-APSフレームを用いてメジャーリングかサブリングかの情報とリングID情報を通知するようにしたが、障害監視用の制御フレーム(障害監視制御フレーム)はR-APSフレームに限定されず、どのようなフォーマットを用いてもよい。また、障害監視制御フレーム以外の別のフレームにより、メジャーリングの切替を共有リンク10を共有するリングネットワークへ通知してもよい。
 次に、本実施の形態における共有ノードのマルチリング管理部21の機能について説明する。図5は、本実施の形態のマルチリング管理部21の構成例を示す図である。マルチリング管理部21は、障害管理部31、自ノード情報管理部32と、共有ノード情報管理部33を備える。自ノード情報管理部32は、共有ノード(自ノード)が共有するリングネットワークの複数のリングIDに対し、メジャーリングのリングIDとメジャーリングに接続するポートのポート番号、サブリングのリングIDとサブリングに接続するポートのポート番号、共有リンクに接続するポートのポート番号などの自ノードに関する情報である自ノード情報を管理する。なお、ITU-T G.8032のマルチリングネットワークと同様に、メジャーリングとは、共有リンクの障害を認識するリングであり、サブリングとは、共有リンクの障害を認識しないリングである。
 また、マルチリング管理部21の共有ノード情報管理部33は、共有リンクの反対側で共有リンクを終端する共有ノード(図1の例では、ノード1からみた場合ノード4、ノード4からみた場合ノード1)のノードIDと当該共有ノードに接続するポート番号などのポートを識別する情報や、共有リンクに接続されるが共有リンクを終端しない共有リンク中間ノードのノードIDなどの他の共有ノードに関する情報である共有ノード情報を管理する。なお、図1の例では共有中間ノードは存在しないが、ノード1とノード4の間に共有リンク10の接続する共有リンク中間ノードを備えていてもよい。
 マルチリング管理部21の障害管理部31は、これらの自ノード情報、共有ノード情報、マルチリングネットワークにおける障害発生時にR-APSフレームに格納されている情報(障害を検出したリングIDやノードID)、ポート情報(障害を検出したポートの情報)から、障害発生リングの有無、および共有リンクの障害の有無を判別する障害監視部311を備える。
 また、障害管理部31は、メジャーリング内に共有リンク以外の障害が発生した場合や、共有リンクに障害が発生後にメジャーリング内に共有リンク以外で障害が発生した場合、サブリングとメジャーリングに対応するリングIDを切替える切替処理部312を備える。各リンクの障害発生確率が同じであるとすると、前者の場合(メジャーリング内に共有リンク以外の障害が発生した場合)は、メジャーリングとなるリングを変更する(メジャーリングとするリングIDを変更する)ことにより、1つのリングで共有リンクを含む多重障害の発生する確率を低くすることができる。なお、マルチリングにおける障害が各リング内で同時に発生した場合、障害を通知するR-APSフレームを受信するタイミングが共有リンクの両端の共有ノードで異なるため、メジャーリングとサブリングの認識が両端の共有ノードで異なってしまう場合があり得る。これを避けるため、予め優先共有ノードを決めておき、非優先共有ノードは優先共有ノードからのメジャー/サブリングの識別情報に従うことも可能である。また、マルチリング管理部21の障害管理部31は、両リングや共有リンクの障害状態や切替処理の結果に基づき、R-APSフレームの転送/送信処理を行う出力制御部313を備える。
 次に、共有ノードのマルチリング管理部21において、新たに障害を検出した場合の処理について説明する。図6は、障害を検出した場合のマルチリング管理部21における処理(障害発生処理)手順の一例を示すフローチャートである。なお、共有リンク中間ノードが存在する場合は、この障害発生処理は、共有リンク中間ノード以外の共有ノード、すなわち共有リンクを終端する共有リンク終端ノードが実施する。
 図6に示すように、マルチリング管理部21は、まず、Major(以下、適宜メジャーリングをMajorと略す)側に障害が発生したか否かを判断する(ステップS1)。具体的には、マルチリング管理部21は、メジャーリングに属するノードから受信したR-APSフレームに基づいて、メジャーリングに障害が発生したか否かを判断する。
 Major側で障害が発生した場合(ステップS1 Yes)、マルチリング管理部21は、共有リンク以外で障害が発生したか否かを判断する(ステップS2)。共有リンクで障害が発生したか否かは、保持している共有ノード情報とR-APSフレームに基づいて判断することができる。共有リンク以外で障害が発生した場合(ステップS2 Yes)、サブリングで障害が発生中であるか否かを判断する(ステップS3)。マルチリング管理部21は、サブリングに属するノードから受信したR-APSフレームに基づいて、サブリングに障害発生状態を管理しており、これにより、サブリングで障害が発生中であるか否かを判断することができる。
 サブリングで障害が発生中でない場合(ステップS3 No)、マルチリング管理部21は、MajorとSub(以下、適宜サブリングをSubと略す)を切替える(ステップS4)。すなわち、図1の状態であった場合に、メジャーリングであるリングID=1のリングをサブリングに変更し、サブリングであるリングID=2のリングをメジャーリングに変更する。
 ステップS4の後、共有リンクで障害が発生したか否かを判断し(ステップS5)、共有リンクで障害が発生した場合(ステップS5 Yes)、両リングのERPポートのFDBをクリアし、サブリングからメジャーリングへのR-APSフレームの転送機能を有効にする(ステップS6)。この転送機能を有効にすることにより、共有リンクに障害が発生したことによりサブリングに転送できないフレームをメジャーリング経由で転送することができる。なお、各リングでは、通常と同様に初期状態では受信したフレームとポート番号をFDBに登録し、FDBを用いて転送を行っているとする。
 次に、マルチリング管理部21は、各リングでそれぞれERPステートマシンに従って処理を実施し(ステップS7)、処理を終了する。ERPステートマシンに従った処理は、従来と同様であるため詳細な説明は省略する。
 ステップS1で、Major側で障害が発生していない場合(ステップS1 No)、ステップS7へ進む。ステップS2で、共有リンク以外で障害が発生していない場合(ステップS2 No)、ステップS5へ進む。ステップS3で、サブリングで障害が発生中である場合(ステップS3 Yes)、ステップS5へ進む。ステップS5で、共有リンクで障害が発生していない場合(ステップS5 No)、ステップS7へ進む。
 次に、共有ノード以外のノードが備えるERP制御部14aについて説明する。図7は、本実施の形態の共有ノード以外のノードが備えるERP制御部14aの構成例を示す図である。ERP制御部14aは、図7に示すように、自ノード情報管理部23、フレーム識別部24およびERP処理部25を備える。図8は、共有ノード以外のノードにおけるR-APSフレームの受信時の処理手順の一例を示すフローチャートである。
 自ノード情報管理部23は、自ノードの属するリングID等の自ノードに関する情報を管理する。フレーム識別部24は、図8に示すように、R-APSフレームを受信したか否かを判断し(ステップS11)、R-APSフレームを受信していない場合(ステップS11 No)、ステップS14へ進む。R-APSフレームを受信する(ステップS11 Yes)と、自ノード情報管理部23が管理する情報に基づいて、受信したR-APSフレーム内のリングID(図4中のRing ID)が自ノードが属するリングIDと一致するか否かを判断する(ステップS12)。自ノードが属するリングIDと一致する場合(ステップS12 Yes)、フレーム識別部24は、自ノードが属するリングIDと一致するR-APSフレームをERP処理部25へ出力し、ERP処理部25は、入力されたR-APSフレームに基づいて通常のERP処理を実施する(ステップS13)。このとき、R-APSフレームのメジャーサブ識別情報に基づいて、自ノードが所属するリングネットワークがメジャーリングであるかサブリングであるかが変更されている場合、この変更を反映する。
 例えば、自ノードが、当初はサブリングとして設定されていたリングネットワークのRPLオーナーであった場合、この状態では、共有リンクに障害が発生しても、自ノードの閉塞ポートの解除は行わない。その後に、自ノードが属するリングネットワークがメジャーリングであることを示すR-APSフレームを受信すると、以降は、共有リンクの障害を検出するR-APSフレームを受信すると自ノードの閉塞ポートの閉塞を解除する。
 受信したR-APSフレームのリングIDが自ノードが属するリングIDと一致しない場合(ステップS12 No)、フレーム識別部24は、ERP処理部25へ出力せずに、転送先のもう一方(受信したポートでない側)のERPポート(ERPリングを構成するリンクに接続するポート)が閉塞ポートの場合はフレームを終端(廃棄)し、閉塞ポートでない場合はもう一方のポートに転送する(ステップS14)。
 次に、本実施の形態における各ノードの動作について説明する。初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。マルチリングネットワーク内では、予めリングID=1またはリングID=2の何れかのリングがメジャーリングに設定され、他方がサブリングに設定されていることとする。ここでは、図1のようにリングID=1のリングがメジャーリングと設定され、ID=2のリングがサブリングと設定されているとする。
 図1に示すように、各リングのRPLオーナーであるノード2とノード6の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレーム(Request/StateがNRであり、RBにRPLオーナーの閉塞ポートが閉塞されていることを示す値が格納されたR-APSフレーム)が各RPLオーナーから送信される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、該当のリングID(R-APSフレームに格納されたリングID)のERP処理を実施した後、共有リンクに接続されるポートにフレームを転送する。また、共有リンクから受信したR-APSフレームに対しても、同様に該当のリングIDのERP処理を実施後、転送先のリングが接続されるポートに転送する。
 次に、マルチリングネットワーク内のサブリング上で障害が発生した場合の動作について説明する。図9は、リングID=2のリング内に障害が発生した様子を示す図である。図9に示す例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態でサブリングであるリングID=2のリングのノード4とノード5間で障害が発生していることを示している。この場合、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、サブリング側はノード4とノード5間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレーム(Request/StateがSFのR-APSフレーム)がノード4,5から送信され、RPLオーナーであるノード6の閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、フレーム内のリングIDに対応したリングのERP処理を実施後、共有リンク10が接続されるポートにフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様にフレーム内のリングIDのERP処理を実施後、当該リングIDのリングに接続するポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 図10は、マルチリングネットワーク内で多重障害が発生した様子を示す図である。図10の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態で共有リンク10とノード4とノード5の間とで障害が発生している。図10の例のように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞する。また、共有リンク10についてはメジャーリング側で障害を検出し、メジャーリングのRPLオーナーであるノード2の一方のポートの閉塞が解除される。また、共有ノードがサブリング側のR-APSフレームを受信した場合は、共有リンク10に障害が発生しているため、メジャーリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図11は、メジャーリング内で障害が発生した様子を示す図である。図11の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態でメジャーリング内のノード2とノード1の間に障害が発生したとする。図11に示すように、サブリングであるリングID=2のリングでは障害が発生していないため、サブリングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、ノード2とノード1の間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレームがノード1,2から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリング側で障害が発生したと認識し、図6のフローに従い、メジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し(例えば、リングID=1のリングであればERP処理部22-1がERP処理を実施し)、新たな(切替後の)メジャーリングかサブリングかを識別する情報(メジャーサブ識別情報)を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 図12は、メジャーリングとサブリングを切替後、共有リンク10の障害が発生した様子を示す図である。図12の例では、図11で示したようにメジャーリングに障害が発生してメジャーリングとサブリングを切替後、さらに共有リンク10で障害が発生した様子を示している。図12に示すように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞し、共有リンク10の障害はメジャーリングで検出するため、切替後のメジャーリングのRPLオーナーであるノード6の一方のポートの閉塞が解除される。また、共有ノードでサブリングであるリングID=1のR-APSフレームを受信した場合、出力制御部313は、共有リンク10で障害が発生しているため、メジャーリングであるリングID=2側に転送する。このような多重障害時にも各ノード間の通信は可能である。
 図13は、障害無しの状態から共有リンク10で障害が発生した様子を示す図である。図13の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態で共有リンク10に障害が発生した例を示している。図13に示すように、サブリングであるリングID=2のリング側は障害が発生していないため、リングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリング側では、共有ノードであるノード1-4間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレームがノード1,4から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、共有リンク10の障害検出により、図6のフローに従い、サブリングであるリングID=2のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=1のリング側に当該フレームを転送する。
 共有リンク10に障害が発生後、サブリングに障害が発生し、マルチリングネットワーク内で多重障害が発生した場合は図10と同じ状態になり、このような多重障害時にも各ノード間の通信は可能である。
 図14は、共有リンク10に障害が発生した後、メジャーリングに障害が発生した様子を示す図である。図14の例では、図13に示したように共有リンク10に障害が発生した後、メジャーリング内のノード2とノード1の間に障害が発生した例を示している。共有リンク10はメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク10以外の場所であるノード2とノード1の間で障害が発生すると、ノード1,2間の障害を検出したポートが閉塞し、ノード1,2からR-APS(SF)フレームがメジャーリングに送信される。この時、共有ノードであるノード1,4は、リングID=1のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図6のフローに従い、メジャーリングとサブリングを切替える。これにより、リングID=2のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンクにおける障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のRPLオーナーであるノード6の閉塞が解除される。また、ノード1,4では、共有リンク10で障害が発生しているため、リングID=1のリング側のポートから受信したR-APSフレームは、リングID=2のリング側に転送される。以上のような多重障害時にも各ノード間の通信が可能である。
 以上のように、本実施の形態では、共有リンクを終端する共有ノードが、メジャーリングの共有リンク以外の障害を検出し、かつサブリングに障害が発生中でない場合に、メジャーリングとサブリングを切替えるよう指示するようにした。このため、メジャーリング内で共有リンクを含む多重障害が発生した場合に、迂回路を設定することができ、通信を継続することができる。また、この切替をR-APSフレーム内のReserved 2のフィールドを用いて指示することにより、少ない回路や処理量で上記の効果を得ることができる。
実施の形態2.
 図15は、本発明にかかるマルチリングネットワークの実施の形態2の構成例を示す図である。図15に示すように、本実施の形態のマルチリングネットワークは、リングID=1のリング、リングID=2のリングおよびリングID=3のリングを備える。図15に示すマルチリングネットワークでは、共有リンク10-1と共有リンク10-2の2か所の共有リンクが存在する。ここでは、あらかじめ、共有リンク10-1については、リングID=2のリングをメジャーリングとし、リングID=1のリングをサブリングとして設定し、共有リンク10-2については、リングID=2のリングをメジャーリングとし、リングID=3のリングをサブリングとして設定している。
 リングID=1のリングは、ノード1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有し、リングID=3のリングは、ノード5,6,7,8を有する。これら3つのリングは、リングID=1,2で互いに共有する共有ノードであるノード1,4と、リングID=2,3で互いに共有する共有ノードであるノード5,6とを介して、互いのリングが接続される。なお、図15では、4つの共有ノードを含む8つのノードを有するマルチリングネットワークについて示すが、各リングに接続されるノード数はこれに限られない。また、図15では、3つのリングネットワークが接続された構造について示したが、本実施の形態は4つ以上のリングネットワークが接続された構造についても適用可能である。更に、共有リンクに3つ以上の共有ノードが接続される場合についても適用可能である。
 各ノード1~8は、複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図15に示すマルチリングネットワークでは、共有ノードであるノード1,4,5,6は3つ以上のポートを有し、それ以外のノード2,3,7,8は2つ以上のポートを有している。
 ノード2,6,8はERPのRPLオーナーのノード、それ以外のノード1,3,4,5,7は、ERPの非RPLオーナーのノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。
 リングID=1,2,3の各リングは、実施の形態1のリングID=1,2のリングと同様に、内部でループフレームが発生しない様に、各リングネットワーク内の特定の1つのリンクを論理的に切断した状態で動作させる。図15に示すリングネットワークでは、ノード2のノード3側のポート、ノード6のノード1側のポート、および、ノード8のノード7側のポートをBPに設定している。
 本実施の形態のノード1,4,5,6は、図2,3で示したように実施の形態1の共有ノード(共有リンク終端ノード)と同様の構成を有する。本実施の形態の共有ノード以外のノード(ノード2,3,7,8)の構成も、実施の形態1の共有ノード以外のノードと同様である。また、共有リンク終端ノードであるノード1,4,5,6のマルチリング管理部21の機能についても、実施の形態1と同じであり、図5のようになる。共有ノードのマルチリング管理部21において、新たに障害を検出した場合の処理フロー、共有ノード以外のノードの処理フローも実施の形態1と同様である。本実施の形態で用いるR-APSフレームのフォーマットも実施の形態1と同様である。以下、実施の形態1と異なる点について説明する。
 初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。図15に示すように、各リングのRPLオーナーであるノード2、ノード6、ノード8の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレームが各RPLオーナーから送信される。ノード1,4,5,6の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームに対して、R-APSフレームに格納されたリングIDのERP処理を実施した後、共有リンク(共有リンク10-1または10-2)が接続されるポートに当該フレームを転送する。また、共有リンク10-1,10-2から受信したR-APSフレームに対しても、同様に該当のR-APSフレームに格納されたリングIDのERP処理を実施した後、転送先のリングが接続されるポートに転送する。
 次に、マルチリングネットワーク内の各サブリング上で障害が発生した場合の動作について説明する。図16は、サブリング内で障害が発生した様子を示す図である。図16の例では、共有リンク10-1に対するサブリングであるリングID=1のノード3とノード4の間と、共有リンク10-2に対するサブリングであるリングID=3のノード6とノード8の間と、に障害が発生した例を示している。図16に示すように、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、共有リンク10-1に対するサブリング側では、ノード3とノード4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード3,4から送信され、RPLオーナーであるノード2の閉塞ポートは閉塞解除される。同様に、共有リンク10-2に対するサブリング側では、ノード6とノード8間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード6,8から送信され、RPLオーナーであるノード8の閉塞ポートは閉塞解除される。
 ノード1,4,5,6の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームまたは障害検出に対して、R-APSフレームに格納されたリングIDのリングのERP処理を実施した後、共有リンク10-1,10-2が接続されるポートにフレームを転送または生成して送信する。また、共有リンク10-1,10-2から受信したR-APSフレームに対しても、同様にR-APSフレームに格納されたリングIDのリングのERP処理を実施した後、該当リングIDのリングが接続されるポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 図17は、サブリングに障害が発生した後に、共有リンクで障害が発生した様子を示す図である。図17の例では、図16で示した障害が発生した後に、さらに共有リンク10-1に障害が発生している。図17に示すように、共有リンク10-1に障害が発生すると、共有リンク10-1の共有ノードであるノード1,4の共有リンク10-1側のポートが閉塞し、共有リンク10-1はメジャーリングで障害を検出することになるため、メジャーリングであるリングID=2のRPLオーナーであるノード6の一方のポートの閉塞が解除される。また、共有ノードが、サブリング側であるリングID=1のR-APSフレームを受信した場合は、共有リンク10-1に障害が発生しているため、メジャーリング側のリングID=2側のポートに転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図18は、メジャーリング内に障害が発生した様子を示す図である。図18では、障害発生前に図15の設定がなされている場合に、リングID=2のリング内のノード4とノード5の間に障害が発生した例を示している。図18に示すように、サブリングであるリングID=1,3の各リング内では障害が発生していないため、これらのリングのRPLオーナーであるノード2,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=2のリングでは、ノード4とノード5間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード4,5から送信され、RPLオーナーであるノード6のデフォルトの閉塞ポートは閉塞解除される。ノード1,4,5,6の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームまたは障害検出により、各共有リンク10-1,10-2のメジャーリング側で障害が発生したと認識し、図6のフローに従い、各々メジャーとサブを切替える。そして、受信したR-APSフレームに格納されているリングIDのERP処理を実施し、切替後のメジャーサブ識別情報を付与し、共有リンクが接続されるポートにR-APSフレームを転送する。また、共有リンク10-1,10-2から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 図19は、メジャーリングとサブリングを切替後、共有リンク10-1,10-2に障害が発生した様子を示す図である。図19では、図18に示した障害が発生してメジャーリングとサブリングを切替後に、共有リンク10-1,10-2の障害が発生した例を示している。図19に示すように、共有リンク10-1,10-2に障害が発生すると、共有ノードであるノード1,4,5,6の共有リンク10-1,10-2側のポートがそれぞれ閉塞し、切替後のメジャーリングのRPLオーナーであるノード2,8の一方のポートの閉塞が解除される。また、サブリングであるリングID=2のR-APSフレームを共有ノードで受信した場合は、共有リンクで障害が発生しているため、メジャーリングであるリングID=1,3側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。なお、図19では、共有リンク10-1,10-2の両方に障害が発生する例を示しているが、共有リンク10-1,10-2の一方に障害が発生した場合にも、同様に、障害が発生した共有リンク10-1のメジャーリングにおいて上記の動作が実施される。
 図20は、障害無しの状態から共有リンク10-1で障害が発生した様子を示す図である。図20に示すように、サブリングであるリングID=1のリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=2のリング側では共有リンク10-1のノード1とノード4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード1,4から送信され、RPLオーナーであるノード6のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、共有リンク10-1の障害検出により、図6のフローに従い、サブリングであるリングID=1のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=2のリング側に当該フレームを転送する。また、共有リンク10-2に接続されるノード5,6の共有ノードは、共有リンク10-2以外のメジャーリングの障害発生により、図6のフローに従い、メジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し、切替後のメジャーサブ識別情報を付与し、共有リンク10-2が接続されるポートにR-APSフレームを転送する。
 図21は、共有リンク10-1の障害発生後、共有リンク10-2の障害が発生した様子を示す図である。図21は、図20で示したように共有リンク10-1の障害が発生した後に、さらに共有リンク10-2に障害が発生した例を示している。図21に示すように、共有リンク10-1に障害発生後、共有リンク10-2に障害が発生した場合、共有リンク10-2のメジャーリングであるリングID=3のリングでは共有リンク10-2のノード5,6間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード5,6から送信され、RPLオーナーであるノード8のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード5,6は、共有リンク10-2の障害検出により、図6のフローに従い、サブリングであるリングID=2のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=3のリング側にR-APSフレームを転送する。
 図22は、2つの共有リンク10-1,10-2に障害が発生後、共有リンク10-2に対するメジャーリングに障害が発生した様子を示す図である。図22は、図21で示したように共有リンク10-1,10-2に障害が発生した後、さらに、共有リンク10-2に対するメジャーリングのノード5,7間で障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たに共有リンク10-2のメジャーリングの共有リンク10-2以外の場所であるノード5,7間で障害が発生すると、ノード5,7の障害を検出したポートが閉塞し、ノード5,7からR-APS(SF)フレームがリングID=3のリングに送信される。この時、共有ノードであるノード5,6は、リングID=3のリングに接続されるポートから入力されたR-APSフレームまたは障害検出により、メジャーリングの多重障害と判断し、図6のフローに従い、共有リンク10-2に対するメジャーリングとサブリングを切替える。これにより、共有リンク10-2に対しては、リングID=2のリングがメジャーリングとなり、共有ノードであるノード5,6から、共有リンク10-2における障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のノード1,4が受信する。
 ノード1,4は、共有リンク10-1のメジャーリングであるリングID=2のリングの共有リンク10-1以外の障害を検出し、図6のフローに従い、共有リンク10-1に対するメジャーリングとサブリングを切替える。これにより、共有リンク10-1に対しては、リングID=1のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンク10-1における障害検出用のR-APS(SF)フレームがリングID=1のリング側のポートに対し出力され、リングID=1のリングのRPLオーナーであるノード2が受信し、閉塞ポートを閉塞解除する。共有ノードであるノード5,6では、リングID=3のリング側のポートから受信したR-APSフレームは、共有リンク10-2で障害が発生しているため、リングID=2のリング側に転送される。また、ノード1,4でリングID=2のリング側のポートから受信したR-APSフレームは、共有リンク10-1で障害が発生しているため、リングID=1のリング側に転送される。このような多重障害時にも各ノード間の通信が可能である。
 以上のように、本実施の形態では、3つのリングが2つの共有リンクにより接続される構成を例にして、実施の形態1と同様に、共有リンクを終端する共有ノードが、メジャーリングの共有リンク以外の障害を検出し、かつサブリングに障害が発生中でない場合と、メジャーリングとサブリングを切替える動作を示した。このように、3つのリングが2つの共有リンクにより接続される場合にも、実施の形態1と同様にメジャーリング内で共有リンクを含む多重障害が発生した場合に、迂回路を設定することができ、通信を継続することができる。
実施の形態3.
 図23は、本発明にかかるマルチリングネットワークの実施の形態3の構成例を示す図である。図23に示すように、本実施の形態のマルチリングネットワークは、リングID=1のリング、リングID=2のリングおよびリングID=3のリングを備える。図23の例では、共有リンク10が、リングID=1,2,3の3つのリングで共有される。図23の例では、予めリングID=1のリングがメジャーリングと設定され、リングID=2,3のリングがサブリングとして設定されている。
 リングID=1のリングは、ノード1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有し、リングID=3のリングは、ノード1,4,7,8を有し、3つのリングを互いに共有する共有ノードであるノード1,4を介して互いのリングが接続される。この3つのリングに属するノード1,4間を接続するリンクを共有リンク10とする。なお、図23では、2つの共有ノードを含む8つの装置を有するマルチリングネットワークについて示すが、リングに接続されるノード数はこれに限られない。また、図23では、3つのリングネットワークが接続された構造について示したが、本発明は4つ以上のリングネットワークが接続された構造についても適用可能である。更に、共有リンク10に3つ以上の共有ノードが接続される場合についても適用可能とする。
 各ノード1~8は、複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図23に示すマルチリングネットワークでは、共有ノードであるノード1,4は4つ以上のポートを有し、それ以外のノード2,3,5,6,7,8は2つ以上のポートを有している。
 ノード2,6,8はERPのRPLオーナーのノード、それ以外のノード1,3,4,5,7はERPの非RPLオーナーのノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。
 リングID=1,2,3の各リングは、実施の形態1のリングID=1,2のリングと同様に、内部でループフレームが発生しない様に、各リングネットワーク内の特定の1つのリンクを論理的に切断した状態で動作させる。図23に示すリングネットワークでは、ノード2のノード3側のポート、ノード6のノード5側のポート、および、ノード8のノード7側のポートをBPに設定している。
 本実施の形態のノード1,4は、図2で示したよう実施の形態1の共有ノード(共有リンク終端ノード)のERP制御部14の替わりにERP制御部14bを備える以外は、実施の形態1の共有ノード(共有リンク終端ノード)の構成と同様である。実施の形態1と同様の機能を有する構成要素は、実施の形態1と同一の符号を付して重複する説明を省略する。以下、実施の形態1と異なる点について説明する。
 図24は、本実施の形態の共有ノードにおけるERP制御部14bの構成例を示す図である。図24に示すように、本実施の形態のERP制御部14bは、マルチリング管理部21aと、ERP処理部22-1~22-3とを備える。このように、ERP処理部14bは、共有するリングネットワークの数分のERP処理部を持ち、各ERP処理部ではリングごとに障害状態などを管理する。マルチリング管理部21aは、マルチリングネットワークにおける多重障害によるネットワークの分断を回避するために複数のERP処理部を管理する。
 図25は、本実施の形態のマルチリング管理部21aの構成例を示す図である。マルチリング管理部21aは、障害管理部31の替わりに3つのERP処理部22-1~22-3を制御する障害管理部31aを備える以外は、実施の形態1のマルチリング管理部21と同様である。障害管理部31aは、障害監視部311a、切替処理部312aおよび出力制御部313aを備える。障害監視部311aは、自ノード情報、共有ノード情報、マルチリングネットワークにおける障害発生時にR-APSフレームに格納されている情報、ポート情報(R-APSフレームを受信したポートの情報)から、共有ノードが共有するリングID=1,2,3のリングのうちの障害発生リングの有無および共有リンク10の障害の有無を判別する。
 切替処理部312aは、メジャーリング内に共有リンク以外の障害が発生した場合や、共有リンクに障害が発生後にメジャーリング内に共有リンク以外で障害が発生した場合、サブリングとメジャーリングに対応するリングIDを切替える。ただし、本実施の形態では、サブリングが複数存在するため、どのサブリングをメジャーリングに変更するかを決定することになる。複数のサブリングのうち、障害の発生していないリングを選択し、選択したリングが複数の場合には、例えば予め定めた順序(例えば、リングIDの若い順)に従って1つのリングを選択してメジャーリングとする。
 また、マルチリング管理部21aの障害管理部31aは、3つのリングや共有リンクの障害状態や切替処理の結果に基づき、R-APSフレームの転送/送信処理を行う出力制御部313aを備える。
 共有リンク終端ノードであるノード1,4のマルチリング管理部21aの機能についても、実施の形態1と同じであり、図5のようになる。共有ノード以外のノードの処理フローも実施の形態1と同様である。本実施の形態で用いるR-APSフレームのフォーマットも実施の形態1と同様である。
 次に、共有ノードのマルチリング管理部21aにおいて、新たに障害を検出した場合の処理について説明する。図26は、障害を検出した場合のマルチリング管理部21aにおける処理(障害発生処理)手順の一例を示すフローチャートである。ステップS31,S32は、実施の形態1のマルチリング管理部21におけるステップS1,S2と同様である。ステップS32の後、マルチリング管理部21aは、全てのサブリングで障害が発生中であるか否かを判断する(ステップS33)。障害の発生していないサブリングが1つ以上ある場合(ステップS33 No)、マルチリング管理部21aは、障害の発生していないサブリングのうちの1つをメジャーリングに変更しメジャーリングをサブリングと変更するよう、メジャーリングとサブリングを切替える(ステップS34)。
 ステップS33で、全てのサブリングで障害が発生中である場合(ステップS33 Yes)、ステップS35へ進む。ステップS35~S37は、実施の形態1のマルチリング管理部21におけるステップS5~S7と同様である。ただし、ステップS36では、全リングについてFDBをクリアする。
 次に、本実施の形態における各ノードの動作について説明する。初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。予めリングID=1,2,3のリングの何れかをメジャーリング、残りのリングをサブリングに設定する。ここでは、図23のようにリングID=1のリングをメジャーリングに設定し、リングID=2,3のリングをサブリングに設定しているとする。図23に示すように、各リングのRPLオーナーであるノード2とノード6、ノード8の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレームが各RPLオーナーから送信される。ノード1,4の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームに対して、R-APSフレームに格納されたリングIDのリングのERP処理を実施した後、共有リンク10が接続されるポートに当該フレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様に該当のリングIDのERP処理を実施後、転送先のリングが接続されるポートに転送する。
 図27は、サブリングで障害が発生した様子を示す図である。図27は、サブリングであるリングID=3のリングのノード1とノード8の間と、サブリングであるリングID=2のリングのノード4とノード5の間と、に障害が発生した例を示している。図27の例では、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、サブリング側はノード4,5間、ノード1,8間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード4,5,1,8から送信され、RPLオーナーであるノード6,8の閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、フレーム内のリングIDのリングのERP処理を実施した後、共有リンク10が接続されるポートに当該フレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様にフレーム内のリングIDのERP処理を実施後、当該リングIDのリングに接続するポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 図28は、サブリングに障害が発生後、共有リンクで障害が発生した様子を示す図である。図28では、図27に示したようにサブリングに障害が発生した後に、さらに共有リンク10に障害が発生した例を示している。図28に示すように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞し、メジャーリングのRPLオーナーであるノード2の一方のポートの閉塞が解除される。また、共有ノードが、サブリング側のR-APSフレームを受信した場合は、共有リンク10に障害が発生しているため、メジャーリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図29は、メジャーリング内で障害が発生した様子を示す図である。図29は、メジャーリングであるリングID=1のノード3とノード4の間に障害が発生した例を示している。図29に示すように、サブリングであるリングID=2,3のリングでは障害が発生していないため、リングのRPLオーナーであるノード6,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、ノード3,4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード3,4から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリング側で障害が発生したと認識し、図26のフローに従い、リングID=1とリングID=2のリングの間でメジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し、切替後のメジャーサブ識別情報を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。自ノードで障害を検出した場合は、障害に対応するリングに、切替後のメジャーサブ識別情報を付与した障害発生を通知するR-APSフレームを送信する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 図30は、図29に示した障害によりサブリングとメジャーリングの切替の後、共有リンク10に障害が発生し、さらにメジャーリングで障害が発生した様子を示す図である。図30は、図29で説明したようにメジャーリングの障害発生により切替を行い、さらに、共有リンク10に障害が発生し、さらにその後、メジャーリングのノード4,5間で障害が発生した例を示している。共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞する。この障害はメジャーリングであるリングID=2のリングが検出して、リングID=2のリングのRPLオーナーであるノード6の閉塞が解除される。さらにその後、図30に示すように、メジャーリングのノード4,5に障害が発生すると、リングID=2とリングID=3のリングの間でメジャーとサブを切替える。これにより、切替後のメジャーリングのRPLオーナーであるノード8の一方のポートの閉塞が解除される。また、共有ノードがサブリングであるリングID=1,2のリングからR-APSフレームを受信した場合は、共有リンク10で障害が発生しているため、メジャーリングであるリングID=3のリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 図31は、障害無しの状態から共有リンク10で障害が発生した様子を示す図である。図31の例では、図23に示した障害無しの状態から、共有リンク10に障害が発生した例を示している。図31に示すように、サブリングであるリングID=2,3のリングでは障害が発生していないため、リングのRPLオーナーであるノード6,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、共有ノードであるノード1,4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード1,4から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、共有リンク10の障害検出により、図26のフローに従い、サブリングであるリングID=2のリングからR-APSを受信すると、ERP処理を実施し、メジャーリングであるリングID=1のリングにR-APSフレームを転送する。
 共有リンク10に障害が発生後、サブリングに障害が発生し、マルチリングネットワーク内で多重障害が発生した場合は図28と同じ状態になり、このような多重障害時にも各ノード間の通信は可能である。
 図32は、共有リンク10に障害が発生した後、メジャーリングに障害が発生した様子を示す図である。図32は、図31に示したように共有リンク10に障害が発生後、メジャーリングであるリングID=1のリングのノード1,2間に障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク以外の場所であるノード1,2間で障害が発生すると、ノード1,2の障害を検出したポートが閉塞し、ノード1,2からR-APS(SF)フレームがメジャーリングに送信される。この時、共有ノードであるノード1,4は、リングID=1のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図26のフローに従い、リングID=1とリングID=2のリングの間でメジャーリングとサブリングを切替える。これにより、リングID=2のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンクにおける障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のRPLオーナーであるノード6の閉塞が解除される。また、ノード1,4では、リングID=1のリング側のポートから受信したR-APSフレームは、共有リンクで障害が発生しているため、リングID=2のリング側に転送される。
 図33は、図32の障害発生の後、さらにメジャーリングで障害が発生した様子を示す図である。図33は、共有リンク10に障害が発生後、メジャーリングであるリングID=1のリングのノード1,2間に障害が発生し、さらにその時点でのメジャーリングであるリングID=2のリングのノード4,5間に障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク以外の場所であるノード4,5間で障害が発生すると、ノード4,5の障害を検出したポートが閉塞し、ノード4,5からR-APS(SF)フレームがメジャーリングであるリングID=2のリングに送信される。この時、共有ノードであるノード1,4は、リングID=2のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図26のフローに従い、リングID=2とリングID=3のリングの間でメジャーリングとサブリングを切替える。これにより、リングID=3のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンク10における障害検出用のR-APS(SF)フレームがリングID=3側のポートに対し出力され、リングID=3のリングのRPLオーナーであるノード8の閉塞が解除される。また、ノード1,4は、共有リンク10で障害が発生しているため、リングID=1,2のリング側のポートから受信したR-APSフレームは、リングID=3側に転送される。以上のような多重障害時にも各ノード間の通信が可能である。
 以上のように、本実施の形態では、1つの共有リンクを3つのリングが共有する構成を例にして、実施の形態1と同様に、共有リンクを終端する共有ノードが、メジャーリングの共有リンク以外の障害を検出し、かつサブリングに障害が発生中でない場合と、メジャーリングとサブリングを切替える動作を示した。このように、1つの共有リンクを3つのリングが共有する場合にも、実施の形態1と同様にメジャーリング内で共有リンクを含む多重障害が発生した場合に、迂回路を設定することができ、通信を継続することができる。
実施の形態4.
 図34は、本発明にかかるマルチリングネットワークの実施の形態4の構成例を示す図である。実施の形態4のマルチリングネットワークは、リングID=1であるリングネットワークと、リングID=2であるリングとで構成される。リングID=1のリングは、通信装置であるノード1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有する。リングID=1のリングとリングID=2のリングとは、2つのリングで共有される通信装置(以下、適宜共有ノードという)であるノード1,4を介して接続される。ノード1,4間は、共有リンク10で接続される。
 図34に示すように、あらかじめリングID=1のリングを、共有リンク10の障害管理を行うメジャーリング、リングID=2のリングを、共有リンク10の障害管理を行わないサブリングに設定している。ここで、メジャーリングとサブリングの決定方法については特に制約はないが、例えば、リングIDなどの情報を比較することにより決定することができる。
 また、図34に示すように、予め、ノード1を、共有リンクの障害管理を行うメジャーリングを決定する共有リンクマスタノード(マスタ共有装置)、ノード4を、共有リンクの障害管理を行うメジャーリングをマスタノードで決定されたメジャーリングに従うスレーブノード(スレーブ共有装置)に設定している。ここで、共有リンクマスタノードとスレーブノードの決定方法については特に制約はないが、例えば、ノードIDなどの情報を比較することにより決定することができる。
 なお、図34では、2つの共有ノードを含む6つの装置を有するマルチリングネットワークを例として示しているが、各リングに接続されるノード数はこれに限られない。また、図1では、2つのリングが接続された構成例を示したが、本実施の形態は、3つ以上のリングネットワークが接続された構造についても適用可能である。また、共有リンクに3つ以上の共有ノードが接続される場合についても適用可能とする。
 各ノード1~6は、各々が複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図34に示すマルチリングネットワークでは、共有ノードであるノード1,4は3つ以上のポートを有し、それ以外のノード2,3,5,6は2つ以上のポートを有している。
 ノード2,6は、ERPのRPLオーナーノードとして動作し、それ以外のノード1,3,4,5はERPの非RPLオーナーノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。なお、ここでは、リングネットワークにおいてループ回避のために閉塞ポートを設定するリングプロテクション方式としてERPを用いる例について説明するが、リングプロテクション方式はERPに限定されない。
 リングID=1,2の各リングは、リング内でループフレームが発生しない様に、各リング内の特定の1つのリンクを論理的に切断した状態で動作させる。通常は、RPLオーナーノードの1つのポートを閉塞させることにより隣接するノードとのリンクを論理的に切断させている。図34の構成例では、ノード2のノード3側のポート、および、ノード6のノード5側のポートをBPに設定している。通常のERPでは、BP設定されたポートでは制御フレームおよびデータフレームは隣接するノードへ転送されず廃棄される。一方、BP設定されていないポートでは、制御フレームおよびデータフレームを隣接するノードへ転送することが許可される。
 本実施の形態の共有ノード1,4は、マルチリング管理部21をマルチリング管理部21bに替える以外は、実施の形態1の共有ノードと同様の構成を有する。本実施の形態の共有ノード以外のノード(ノード2,3,5,6)の構成も、実施の形態1の共有ノード以外のノードと同様である。
 次に、本実施の形態における共有ノードのマルチリング管理部21bの機能について説明する。図35は、本実施の形態のマルチリング管理部21bの構成例を示す図である。マルチリング管理部21bは、障害管理部31、自ノード情報管理部32、共有ノード情報管理部33およびリング属性情報管理部34を備える。自ノード情報管理部32は、共有ノード(自ノード)が共有するリングネットワークの複数のリングIDに対し、メジャーリングのリングIDとメジャーリングに接続するポートのポート番号、サブリングのリングIDとサブリングに接続するポートのポート番号、共有リンクに接続するポートのポート番号などの自ノードに関する情報である自ノード情報を管理する。なお、ITU-T G.8032のマルチリングネットワークと同様に、メジャーリングとは、共有リンクの障害を認識するリングであり、サブリングとは、共有リンクの障害を認識しないリングである。
 また、マルチリング管理部21bの共有ノード情報管理部33は、共有リンクの反対側で共有リンクを終端する共有ノード(図34の例では、ノード1からみた場合ノード4、ノード4からみた場合ノード1)のノードIDと当該共有ノードに接続するポート番号などのポートを識別する情報や、共有リンクに接続されるが共有リンクを終端しない共有リンク中間ノードのノードIDなどの他の共有ノードに関する情報である共有ノード情報を管理する。なお、図34の例では共有中間ノードは存在しないが、ノード1とノード4の間に共有リンク10の接続する共有リンク中間ノードを備えていてもよい。
 また、マルチリング管理部21bのリング属性情報管理部34は、自ノードと共有リンクの反対側で共有リンクを終端する共有ノード(図34の例では、ノード1からみた場合ノード4、ノード4からみた場合ノード1)との間で、一方を共有リンクマスタノード(以下、マスタノード)、もう一方を共有リンクスレーブノード(以下、スレーブノード)と設定する。そして、リング属性情報管理部34は、自ノードがマスタノードかスレーブノードかを識別するリング属性情報を管理する。このリング属性情報は、スレーブノードの共有リンクの障害を管理するメジャーリングのリングID情報をマスタノードのメジャーリングのリングID情報に一致するように制御するために共有ノードに必要な情報である。
 マルチリング管理部21bの障害管理部31は、これらの自ノード情報、共有ノード情報、リング属性情報、マルチリングネットワークにおける障害発生時にR-APSフレームに格納されている情報(障害を検出したリングIDやノードID)、ポート情報(障害を検出したポートの情報)から、障害発生リングの有無、および共有リンクの障害の有無を判別する障害監視部311を備える。
 また、障害管理部31は、メジャーリング内に共有リンク以外の障害が発生した場合や、共有リンクに障害が発生後にメジャーリング内に共有リンク以外で障害が発生した場合や、共有リンクを終端するマスタノードとスレーブノードでメジャーリングの情報が一致しない場合や、同じ共有リンクを持つ全てのリングで共有リンク以外の障害が発生した場合などに、サブリングとメジャーリングに対応するリングIDを切替える切替処理部312を備える。各リンクの障害発生確率が同じであるとすると、前者の場合(メジャーリング内に共有リンク以外の障害が発生した場合)は、メジャーリングとなるリングを変更する(メジャーリングとするリングIDを変更する)ことにより、1つのリングで共有リンクを含む多重障害の発生する確率を低くすることができる。なお、マルチリングにおける障害が各リング内で同時に発生した場合、障害を通知するR-APSフレームを受信するタイミングが共有リンクの両端の共有ノードで異なるため、メジャーリングとサブリングの認識が両端の共有ノードで異なってしまう場合がある。これを避けるため、共有リンクにおける障害発生時には、スレーブノードが自ノードの共有リンクのメジャー/サブリングの識別情報をマスタノードにおける共有リンクのメジャー/サブリングの識別情報に合わせることで、共有リンクの両端の共有ノードにおけるメジャーリングとサブリングの認識を一致させる。また、マルチリング管理部21bの障害管理部31は、両リングや共有リンクの障害状態や切替処理の結果に基づき、R-APSフレームの転送/送信処理を行う出力制御部313を備える。
 次に、共有ノードのマルチリング管理部21bにおいて、新たに障害を検出した場合の処理について説明する。図36は、障害を検出した場合のマルチリング管理部21bにおける処理(障害発生処理)手順の一例を示すフローチャートである。なお、共有リンク中間ノードが存在する場合は、この障害発生処理は、共有リンク中間ノード以外の共有ノード、すなわち共有リンクを終端する共有リンク終端ノードが実施する。
 図36に示すように、マルチリング管理部21bは、まず、Major側に障害が発生したか否かを判断する(ステップS41)。具体的には、マルチリング管理部21bは、メジャーリングに属するノードから受信したR-APSフレームに基づいて、メジャーリングに障害が発生したか否かを判断する。
 Major側で障害が発生した場合(ステップS41 Yes)、マルチリング管理部21bは、共有リンク以外で障害が発生したか否かを判断する(ステップS42)。共有リンクで障害が発生したか否かは、保持している共有ノード情報とR-APSフレームに基づいて判断することができる。共有リンク以外で障害が発生した場合(ステップS42 Yes)、サブリングで障害が発生中であるか否かを判断する(ステップS43)。マルチリング管理部21bは、サブリングに属するノードから受信したR-APSフレームに基づいて、サブリングに障害発生状態を管理しており、これにより、サブリングで障害が発生中であるか否かを判断することができる。
 サブリングで障害が発生中でない場合(ステップS43 No)、マルチリング管理部21bは、MajorとSubを切替える(ステップS44)。すなわち、図34の状態であった場合に、メジャーリングであるリングID=1のリングをサブリングに変更し、サブリングであるリングID=2のリングをメジャーリングに変更する。
 サブリングでも障害が発生中である場合(ステップS43 Yes)、共有リンクに属する両方のリングにおいて、共有リンク以外で障害が発生しているため、予め決められている優先度の高いリングIDを持つリングをメジャーリングとし(ステップS51)、ステップS49へ進む。例えば、リングIDの優先度が(リングID=1)>(リングID=2)とすると、リングID=1がメジャーリング、リングID=2がサブリングとする。
 また、マルチリング管理部21bは、ステップS44の後、共有リンクで障害が発生したか否かを判断する(ステップS45)。共有リンクで障害が発生した場合(ステップS45 Yes)、自らのノードが共有リンクマスタノードか否(スレーブノード)かを判断する(ステップS46)。共有リンクスレーブノードである場合(ステップS46 No)は、マスタノードから共有リンクの障害によるR-APSフレームを受信したか否かを判断する(ステップS47)。マスタノードから共有リンクの障害によるR-APSフレームを受信した場合(ステップS47 Yes)、メジャーリングを共有リンクマスタノードと同じリングIDとする(ステップS48)。メジャーリングの識別は、マスタノードから共有リンクの障害により受信したR-APSフレームに格納している情報により判断することとする。マスタノードから共有リンクの障害によるR-APSフレームを受信していない場合(ステップS47 No)、ステップS47へ戻る。
 上記により、共有リンクの障害を管理するメジャーリングが共有リンクマスタノードとスレーブノードで一致した後、マルチリング管理部21bは、両リングのERPポートのFDBをクリアし、サブリングからメジャーリングへのR-APSフレームの転送機能を有効にする(ステップS49)。また、両リングでこの転送機能を有効にすることにより、共有リンクに障害が発生したことによりサブリング側で共有リンクの障害により転送できないフレームをメジャーリング経由で転送することができる。なお、各リングでは、通常と同様に初期状態では受信したフレームとポート番号をFDBに登録し、FDBを用いて転送を行っているとする。
 次に、マルチリング管理部21bは、各リングでそれぞれERPステートマシンに従って処理を実施し(ステップS50)、処理を終了する。ERPステートマシンに従った処理は、従来と同様であるため詳細な説明は省略する。
 なお、Major側で障害が発生していない場合(ステップS41 No)は、ステップS50へ進み、各リングでそれぞれのERPステートマシンに従い処理する。また、メジャーリングの共有リンク以外で障害が発生していない場合(ステップS42 No)、ステップS45へ進む。ステップS45で、共有リンクで障害が発生していない場合(ステップS45 No)、ステップS50へ進む。ステップS46で、共有リンクマスタノードである場合(ステップS46 Yes)は、ステップS49へ進む。
 次に、共有ノード以外のノードについて説明する。本実施の形態の共有ノード以外のノードは、実施の形態1と同様にERP制御部14aを備える。本実施の形態のERP制御部14aは、以下に示す動作を実施する。ERP制御部14aは、図7に示すように、自ノード情報管理部23、フレーム識別部24およびERP処理部25を備える。図37は、本実施の形態の、共有ノード以外のノードにおけるR-APSフレームの受信時の処理手順の一例を示すフローチャートである。
 自ノード情報管理部23は、自ノードの属するリングID等の自ノードに関する情報を管理する。フレーム識別部24は、図37に示すように、R-APSフレームを受信すると、自ノード情報管理部23が管理する情報に基づいて、受信したR-APSフレーム内のリングID(図4中のRing ID)が、自ノードが属するリングIDと一致するか否かを判断する(ステップS61)。自ノードが属するリングIDと一致する場合(ステップS61 Yes)、フレーム識別部24は、自ノードが属するリングIDと一致するR-APSフレームをERP処理部25へ出力し、ERP処理部25は、入力されたR-APSフレームに基づいて通常のERP処理を実施する(ステップS62)。このとき、R-APSフレームのメジャーサブ識別情報に基づいて、自ノードが所属するリングネットワークがメジャーリングであるかサブリングであるかが変更されている場合、この変更を反映する。
 例えば、自ノードが、当初はサブリングとして設定されていたリングネットワークのRPLオーナーであった場合、この状態では、共有リンクに障害が発生しても、自ノードの閉塞ポートの解除は行わない。その後に、自ノードが属するリングネットワークがメジャーリングであることを示すR-APSフレームを受信すると、以降は、共有リンクの障害を検出するR-APSフレームを受信すると自ノードの閉塞ポートの閉塞を解除する。
 受信したR-APSフレームのリングIDが自ノードが属するリングIDと一致しない場合(ステップS61 No)、フレーム識別部24は、ERP処理部25へ出力せずに、転送先のもう一方(受信したポートでない側)のERPポート(ERPリングを構成するリンクに接続するポート)が閉塞ポートの場合はフレームを終端(廃棄)し、閉塞ポートでない場合はもう一方のポートに転送する(ステップS63)。また、この際FDBフラッシュ指示がある場合は、FDBのフラッシュを実施する。
 次に、本実施の形態における各ノードの動作について説明する。初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。マルチリングネットワーク内では、予めリングID=1またはリングID=2の何れかのリングがメジャーリングに設定され、他方がサブリングに設定されていることとする。ここでは、図34のようにリングID=1のリングがメジャーリングと設定され、ID=2のリングがサブリングと設定されているとする。
 図34に示すように、各リングのRPLオーナーであるノード2とノード6の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレーム(Request/StateがNRであり、RBにRPLオーナーの閉塞ポート閉塞されていることを示す値が格納されたR-APSフレーム)が各RPLオーナーから送信される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、該当のリングID(R-APSフレームに格納されたリングID)のERP処理を実施した後、共有リンクに接続されるポートにフレームを転送する。また、共有リンクから受信したR-APSフレームに対しても、同様に該当のリングIDのERP処理を実施後、転送先のリングが接続されるポートに転送する。
 次に、マルチリングネットワーク内のサブリング上で障害が発生した場合の動作について説明する。図9に示した、リングID=2のリング内に障害が発生した場合について説明する。図9に示す例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態でサブリングであるリングID=2のリングのノード4とノード5間で障害が発生していることを示している。この場合、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、サブリング側はノード4とノード5間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレーム(Request/StateがSFのR-APSフレーム)がノード4,5から送信され、RPLオーナーであるノード6の閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、フレーム内のリングIDに対応したリングのERP処理を実施後、共有リンク10が接続されるポートにフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様にフレーム内のリングIDのERP処理を実施後、当該リングIDのリングに接続するポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 次に、図10に示した、マルチリングネットワーク内で多重障害が発生した場合について説明する。図10の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態で共有リンク10とノード4とノード5の間とで障害が発生している。図10の例のように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞する。また、共有ノードであるノード1が共有リンクマスタノード、ノード4が共有リンクスレーブノードである場合、共有リンクマスタノードであるノード1から共有リンクの障害を通知するR-APSフレームが送信される。このため、メジャーリング側であるリングID=1で障害を検出し、メジャーリングのRPLオーナーであるノード2の一方のポートの閉塞が解除される。共有リンクスレーブノードであるノード4では、ノード1からの共有リンクの障害を通知するR-APSフレームを受信するまでは、共有リンクの障害を通知するR-APSフレームを転送しない。また、共有ノードがサブリング側のR-APSフレームを受信した場合は、共有リンク10に障害が発生しているため、メジャーリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 次に、図11に示した、メジャーリング内で障害が発生した場合について説明する。図11の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態でメジャーリング内のノード2とノード1の間に障害が発生したとする。図11に示すように、サブリングであるリングID=2のリングでは障害が発生していないため、サブリングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、ノード2とノード1の間で障害が発生しているため、障害検出ポートが閉塞され、R-APS(SF)フレームがノード1,2から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリング側で障害が発生したと認識し、図36のフローに従い、メジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し(例えば、リングID=1のリングであればERP処理部22-1がERP処理を実施し)、新たな(切替後の)メジャーリングかサブリングかを識別する情報(メジャーサブ識別情報)を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 次に、図12に示した、メジャーリングとサブリングを切替後、共有リンク10の障害が発生した場合について説明する。図12の例では、図11で示したようにメジャーリングに障害が発生してメジャーリングとサブリングを切替後、さらに共有リンク10で障害が発生した様子を示している。図12に示すように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞し、共有リンク10の障害はメジャーリングで検出するため、共有リンクの障害を通知するR-APSフレームが共有リンクマスタノードであるノード1から新たなメジャーリング側に送信され、切替後のメジャーリングのRPLオーナーであるノード6の一方のポートの閉塞が解除される。共有リンクスレーブノードであるノード4では、ノード1からの共有リンクの障害を通知するR-APSフレームを受信するまでは、共有リンクの障害を通知するR-APSフレームを転送しない。また、共有ノードでサブリングであるリングID=1のR-APSフレームを受信した場合、出力制御部313は、共有リンク10で障害が発生しているため、メジャーリングであるリングID=2側に転送する。このような多重障害時にも各ノード間の通信は可能である。
 次に、図13に示した、障害無しの状態から共有リンク10で障害が発生した場合について説明する。図13の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態で共有リンク10に障害が発生した例を示している。図13に示すように、サブリングであるリングID=2のリング側は障害が発生していないため、リングのRPLオーナーであるノード6の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリング側では、共有ノードであるノード1-4間で障害が発生しているため、障害検出ポートが閉塞され、共有リンクの障害を通知するR-APSフレームが共有リンクマスタノードであるノード1から新たなメジャーリング側に送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有リンクスレーブノードであるノード4では、ノード1からの共有リンクの障害を通知するR-APSフレームを受信するまでは、共有リンクの障害を通知するR-APSフレームを転送しない。共有ノードであるノード1,4は、共有リンク10の障害検出により、図36のフローに従い、サブリングであるリングID=2のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=1のリング側に当該フレームを転送する。
 共有リンク10に障害が発生後、サブリングに障害が発生し、マルチリングネットワーク内で多重障害が発生した場合は図10と同じ状態になり、このような多重障害時にも各ノード間の通信は可能である。
 次に、図14に示した、共有リンク10に障害が発生した後、メジャーリングに障害が発生した場合について説明する。図14の例では、図13に示したように共有リンク10に障害が発生した後、メジャーリング内のノード2とノード1の間に障害が発生した例を示している。共有リンク10はメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク10以外の場所であるノード2とノード1の間で障害が発生すると、ノード1,2間の障害を検出したポートが閉塞し、ノード1,2からR-APS(SF)フレームがメジャーリングに送信される。この時、共有ノードであるノード1,4は、リングID=1のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図36のフローに従い、メジャーリングとサブリングを切替える。これにより、リングID=2のリングがメジャーリングとなり、共有リンクマスタノードであるノード1から、共有リンクにおける障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のRPLオーナーであるノード6の閉塞が解除される。共有リンクスレーブノードであるノード4では、ノード1からの共有リンクの障害を通知するR-APSフレームを受信するまでは、共有リンクの障害を通知するR-APSフレームを転送しない。また、ノード1,4では、共有リンク10で障害が発生しているため、リングID=1のリング側のポートから受信したR-APSフレームは、リングID=2のリング側に転送される。以上のような多重障害時にも各ノード間の通信が可能である。
 図38は、メジャーリングとサブリングで各々の共有リンク以外での障害が同時に発生した様子を示す図である。図38の例では、障害発生前にリングID=1のリングがメジャーリングに設定されており、この状態でメジャーリング内のノード2とノード1の間とサブリング内のノード4とノード5の間に障害が発生したとする。図38に示すように、両リングで障害が発生するため、障害検出ポートが閉塞され、R-APS(SF)フレームがノード1,2,4,5から送信され、RPLオーナーであるノード2とノード6のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、自ノードの障害検出により、ノード1はメジャーリング側のリングID=1で障害が発生したと認識し、図36のフローに従い、メジャーとサブを切替える。一方、ノード4はサブリング側のリングID=2で障害が発生したと認識し、図36のフローに従い、メジャーとサブを切替えない。この時点では、共有ノードであるノード1と4とではメジャーリングとサブリングのリングIDが異なることになる。
 その後、ノード1は、リングID=2に接続されるポートから入力されたR-APSフレーム、ノード4はリングID=1に接続されるポートから入力されたR-APSフレームにより、両リングで障害が発生したと認識し、図36のフローに従い、リングID=1を予め優先度が高いリングとした場合、リングID=1をメジャー、リングID=2をサブとし、共有ノードでは各リングに対して当該フレームのリングIDに対応するリングのERP処理を実施し(例えば、リングID=1のリングであればERP処理部22-1がERP処理を実施し)、新たな(切替後の)メジャーリングかサブリングかを識別する情報(メジャーサブ識別情報)を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 以上のように、本実施の形態では、2つのリングネットワークにおいて、共有リンクで障害が発生した場合に、共有リンクマスタノードのメジャーリングのリングIDを共有リンクスレーブノードでもメジャーリングとして設定するようにした。また、共有リンク以外のメジャーリングとサブリングで多重障害が同時に発生した場合に、予め優先度を設定し、優先度の高いリングIDをメジャーリングとすることとした。このため、共有リンクを終端する共有リンクマスタノードと共有リンクスレーブノードで、共有リンクの障害を管理するメジャーリングのリングIDが一致し、共有リンクの障害時に、正常に迂回路を設定することができ、多重障害が発生した場合でも通信を継続することができる。また、この切替をR-APSフレーム内のReserved 2のフィールドを用いて指示することにより、少ない回路や処理量で上記の効果を得ることができる。
実施の形態5.
 図39は、本発明にかかるマルチリングネットワークの実施の形態5の構成例を示す図である。図39に示すように、本実施の形態のマルチリングネットワークは、リングID=1のリング、リングID=2のリングおよびリングID=3のリングを備える。図39の例では、共有リンク10が、リングID=1,2,3の3つのリングで共有される。図39の例では、予めリングID=1のリングがメジャーリングと設定され、リングID=2,3のリングがサブリングとして設定されている。
 リングID=1のリングは、ノード1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有し、リングID=3のリングは、ノード1,4,7,8を有し、3つのリングを互いに共有する共有ノードであるノード1,4を介して互いのリングが接続される。この3つのリングに属するノード1,4間を接続するリンクを共有リンク10とする。
 また、図39に示すように、予め、ノード1を、共有リンクの障害管理を行うメジャーリングを決定する共有リンクマスタノード、ノード4を、共有リンクの障害管理を行うメジャーリングをマスタノードで決定されたメジャーリングに従うスレーブノードに設定している。ここで、共有リンクマスタノードとスレーブノードはどのように決定してもよいが、例えば、ノードIDなどの情報を比較することにより決定することができる。
 なお、図39では、2つの共有ノードを含む8つの装置を有するマルチリングネットワークについて示すが、リングに接続されるノード数はこれに限られない。また、図39では、3つのリングネットワークが接続された構造について示したが、本発明は4つ以上のリングネットワークが接続された構造についても適用可能である。更に、共有リンク10に3つ以上の共有ノードが接続される場合についても適用可能とする。
 各ノード1~8は、それぞれ複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図39に示すマルチリングネットワークでは、共有ノードであるノード1,4は4つ以上のポートを有し、それ以外のノード2,3,5,6,7,8は2つ以上のポートを有している。
 ノード2,6,8はERPのRPLオーナーのノード、それ以外のノード1,3,4,5,7はERPの非RPLオーナーのノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。
 リングID=1,2,3の各リングは、実施の形態1のリングID=1,2のリングと同様に、内部でループフレームが発生しない様に、各リングネットワーク内の特定の1つのリンクを論理的に切断した状態で動作させる。図39に示すリングネットワークでは、ノード2のノード3側のポート、ノード6のノード5側のポート、および、ノード8のノード7側のポートをBPに設定している。
 本実施の形態のノード1,4は、図2で示したよう実施の形態1の共有ノード(共有リンク終端ノード)のERP制御部14の替わりにERP制御部14cを備える以外は、実施の形態1の共有ノード(共有リンク終端ノード)の構成と同様である。実施の形態1と同様の機能を有する構成要素は、実施の形態1と同一の符号を付して重複する説明を省略する。以下、実施の形態1と異なる点について説明する。
 本実施の形態の共有ノードにおけるERP制御部14cは、マルチリング管理部21cと、実施の形態3と同様のERP処理部22-1~22-3とを備える。このように、ERP処理部14cは、共有するリングネットワークの数分のERP処理部を持ち、各ERP処理部ではリングごとに障害状態などを管理する。マルチリング管理部21cは、マルチリングネットワークにおける多重障害によるネットワークの分断を回避するために複数のERP処理部を管理する。
 共有リンク終端ノードであるノード1,4のマルチリング管理部21cの構成については、図40のようになる。共有ノード以外のノードの処理フローは実施の形態1と同様である。本実施の形態で用いるR-APSフレームのフォーマットも実施の形態1と同様である。
 図40は、本実施の形態のマルチリング管理部21cの構成例を示す図である。マルチリング管理部21cは、障害管理部31の替わりに3つのERP処理部22-1~22-3を制御する障害管理部31aを備え、実施の形態4と同様のリング属性情報管理部34を追加する以外は、実施の形態4のマルチリング管理部21と同様である。障害管理部31aは、障害監視部311a、切替処理部312aおよび出力制御部313aを備える。障害監視部311aは、自ノード情報、共有ノード情報、リング属性情報、マルチリングネットワークにおける障害発生時にR-APSフレームに格納されている情報、ポート情報(R-APSフレームを受信したポートの情報)から、共有ノードが共有するリングID=1,2,3のリングのうちの障害発生リングの有無および共有リンク10の障害の有無を判別する。
 切替処理部312aは、メジャーリング内に共有リンク以外の障害が発生した場合や、共有リンクに障害が発生後にメジャーリング内に共有リンク以外で障害が発生した場合や、共有リンクを終端するマスタノードとスレーブノードでメジャーリングの情報が一致しない場合や、同じ共有リンクを持つ全てのリングで共有リンク以外の障害が発生した場合などに、サブリングとメジャーリングに対応するリングIDを切替える。ただし、本実施の形態では、サブリングが複数存在するため、どのサブリングをメジャーリングに変更するかを決定することになる。複数のサブリングのうち、障害の発生していないリングを選択し、選択したリングが複数の場合には、例えば予め定めた順序(例えば、リングIDの若い順)に従って1つのリングを選択してメジャーリングとする。なお、マルチリングにおける障害が各リング内で同時に発生した場合、障害を通知するR-APSフレームを受信するタイミングが共有リンクの両端の共有ノードで異なるため、メジャーリングとサブリングの認識が両端の共有ノードで異なってしまう場合がある。これを避けるため、共有リンクにおける障害発生時には、スレーブノードが自ノードの共有リンクのメジャー/サブリングの識別情報をマスタノードにおける共有リンクのメジャー/サブリングの識別情報に合わせることで、共有リンクの両端の共有ノードにおけるメジャーリングとサブリングの認識を一致させる。
 また、出力制御部313aは、3つのリングや共有リンクの障害状態や切替処理の結果に基づき、R-APSフレームの転送/送信処理を行う。
 次に、共有ノードのマルチリング管理部21cにおいて、新たに障害を検出した場合の処理について説明する。図41は、障害を検出した場合のマルチリング管理部21cにおける処理(障害発生処理)手順の一例を示すフローチャートである。なお、共有リンク中間ノードが存在する場合は、この障害発生処理は、共有リンク中間ノード以外の共有ノード、すなわち共有リンクを終端する共有リンク終端ノードが実施する。
 図41に示すように、マルチリング管理部21cは、まず、Major側に障害が発生したか否かを判断する(ステップS71)。具体的には、マルチリング管理部21cは、メジャーリングに属するノードから受信したR-APSフレームに基づいて、メジャーリングに障害が発生したか否かを判断する。
 Major側で障害が発生した場合(ステップS71 Yes)、マルチリング管理部21cは、共有リンク以外で障害が発生したか否かを判断する(ステップS72)。共有リンクで障害が発生したか否かは、保持している共有ノード情報とR-APSフレームに基づいて判断することができる。共有リンク以外で障害が発生した場合(ステップS72 Yes)、サブリングで障害が発生中であるか否かを判断する(ステップS73)。マルチリング管理部21cは、複数のサブリングに属するノードから受信したR-APSフレームに基づいて、複数のサブリングの障害発生状態を管理しており、これにより、サブリングで障害が発生中であるか否かを判断することができる。
 全てのサブリングで障害が発生中でない(障害が発生していないサブリングがある)場合(ステップS73 No)、マルチリング管理部21cは、障害が発生していないサブリングに対し、MajorとSubを切替える(ステップS74)。すなわち、図29の状態であった場合に、メジャーリングであるリングID=1のリングをサブリングに変更し、サブリングであるリングID=2のリングをメジャーリングに変更する。
 全てのサブリングで障害が発生中である場合(ステップS73 Yes)、共有リンクに属する全てのリングにおいて、共有リンク以外で障害が発生しているため、予め決められている優先度の高いリングIDを持つリングをメジャーリングとし(ステップS81)、ステップS79へ進む。例えば、リングIDの優先度が(リングID=1)>(リングID=2)>(リングID=3)とすると、リングID=1がメジャーリング、リングID=2、3がサブリングとする。
 ステップS74の後、共有リンクで障害が発生したか否かを判断し(ステップS75)、共有リンクで障害が発生した場合(ステップS75 Yes)、自らのノードが共有リンクマスタノードかスレーブノードかを判断する(ステップS76)。共有リンクマスタノードでない(スレーブノードである)場合(ステップS76 No)は、マスタノードから共有リンクの障害によるR-APSフレームを受信したが否かを判断する(ステップS77)。マスタノードから共有リンクの障害によるR-APSフレームを受信した場合(ステップS77 Yes)、メジャーリングを共有リンクマスタノードと同じリングIDとする(ステップS78)。メジャーリングの識別は、マスタノードから共有リンクの障害により受信したR-APSフレームに格納している情報により判断することとする。ステップS77で、マスタノードから共有リンクの障害によるR-APSフレームを受信していないと判断した場合(ステップS77 No)、ステップS77へ戻る。
 上記により、共有リンクの障害を管理するメジャーリングが共有リンクマスタノードとスレーブノードで一致した後、メジャーリングのERPポートのFDBをクリアし、サブリングからメジャーリングへのR-APSフレームの転送機能を有効にする(ステップS79)。また、両リングでこの転送機能を有効にすることにより、共有リンクに障害が発生したことによりサブリング側で共有リンクの障害により転送できないフレームをメジャーリング経由で転送することができる。なお、各リングでは、通常と同様に初期状態では受信したフレームとポート番号をFDBに登録し、FDBを用いて転送を行っているとする。
 次に、マルチリング管理部21cは、各リングでそれぞれERPステートマシンに従って処理を実施し、処理を終了する(ステップS80)。ERPステートマシンに従った処理は、従来と同様であるため詳細な説明は省略する。
 Major側で障害が発生していない場合(ステップS71 No)は、ステップS80へ進み、各リングでそれぞれのERPステートマシンに従い処理する。また、ステップS72で、メジャーリングの共有リンク以外で障害が発生していない場合(ステップS72 No)、ステップS75へ進む。ステップS75で、共有リンクで障害が発生していない場合(ステップS75 No)、ステップS80へ進む。ステップS76で、共有リンクマスタノードであると判断した場合(ステップS76 Yes)、ステップS79へ進む。
 次に、本実施の形態における各ノードの動作について説明する。初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。予めリングID=1,2,3のリングの何れかをメジャーリング、残りのリングをサブリングに設定する。ここでは、図39のようにリングID=1のリングをメジャーリングに設定し、リングID=2,3のリングをサブリングに設定しているとする。図39に示すように、各リングのRPLオーナーであるノード2とノード6、ノード8の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレームが各RPLオーナーから送信される。ノード1,4の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームに対して、R-APSフレームに格納されたリングIDのリングのERP処理を実施した後、共有リンク10が接続されるポートに当該フレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様に該当のリングIDのERP処理を実施後、転送先のリングが接続されるポートに転送する。
 次に、図27に示した、サブリングであるリングID=3のリングのノード1とノード8の間と、サブリングであるリングID=2のリングのノード4とノード5の間と、に障害が発生した例について説明する。図27の例では、メジャーリング側は障害が発生していないため、リングのRPLオーナーであるノード2の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームがRPLオーナーから送信される。一方、サブリング側はノード4,5間、ノード1,8間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード4,5,1,8から送信され、RPLオーナーであるノード6,8の閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームに対して、フレーム内のリングIDのリングのERP処理を実施した後、共有リンク10が接続されるポートに当該フレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、同様にフレーム内のリングIDのERP処理を実施後、当該リングIDのリングに接続するポートに転送する。
 以上のように、障害がない場合と、サブリングに障害が発生した場合とについては、リングIDを判別する以外は、各リングにて通常の単一リングのERPと同様に動作することとなる。
 次に、図28に示した、サブリングに障害が発生後、共有リンクで障害が発生した例について説明する。図28では、図27に示したようにサブリングに障害が発生した後に、さらに共有リンク10に障害が発生した例を示している。図28に示すように、共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞し、メジャーリングのRPLオーナーであるノード2の一方のポートの閉塞が解除される。また、共有ノードが、サブリング側のR-APSフレームを受信した場合は、共有リンク10に障害が発生しているため、メジャーリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 次に、図29に示した、メジャーリング内で障害が発生した例について説明する。図29は、メジャーリングであるリングID=1のノード3とノード4の間に障害が発生した例を示している。図29に示すように、サブリングであるリングID=2,3のリングでは障害が発生していないため、リングのRPLオーナーであるノード6,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、ノード3,4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームがノード3,4から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4は、各リングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリング側で障害が発生したと認識し、図41のフローに従い、リングID=1とリングID=2のリングの間でメジャーとサブを切替える。そして、受信したR-APSフレームに対して当該フレームのリングIDに対応するリングのERP処理を実施し、切替後のメジャーサブ識別情報を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。自ノードで障害を検出した場合は、障害に対応するリングに、切替後のメジャーサブ識別情報を付与した障害発生を通知するR-APSフレームを送信する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 次に、図30に示した、図29に示した障害によりサブリングとメジャーリングの切替の後、共有リンク10に障害が発生し、さらにメジャーリングで障害が発生した例について説明する。図30は、図29で説明したようにメジャーリングの障害発生により切替を行い、さらに、共有リンク10に障害が発生し、さらにその後、メジャーリングのノード4,5間で障害が発生した例を示している。共有リンク10に障害が発生すると、共有ノードであるノード1,4の共有リンク10側のポートが閉塞する。共有リンクの障害を通知するR-APSフレームが共有リンクマスタノードであるノード1から新たなメジャーリング側であるリングID=2に送信され、RPLオーナーであるノード6のデフォルトの閉塞ポートは閉塞解除される。共有リンクスレーブノードであるノード4では、ノード1からの共有リンクの障害を通知するR-APSフレームを受信するまでは、共有リンクの障害を通知するR-APSフレームを転送しない。共有ノードであるノード1,4は、共有リンク10の障害検出により、図41のフローに従い、サブリングであるリングID=1のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=2のリング側に当該フレームを転送する。
 さらにその後、図30に示すように、メジャーリングのノード4,5に障害が発生すると、リングID=2とリングID=3のリングの間でメジャーとサブを切替える。これにより、切替後のメジャーリングのRPLオーナーであるノード8の一方のポートの閉塞が解除される。また、共有ノードがサブリングであるリングID=1,2のリングからR-APSフレームを受信した場合は、共有リンク10で障害が発生しているため、メジャーリングであるリングID=3のリング側に転送することになる。このような多重障害時にも各ノード間の通信は可能である。
 次に、図31に示した、障害無しの状態から共有リンク10で障害が発生した例について説明する。図31の例では、図39に示した障害無しの状態から、共有リンク10に障害が発生した例を示している。図31に示すように、サブリングであるリングID=2,3のリングでは障害が発生していないため、リングのRPLオーナーであるノード6,8の一方のポートが閉塞され、障害検出なしを意味するR-APS(NR,RB)フレームが送信される。一方、メジャーリングであるリングID=1のリングでは、共有ノードであるノード1,4間で障害が発生しているため、障害検出ポートで閉塞され、R-APS(SF)フレームが共有リンクマスタノードであるノード1から送信され、RPLオーナーであるノード2のデフォルトの閉塞ポートは閉塞解除される。共有リンクスレーブノードであるノード4では、ノード1からの共有リンクの障害を通知するR-APSフレームを受信するまでは、共有リンクの障害を通知するR-APSフレームを転送しない。共有ノードであるノード1,4は、共有リンク10の障害検出により、図41のフローに従い、サブリングであるリングID=2のリングからR-APSを受信すると、ERP処理を実施し、メジャーリングであるリングID=1のリングにR-APSフレームを転送する。
 共有リンク10に障害が発生後、サブリングに障害が発生し、マルチリングネットワーク内で多重障害が発生した場合は図28と同じ状態になり、このような多重障害時にも各ノード間の通信は可能である。
 次に、図32に示した、共有リンク10に障害が発生した後、メジャーリングに障害が発生した例について説明する。図32は、図31に示したように共有リンク10に障害が発生後、メジャーリングであるリングID=1のリングのノード1,2間に障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク以外の場所であるノード1,2間で障害が発生すると、ノード1,2の障害を検出したポートが閉塞し、ノード1,2からR-APS(SF)フレームがメジャーリングに送信される。この時、共有ノードであるノード1,4は、リングID=1のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図41のフローに従い、リングID=1とリングID=2のリングの間でメジャーリングとサブリングを切替える。これにより、リングID=2のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンクにおける障害検出用のR-APS(SF)フレームがリングID=2のリング側のポートに対し出力され、リングID=2のリング側のRPLオーナーであるノード6の閉塞が解除される。また、ノード1,4では、リングID=1のリング側のポートから受信したR-APSフレームは、共有リンクで障害が発生しているため、リングID=2のリング側に転送される。
 次に、図33に示した、図32の障害発生の後、さらにメジャーリングで障害が発生した例について説明する。図33は、共有リンク10に障害が発生後、メジャーリングであるリングID=1のリングのノード1,2間に障害が発生し、さらにその時点でのメジャーリングであるリングID=2のリングのノード4,5間に障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たにメジャーリングの共有リンク以外の場所であるノード4,5間で障害が発生すると、ノード4,5の障害を検出したポートが閉塞し、ノード4,5からR-APS(SF)フレームがメジャーリングであるリングID=2のリングに送信される。この時、共有ノードであるノード1,4は、リングID=2のリングに接続されるポートから入力されたR-APSフレームまたは自ノードの障害検出により、メジャーリングの多重障害と判断し、図41のフローに従い、リングID=2とリングID=3のリングの間でメジャーリングとサブリングを切替える。これにより、リングID=3のリングがメジャーリングとなり、共有ノードであるノード1,4から、共有リンク10における障害検出用のR-APS(SF)フレームがリングID=3側のポートに対し出力され、リングID=3のリングのRPLオーナーであるノード8の閉塞が解除される。また、ノード1,4は、共有リンク10で障害が発生しているため、リングID=1,2のリング側のポートから受信したR-APSフレームは、リングID=3側に転送される。以上のような多重障害時にも各ノード間の通信が可能である。
 図42は、共有リンク以外の全てのリングで障害が同時に発生した様子を示す図である。リングID=1のノード1,2間、リングID=2のノード4,5間、リングID=3のノード7,8間で障害が同時に発生すると、図42に示すように、障害検出ポートが閉塞される。R-APS(SF)フレームがノード1,2、4,5、7,8から送信され、RPLオーナーであるノード2とノード6のデフォルトの閉塞ポートは閉塞解除される。共有マスタノードであるノード1は、自ノードの障害検出により、メジャーリング側のリングID=1で障害が発生したと認識し、図41のフローに従い、メジャーリングをリングID=2に切り替える。ノード共有スレーブノードであるノード4は、自ノードの障害検出により、メジャーリング側のリングID=2で障害が発生したと認識し、図41のフローに従い、メジャーリングをリングID=1のままとする。この時点では、共有ノードであるノード1と4とではメジャーリングのリングIDが異なることになる。
 その後、ノード1、ノード4共に、全てのリングで共有リンク以外の障害が発生したと認識し、図41のフローに従い、リングID=1を予め優先度が高いリングとした場合、ノード1はメジャーリングをリングID=1に切り替え、ノード4はメジャーリングをリングID=1のままとすることで、共有マスタノードと共有スレーブノードのメジャーリングが一致する。共有ノードでは各リングに対して当該フレームのリングIDに対応するリングのERP処理を実施し(例えば、リングID=1のリングであればERP処理部22-1がERP処理を実施し)、新たな(切替後の)メジャーリングかサブリングかを識別する情報(メジャーサブ識別情報)を付与し、共有リンク10が接続されるポートにR-APSフレームを転送する。また、共有リンク10から受信したR-APSフレームに対しても、当該フレーム内のメジャーサブ識別情報が切替前の情報であった場合は、切替後の値に更新し、当該フレームのリングIDに対応するリングのERP処理を実施した後、当該リングIDのリングに接続するポートに転送する。
 以上のように、本実施の形態では、1つの共有リンクを3つのリングが共有する構成を例にして、実施の形態4と同様に、共有リンクで障害が発生した場合に、共有リンクマスタノードのメジャーリングのリングIDを共有リンクスレーブノードでもメジャーリングとして設定するようにした。また、全てのリングで共有リンク以外で多重障害が同時に発生した場合に、予め優先度を設定し、優先度の高いリングIDをメジャーリングとすることとした。このため、共有リンクを終端する共有リンクマスタノードと共有リンクスレーブノードで、共有リンクの障害を管理するメジャーリングのリングIDが一致し、共有リンクの障害時に、正常に迂回路を設定することができ、多重障害が発生した場合でも通信を継続することができる。また、この切替をR-APSフレーム内のReserved 2のフィールドを用いて指示することにより、少ない回路や処理量で上記の効果を得ることができる。
実施の形態6.
 図43は、本発明にかかるマルチリングネットワークの実施の形態6の構成例を示す図である。図43に示すように、本実施の形態のマルチリングネットワークは、リングID=1のリング、リングID=2のリングおよびリングID=3のリングを備える。図43に示すマルチリングネットワークでは、共有リンク10-1と共有リンク10-2の2か所の共有リンクが存在する。ここでは、あらかじめ、共有リンク10-1については、リングID=1のリングをメジャーリングとし、リングID=2のリングをサブリングとして設定し、共有リンク10-2については、リングID=2のリングをメジャーリングとし、リングID=3のリングをサブリングとして設定している。
 リングID=1のリングは、ノード1,2,3,4を有し、リングID=2のリングは、ノード1,4,5,6を有し、リングID=3のリングは、ノード5,6,7,8を有する。これら3つのリングは、リングID=1,2で互いに共有する共有ノードであるノード1,4と、リングID=2,3で互いに共有する共有ノードであるノード5,6とを介して、互いのリングが接続される。なお、図43では、4つの共有ノードを含む8つのノードを有するマルチリングネットワークについて示すが、各リングに接続されるノード数はこれに限られない。また、図43では、3つのリングネットワークが接続された構造について示したが、本実施の形態は4つ以上のリングネットワークが接続された構造についても適用可能である。更に、共有リンクに3つ以上の共有ノードが接続される場合についても適用可能である。
 各ノード1~8は、複数のポートを有している。隣接するノードのポート間を接続してリングを形成し、マルチリングネットワークが構成される。図43に示すマルチリングネットワークでは、共有ノードであるノード1,4,5,6は3つ以上のポートを有し、それ以外のノード2,3,7,8は2つ以上のポートを有している。
 ノード2,6,8はERPのRPLオーナーのノード、それ以外のノード1,3,4,5,7は、ERPの非RPLオーナーのノードとして動作する。ここでは、RPLオーナーの設定や閉塞ポートの設定や解除については、従来技術であるERP規格に沿った動作を行うこととする。
 リングID=1,2,3の各リングは、実施の形態1のリングID=1,2のリングと同様に、内部でループフレームが発生しない様に、各リングネットワーク内の特定の1つのリンクを論理的に切断した状態で動作させる。図43に示すリングネットワークでは、ノード2のノード3側のポート、ノード6のノード1側のポート、および、ノード8のノード7側のポートをBPに設定している。
 本実施の形態のノード1,4,5,6は、図2,3で示したように実施の形態1の共有ノード(共有リンク終端ノード)と同様の構成を有する。本実施の形態の共有ノード以外のノード(ノード2,3,7,8)の構成も、実施の形態1の共有ノード以外のノードと同様である。
 図44は、本実施の形態における障害状態を通知するR-APSフレームのフォーマットの一例を示す図である。図44に示すように、ITU-T G.8032で規定されたERPのR-APSフレームに、従来の送信元のノードIDや閉塞ポート情報に加えて、実施の形態1で示したメジャーリングかサブリングかの識別ビットであるメジャーサブ識別情報(図44中のM/S)と送信元のノードが所属するリングを示すリングID(図44中のRing ID)に加え、複数のリングにおいて共有リンクで多重障害が発生した場合でも経路切替により通信を継続可能なリングに対してメジャーサブを切り替えるためのメジャーサブ切替要求情報(図44中のReq)をReserved 2の領域に追加している。本実施の形態で追加する情報は、図44でハッチングして示している。
 次に、本実施の形態の共有リンク終端ノードであるノード1,4,5,6のマルチリング管理部21dの機能について説明する。図45は、本実施の形態の共有ノードのマルチリング管理部21dの構成例を示す図である。マルチリング管理部21cは、障害管理部31、自ノード情報管理部32と、共有ノード情報管理部33、リング属性情報管理部34、全リング情報管理部35を備える。自ノード情報管理部32は、共有ノード(自ノード)が共有するリングネットワークの複数のリングIDに対し、メジャーリングのリングIDとメジャーリングに接続するポートのポート番号、サブリングのリングIDとサブリングに接続するポートのポート番号、共有リンクに接続するポートのポート番号などの自ノードに関する情報である自ノード情報を管理する。なお、ITU-T G.8032のマルチリングネットワークと同様に、メジャーリングとは、共有リンクの障害を認識するリングであり、サブリングとは、共有リンクの障害を認識しないリングである。
 また、マルチリング管理部21dの共有ノード情報管理部33は、共有リンクの反対側で共有リンクを終端する共有ノード(図43の例では、ノード1からみた場合ノード4、ノード4からみた場合ノード1、ノード5から見た場合ノード6、ノード6から見た場合ノード5)のノードIDと当該共有ノードに接続するポート番号などのポートを識別する情報や、共有リンクに接続されるが共有リンクを終端しない共有リンク中間ノードのノードIDなどの他の共有ノードに関する情報である共有ノード情報を管理する。なお、図43の例では共有中間ノードは存在しないが、ノード1とノード4、ノード5とノード6の間に共有リンク10-1、10-2の接続する共有リンク中間ノードを備えていてもよい。
 また、マルチリング管理部21dのリング属性情報管理部34は、自ノードと共有リンクの反対側で共有リンクを終端する共有ノードにおいて、一方を共有リンクマスタノード(以下、マスタノード)、もう一方を共有リンクスレーブノード(以下、スレーブノード)と設定することにより、スレーブノードの共有リンクの障害を管理するメジャーリングのリングID情報をマスタノードのメジャーリングのリングID情報に一致するように制御するために共有ノードに必要な情報である、自ノードがマスタノードかスレーブノードかを識別するリング属性情報を管理する。
 また、マルチリング管理部21dの全リング情報管理部35は、複数の共有リンクの障害を含む多重障害が発生した場合でも、可能な限り通信を継続するために、マルチリングで構成されるネットワークの全てのリングの接続順序および経路切替可能なリングの障害有無情報を管理する。図46は、リング管理テーブルの一例を示す図である。全リング情報管理部35は、マルチリングで構成されるネットワークの全てのリングについて、例えば図46のようにリングIDの順序と、各リングの障害有無(経路切替可否)と常時管理するテーブルなどを持つこととする。リングIDの接続順序については、何らかの手段により設定されることとする。各リングの障害の有無は、各リングから周期的に受信するR-APSフレームを監視し、R-APS(NR,RB)を複数のポートから周期的に受信したリングについては障害なし、R-APS(SF)を周期的に受信したリングについては障害あり、R-APSを受信しないリングについては不明と判断する。
 マルチリング管理部21dの障害管理部31は、これらの自ノード情報、共有ノード情報、リング属性情報、全リング情報、マルチリングネットワークにおける障害状態をネットワーク内に転送するR-APSフレームに格納されている情報(障害の有無や障害を検出したリングIDやノードID)、ポート情報(障害を検出したポートの情報)から、障害発生リングの有無、および共有リンクの障害の有無を判別する障害監視部311を備える。
 また、障害管理部31は、メジャーリング内に共有リンク以外の障害が発生した場合や、共有リンクに障害が発生後にメジャーリング内に共有リンク以外で障害が発生した場合や、共有リンクを終端するマスタノードとスレーブノードでメジャーリングの情報が一致しない場合などに、サブリングとメジャーリングに対応するリングIDを切替える切替処理部312を備える。各リンクの障害発生確率が同じであるとすると、前者の場合(メジャーリング内に共有リンク以外の障害が発生した場合)は、メジャーリングとなるリングを変更する(メジャーリングとするリングIDを変更する)ことにより、1つのリングで共有リンクを含む多重障害の発生する確率を低くすることができる。なお、マルチリングにおける障害が各リング内で同時に発生した場合、障害を通知するR-APSフレームを受信するタイミングが共有リンクの両端の共有ノードで異なるため、メジャーリングとサブリングの認識が両端の共有ノードで異なってしまう場合がある。これを避けるため、共有リンクにおける障害発生時には、スレーブノードが自ノードの共有リンクのメジャー/サブリングの識別情報をマスタノードにおける共有リンクのメジャー/サブリングの識別情報に合わせることで、共有リンクの両端の共有ノードにおけるメジャーリングとサブリングの認識を一致させる。
 また、マルチリング管理部21dの障害管理部31では、受信するR-APSフレームを常時監視し、全リング情報管理部に通知する。
 また、マルチリング管理部21dの障害管理部31は、全リングや共有リンクの障害状態や切替処理の結果に基づき、R-APSフレームの転送/送信処理を行う出力制御部313を備える。
 次に、共有ノードのマルチリング管理部21dにおいて、新たに障害を検出した場合の処理について説明する。図47は、障害を検出した場合のマルチリング管理部21dにおける処理(障害発生処理)手順の一例を示すフローチャートである。なお、共有リンク中間ノードが存在する場合は、この障害発生処理は、共有リンク中間ノード以外の共有ノード、すなわち共有リンクを終端する共有リンク終端ノードが実施する。
 図47に示すように、マルチリング管理部21dは、まず、Major側に障害が発生したか否かを判断する(ステップS91)。具体的には、マルチリング管理部21dは、メジャーリングに属するノードから受信したR-APSフレームに基づいて、メジャーリングに障害が発生したか否かを判断する。
 Major側で障害が発生した場合(ステップS91 Yes)、マルチリング管理部21dは、共有リンク以外で障害が発生したか否かを判断する(ステップS92)。共有リンクで障害が発生したか否かは、保持している共有ノード情報とR-APSフレームに基づいて判断することができる。共有リンク以外で障害が発生した場合(ステップS92 Yes)、サブリングで障害が発生中であるか否かを判断する(ステップS93)。マルチリング管理部21dは、サブリングに属するノードから受信したR-APSフレームに基づいて、サブリングに障害発生状態を管理しており、これにより、サブリングで障害が発生中であるか否かを判断することができる。
 サブリングで障害が発生中でない場合(ステップS93 No)、マルチリング管理部21dは、MajorとSubを切替える(ステップS94)。すなわち、図43の状態であった場合に、メジャーリングであるリングID=1のリングをサブリングに変更し、サブリングであるリングID=2のリングをメジャーリングに変更する。
 サブリングでも障害が発生中である場合(ステップS93 Yes)、共有リンクで障害が発生していないか否か判断する(ステップS101)。共有リンクで障害が発生していない場合(ステップS101 No)は、共有リンクに属する両方のリングにおいて、共有リンク以外で障害が発生しているため、予め決められている優先度の高いリングIDを持つリングをメジャーリングとする(ステップS106)。例えば、リングIDの優先度が(リングID=1)>(リングID=2)とすると、リングID=1がメジャーリング、リングID=2がサブリングとする。共有リンクで障害が発生していた場合(ステップS101 Yes)は、経路切り替え可能なリングがあるか否かを判断する(ステップS102)。具体的には、リング管理テーブルに基づいて障害が発生しておらず迂回路となるリングがあるか否かを判断する。経路切り替え可能なリングがある場合(ステップS102 Yes)は、MajorとSubを切替える(ステップS103)。そして、自身が共有リンクマスタノードであるか否かを判断し(ステップS104)、共有リンクマスタノードである場合(ステップS104 Yes)、障害が発生したリングのERPポートのFDBをクリアし、経路切り替え要求を有効にしたR-APSフレームを経路切り替え可能なリングの共有リンクマスタノードが接続されるポートに対して転送し(ステップS105)、ステップS100へ進む。
 サブリングでも障害が発生中でない場合(ステップS93 No)、図36のステップS44~S50と同様のステップS94~ステップS100を実施する。経路切り替え可能なリングがない場合(ステップS102 No)は、ステップS96へ進む。
 上記により、複数の共有リンクの多重障害で、かつ、リング内の多重障害が発生した場合でも、遠隔のリングで経路を切り替えることにより、複数の共有リンクのMajorとSubを切替ることで、通信を継続することができる。
 上記により、共有リンクの障害を管理するメジャーリングが共有リンクマスタノードとスレーブノードで一致した後、両リングのERPポートのFDBをクリアし、サブリングからメジャーリングへのR-APSフレームの転送機能を有効にする。また、両リングでこの転送機能を有効にすることにより、共有リンクに障害が発生したことによりサブリング側で共有リンクの障害により転送できないフレームをメジャーリング経由で転送することができる。なお、各リングでは、通常と同様に初期状態では受信したフレームとポート番号をFDBに登録し、FDBを用いて転送を行っているとする。
 次に、本実施の形態の動作例について説明する。初めに、マルチリングネットワーク内に障害が発生していない場合の動作について説明する。図43に示すように、各リングのRPLオーナーであるノード2、ノード6、ノード8の一方のポートが閉塞され、障害検出なしであるR-APS(NR,RB)フレームが各RPLオーナーから送信される。ノード1,4,5,6の共有ノードは、各リングに接続されるポートから入力されたR-APSフレームに対して、R-APSフレームに格納されたリングIDのERP処理を実施した後、共有リンク(共有リンク10-1または10-2)が接続されるポートに当該フレームを転送する。また、共有リンク10-1,10-2から受信したR-APSフレームに対しても、同様に該当のR-APSフレームに格納されたリングIDのERP処理を実施した後、転送先のリングが接続されるポートに転送する。
 次に、マルチリングネットワーク内で障害が発生した場合の動作について説明する。図48は、共有リンク10-1と共有リンク10-2の障害が発生した様子を示す図である。図48に示すように、共有リンク10-1と共有リンク10-2に障害が発生した場合、共有リンク10-1のメジャーリングであるリングID=1と共有リンク10-2のメジャーリングであるリングID=2とでは共有リンク10-1のノード1,4間、共有リンク10-2のノード5,6間で障害が発生しているため、各リングにて障害検出ポートで閉塞され、R-APS(SF)フレームがノード1,4、5,6から送信され、RPLオーナーであるノード8のデフォルトの閉塞ポートは閉塞解除される。共有ノードであるノード1,4、5,6は、共有リンク10-1,10-2の障害検出により、図47のフローに従い、各リングでのサブリングであるリングID=2、3のリング側からR-APSフレームを受信すると、ERP処理を実施し、メジャーリングであるリングID=1,2のリング側にR-APSフレームを転送する。
 図49は、2つの共有リンク10-1,10-2に障害が発生後、共有リンク10-1に対するメジャーリングに障害が発生した様子を示す図である。図49は、図48で示したように共有リンク10-1,10-2の障害発生後、さらに、共有リンク10-1に対するメジャーリングのノード3,4間で障害が発生した例を示している。共有リンクはメジャーリングで障害処理を行うことになっているが、新たに共有リンク10-1のメジャーリングの共有リンク10-1以外の場所であるノード3,4間で障害が発生すると、ノード3,4の障害を検出したポートが閉塞し、ノード3,4からR-APS(SF)フレームがリングID=1のリングに送信される。この時、共有ノードであるノード1,4は、リングID=1のリングに接続されるポートから入力されたR-APSフレームまたは障害検出により、メジャーリングの多重障害と判断し、図47のフローに従い、経路切り替え可能なリングがあるか否か判断する。図48において、共有ノードであるノード1,4では、リングID=3のR-APS(NR,RB)を共有リンク10-1が接続されるポート以外の2つのポートから受信しており、各共有ノードの図46に示す全リングのリング管理テーブルでは、リングID=3は障害がなく、経路切り替えが可能なリングであると判断し、共有リンク10-1に対するメジャーリングとサブリングを切替え、共有リンクマスタノードであるノード1からノード6側に、メジャーリングの障害を検出用で経路切り替え要求が有効であることを示す情報を格納したR-APS(SF)が転送され、共有リンク10-2の共有ノード6が受信する。
 ノード6は、共有リンク10-2のメジャーリングであるリングID=2のリングの共有リンク10-2以外の障害を検出し、図47のフローに従い、共有リンク10-2に対するメジャーリングとサブリングを切替える。これにより、共有リンク10-2に対しては、リングID=3のリングがメジャーリングとなり、共有ノードであるノード5,6から、共有リンク10-2における障害検出用のR-APS(SF)フレームがリングID=3のリング側のポートに対し出力され、リングID=3のリングのRPLオーナーであるノード8が受信し、図49に示すように閉塞ポートを閉塞解除する。共有ノードであるノード1,4では、リングID=1のリング側のポートから受信したR-APSフレームは、共有リンク10-1で障害が発生しているため、リングID=2のリング側に転送される。また、ノード5,6でリングID=2のリング側のポートから受信したR-APSフレームは、共有リンク10-2で障害が発生しているため、リングID=3のリング側に転送される。このような多重障害時にも各ノード間の通信が可能である。
 以上のように、本実施の形態では、3つのリングが2つの共有リンクにより接続される構成を例にして、2つの共有リンクで障害が発生し、かつメジャーリングの共有リンク以外の障害を検出した場合に、各共有ノードでメジャーリングとサブリングを切替える動作を示した。このように、3つのリングが2つの共有リンクにより接続される場合にも、メジャーリング内で共有リンクを含む多重障害が発生した場合に、迂回路を設定することができ、通信を継続することができる。
 以上のように、本発明にかかる通信システム、通信装置およびプロテクション方法は、マルチリングネットワークに有用である。
 1~8 ノード、10,10-1,10-2 共有リンク、11-1~11-n 入力処理部、12 多重部、13 転送先管理部、14,14a,14b ERP制御部、15 バッファメモリ、16 バッファ制御部、17-1~17-n 出力処理部、21,21a,21b,21c マルチリング管理部、22-1~22-3,25 ERP処理部、23,32 自ノード情報管理部、24 フレーム識別部、31,31a 障害管理部、33 共有ノード情報管理部、34 リング属性情報管理部、35 全リング情報管理部、311,311a 障害監視部、312,312a 切替処理部、313,313a 出力制御部。

Claims (16)

  1.  複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムであって、
     前記共有リンクを終端する前記通信装置である共有装置は、
     前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視部と、
     前記障害監視部による障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替処理部と、
     前記切替処理部により切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理部と、
     を備えることを特徴とする通信システム。
  2.  前記通信装置は、前記リングネットワークで障害の発生の有無を通知する障害監視制御フレームを送信する際に、前記障害監視制御フレームに自ノードが属するリングネットワークを示す情報と当該リングネットワークがメジャーリングであるかサブリングであるかを示す識別情報とを格納して送信し、他の前記通信装置から前記障害監視制御フレームを受信すると、隣接する前記通信装置へ当該障害監視制御フレームを転送し、
     前記リング処理部は、前記切替処理部により切替が行われた場合、前記障害監視制御フレームに切替後の前記識別情報を格納して隣接する前記通信装置へ当該障害監視制御フレームを転送または送信することを特徴とする請求項1に記載の通信システム。
  3.  前記共有装置は、
     前記共有リンクに障害が発生したことにより、サブリングに設定されている前記リングネットワークから受信した前記障害監視制御フレームを当該リングネットワーク内で転送できない場合に、当該障害監視制御フレームをメジャーリングに設定されている前記リングネットワークへ転送することを特徴とする請求項2に記載の通信システム。
  4.  前記共有リンクを終端する2つの前記共有装置の一方をマスタ共有装置とし、もう一方をスレーブ共有装置とし、
     前記共有リンクに障害が発生したことにより、前記マスタ共有装置が前記障害監視制御フレームをメジャーリングに設定されている前記リングネットワークへ転送し、
     前記スレーブ共有装置は、前記マスタ共有装置によりメジャーリング側に転送された前記障害監視制御フレームを受信するまでは前記共有リンクからの障害監視制御フレームを転送せず、前記マスタ共有装置から転送された前記共有リンクの障害を通知する前記障害監視制御フレームを受信した場合に、前記スレーブ共有装置のメジャーリングとなるリングネットワークを識別するリング属性情報をマスタ共有装置のメジャーリングのリング属性情報と一致するように変更し、メジャーリングに対して共有リンクからの障害監視制御フレームを転送することを特徴とする請求項2に記載の通信システム。
  5.  前記共有リンクを終端する2つの前記共有装置の一方をマスタ共有装置とし、もう一方をスレーブ共有装置とし、
     前記通信システムを構成する全てのリングネットワークの接続順序の情報を保持し、各リングネットワークにおいて周期的に送信される障害監視制御フレームを受信することにより、各リングネットワークの障害状態の有無を監視することを特徴とする請求項2に記載の通信システム。
  6.  前記リングネットワークでは、ERPにより前記リングプロテクションを実施し、前記障害監視制御フレームをR-APSフレームとすることを特徴とする請求項2から5のいずれか1つに記載の通信システム。
  7.  前記切替処理部は、メジャーリングとして設定されている前記リングネットワークにおいて前記共有リンク以外で障害が発生した場合に、当該リングネットワークをサブリングに変更し、サブリングとして設定されている前記リングネットワークのうち障害の発生していない前記リングネットワークをメジャーリングに変更することを特徴とする請求項1から6のいずれか1つに記載の通信システム。
  8.  予めリング情報として前記リングネットワークごとに優先度が設定され、
     前記切替処理部は、前記通信システムを構成する前記リングネットワークの少なくとも1つにおいて前記共有リンク以外で障害が発生した場合に、全ての前記リングネットワークの中で最も優先度の高いリング情報を持つ前記リングネットワークをメジャーリングに変更し、変更前のメジャーリング以外の全ての前記リングネットワークをサブリングに変更することを特徴とする請求項1から6のいずれか1つに記載の通信システム。
  9.  前記切替処理部は、複数の前記共有リンクに障害が発生し、リングネットワーク内で共有リンクと共有リンク以外との多重障害が発生した場合に、障害が発生している複数の共有リンクのメジャーリングをサブリングに変更することを特徴とする請求項1から6のいずれか1つに記載の通信システム。
  10.  2つの前記リングネットワークで1つの前記共有リンクを共有することを特徴とする請求項1から9のいずれか1つに記載の通信システム。
  11.  3つ以上の前記リングネットワークで1つの前記共有リンクを共有することを特徴とする請求項1から9のいずれか1つに記載の通信システム。
  12.  前記共有リンクを複数有し、前記共有リンクごとに当該共有リンクを共有する前記リングネットワークに関してメジャーリングとサブリングを切替える前記共有装置を備えることを特徴する請求項1から11のいずれか1つに記載の通信システム。
  13.  複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムにおいて、前記共有リンクを終端する前記通信装置であって、
     前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視部と、
     前記障害監視部による障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替処理部と、
     前記切替処理部により切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理部と、
     を備えることを特徴とする通信装置。
  14.  複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとする通信システムにおけるプロテクション方法であって、
     前記共有リンクを終端する前記通信装置である共有装置が、前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視ステップと、
     前記共有装置が、前記障害監視ステップによる障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替ステップと、
     前記切替ステップで切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理ステップと、
     を含むことを特徴とするプロテクション方法。
  15.  複数の通信装置をリング状に接続したリングネットワークを2つ以上備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記リングネットワークのうちの1つを前記リングネットワーク間で共有する伝送路である共有リンクの障害を検出するメジャーリングとし、前記メジャーリング以外の前記リングネットワークを前記共有リンクの障害を監視しないサブリングとし、前記共有リンクを終端する前記通信装置のうちの1つを前記メジャーリングとサブリングを決定するマスタノードとし、前記マスタノード以外の前記共有リンクを終端する前記通信装置をスレーブノードとする通信システムにおけるプロテクション方法であって、
     前記共有リンクを終端する前記通信装置である共有装置が、前記共有リンクを共有する2つ以上の前記リングネットワークについてそれぞれ前記リングネットワーク内の障害を検出し、前記共有リンクの障害を検出する障害監視ステップと、
     前記共有装置が、前記障害監視ステップによる障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替ステップと、
     前記切替ステップで切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知するリング処理ステップと、
     を含むことを特徴とするプロテクション方法。
  16.  複数の通信装置をリング状に接続したリングネットワークを3つ以上備え、前記リングネットワークは互いに隣り合う2つのリングネットワーク間で共有する伝送路である共有リンクを備え、前記リングネットワークごとに単一ポートを閉塞ポートとして閉塞させて障害発生時には閉塞ポートを障害発生ポートに切替えるリングプロテクションを実施し、前記共有リンクを共有する前記2つのリングネットワークのうちの1つを共有リンクの障害を検出するメジャーリングとし、前記メジャーリングでない前記リングネットワークを前記共有リンクの障害を監視しないサブリングとし、前記共有リンクを終端する前記通信装置のうちの1つを前記メジャーリングとサブリングを決定するマスタノードとし、前記マスタノード以外の前記共有リンクを終端する前記通信装置をスレーブノードとする通信システムにおけるプロテクション方法であって、
     各共有リンクを終端する共有装置が、前記共有リンクを共有する前記リングネットワークについてそれぞれ前記リングネットワーク内の複数の障害を検出し、前記共有リンクの障害を検出する障害監視ステップと、
     前記共有装置が、全てのリングネットワークの接続状態を保持し、監視し得るリングネットワークの障害状態を監視するステップと、
     前記共有装置が、前記障害監視ステップによる障害の検出結果に基づいて、メジャーリングとサブリングの切替を実施する切替ステップと、
     前記切替ステップで切替が行われた場合、切替後のメジャーリングを示す情報を前記リングネットワークに通知し、障害がなく経路の切替が可能なリングネットワークに対してはメジャーリングとサブリングの切替を要求するリング処理ステップと、
     を含むことを特徴とするプロテクション方法。
PCT/JP2014/054765 2013-06-12 2014-02-26 通信システム、通信装置およびプロテクション方法 WO2014199670A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015522577A JP5955461B2 (ja) 2013-06-12 2014-02-26 通信システム、通信装置およびプロテクション方法
CN201480032747.3A CN105324959B (zh) 2013-06-12 2014-02-26 通信系统、通信装置以及保护方法
US14/897,094 US9787496B2 (en) 2013-06-12 2014-02-26 Communication system, communication apparatus, and protection method
DE112014002835.5T DE112014002835T5 (de) 2013-06-12 2014-02-26 Kommunikationssystem, Kommunikationsvorrichtung und Schutzverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/JP2013/066260 WO2014199471A1 (ja) 2013-06-12 2013-06-12 通信システム、通信装置およびプロテクション方法
JPPCT/JP2013/066260 2013-06-12

Publications (1)

Publication Number Publication Date
WO2014199670A1 true WO2014199670A1 (ja) 2014-12-18

Family

ID=52021802

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2013/066260 WO2014199471A1 (ja) 2013-06-12 2013-06-12 通信システム、通信装置およびプロテクション方法
PCT/JP2014/054765 WO2014199670A1 (ja) 2013-06-12 2014-02-26 通信システム、通信装置およびプロテクション方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/066260 WO2014199471A1 (ja) 2013-06-12 2013-06-12 通信システム、通信装置およびプロテクション方法

Country Status (5)

Country Link
US (1) US9787496B2 (ja)
JP (1) JP5955461B2 (ja)
CN (1) CN105324959B (ja)
DE (1) DE112014002835T5 (ja)
WO (2) WO2014199471A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014201373A1 (de) * 2014-01-27 2015-07-30 Robert Bosch Gmbh Verfahren zum Betreiben eines redundanten Kommunikationsnetzwerkes
JP2016122896A (ja) * 2014-12-24 2016-07-07 日立金属株式会社 中継システムおよびスイッチ装置
US20160204976A1 (en) * 2015-01-14 2016-07-14 Rajnath Singh Identifying the absence and presence of a ring protection link owner node in an ethernet network
EP3306864B1 (en) * 2015-05-26 2019-09-25 Hitachi Automotive Systems, Ltd. Communication device and communication system
AT517779B1 (de) * 2015-10-01 2021-10-15 B & R Ind Automation Gmbh Verfahren zum Querverkehr zwischen zwei Slaves eines ringförmigen Datennetzwerks
WO2017146718A1 (en) * 2016-02-26 2017-08-31 Hewlett Packard Enterprise Development Lp Ring protection network division
KR102390465B1 (ko) * 2016-04-14 2022-04-22 현대자동차주식회사 네트워크에서 전원 관리 방법 및 장치
US10135715B2 (en) * 2016-08-25 2018-11-20 Fujitsu Limited Buffer flush optimization in Ethernet ring protection networks
TWI633773B (zh) * 2016-10-19 2018-08-21 神雲科技股份有限公司 電腦叢集系統
JP6559390B2 (ja) * 2017-08-23 2019-08-14 三菱電機株式会社 転送装置、転送方法および転送プログラム
CN109495286B (zh) * 2017-09-13 2021-11-12 中兴通讯股份有限公司 相交环复用段告警检测方法及装置、计算机可读存储介质
CN108366013B (zh) * 2018-02-26 2021-05-28 新华三技术有限公司 一种报文转发方法及装置
CN111903097B (zh) * 2018-03-30 2022-02-22 三菱电机株式会社 传输装置、传输方法和计算机可读取的存储介质
WO2020016901A1 (en) * 2018-07-18 2020-01-23 Telefonaktiebolaget Lm Ericsson (Publ) A method in an ethernet ring protection switching (erps) network of handling a sub-ring link failure
JP7183853B2 (ja) * 2019-02-15 2022-12-06 日本電信電話株式会社 ネットワーク装置、ネットワークシステム、ネットワーク接続方法、およびプログラム
US11212164B2 (en) * 2019-04-22 2021-12-28 Hewlett Packard Enterprise Development Lp Preventing multicast outages in ring networks
CN115714698B (zh) * 2022-09-26 2024-04-16 重庆长安汽车股份有限公司 车载以太网的环网通信方法、装置、车辆及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136013A (ja) * 2006-11-29 2008-06-12 Alaxala Networks Corp リングネットワークを構成する装置
WO2012086019A1 (ja) * 2010-12-21 2012-06-28 三菱電機株式会社 通信装置、通信システムおよび通信方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040252688A1 (en) * 2001-08-28 2004-12-16 May George Anthony Routing packets in frame-based data communication networks
US6766482B1 (en) * 2001-10-31 2004-07-20 Extreme Networks Ethernet automatic protection switching
ATE403304T1 (de) * 2005-05-31 2008-08-15 Nokia Siemens Networks Gmbh Methode zur schutzumschaltung
CN100401712C (zh) * 2005-10-14 2008-07-09 杭州华三通信技术有限公司 以太网自动保护系统相切环的故障处理方法
CN100454880C (zh) * 2006-11-01 2009-01-21 华为技术有限公司 一种实现环网保护的方法及系统
CN101232427A (zh) * 2007-01-23 2008-07-30 华为技术有限公司 一种以太网环保护方法及装置
US8345576B2 (en) * 2007-06-19 2013-01-01 Red Hat, Inc. Methods and systems for dynamic subring definition within a multi-ring
JP4874185B2 (ja) 2007-07-19 2012-02-15 アラクサラネットワークス株式会社 多重障害対処システムおよびそれに用いる共有リンク終端装置
CN101662421B (zh) * 2008-08-28 2012-09-05 中兴通讯股份有限公司 基于以太多环网的控制报文的传输方法和装置
CN101741672B (zh) * 2008-11-07 2012-04-04 中兴通讯股份有限公司 自动保护通道的切换方法和装置
CN101741670B (zh) * 2008-11-27 2012-12-19 中兴通讯股份有限公司 一种多环以太网的保护方法
US8203932B2 (en) * 2008-12-02 2012-06-19 Electronics And Telecommunications Research Institute Method and system for protection switching in ethernet ring
KR101252828B1 (ko) * 2009-07-24 2013-04-11 한국전자통신연구원 Vlan기반 브리지의 이더넷 링 네트워크 관리 방법
CN101997748B (zh) * 2009-08-28 2015-08-12 中兴通讯股份有限公司 无虚拟通道的子环控制信道阻塞协议报文的方法和系统
CN101645812A (zh) * 2009-08-31 2010-02-10 武汉烽火网络有限责任公司 一种以太网相交环保护倒换方法
US9276767B2 (en) * 2010-05-10 2016-03-01 Telefonaktiebolaget L M Ericsson Ring node, an ethernet ring and methods for loop protection in an ethernet ring
US9491041B2 (en) * 2011-03-07 2016-11-08 Tejas Networks Limited Ethernet chain protection switching
US8804748B2 (en) * 2011-03-31 2014-08-12 Nokia Siemens Networks Ethernet Solutions Ltd. Hitless node insertion for Ethernet networks
JP2013157682A (ja) 2012-01-27 2013-08-15 Mitsubishi Electric Corp リング接続ノード、マルチリングネットワークおよび経路切替方法
US9716652B2 (en) * 2012-03-05 2017-07-25 Telefonaktiebolaget L M Ericsson (Publ) Handling of data transfers in a network with a ring topology
US8659993B2 (en) * 2012-05-04 2014-02-25 Extreme Networks, Inc. Priority domains for protection switching processes
US9559863B2 (en) * 2012-09-05 2017-01-31 Brocade Communications Systems, Inc. MAC flush optimizations for ethernet rings
US9148346B2 (en) * 2012-09-05 2015-09-29 Brocade Communications Systems, Inc. Multiple ring identification and configuration protocol
US9264348B2 (en) * 2012-09-14 2016-02-16 Juniper Networks, Inc. Avoiding data traffic loss in an ethernet ring multihomed, in an active-standby manner, to a virtual private LAN service transport network
US9319240B2 (en) * 2013-09-24 2016-04-19 Ciena Corporation Ethernet Ring Protection node

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136013A (ja) * 2006-11-29 2008-06-12 Alaxala Networks Corp リングネットワークを構成する装置
WO2012086019A1 (ja) * 2010-12-21 2012-06-28 三菱電機株式会社 通信装置、通信システムおよび通信方法

Also Published As

Publication number Publication date
WO2014199471A1 (ja) 2014-12-18
DE112014002835T5 (de) 2016-03-24
CN105324959B (zh) 2018-10-23
US20160142225A1 (en) 2016-05-19
CN105324959A (zh) 2016-02-10
US9787496B2 (en) 2017-10-10
JP5955461B2 (ja) 2016-07-20
JPWO2014199670A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP5955461B2 (ja) 通信システム、通信装置およびプロテクション方法
EP1575221B1 (en) Ethernet automatic protection switching
US20080068985A1 (en) Network redundancy method and middle switch apparatus
JP2009005053A (ja) パケットリングネットワークシステム、パケット転送方法
US20130177021A1 (en) Communication device, communication system and communication method
US9819536B2 (en) Relay system and switching device
EP1894357A1 (en) Method for protection switching
US8072878B2 (en) Packet ring network system, packet transfer system, redundancy node, and packet transfer program
JP6275323B2 (ja) 中継装置および通信システム
JP4705492B2 (ja) リングノード装置及びリングノード冗長方法
US20140219080A1 (en) Method and apparatus for interworking protection switching
JP2008167315A (ja) 回線冗長接続方法および広域通信網ノード装置
JP5580787B2 (ja) ネットワーク中継装置、その制御方法
JP4895972B2 (ja) リングプロトコル高速切替方法およびその装置
US9197441B2 (en) Method and system for service protection
JP5029612B2 (ja) パケットリングネットワークシステム、パケット転送方法およびインタリンクノード
US20220141123A1 (en) Network device, network system, network connection method, and program
JP2001186159A (ja) リング伝送システム及びそのスケルチ方法
JP5006342B2 (ja) 交換システム
JP5635029B2 (ja) 通信ネットワーク、中継ノードおよび通信経路切替方法
JP5622687B2 (ja) 相互接続ノード、通信システムおよび通信方法
JP4455105B2 (ja) 冗長経路を有するリングネットワークシステムとそのシステムに使用される転送装置
JP2005033243A (ja) リングネットワークおよびリングネットワークにおける通信方法
KR101235376B1 (ko) 이더넷 링 보호 절체 방법 및 시스템
JP2013157682A (ja) リング接続ノード、マルチリングネットワークおよび経路切替方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480032747.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14810774

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015522577

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14897094

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112014002835

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14810774

Country of ref document: EP

Kind code of ref document: A1