WO2013145150A1 - 通信装置、通信方法、及び通信プログラム - Google Patents

通信装置、通信方法、及び通信プログラム Download PDF

Info

Publication number
WO2013145150A1
WO2013145150A1 PCT/JP2012/058127 JP2012058127W WO2013145150A1 WO 2013145150 A1 WO2013145150 A1 WO 2013145150A1 JP 2012058127 W JP2012058127 W JP 2012058127W WO 2013145150 A1 WO2013145150 A1 WO 2013145150A1
Authority
WO
WIPO (PCT)
Prior art keywords
network
frame
node
list
information
Prior art date
Application number
PCT/JP2012/058127
Other languages
English (en)
French (fr)
Inventor
澤田 順一
竜 小林
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2012/058127 priority Critical patent/WO2013145150A1/ja
Priority to JP2014507118A priority patent/JP5907252B2/ja
Publication of WO2013145150A1 publication Critical patent/WO2013145150A1/ja
Priority to US14/497,702 priority patent/US9614718B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/437Ring fault isolation or reconfiguration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/46Interconnection of networks
    • H04L12/4637Interconnected ring systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/74Address processing for routing

Definitions

  • the present invention relates to a communication apparatus, a communication method, and a communication program in a cascade topology network.
  • RPR Silicon Packet Ring
  • NTN Next Generation Network
  • RPR is standardized as IEEE 802.17.
  • RPR is a technique for efficiently using a high-speed line of 10 Gbit / s in units of frames.
  • IEEE 802.17 a ring topology and a cascade topology are defined as the connection form of each node.
  • FIG. 1 is a diagram illustrating an example of a ring topology.
  • the ring topology is a form in which each node is connected in a ring shape.
  • the RPR ring topology can be restored within 50 ms when a failure occurs, which is a measure of the solubility of the communication service provided by the communication carrier.
  • the IEEE 802.17 specification when a ring topology is constructed, there is a restriction that all transmission paths on the ring are set to RPR.
  • FIG. 2 is a diagram showing an example of a cascade topology.
  • the cascade topology is a form in which nodes are connected in series.
  • the cascade topology there is a high possibility that the network is divided due to a single transmission line failure and communication is impossible.
  • FIG. 3A is a diagram illustrating an example of an RPR network having a cascade topology.
  • the ring devices # 1 to # 5 construct an RPR network having a cascade topology.
  • Each of the ring devices # 1 to # 5 transmits an RPR control frame at a predetermined interval, learns the topology with control frames from other ring devices, and creates its own node information.
  • the own node information is information indicating the arrangement order of the nodes in the RPR network.
  • the local node information is created for each interface connected to the RPR network.
  • the own node information includes the node ID of the ring device located in the corresponding interface direction and the number of hops from the own device.
  • FIG. 3A shows the own node information that the ring device # 1 and the ring device # 5 have.
  • the own node information of ring device # 1 located at one end of the cascade topology in FIG. 3A is, for example, ring device # 1 (own device) at 0 hop, ring device # 2,. . . Ring device # 5 is located at a distance of 4 hops.
  • the ring device # 1 and the ring device # 5 transmit the RPR frame
  • the ring device # 1 and the ring device # 5 search the destination node with the own node information, and when the destination node exists in the own node information, the interface corresponding to the own node information Transmits an RPR frame.
  • the ring device # 1 and the ring device # 5 are nodes located at the end of the cascade topology, and have an interface connected to one RPR network, and thus each own node information is held. However, since the ring devices # 2 to # 4 each include an interface connected to two RPR networks, a total of two own node information for each interface is provided.
  • the ring apparatuses # 2 to # 4 search the destination node with the own node information corresponding to each interface, and the RPR frame is received from the interface corresponding to the own node information where the destination node exists. Send. If no destination node exists in any of the own node information, the frame is discarded.
  • FIG. 3B is a diagram illustrating an example when a failure occurs in the RPR network having the cascade topology illustrated in FIG. 3A.
  • a failure has occurred in the transmission path between the ring device # 2 and the ring device # 3.
  • the ring device # 2 and the ring device # 3 connected to the transmission path in which the failure has occurred respectively detect the failure occurrence and transmit a failure notification to the other ring devices.
  • FIG. 3B shows the own node information of ring device # 1 and ring device # 5.
  • ring device # 1 receives a failure notification from ring device # 2. After that, since the information of the ring devices # 3, # 4, and # 5 that are positioned ahead of the transmission path where the failure has occurred is not received, the ring device # 3, # 4, and # 5 of the ring devices # 3, # 4, and # 5 are obtained from the node information of the ring device # 1 Information is deleted. Accordingly, the ring device # 1 cannot transmit a frame to the ring devices # 3, # 4, and # 5 because the information of the ring devices # 3, # 4, and # 5 does not exist in the own node information.
  • ring device # 5 receives the failure notification transmitted from ring device # 3. Since the information of the ring devices # 1 and # 2 positioned at the tip of the transmission path in which the failure has occurred as viewed from the ring device # 5 is not received, the information of the ring devices # 1 and # 2 from the own node information of the ring device # 5 Is deleted. Accordingly, the ring device # 5 cannot transmit a frame to the ring devices # 1 and # 2 because the information of the ring devices # 1 and # 2 does not exist in its own node information.
  • ring device # 2 loses its own node information corresponding to the interface connected to the transmission path in which the failure occurred, and therefore cannot transmit a frame to ring devices # 3- # 5. Since ring device # 3 loses its own node information corresponding to the interface connected to the transmission path in which the failure has occurred, it cannot transmit a frame to ring devices # 1 and # 2. Since the ring device # 4 does not receive the information of the ring devices # 1 and # 2, the information of the ring devices # 1 and # 2 is deleted from its own node information, and the frame can be transmitted to the ring devices # 1 and # 2. Disappear.
  • An object of one embodiment of the present invention is to provide a communication device, a communication method, and a communication program for providing a first network having a cascade topology with a detour by a second network different from the first network. .
  • One aspect of the present invention is a communication apparatus that connects to a terminal of a first network in a cascade topology and connects to a second network having a frame format different from that of the first network,
  • a first list including information of a communication device in the first network that is a destination of transmission of a frame via the first network is located at the other end of the first network, and the second list
  • a transmitting unit that connects to the other network and transmits to the opposite communication device in the second network
  • a receiving unit that receives, from the opposing communication device, a second list including information on the communication device in the first network that is a destination of transmission of the frame via the first network of the opposing communication device;
  • a determination unit that determines whether a destination of a frame is included in the first list or the second list;
  • a frame transmission unit configured to transmit the frame to the second network when a destination of the frame received from the first network is included in the second list; It is a communication
  • Another aspect of the present invention is a communication method executed by the communication apparatus described above.
  • the other aspect of this invention can include the communication program which makes a computer function as a communication apparatus, and the computer-readable recording medium which recorded the said communication program.
  • the computer-readable recording medium refers to a recording medium in which information such as data and programs is accumulated by electrical, magnetic, optical, mechanical, or chemical action and can be read from the computer or the like.
  • the disclosed communication device, communication method, and communication program it is possible to provide a detour route by a second network different from the first network to the first network having the cascade topology.
  • FIG. 3A It is a figure which shows an example of a ring type topology. It is a figure which shows an example of a cascade type
  • FIG. 6 is a diagram showing an example of transition by frame conversion in the communication system according to the first embodiment. It is a figure which shows an example of the hardware constitutions of a ring apparatus. It is a figure which shows an example of the functional block of a ring apparatus. It is an example of the flowchart of the process which concerns on management of own node information.
  • FIG. 10 is an example of a flowchart of frame transfer processing when a frame is received in the LAN IF when a failure of the cascade NW occurs.
  • the bypass NW is shared by two RPR networks, RPR1 and RPR2. It is a figure which shows the example of the transition by the conversion of the flame
  • FIG. 4 is a diagram showing a detour design plan 1 in a cascade topology.
  • nodes located at both ends of the RPR network of the cascade topology are connected by Ethernet, and thereby a detour is constructed.
  • a node located at the end of the RPR network of the cascade topology and located at the boundary between the RPR network and the Ethernet is hereinafter referred to as a boundary node.
  • a cascade type RPR network is also referred to as a cascade NW.
  • design plan 1 has the following problems. For example, when a failure occurs in a transmission path in the RPR network, when the LAN side networks of the boundary nodes are connected, STP (Spanning Tree Protocol) is executed in the LAN. Since execution of this STP takes several seconds, the switching time when a failure occurs in the design plan 1 exceeds the switching time (within 50 ms), which is a measure of availability. Also, for example, when a frame passes through a detour (Ethernet), it cannot be passed in the RPR format, so that the RPR header is removed from the frame and becomes an original Ethernet frame. Therefore, QoS information for the RPR network is lost.
  • the original Ethernet frame refers to an Ethernet frame transmitted from a terminal in an NW (Ethernet) under the ring device. Therefore, when the frame reaches the RPR network again via the detour, proper priority control may not be performed in the RPR network.
  • FIG. 5A is a diagram showing a detour design plan 2 in a cascade topology.
  • the boundary nodes of the RPR network of the cascade topology are connected by Ethernet, and thereby a detour is constructed.
  • the boundary node in order to transmit the frame to the detour (Ethernet), the boundary node encapsulates the RPR frame with the Ethernet frame. By encapsulating with Ethernet, the header of the RPR frame is maintained, and loss of QoS information for the RPR network is prevented.
  • the detour Ethernet
  • FIG. 5B is a diagram showing a format of an Ethernet frame when an RPR frame is encapsulated.
  • the size is increased by an RPR header (26 bytes) and an Ethernet header (18 bytes in total) for encapsulating the RPR frame, compared to a normal Ethernet frame. Therefore, the frame transfer capability in the detour is reduced.
  • the frame size increases, and the frame transfer capability decreases by about 80%. That is, in the case of the design plan 2, the use band of the detour is increased due to an increase in the frame size by encapsulating the RPR frame with the Ethernet.
  • a communication method that maintains a switching time (50 ms), which is a measure of availability, and prevents a reduction in frame transfer capability of a bypass network.
  • FIG. 6A is a diagram for explaining an overview of a communication system having a detour in the first embodiment.
  • the communication system according to the first embodiment includes an RPR network (cascade NW in the figure) having a cascade topology and an Ethernet (detour NW in the figure) as a bypass.
  • Ring devices # 1 to # 5 are connected to the RPR network to construct a cascade topology.
  • Ring device # 1 and ring device # 5 (boundary node) are also connected to Ethernet using a LAN interface.
  • the ring devices # 1 and # 5 which are boundary nodes have opposite node information in addition to their own node information.
  • FIG. 6A shows the own node information and the opposite node information of the ring device # 1 and the ring device # 1.
  • the opposite node information is a copy of the own node information held by the opposite node in the detour NW, in other words, the boundary node at the other end of the cascade NW. Therefore, in the example shown in FIG. 6A, the own node information of the ring device # 1 and the opposite node information of the ring device # 5 are the same. In the example shown in FIG. 6A, the own node information of the ring device # 5 and the opposite node information of the ring device # 1 are the same.
  • each boundary node periodically transmits a copy of its own node information via the detour network and receives the copy of its own node information from the opposite node, thereby acquiring the opposite node information.
  • a copy of the own node information is transmitted by the control frame at a period of 3-10 ms.
  • This opposing node information is information indicating the arrangement order of the nodes in the detour NW direction for each boundary node.
  • the local node information is information indicating the arrangement of nodes in the cascade NW direction for each boundary node.
  • FIG. 6B is a diagram for explaining the outline of the communication system when a failure occurs in the cascade NW.
  • FIG. 6B shows the own node information and the opposite node information of the ring device # 1 and the ring device # 1.
  • the RPR function causes the ring device # 2 and the ring device # 3 to enter the cascade NW.
  • Failure notification is performed.
  • the information of the ring devices # 3, # 4, and # 5 that are located before the location of the failure when viewed from the ring device # 1 is deleted from the own node information of the ring device # 1 that is the boundary node.
  • the information of the ring devices # 1 and # 2 located before the location of the failure as viewed from the ring device # 5 is deleted from the own node information of the ring device # 5 which is another boundary node. Since each boundary node transmits a copy of its own node information, the opposite node information of each boundary node is also updated. That is, the opposite node information of the ring device # 1 is the same as the own node information of the ring device # 5, and is information in which the ring devices # 3, # 4, and # 5 exist. The opposite node information of the ring device # 5 is the same as the own node information of the ring device # 1, and is information in which the ring devices # 1 and # 2 exist. As a result, a node that does not exist in its own node information exists in the opposite node information in the boundary node, and the boundary node can recognize information of all nodes in the communication system even when a failure occurs.
  • the ring device # 3 when a frame is transmitted from the ring device # 1 that is a boundary node to the ring device # 3, the ring device # 3 It does not exist in the node information but exists in the opposite node information. Since the ring device # 1 recognizes that the node existing in the opposite node information exists in the bypass NW direction, the ring device # 1 transmits a frame addressed to the ring device # 3 to the bypass NW. On the other hand, in FIG. 6B, when the ring device # 1 transmits a frame to the ring device # 2, the ring device # 2 exists in its own node information of the ring device # 1. Since the ring device # 1 recognizes that the node existing in the own node information exists in the cascade NW direction, the ring device # 1 transmits a frame addressed to the ring device # 2 to the cascade NW.
  • the self-node information is information on a destination node that transmits a frame via the cascade NW.
  • the opposite node information is information on a destination node that transmits a frame via the detour NW when a failure occurs in the cascade NW. Therefore, the boundary node has the opposite node information that is a copy of the own node information of the opposite node in the detour NW, thereby forming a pseudo ring topology, and when the failure of the cascade NW occurs, the demarcation node quickly Can be switched.
  • FIG. 7A is a diagram for explaining an outline of frame conversion in the communication system according to the first embodiment.
  • the communication system shown in FIG. 7A is a communication system similar to FIG. 6A.
  • the boundary node stores the destination node information included in the header of the RPR frame in the VLAN tag, and inserts the VLAN tag at a predetermined position in the Ethernet frame. .
  • this Ethernet frame is received from the detour NW, the boundary node extracts destination node information from the VLAN tag of the received Ethernet frame, removes the VLAN tag, and adds an RPR header.
  • FIG. 7B is a diagram illustrating an example of transition due to frame conversion in the communication system according to the first embodiment. 7B, in the communication system shown in FIG. 7A, the frame transmitted from the NW (Ethernet) terminal under the ring device # 2 is the ring device # 2, ring device # 1, bypass network, ring device # 5. , Ring device # 4, an example in the case of following a route of NW (Ethernet) terminal under ring device # 4 is shown.
  • the frame FR1 transmitted from the NW (Ethernet) terminal under the ring device # 2 is a normal Ethernet frame.
  • This frame FR1 is given an RPR header by the ring device # 2, and is encapsulated in the RPR frame FR2.
  • the RPR frame FR2 in FIG. 7B a part of the RPR header is extracted and shown.
  • the destination of the Ethernet frame FR1 (original frame) is the NW terminal under the ring device # 4, so the destination node ID in the RPR header is the ring device # 4. .
  • each ring device recognizes the node ID of each ring device and the NW existing under each ring device by the RPR function, the destination NW of the Ethernet frame received from its own subordinate NW Thus, the destination node of the RPR can be acquired.
  • the RPR frame FR2 is transmitted to the ring device # 1 by the ring device # 2.
  • a frame FR3 in FIG. 7B shows the format of the VLAN tag in the first embodiment.
  • an IEEE 802.1Q VLAN tag has a TYPE field of 16 bits, a CFI field of 1 bit, a priority field of 3 bits, and a VLAN ID field of 12 bits.
  • 8 bits of the field storing the VLAN ID are used as the field storing the node ID (Node ID of the frame FR3 in the figure).
  • the remaining 4 bits of the field normally used as the VLAN ID field are reserved fields for future use (RSV field of frame FR3 in the figure).
  • RSV field of frame FR3 in the figure.
  • a value (0x8100) indicating that the frame is normally tagged according to IEEE802.1Q is stored.
  • a predetermined value indicating that the frame is a converted RPR frame. Stores the value.
  • the destination node ID and source node ID fields 6 bytes are prepared for the destination node ID and source node ID fields (DA and SA of frame FR2 in the figure).
  • the present invention is not limited to this, and when the destination node ID uses lower 8 bits or more, for example, the size of the node ID field in the VLAN tag may be changed (maximum 12 bits).
  • Ring device # 1 extracts the destination node ID (6 bytes) from the destination node ID field (DA of frame FR2 in the figure) of the header of the RPR frame FR2 received from the cascade NW. Next, the ring device # 1 deletes the RPR header of the frame FR2, and inserts the VLAN tag at a position defined in IEEE 802.1Q of the Ethernet frame. The node ID field of the VLAN tag stores the lower 8 bits of the destination node ID extracted from the RRP frame FR2. As a result, the RPR frame FR2 is converted into an Ethernet frame FR3. Ring device # 1 transmits this frame FR3 to the bypass NW. Note that the destination MAC address of the Ethernet header of the frame FR3 is the MAC address of the ring device # 5 that is the opposite node. Information such as the MAC address and IP address of the opposite node is set in the boundary node in advance.
  • the frame FR3 arrives at the ring device # 5 which is the other boundary node from the ring device # 1 via the detour NW.
  • ring device # 5 the reverse process of ring device # 1 is performed, and frame FR3 is converted to RPR frame FR4.
  • the ring device # 5 extracts the lower 8 bits of the destination node ID from the node ID field of the VLAN tag of the frame FR3, and adds the padding 40 bits to this to acquire the destination node ID.
  • Ring device # 5 deletes the VLAN tag from the Ethernet header of frame FR3, adds an RPR header, and stores the acquired destination node ID in the destination node ID field of the RPR header.
  • the Ethernet frame FR3 is converted into an RPR frame FR4. Since the destination node of the frame FR4 is the ring device # 4, the ring device # 5 transmits the frame FR4 to the cascade NW.
  • the RPR header is deleted by the ring device # 4 to become the Ethernet frame FR5 which is the original frame. Then, it is transmitted to the NW under the ring device # 4 where the destination terminal exists.
  • the source node information of the RPR frame is rewritten by the frame conversion between the RPR frame and the Ethernet frame executed in the ring device # 1 and the ring device # 5 which are the boundary nodes.
  • the transmission source node ID (SA, 6 bytes in the figure) of the frame FR2 in FIG. 7B is the ring device # 2
  • the transmission source node ID of the frame FR4 is the ring device # 5.
  • node information of the RPR network is attached to the Ethernet frame using an IEEE 802.1Q VLAN tag.
  • the increase in size compared to the normal Ethernet can be suppressed to 4 bytes. Therefore, it is possible to suppress a decrease in transfer capability of the bypass NW.
  • an RPR control frame broadcast by each ring device also flows through the bypass NW.
  • the ring device # 2 that is not the boundary node in FIG. 7A can acquire the information (control frame) of the ring devices # 3- # 5 from the ring device # 1 side via the bypass NW.
  • the ring device # 3- # 5 is present in the own node information corresponding to the interface on the ring device # 1 side, and the ring device # 2 moves in the direction in which the ring device # 1 is located. Recognize that exists.
  • ring device # 2 transmits a frame to ring device # 3- # 5
  • ring device # 2 transmits the frame in the direction in which ring device # 1 exists.
  • the ring device that is not a boundary node can communicate with the ring device existing ahead of the transmission path where the failure has occurred via the bypass NW.
  • FIG. 8 is a diagram illustrating an example of a hardware configuration of the ring device 1.
  • the ring device 1 shown in FIG. 8 is a ring device that becomes a boundary node.
  • the ring device 1 is a communication device such as a router or a switch, for example.
  • the ring device 1 is an example of a “communication device”.
  • the ring device 1 includes a control card 100, an IF card 110a, an IF card 110b, and a SW card 120.
  • the IF card 110a includes an interface 111 with the RPR network, and performs processing of a physical layer and a data link layer of data transmitted to or received from the RPR network.
  • the IF card 110b includes a LAN IF 112 that is an interface with an Ethernet work and a bypass IF 113, and performs processing of a physical layer and a data link layer of data transmitted to or received from the Ethernet work.
  • the LAN IF 112 is an interface connected to the Ethernet work under the ring device 1.
  • the bypass IF 113 is an interface connected to the bypass NW (Ethernet work).
  • the SW card 120 relays data between IF cards.
  • the control card 100 controls the IF card 110a, the IF card 110b, and the SW card 120. Further, the control card 100 operates as a control plane and executes software processing.
  • the control card 100 includes a processor 101, a volatile memory 102, and a nonvolatile memory 103.
  • the processor 101 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an NPU (Network Processing Unit).
  • the processor 101 loads a program stored in the non-volatile memory 103 to the volatile memory 102 and executes it, and executes various processes. Further, the number of processors 101 is not limited to one, and a plurality of processors 101 may be provided.
  • the volatile memory 102 provides the processor 101 with a storage area and a work area for loading a program stored in the nonvolatile memory 103, and is used as a buffer.
  • the volatile memory 102 is a semiconductor memory such as SRAM (Static Random Access Memory) or DRAM (Dynamic Random Access Memory).
  • the nonvolatile memory 103 stores various programs and data used by the processor 101 when executing each program.
  • the auxiliary storage device 105 includes, for example, a nonvolatile memory such as PROM (Programmable / Read / Only / Memory).
  • PROM Programmable / Read / Only / Memory
  • the hardware configuration of the ring device 1 is not limited to the above, and components can be omitted, replaced, or added as appropriate according to the embodiment.
  • FIG. 9 is a diagram illustrating an example of functional blocks of the ring device 1.
  • the ring device 1 includes an RPR processing unit 11, a bypass NW processing unit 12, a LAN processing unit 13, a destination node determination unit 14, and a node list management unit when the processor 101 executes a communication program stored in the nonvolatile memory 103. 15 operates. Further, the node list database 16 (node list DB in the figure) is created in the storage area of the volatile memory 102 through the execution of the communication program of the processor 101.
  • each functional block may be realized by hardware by an electronic circuit such as FPGA (Field-Programmable Gate Array), ASIC (Application Specific Integrated Circuit), LSI (Large Scale Integration), or the like.
  • FPGA Field-Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • LSI Large Scale Integration
  • the RPR processing unit 11 executes processing related to the RPR frame transmitted / received by the RPR IF 111 via the cascade NW (RPR). First, when an RPR frame is received by the RPR IF 111, the RPR processing unit 11 analyzes the RPR frame and extracts a destination node ID. Further, the RPR processing unit 11 deletes the RPR header from the received frame. Next, the RPR processing unit 11 inquires of the destination node determination unit 14 whether the extracted destination node ID exists in the node list DB 16. In the case of transmission of an RPR frame, the RPR processing unit 11 acquires a destination node ID from the destination node determination unit 14, adds an RPR header to the frame, and transmits the RPR frame from the RPR IF 111.
  • the RPR processing unit 11 is an example of a “second frame transmission unit”.
  • the detour NW processing unit 12 operates when a failure of the cascade NW (RPR) occurs, and executes processing related to an Ethernet frame transmitted and received by the detour IF 113 via the detour NW (Ethernet).
  • a VLAN tag is attached to the Ethernet frame transmitted / received by the detour IF 113 (see FIG. 7B, frame FR3). Therefore, when the Ethernet frame is received by the detour IF 113, the detour NW processing unit 12 analyzes the VLAN tag and extracts the node ID. Further, the detour NW processing unit 12 deletes the VLAN tag from the received frame.
  • the detour NW processing unit 12 inquires of the destination node determination unit 14 whether or not the extracted node ID exists in the node list DB 16.
  • the detour NW processing unit 12 acquires the destination node ID from the destination node determination unit 14, and stores the node ID in the VLAN tag.
  • the detour NW processing unit 12 inserts this VLAN tag at a predetermined position in the header to generate an Ethernet frame, and transmits the Ethernet frame from the detour IF 113.
  • the detour NW processing unit 12 is an example of a “frame transmission unit”.
  • the LAN processing unit 13 executes processing related to the Ethernet frame transmitted / received by the LAN IF 112 via the NW (Ethernet) under the ring device 1.
  • NW Network
  • the LAN processing unit 13 analyzes the received Ethernet frame and acquires a destination node having a destination NW of the Ethernet frame.
  • the association between the node ID of each ring device and the subordinate NW is acquired by, for example, the RPR function and stored in the volatile memory 102.
  • the LAN processing unit 13 inquires of the destination node determination unit 14 whether the acquired destination node exists in the node list DB 16.
  • the LAN processing unit 13 transmits the frame from the LAN IF 112.
  • the destination node determination unit 14 When the destination node determination unit 14 receives an inquiry from the RPR processing unit 11, the detour NW processing unit 12, and the LAN processing unit 13 about whether or not the destination node exists in the node list DB 16, the destination node determination unit 14 searches the node list DB 16.
  • the destination node determination unit 14 searches the destination node information 161 for a destination node.
  • the destination node determination unit 14 searches the destination node information 161 and the counter node information 162 for a destination node.
  • the destination node determination unit 14 determines transmission of a frame from the RPR IF 111 when the destination node exists in the own node information 161. Therefore, in this case, the destination node determination unit 14 instructs the RPR processing unit 11 to transmit a frame and notifies the destination node.
  • the destination node determination unit 14 determines transmission of a frame from the detour IF 113 when a destination node exists in the opposing node information 162 when a failure occurs in the cascade NW. In this case, the destination node determination unit 14 instructs the bypass NW processing unit 12 to transmit a frame and notifies the destination node.
  • the destination node determination unit 14 determines transmission of a frame from the LAN IF 112 when the destination node is its own device. In this case, the destination node determination unit 14 instructs the LAN processing unit 13 to transmit a frame.
  • the destination node determination unit 14 determines that the corresponding frame is discarded and discards the frame.
  • the destination node determination unit 14 is an example of a “determination unit”.
  • the node list management unit 15 manages the own node information 161 and the opposite node information 162 stored in the node list DB 16.
  • the node list management unit 15 updates the local node information 161 when information not included in the local node information is notified by the RPR control frame or according to the reception status of the RPR control frame. For example, when a control frame is received from a newly added ring device, the node list management unit 15 adds information about the ring device to its own node information. For example, for a ring device for which a control frame has not been received for a predetermined period or longer, the node list management unit 15 deletes it from its own node information.
  • the node list management unit 15 deletes it from its own node information.
  • the node list management unit 15 updates the opposite node information with a copy of the own node information of the opposite node received from the opposite node at a predetermined cycle.
  • the RPR control frame transmitted from each ring device also flows through the bypass NW, but the node list management unit 15 receives the RPR received through the bypass NW (by the bypass IF 113). No processing is performed for the control frame. For this reason, the node list management unit 15 does not update the node information in the RPR control frame received from the detour NW (by the detour IF 113).
  • the node list management unit 15 transmits a copy of the own node information 161 to the opposite node at a predetermined cycle.
  • This copy of the node information 161 is transmitted from the detour IF 113 regardless of whether or not the cascade network has a failure, and is transmitted via the detour NW.
  • the copy of the own node information 161 is handled as opposite node information in the opposite node.
  • the IP address and MAC address of the opposite node are set in the ring device 1 in advance.
  • the predetermined cycle is, for example, 3-10 ms.
  • the node list management unit 15 is an example of a “reception unit”.
  • the node list management unit 15 is an example of a “transmission unit”.
  • the node list DB 16 is a database that stores information on nodes existing in the RPR network recognized by the ring device 1.
  • the node list DB 16 stores its own node information 161 and opposing node information 162.
  • the node list DB 16 is an example of a “storage unit”.
  • the own node information 161 stores information on a destination node that transmits a frame from the RPR IF 111. Specifically, for example, as illustrated in FIG. 6A, the local node information 161 is a correspondence between the number of hops from the ring device 1 and the node ID.
  • the own node information 161 is associated with RPR IF 111, for example.
  • the own node information 161 is an example of a “first list”.
  • the opposite node information 162 is a copy of the own node information of the opposite node.
  • the opposite node information 162 is used when a failure occurs in the cascade NW (RPR network), and stores information on a destination node that transmits a frame from the detour IF 113.
  • the opposite node information 162 is associated with the detour IF 113, for example.
  • the opposing node information 162 is an example of a “second list”.
  • FIG. 10 is an example of a flowchart of processing relating to management of the own node information. The flowchart shown in FIG. 10 is repeatedly executed while the ring device 1 is activated.
  • the processor 101 determines whether or not the own node information 161 has been updated. Whether or not the own node information is updated is determined from, for example, the contents of the control frame and the reception status of the control frame. However, the control frame is received from the RPR network (with RPR IF 111). If the own node information 161 is updated (OP1: Yes), the process proceeds to OP2. If the own node information 161 is not updated (OP1: No), the process proceeds to OP3.
  • the processor 101 determines whether or not it is the transmission timing of the copy of the own node information 161. If it is the transmission timing of the copy of the own node information (OP3: Yes), the process proceeds to OP4. When it is not the transmission timing of the copy of the own node information (OP3: No), the processing shown in FIG. 10 is terminated and repeatedly executed.
  • the transmission timing of the copy of the own node information 161 is, for example, an interval of 3 ms-10 ms.
  • the processor 101 transmits the copy of the own node information 161 stored in the node list DB 16 from the detour IF 113 to the opposite node. Thereafter, the processing shown in FIG. 10 ends and is repeatedly executed.
  • the processing of OP1 to OP4 corresponds to a part of the processing of the node list management unit 15.
  • the transmission of the copy of the own node information 161 of OP4 from the detour IF 113 corresponds to a part of the process of the detour NW processing unit 12.
  • FIGS. 11, 12, and 13 are examples of flowcharts of frame transfer processing when a failure occurs in the cascade NW (RPR network).
  • FIG. 11 is an example of a flowchart of frame transfer processing when a frame is received by the RPR IF 111 when a cascade NW failure occurs.
  • the flowchart shown in FIG. 11 is started when a frame is received by the RPR IF 111 when a failure of the cascade NW occurs.
  • the processor 101 analyzes the RPR frame and extracts the destination node ID from the RPR header. In addition, the processor 101 deletes the RPR header from the received frame. Next, the process proceeds to OP12.
  • the processor 101 determines whether or not the extracted destination node ID exists in the own node information 161. If the destination node ID exists in the own node information 161 (OP12: Yes), the process proceeds to OP13. If the destination node ID does not exist in the own node information 161 (OP12: No), the process proceeds to OP16.
  • the processor 101 determines whether or not the destination node ID indicates the node ID of the own node. For example, the own node is registered with the hop number 0 in the own node information 161.
  • the processor 101 determines that the frame is transmitted from the LAN IF 112, and the process proceeds to OP14.
  • the destination node ID is not the node ID of the own node (OP13: No)
  • it is indicated that the destination node ID is the node ID of another ring device existing in the own node information 161.
  • the process proceeds to OP15, and the frame is discarded.
  • the processor 101 transmits a frame from the LAN IF 112. Thereafter, the process shown in FIG. 11 ends.
  • the processor 101 determines whether or not the destination node ID extracted in OP11 exists in the opposing node information 162. When the destination node ID is present in the opposite node information 162 (OP16: Yes), the processor 101 determines that the frame is transmitted from the detour IF 113 because the destination ID is present in the opposite node information 162, and processing is performed. Advances to OP17. If the destination node ID does not exist in the opposite node information 162 (OP16: No), the destination node ID does not exist in either the own node information 161 or the opposite node information 162, so the process proceeds to OP15 and the processor 101 Discards the frame.
  • the processor 101 stores the lower 8 bits of the destination node ID in the VLAN tag, and inserts this VLAN tag into the Ethernet header of the received frame.
  • the process proceeds to OP18, and the processor 101 transmits a frame from the detour IF 113. Thereafter, the process shown in FIG. 11 ends.
  • the process of OP11 corresponds to a part of the process of the RPR processing unit 11.
  • the processing of OP12, OP13, OP15, and OP16 corresponds to part of the processing of the destination node determination unit 14.
  • the process of OP14 corresponds to a part of the process of the LAN processing unit 13.
  • the processing of OP17 and OP18 corresponds to part of the processing of the detour NW processing unit 12.
  • FIG. 12 is an example of a flowchart of frame transfer processing when a frame is received by the detour IF 113 when a failure of the cascade NW occurs.
  • the flowchart shown in FIG. 12 is started when a frame is received in the detour IF 113 when a failure of the cascade NW occurs.
  • the frame received by the detour IF 113 is an Ethernet frame having a VLAN tag.
  • the processor 101 analyzes the Ethernet frame and extracts the node ID 8 bits from the VLAN tag. Further, the processor 101 deletes the VLAN tag from the Ethernet frame. Next, the process proceeds to OP22.
  • the processor 101 determines whether or not the extracted node ID exists in the own node information 161. If the extracted node ID exists in the own node information 161 (OP22: Yes), the process proceeds to OP23. If the destination node ID does not exist in the own node information 161 (OP22: No), the process proceeds to OP27.
  • the processor 101 determines whether or not the extracted node ID indicates the node ID of the own node.
  • the processor 101 determines that the frame is transmitted from the LAN IF 112, and the process proceeds to OP24.
  • the processor 101 determines that the frame is transmitted from the RPR IF 111, and the process proceeds to OP25.
  • the processor 101 transmits a frame from the LAN IF 112. Thereafter, the process shown in FIG. 12 ends.
  • the processor 101 pads the node ID extracted in OP21, stores it in the destination node ID field of the RPR header, adds the RPR header, and generates an RPR frame (see FIG. 7B, frame FR4).
  • the process proceeds to OP26, and the processor 101 transmits the RPR frame from the RPR IF 111 to the RPR network. Thereafter, the process shown in FIG. 12 ends.
  • the processor 101 discards the frame. If the destination node of the frame received by the detour IF 113 does not exist in the own node information 116, the same frame is transmitted to the detour NW again even if it exists in the opposite node information 162. The frame is discarded. Thereafter, the process shown in FIG. 12 ends.
  • the process of OP21 corresponds to a part of the process of the detour NW processing unit 12.
  • the processing of OP22, OP23, and OP27 corresponds to part of the processing of the destination node determination unit 14.
  • the process of OP24 corresponds to a part of the process of the LAN processing unit 13.
  • the processing of OP25 and OP26 corresponds to part of the processing of the RPR processing unit 11.
  • FIG. 13 is an example of a flowchart of frame transfer processing when a frame is received by the LAN IF 112 when a failure of the cascade NW occurs.
  • the flowchart shown in FIG. 13 is started when a frame is received in the LAN IF 112 when a failure of the cascade NW occurs.
  • the processor 101 obtains a destination node ID having the destination NW of the received Ethernet frame as a subordinate, and determines whether or not the destination node ID exists in the own node information 161. If the destination node ID exists in the own node information 161 (OP31: Yes), the process proceeds to OP32. If the destination node ID does not exist in the own node information 161 (OP31: No), the process proceeds to OP36.
  • the processor 101 determines whether or not the destination node ID indicates the node ID of the own node. When the destination node ID is the node ID of the own node (OP32: Yes), the same frame is transmitted again from the LAN IF 112, so the process proceeds to OP35 and the processor 101 discards the frame. If the destination node ID is not the node ID of the own node (OP32: No), the processor 101 determines that the frame is to be transmitted from the RPR IF 111, and the process proceeds to OP33.
  • the processor 101 stores the destination node ID in the destination node ID field of the RPR header, and adds the RPR header to generate an RPR frame (see FIG. 7B, frames FR1 and FR2).
  • the process proceeds to OP34, and the processor 101 transmits the RPR frame from the RPR IF 111 to the RPR network. Thereafter, the process shown in FIG. 13 ends.
  • the processor 101 determines whether or not the destination node ID exists in the opposing node information 162. When the destination node ID exists in the opposite node information 162 (OP36: Yes), the processor 101 determines that the frame is transmitted from the detour IF 113 because the destination node ID exists in the opposite node information 162. The process proceeds to OP37. If the destination node ID does not exist in the opposite node information 162 (OP36: No), the destination node ID does not exist in either the own node information 161 or the opposite node information 162, so the process proceeds to OP35, and the processor 101 Discards the frame.
  • the processor 101 stores the lower 8 bits of the destination node ID in the VLAN tag, and inserts the VLAN tag at a predetermined position in the Ethernet header. Next, the process proceeds to OP38, and the processor 101 transmits a frame from the detour IF 113. Thereafter, the process shown in FIG. 13 ends.
  • the process of acquiring the destination node ID of OP31 corresponds to a part of the process of the LAN processing unit 13.
  • the processing of OP31, OP32, OP35, and OP36 corresponds to part of the processing of the destination node determination unit 14.
  • the processing of OP33 and OP34 corresponds to part of the processing of the RPR processing unit 11.
  • OP37 and OP38 correspond to a part of the process of the detour NW processing unit 12.
  • FIG. 11 to FIG. 13 describe the processing when a failure occurs, but when the cascade NW recovers from the failure, the processing returns to the normal processing. That is, the opposite node information is not used for the search for the destination node.
  • Detection of failure recovery can be detected, for example, by receiving a control frame from the cascade NW and updating its own node information.
  • the restoration of the cascade NW may be determined when the nodes existing in the own node information and the opposite node information match.
  • the ring device serving as the boundary node of the cascade NW holds its own node information (opposite node information) of the opposite node.
  • Opposite node information indicates information of a destination node via a detour NW (Ethernet).
  • the network is switched to the detour NW, so that it is possible to maintain a switching time (within 50 ms) that is a measure of availability.
  • a switching time within 50 ms
  • a pseudo ring is formed using a network different from the RPR. can do.
  • the destination information of the RPR is stored in the VLAN tag, and this VLAN tag is inserted into the Ethernet frame.
  • the frame can be transmitted to the detour NW while maintaining the destination information of the RPR.
  • FIG. 14 is a diagram illustrating an application example of the first embodiment.
  • the example shown in FIG. 14 is an example in which the bypass NW is shared by two RPR networks of RPR1 and RPR2.
  • ring devices # 1 and # 5 which are the boundary nodes of RPR1
  • ring devices # 11 and # 15 which are the boundary nodes of RPR2
  • a layer 2 switch In the detour NW, ring devices # 1 and # 5, which are the boundary nodes of RPR1, and ring devices # 11 and # 15, which are the boundary nodes of RPR2, are connected to each other via a layer 2 switch.
  • the number of frames flowing through the detour NW is small (for example, the opposite node information), so it is not necessary to prepare the total bandwidth of the two RPR networks RPR1 and RPR2 for the detour NW.
  • a band should be prepared. By sharing the detour NW among a plurality of cascade NWs, the band can be used effectively.
  • the boundary node when transferring a frame to the detour NW (Ethernet), the boundary node stores the QoS information of the cascade NW in the header of the Ethernet frame in addition to the destination information of the cascade NW (RPR). . Thereby, it is possible to prevent the QoS information of the cascade NW from being lost due to passing through the bypass NW.
  • the description common to the first embodiment is omitted. Also in the second embodiment, the configuration of the communication system is assumed to be FIG. 6A and FIG. 7A as in the first embodiment.
  • FIG. 15 is a diagram illustrating an example of transition due to frame conversion in the communication system according to the second embodiment.
  • the frame transmitted from the NW (Ethernet) terminal under the ring device # 2 is the ring device # 2, ring device # 1, detour.
  • An example is shown in the case of following a route of an NW (Ethernet) terminal under the network, ring device # 5, ring device # 4, and ring device # 4.
  • the RPR frame FR2 is converted into an Ethernet frame FR3 for transfer to the detour NW.
  • a VLAN tag is inserted into an Ethernet frame, as in the first embodiment.
  • the QoS information included in the header of the RPR frame is stored in the VLAN tag in addition to the lower 8 bits of the destination node ID.
  • a 2-byte (16 bits) field used as a VLAN ID field in a normal VLAN tag is used as a node ID (8 bits), a service class (2 bits), and a reservation (2 bits).
  • the node ID field stores the lower 8 bits of the value stored in the destination node ID field (6 bytes) of the RPR frame FR2.
  • SC service class field
  • C control field
  • CRL control field
  • the RPR frame 1 byte is prepared in the control field, but since 2 bits are actually used in many cases, 2 bits are prepared in the service class field of the VLAN tag in the second embodiment.
  • the present invention is not limited to this, and when five service classes are used, the service class field of the VLAN tag may be set to 3 bits and the reserved field may be set to 1 bit.
  • the frame FR3 is transmitted from the ring device # 1 and arrives at the ring device # 5 via the detour NW.
  • Ring device # 5 converts Ethernet frame FR3 to RPR frame FR4 for transmission to the RPR network.
  • the field values of the node ID and the service class are extracted from the VLAN tag of the Ethernet frame FR3, and the VLAN tag is deleted from the frame FR3.
  • an RPR header is added to the frame, and the extracted node ID and service class values are stored in the destination node ID and control fields of the RPR header, respectively, and the frame FR4 is acquired.
  • the insufficient bits of the node ID and service class are padded.
  • the Ethernet frame FR3 is converted into an RPR frame FR4.
  • FIG. 16 is a diagram for explaining the outline of the communication system according to the second embodiment.
  • RPR stipulates that all bands on the ring are the same. However, there may be cases where only a bandwidth equal to or lower than the bandwidth of the cascade NW (RPR) can be prepared as the bypass NW.
  • RPR the bandwidth of the cascade NW
  • the bypass NW band is smaller than the cascade NW band, if the cascade NW QoS information is applied as it is, data loss may occur in the bypass NW.
  • each ring device in the RPR network holds a plurality of QoS tables for storing QoS information, and uses different QoS tables depending on whether it is normal or when a failure occurs.
  • each of the ring devices # 1 to # 5 has a QoS table 1 for normal use and a QoS table 2 for failure use.
  • bandwidth control information according to the bandwidth of the cascade NW 1000 Mbps is set.
  • band control information for the detour NW band 600 Mbps is set.
  • each ring device uses the normal QoS table 1 and performs bandwidth control for 1000 Mps.
  • the bandwidth control setting may exceed the bandwidth 600 Mbps of the cascade NW.
  • the failure notification is performed in the cascade NW by the ring device # 2 and the ring device # 3.
  • ring device # 1 and ring device # 5 which are boundary nodes, receive the failure notification, they transmit a control frame instructing switching of the QoS table to the ring device of the cascade NW.
  • the ring devices # 2- # 4 switch from the QoS table 1 to the QoS table 2 for failure.
  • Ring device # 1 and ring device # 5 which are boundary nodes, switch from QoS table 1 to QoS table 2 for failure by transmitting a control frame instructing switching of the QoS table.
  • the QoS table 2 for failure is used, and bandwidth control according to the bandwidth of the detour NW is executed. Therefore, the minimum necessary data communication can be ensured even when a failure occurs.
  • a control frame instructing switching of the QoS table is transmitted to the cascade NW at the timing when the ring device # 1 and the ring device # 5 which are boundary nodes detect the failure recovery.
  • each of the ring devices # 2 to # 4 switches the QoS table to be used from the QoS table 2 for failure to the QoS table 1 for normal operation.
  • switching the QoS table to be used is not limited to a QoS table switching instruction using a control frame from a boundary node.
  • the QoS table used autonomously by each ring device # 1-5 may be switched by detecting the occurrence of a failure, receiving a notification of the occurrence of a failure, detecting a failure recovery, and the like.
  • FIG. 17 is an example of a functional block of the ring device 1b which is a boundary node in the second embodiment.
  • the hardware configuration of the ring device 1b is the same as that of the ring device 1 of the first embodiment.
  • the processor 101 executes a communication program stored in the nonvolatile memory 103, the RPR processing unit 11, the detour NW processing unit 12, the LAN processing unit 13, the destination node determination unit 14, and the node list management unit In addition to 15, it further operates as a QoS processing unit 17.
  • a node list DB 16 through installation or execution of the communication program of the processor 101, a node list DB 16, a normal-time QoS table 18a, and a failure-time QoS table 18b are created in the storage area of the volatile memory 102.
  • the normal-time QoS table 18a and the failure-time QoS table 18b may be set by user input.
  • the present invention is not limited to this, and each functional block may be realized by hardware by an electronic circuit such as FPGA or ASIC.
  • the QoS processing unit 17 manages the QoS information given to the frame received from the NW subordinate to the ring device 1b and transferred to the cascade NW or the detour NW.
  • the QoS processing unit 17 stores a QoS table to be used, and in response to an inquiry from the LAN processing unit 13 when a frame is transmitted from the NW under the ring device 1b to the cascade NW or the detour NW, Read QoS information from the stored QoS table.
  • the read QoS information is notified to the RPR processing unit 11 or the detour NW processing unit 12 according to the transfer destination of the corresponding frame.
  • the QoS processing unit 17 transmits a QoS frame switching instruction control frame (from the RPR IF 111) to the cascade NW when a failure notification is received and when a failure recovery is detected.
  • the QoS processing unit 17 rewrites the used QoS table stored in the QoS processing unit 17 to the normal-time QoS table 18a or the failure-time QoS table 18b, and switches the QoS table.
  • the detection of failure recovery is detected, for example, by updating the own node information or when the ring devices included in the own node information and the opposite node information are the same by updating the own node information.
  • the RPR processing unit 11 executes the following processing in addition to the processing of the first embodiment.
  • the RPR processing unit 11 analyzes the RPR frame and extracts a value from the destination node ID and control fields.
  • the RPR processing unit 11 acquires a destination node ID and a service class, and stores values in the destination node ID and control fields of the RPR header.
  • the destination node ID is acquired from the destination node determination unit 14.
  • the service class is acquired by notification from the QoS processing unit 17 or the detour NW processing unit 12 according to the reception interface.
  • the RPR processing unit 11 adds an RPR header to the frame and transmits the RPR frame from the RPR IF 111.
  • the detour NW processing unit 12 executes the following processing in addition to the processing of the first embodiment.
  • the detour NW processing unit 12 analyzes the VLAN tag and extracts a value from the node ID and service class fields.
  • the detour NW processing unit 12 acquires the destination node ID and the service class and stores them in the VLAN tag.
  • the destination node ID is acquired from the destination node determination unit 14.
  • the service class is acquired by notification from the QoS processing unit 17 or the RPR processing unit 11.
  • the detour NW processing unit 12 generates an Ethernet frame by including this VLAN tag in the header, and transmits the Ethernet frame from the detour IF 113.
  • the LAN processing unit 13 inquires the QoS processing unit 17 about QoS information when the LAN IF 112 receives an Ethernet frame.
  • the destination node determination unit 14, the node list management unit 15, and the node list DB 16 are the same as those in the first embodiment.
  • bandwidth control information according to the bandwidth of the cascade NW is set.
  • bandwidth control information corresponding to the bandwidth of the bypass NW is set.
  • FIG. 18 is a diagram illustrating an example of functional blocks of the ring device 2 that is not a boundary node.
  • the hardware configuration of the ring device 2 is the same as that of the ring device 1b, which is a boundary node, as shown in FIG.
  • the processor 101 executes a communication program stored in the nonvolatile memory 103, the RPR processing unit 21, the LAN processing unit 23, the destination node determination unit 24, the node list management unit 25, and the QoS processing unit 27. Works as.
  • a node list DB 26 By installing or executing the communication program, a node list DB 26, a normal-time QoS table 28a, and a failure-time QoS table 28b are created in the storage area of the volatile memory 102.
  • the normal-time QoS table 28a and the failure-time QoS table 28b may be set by user input.
  • the node list DB 26 stores its own node information 261. Since the ring device 2 that is not a boundary node is not connected to the detour NW and does not recognize the detour NW, the ring device 2 does not have counter node information. Band control information according to the bandwidth of the cascade NW is set in the normal-time QoS table 28a. In the failure QoS table 28b, bandwidth control information corresponding to the bandwidth of the bypass NW is set.
  • the ring device 2 other than the boundary node is connected to the RPR network and the subordinate Ethernet work, and executes substantially the same processing as the ring device 1b that is the boundary node except that the processing related to the detour NW is not executed.
  • the RPR processing unit 21 processes frames transmitted and received in the RPR IF 111. Therefore, the processing of the RPR processing unit 21 and the LAN processing unit 23 is the same processing as the RPR processing unit 11 and the LAN processing unit 13 of the ring device 1b of the boundary node.
  • the destination node determination unit 24 and the node list management unit 25 determine the destination node of the ring device 1b of the boundary node except that the processing related to the opposite node is not performed because the ring device 2 other than the boundary node does not hold the opposite node information.
  • the processing is the same as that of the unit 14 and the node list management unit 15.
  • the QoS processing unit 27 manages the QoS information given to the frame received from the NW subordinate to the ring device 2 and transferred to the cascade NW.
  • the QoS processing unit 27 stores a QoS table to be used, and is used in response to an inquiry from the LAN processing unit 23 when a frame is transmitted from the NW subordinate to the ring device 2 to the cascade NW.
  • QoS information is read from the QoS table in which is stored. The read QoS information is notified to the RPR processing unit 21.
  • the QoS processing unit 27 When the QoS processing unit 27 receives a control frame for switching the QoS table from the ring device 1b, which is a boundary node, the QoS processing unit 27 rewrites the QoS table to be used into the normal-time QoS table 28a or the failure-time QoS table 28b. To switch the QoS table.
  • boundary node 19
  • 20, and 21 are examples of flowcharts of the frame transfer process of the ring device 1 b at the boundary node when a failure occurs in the cascade NW.
  • FIG. 19 is an example of a flowchart of frame transfer processing of the ring device 1b of the boundary node when a frame is received by the RPR IF 111 when a failure of the cascade NW occurs.
  • the flowchart shown in FIG. 19 is started when a frame is received by the RPR IF 111 when a failure of the cascade NW occurs.
  • the processor 101 analyzes the RPR frame received in the RPR IF 111, and extracts values stored in the destination node ID field and the control field of the RPR header. In addition, the processor 101 deletes the header of the RPR frame.
  • the frame at this time is a normal Ethernet frame (see FIG. 7B).
  • the processor 101 inserts the VLAN tag into a predetermined position of the Ethernet header of the frame from which the RPR header is removed in OP41.
  • the node ID field of the VLAN tag stores the lower 8 bits of the destination node ID extracted in OP41. Also, 2 bits used in the control field value of the RPR header extracted in OP41 are stored in the service class field of the VLAN tag.
  • FIG. 20 is an example of a flowchart of a frame transfer process of the ring device 1b which is a boundary node when a frame is received by the detour IF 113 when a failure of the cascade NW occurs.
  • the flowchart shown in FIG. 20 is started when a frame is received in the detour IF 113 when a failure of the cascade NW occurs.
  • the frame received by the detour IF 113 is an Ethernet frame having a VLAN tag.
  • the processor 101 analyzes the Ethernet frame received by the detour IF 113 from the detour NW, and extracts the value of 8 bits in the node ID field of the VLAN tag. Further, the processor 101 extracts 2 bits of the value of the service class field of the VLAN tag. The processor 101 deletes the VLAN tag from the Ethernet frame.
  • the processor 101 since it is determined that the Ethernet frame received by the detour IF 113 is transmitted to the RPR network, the processor 101 generates an RPR frame by adding an RPR header to the Ethernet frame (FIG. 7B, frame FR3, FR4).
  • the processor 101 stores, in the destination node ID field of the RPR frame, a value obtained by padding the value 8 bits of the node ID field of the VLAN tag extracted in OP21 to 6 bytes. Further, the processor 101 stores a value of 1 byte by padding the value of the service class field of the VLAN tag extracted in OP21 with 2 bits in the control field of the RPR frame.
  • FIG. 21 is an example of a flowchart of frame transfer processing of the ring device 1b, which is a boundary node when a frame is received by the LAN IF 112.
  • the flowchart shown in FIG. 21 is started when a frame is received by the LAN IF 112.
  • the processor 101 acquires QoS information from the QoS table being used.
  • the normal-time QoS table 18a is used.
  • the failure QoS table 18b is used.
  • the processor 101 since it is determined that the Ethernet frame received by the LAN IF 112 is transferred to the cascade NW (RPR), the processor 101 adds an RPR header to the Ethernet frame to generate an RPR frame (see FIG. 7B, frames FR1 and FR2).
  • the processor 101 stores the destination node ID acquired from the association between the subordinate NW and the node ID in the destination node ID field of the RPR frame. Further, the processor 101 stores the service class specified by the QoS information acquired in OP60 in the control field of the RPR frame. This frame is transmitted from the RPR IF 111 to the cascade NW (RPR).
  • the processor 101 inserts a VLAN tag at a predetermined position of the Ethernet frame.
  • the processor 101 stores the lower 8 bits of the destination node ID acquired from the association between the subordinate NW and the node ID in the node ID field of the VLAN tag. Further, the processor 101 stores the service class specified by the QoS information acquired in OP60 in the service class field of the VLAN tag. This frame is transmitted from the detour IF 113 to the detour NW (Ethernet).
  • the ring device 1b which is a boundary node, stores the QoS information in the VLAN Ntag (RPR) by storing the QoS information in the VLAN tag when the frame is transferred to the detour NW (Ethernet). Embed in a frame. Thereby, it is possible to prevent the QoS information of the cascade NW from being lost even when the detour NW is routed.
  • RPR VLAN Ntag
  • NW Ethernet
  • the ring devices in the cascade NW use different QoS tables depending on whether the cascade NW is normal or faulty. As a result, when a failure occurs in the cascade NW, bandwidth control according to the detour NW having a narrower bandwidth than the cascade NW is executed, and data loss can be prevented.
  • FIG. 22 shows an example in which the bypass NW is shared by two RPR networks, RPR1 and RPR2.
  • ring devices # 1 and # 5 which are the boundary nodes of RPR1
  • ring devices # 11 and # 15 which are the boundary nodes of RPR2
  • each ring device includes a QoS table 3 for double failure in addition to the QoS table 1 for normal time and the QoS table 2 for failure, and these are provided. Use properly.
  • the bandwidth of the cascade NW of RPR1 and RPR2 is 1000 Mbps
  • the bandwidth of the bypass NW is 600 Mbps.
  • the normal QoS table 1 stores the bandwidth control settings corresponding to the bandwidth of 1000 Mpbs of the cascade NW.
  • the QoS table 2 for failure is stored with bandwidth control settings corresponding to the bypass NW bandwidth 600 Mpbs.
  • the QoS table 3 for double failure stores bandwidth control settings according to the bandwidth that can be used at the time of double failure, such as 300 Mpbs, which is half of the bandwidth of the bypass NW.
  • RPR1 will be described, RPR2 can be similarly configured.
  • the ring devices # 1 and # 5 which are boundary nodes, detect a double failure, they notify the occurrence of the double failure to the ring devices # 2- # 4 in the cascade NW using a control frame.
  • ring device # 2- # 4 in cascade NW receives the notification of the occurrence of a double failure, it switches the QoS table to be used to QoS table 3 for double failure.
  • the ring devices # 1 and # 5 transmit a control frame for notifying a double failure, the ring devices # 1 and # 5 switch the QoS table to be used to the QoS table 3 for double failure.
  • Each ring device has a QoS table for double failure, and when a double failure occurs, a double failure occurs when a detour NW is shared by multiple cascade NWs by using the QoS table for double failure.
  • a double failure occurs when a detour NW is shared by multiple cascade NWs by using the QoS table for double failure.

Abstract

 カスケード型のトポロジの第1のネットワークの終端に接続し、第2のネットワークにも接続する通信装置である。この通信装置は、第1のネットワーク経由のフレームの送信の宛先である第1のネットワーク内の通信装置の情報を含む第1のリストを、第1のネットワークのもう一方の終端に位置する第2のネットワークにおいて対向する通信装置に送信し、該対向する通信装置から、該対向する通信装置の第1のネットワーク経由のフレームの送信の宛先である第1のネットワーク内の通信装置の情報を含む第2のリストを受信する。通信装置は、フレームの宛先が、第1のリスト又は第2のリストのいずれに含まれるか判定し、第1のネットワークから受信したフレームの宛先が第2のリストに含まれる場合に、フレームを第2のネットワークに送信する。

Description

通信装置、通信方法、及び通信プログラム
 本発明は、カスケード型のトポロジのネットワークにおける通信装置,通信方法,及び通信プログラムに関する。
 次世代IPネットワーク(NGN:Next Generation Network)のバックボーンの構築技術として注目されている技術に、RPR(Resilient Packet Ring)がある。RPRは、IEEE802.17として標準化されている。RPRは、10Gビット/秒の高速回線をフレーム単位で効率的に利用するための技術である。IEEE802.17では、各ノードの接続形態として、リング型トポロジとカスケード型トポロジとが規定されている。
 図1は、リング型トポロジの一例を示す図である。リング型トポロジは、各ノードが環状に接続する形態である。リング型トポロジでは、障害が発生しても、障害が発生している方向とは逆方向を利用して通信が可能であり、信頼性が高い。そのため、RPRのリング型トポロジは、通信事業者が提供する通信サービスの可溶性の目安である、障害発生時に50ms以内に復旧することを実現可能である。しかしながら、IEEE802.17の仕様により、リング型トポロジを構築する場合にはリング上の全伝送路をRPRにする、という制約がある。
 図2は、カスケード型トポロジの一例を示す図である。カスケード型トポロジは、ノードが直列に接続された形態である。カスケード型トポロジは、一カ所の伝送路障害でネットワークが分断し、通信不可となる可能性が高い。
特開平10-290252号公報
 図3Aは、カスケード型トポロジのRPRネットワークの例を示す図である。図3では、リング装置#1-#5がカスケード型トポロジのRPRネットワークを構築している。各リング装置#1-#5は、所定間隔でRPRの制御フレームを送信し、他のリング装置からの制御フレームによりトポロジを学習して、自ノード情報を作成する。自ノード情報は、RPRネットワークにおけるノードの並び順を示す情報である。また、自ノード情報は、RPRネットワークに接続するインタフェース毎に作成される。例えば、自ノード情報は、該当インタフェース方向に位置するリング装置のノードIDと自装置からのホップ数とを含む。
 図3Aでは、リング装置#1とリング装置#5とが有する自ノード情報が示される。図3Aにおけるカスケード型トポロジの一端に位置するリング装置#1の自ノード情報は、例えば、0ホップにリング装置#1(自装置)、1ホップの距離にリング装置#2、...、4ホップの距離にリング装置#5となる。リング装置#1及びリング装置#5は、RPRフレームを送信する際には、宛先ノードを自ノード情報で検索し、宛先ノードが自ノード情報に存在する場合に、該自ノード情報に対応するインタフェースからRPRフレームを送信する。宛先ノードが自ノード情報に存在しない場合には、該当フレームは廃棄される。なお、リング装置#1とリング装置#5とは、カスケード型トポロジの端に位置するノードであり、1つのRPRネットワークに接続するインタフェースを備えるため、保有する自ノード情報はそれぞれ1つである。ただし、リング装置#2-#4はそれぞれ2つのRPRネットワークに接続するインタフェースを備えるため、それぞれのインタフェースに対する自ノード情報を、計2つ備える。リング装置#2-#4は、RPRフレームを送信する場合には、各インタフェースに対応する自ノード情報で宛先ノードを検索し、宛先ノードが存在する自ノード情報に対応するインタフェーエスからRPRフレームを送信する。いずれの自ノード情報にも宛先ノードが存在しない場合には、フレームは廃棄される。
 図3Bは、図3Aに示されるカスケード型トポロジのRPRネットワークにおいて障害が発生した場合の例を示す図である。図3Bでは、リング装置#2とリング装置#3との間の伝送路で障害が発生している。この場合には、障害発生の伝送路に接続するリング装置#2とリング装置#3とが、それぞれ、障害発生を検知し、他のリング装置に障害通知を送信する。図3Bには、リング装置#1とリング装置#5の自ノード情報が示される。
 例えば、リング装置#1は、リング装置#2から障害通知を受信する。その後、障害発生の伝送路の先に位置するリング装置#3、#4、#5の情報を受信しなくなるので、リング装置#1の自ノード情報からリング装置#3、#4、#5の情報は削除される。したがって、リング装置#1は、リング装置#3、#4、#5の情報が自ノード情報に存在しないために、リング装置#3、#4、#5に対してフレームを送信できなくなる。
 同様に、リング装置#5は、リング装置#3から送信された障害通知を受信する。リング装置#5から見て障害発生の伝送路の先に位置するリング装置#1、#2の情報を受信しなくなるので、リング装置#5の自ノード情報からリング装置#1、#2の情報は削除される。したがって、リング装置#5は、リング装置#1、#2の情報が自ノード情報に存在しないために、リング装置#1、#2にフレームを送信できなくなる。
 また、リング装置#2は障害発生の伝送路に接続するインタフェースに対応する自ノード情報が失われるため、リング装置#3-#5にフレームを送信できなくなる。リング装置#3は、障害発生の伝送路に接続するインタフェースに対応する自ノード情報が失われるため、リング装置#1、#2にフレームを送信できなくなる。リング装置#4は、リング装置#1、#2の情報を受信しなくなるので、自ノード情報からリング装置#1、#2の情報が削除され、リング装置#1、#2にフレームを送信できなくなる。
 このようにして、トポロジ型ネットワークでは、障害発生により、ネットワークが分断される。
 上記問題を鑑み、カスケード型トポロジでは、障害発生の対策として迂回路を設けることが考えられる。
 本発明の一態様は、カスケード型トポロジの第1のネットワークに第1のネットワークとは異なる第2のネットワークによる迂回路を提供する通信装置,通信方法,及び通信プログラムを提供することを目的とする。
 本発明の態様の一つは、カスケード型のトポロジの第1のネットワークの終端に接続し、前記第1のネットワークとはフレームの形式が異なる第2のネットワークにも接続する通信装置であって、
 前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第1のリストを、前記第1のネットワークのもう一方の終端に位置し、前記第2のネットワークにも接続し、前記第2のネットワークにおいて対向する通信装置に、送信する送信部と、
 前記対向する通信装置から、前記対向する通信装置の前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第2のリストを受信する受信部と、
 前記第1のリストと、前記第2のリストとを格納する格納部と、
 フレームの宛先が、前記第1のリスト又は前記第2のリストのいずれに含まれるか判定する判定部と、
 前記第1のネットワークから受信したフレームの宛先が前記第2のリストに含まれる場合に、前記フレームを前記第2のネットワークに送信するフレーム送信部と、
を備える通信装置である。
 本発明の他の態様の一つは、上述した通信装置が実行する通信方法である。また、本発明の他の態様は、コンピュータを通信装置として機能させる通信プログラム、及び当該通信プログラムを記録したコンピュータ読み取り可能な記録媒体を含むことができる。コンピュータ等が読み取り可能な記録媒体には、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。
 開示の通信装置,通信方法,及び通信プログラムによれば、カスケード型トポロジの第1のネットワークに第1のネットワークとは異なる第2のネットワークによる迂回路を提供することができる。
リング型トポロジの一例を示す図である。 カスケード型トポロジの一例を示す図である。 カスケード型トポロジのRPRネットワークの例を示す図である。 図3Aに示されるカスケード型トポロジのRPRネットワークにおいて障害が発生した場合の例を示す図である。 カスケード型トポロジにおける迂回路の設計案1を示す図である。 カスケード型トポロジにおける迂回路の設計案2を示す図である。 RPRフレームをカプセル化した場合のイーサネットフレームのフォーマットを示す図である。 第1実施形態における迂回路を有する通信システムの概要を説明するための図である。 カスケードNWの障害発生時の通信システムの概要を説明するための図である。 第1実施形態に係る通信システムにおけるフレーム変換の概要を説明するための図である。 第1実施形態に係る通信システムにおけるフレームの変換による変遷の例を示す図である。 リング装置のハードウェア構成の一例を示す図である。 リング装置の機能ブロックの一例を示す図である。 自ノード情報の管理に係る処理のフローチャートの一例である。 カスケードNWの障害発生時に、RPR IFにおいてフレームが受信された場合のフレーム転送処理のフローチャートの一例である。 カスケードNWの障害発生時に、迂回IFにおいてフレームが受信された場合のフレーム転送処理のフローチャートの一例である。 カスケードNWの障害発生時に、LAN IFにおいてフレームが受信された場合のフレーム転送処理のフローチャートの一例である。 迂回NWがRPR1とRPR2との2つのRPRネットワークで共有される例である。 第2実施形態に係る通信システムにおけるフレームの変換による変遷の例を示す図である。 第2実施形態の通信システムの概要を説明するための図である。 第2実施形態における境界ノードであるリング装置の機能ブロックの一例である。 境界ノードではないリング装置の機能ブロックの一例を示す図である。 カスケードNWの障害発生時に、RPR IFにおいてフレームが受信された場合の境界ノードのリング装置のフレーム転送処理のフローチャートの一例である。 カスケードNWの障害発生時に、迂回IFにおいてフレームが受信された場合の境界ノードであるリング装置のフレーム転送処理のフローチャートの一例である。 LAN IFにおいてフレームが受信された場合の境界ノードであるリング装置のフレーム転送処理のフローチャートの一例である。 迂回NWがRPR1とRPR2との2つのRPRネットワークで共有される例である。
 以下、図面に基づいて、本発明の実施の形態を説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
 <イーサネット網を利用したカスケード型トポロジの迂回路>
 図4は、カスケード型トポロジにおける迂回路の設計案1を示す図である。図4に示される例では、カスケード型トポロジのRPRネットワークの両端に位置するノード同士はイーサネットで接続され、これによって、迂回路が構築される。カスケード型トポロジのRPRネットワークの端に位置し、RPRネットワークとイーサネットの境界に位置するノードを、以降、境界ノードと称する。また、カスケード型のRPRネットワークをカスケードNWとも称する。
 しかしながら、設計案1では、以下のような問題がある。例えば、RPRネットワーク内の伝送路に障害が発生した場合に、境界ノードのLAN側ネットワーク同士を接続すると、LANにおいてSTP(Spanning Tree Protocol)が実行される。このSTPの実行には数秒要するため、設計案1における障害発生時の切替時間が、可用性の目安である切り替え時間(50ms以内)を超えてしまう。また、例えば、フレームが迂回路(イーサネット)を通過する際に、RPRのフォーマットのままでは通過できないので、フレームからRPRヘッダが取り外され、オリジナルのイーサネットフレームにされてしまう。そのため、RPRネットワーク用のQoS情報は欠落してしまう。オリジナルのイーサネットフレームとは、リング装置の配下のNW(イーサネット)内の端末から送信されるイーサネットフレームを指す。したがって、フレームが、迂回路を経由して再度RPRネットワークに到達した場合に、RPRネットワーク内で適正な優先制御が行われないおそれがある。
 図5Aは、カスケード型トポロジにおける迂回路の設計案2を示す図である。図5Aに示される例では、図4と同様に、カスケード型トポロジのRPRネットワークの境界ノード同士が、イーサネットで接続され、これによって、迂回路が構築される。図5に示される設計案2では、迂回路(イーサネット)にフレームを送信するために、境界ノードがRPRフレームをイーサネットフレームでカプセル化する。イーサネットでカプセル化することによって、RPRフレームのヘッダが維持され、RPRネットワーク用のQoS情報の欠落が防がれる。しかしながら、以下の問題がある。
 図5Bは、RPRフレームをカプセル化した場合のイーサネットフレームのフォーマットを示す図である。RPRフレームをカプセル化したイーサネットフレームの場合、通常のイーサネットフレームに比べて、RPRヘッダ(26バイト),RPRフレームをカプセル化するためのイーサネットヘッダ(合計18バイト)の分だけサイズが大きくなる。そのため、迂回路におけるフレーム転送能力が低下する。例えば、最小サイズ(64バイト)のイーサネットフレームを伝送する際に、RPRフレームをイーサネットフレームでカプセル化すると、フレームサイズが増加するために、フレームの転送能力が8割程度低下する。すなわち、設計案2の場合には、RPRフレームをイーサネットでカプセリングすることによるフレームサイズの増加により迂回路の使用帯域が増加してしまう。
 <第1実施形態>
 第1実施形態では、可用性の目安である切替時間(50ms)を維持し、迂回ネットワークのフレームの転送能力の低下を防ぐ通信方法を提供する。
 図6Aは、第1実施形態における迂回路を有する通信システムの概要を説明するための図である。第1実施形態における通信システムは、カスケード型トポロジのRPRネットワーク(図中、カスケードNW)と、迂回路としてのイーサネット(図中、迂回NW)とを含む。リング装置#1-#5は、RPRネットワークに接続し、カスケード型トポロジを構築している。リング装置#1とリング装置#5と(境界ノード)は、LANインタフェースを用いてイーサネットにも接続している。
 第1実施形態では、境界ノードであるリング装置#1、#5は、自ノード情報に加えて、対向ノード情報を有する。図6Aでは、リング装置#1とリング装置#1との、自ノード情報と対向ノード情報とが示される。対向ノード情報は、迂回NWにおいて対向するノード、言い換えると、カスケードNWのもう一端の境界ノードが保持する自ノード情報のコピーである。したがって、図6Aに示される例において、リング装置#1の自ノード情報とリング装置#5の対向ノード情報とは同一である。また、図6Aに示される例において、リング装置#5の自ノード情報とリング装置#1の対向ノード情報とは同一である。
 例えば、各境界ノードは、迂回ネットワーク経由で自ノード情報のコピーを定期的に送信し、対向ノードからの自ノード情報のコピーを受信することによって、対向ノード情報を取得する。例えば、3-10msの周期で、制御フレームによって、自ノード情報のコピーは送信される。この対向ノード情報は、各境界ノードにとって、迂回NW方向のノードの並び順を示す情報となる。一方、自ノード情報は、各境界ノードにとって、カスケードNW方向のノードの並びを示す情報である。対向ノード情報を保持することによって、境界ノードにおいても、カスケードNWとは逆の方向の並びを認識することができ、疑似的なリング型トポロジを形成することができる。
 図6Bは、カスケードNWの障害発生時の通信システムの概要を説明するための図である。図6Bでは、リング装置#1とリング装置#1との、自ノード情報と対向ノード情報とが示される。例えば、カスケードNW内のリング装置#2とリング装置#3との間の伝送路に障害が発生した場合には、RPRの機能により、リング装置#2とリング装置#3とによってカスケードNW内に障害通知が行われる。これによって、境界ノードであるリング装置#1の自ノード情報から、リング装置#1から見て障害発生箇所よりも先に位置するリング装置#3、#4、#5の情報が削除される。また、もう1つの境界ノードであるリング装置#5の自ノード情報からは、リング装置#5から見て障害発生箇所よりも先に位置するリング装置#1、#2の情報が削除される。各境界ノードは自ノード情報のコピーを送信するので、各境界ノードの対向ノード情報も更新される。すなわち、リング装置#1の対向ノード情報は、リング装置#5の自ノード情報と同一であり、リング装置#3、#4、#5が存在する情報となる。リング装置#5の対向ノード情報は、リング装置#1の自ノード情報と同一であり、リング装置#1、#2が存在する情報となる。これによって、境界ノードにおいて、自ノード情報に存在しないノードが対向ノード情報に存在することになり、障害発生時においても、境界ノードは通信システム内の全ノードの情報を認識可能になる。
 例えば、カスケードNWに障害が発生している図6Bにおいて、境界ノードであるリング装置#1からリング装置#3にフレームが送信される場合には、リング装置#3は、リング装置#1の自ノード情報には存在しないが、対向ノード情報には存在する。リング装置#1は、対向ノード情報に存在するノードは迂回NW方向に存在すると認識するため、リング装置#3宛てのフレームを迂回NWに送信する。一方、図6Bにおいて、リング装置#1がリング装置#2にフレームを送信する場合には、リング装置#2は、リング装置#1の自ノード情報に存在する。リング装置#1は、自ノード情報に存在するノードはカスケードNW方向に存在すると認識するため、リング装置#2宛てのフレームをカスケードNWに送信する。
 以上より、境界ノードであるリング装置にとって、自ノード情報は、カスケードNW経由でフレームを送信する宛先ノードの情報である。また、境界ノードにとって、対向ノード情報は、カスケードNW内の障害発生時において迂回NW経由でフレームを送信する宛先ノードの情報である。したがって、境界ノードが、迂回NWにおいて対向するノードの自ノード情報のコピーである対向ノード情報を有することによって、疑似的なリング型トポロジを形成し、カスケードNWの障害発生時には、高速に迂回NWに切り替えることができる。
 図7Aは、第1実施形態に係る通信システムにおけるフレーム変換の概要を説明するための図である。図7Aに示される通信システムは、図6Aと同様の通信システムである。カスケードNWの障害発生時、迂回NWを使用する場合には、境界ノードは、RPRフレームのヘッダに含まれる宛先ノード情報をVLANタグに格納し、このVLANタグをイーサネットフレームの所定の位置に挿入する。また、迂回NWからこのイーサネットフレームを受信した場合、境界ノードは、受信したイーサネットフレームのVLANタグから宛先ノード情報を抽出し、VLANタグを取り外して、RPRヘッダを付与する。
 図7Bは、第1実施形態に係る通信システムにおけるフレームの変換による変遷の例を示す図である。図7Bでは、図7Aに示される通信システムにおいて、リング装置#2の配下のNW(イーサネット)の端末から送信されたフレームが、リング装置#2,リング装置#1,迂回ネットワーク,リング装置#5,リング装置#4,リング装置#4の配下のNW(イーサネット)の端末という経路をたどる場合の例が示される。
 リング装置#2の配下のNW(イーサネット)の端末から送信されるフレームFR1は、通常のイーサネットフレームである。このフレームFR1は、リング装置#2によって、RPRヘッダが付与され、RPRフレームFR2にカプセル化される。図7BのRPRフレームFR2では、RPRヘッダの一部が抜粋して示されている。なお、図7Bに示される例では、イーサネットフレームFR1(オリジナルフレーム)の宛先は、リング装置#4の配下のNWの端末であるので、RPRヘッダ内の宛先ノードIDは、リング装置#4となる。なお、各リング装置は、RPRの機能により、各リング装置のノードIDと、各リング装置の配下に存在するNWとを認識しているため、自身の配下のNWから受信したイーサネットフレームの宛先NWから、RPRの宛先ノードを取得することができる。RPRフレームFR2は、リング装置#2によってリング装置#1へ送信される。
 フレームFR2は、境界ノードであるリング装置#1に到着すると、リング装置#1によって、VLANタグを含むイーサネットフレームFR3に変換される。図7BのフレームFR3では、第1実施形態におけるVLANタグのフォーマットが示される。通常、IEEE802.1QのVLANタグは、TYPEフィールド16ビット,CFIフィールド1ビット,優先度フィールド3ビット,VLAN IDフィールド12ビットのフィールドを有する。第1実施形態では、通常はVLAN IDが格納されるフィールドのうち8ビットがノードIDを格納するフィールド(図中、フレームFR3のNode ID)として用いられる。また、通常はVLAN IDフィールドとして用いられるフィールドの残りの4ビットは、将来の利用の為の予約フィールド(図中、フレームFR3のRSVフィールド)とされる。なお、TYPEフィールドには、通常はIEEE802.1Qによるタグ付きフレームであることを示す値(0x8100)が格納されるが、第1実施形態では、RPRフレームを変換したフレームであることを示す所定の値が格納される。
 なお、RPRフレームのフォーマット規定では、宛先ノードID及び送信元ノードIDのフィールド(図中、フレームFR2のDA,SA)は6バイト用意されている。しかしながら、RPRでは最大ノード数が255台と規定されているため、実質的にノードIDとして用いられているのは8ビット(=256)であり、RPRフレームにおいても宛先ノードID及び送信元ノードIDで用いられるのは下位8ビットであることが多い。そのため、第1実施形態では、RPRヘッダ内の宛先ノードIDフィールド(6バイト)に格納されている値のうち下位8ビットを宛先ノードIDとしてVLANタグに格納する。ただし、これに限られず、宛先ノードIDが下位8ビット以上用いられている場合には、例えば、VLANタグ内のノードIDフィールドのサイズを変更して用いればよい(最大12ビット)。
 リング装置#1は、カスケードNWから受信したRPRフレームFR2のヘッダの宛先ノードIDフィールド(図中、フレームFR2のDA)から宛先ノードID(6バイト)を抽出する。次に、リング装置#1は、フレームFR2のRPRヘッダを削除し、VLANタグをイーサネットフレームのIEEE802.1Qにおいて規定される位置に挿入する。VLANタグのノードIDフィールドには、RRPフレームFR2から抽出された宛先ノードIDの下位8ビットが格納される。これによってRPRフレームFR2がイーサネットフレームFR3に変換される。リング装置#1は、このフレームFR3を迂回NWに送信する。なお、フレームFR3のイーサネットヘッダの宛先MACアドレスは、対向ノードであるリング装置#5のMACアドレスである。対向ノードのMACアドレスやIPアドレス等の情報は事前に境界ノードに設定される。
 フレームFR3は、リング装置#1から迂回NWを経由してもう一方の境界ノードであるリング装置#5に到着する。リング装置#5では、リング装置#1と逆の処理が行われ、フレームFR3は、RPRフレームFR4に変換される。具体的には、リング装置#5は、フレームFR3のVLANタグのノードIDフィールドから宛先ノードIDの下位8ビットを抽出し、これにパディング40ビットを追加して宛先ノードIDを取得する。リング装置#5は、フレームFR3のイーサネットヘッダからVLANタグを削除し、RPRヘッダを付与して、取得した宛先ノードIDをRPRヘッダの宛先ノードIDフィールドに格納する。これによって、イーサネットフレームFR3は、RPRフレームFR4に変換される。フレームFR4の宛先ノードは、リング装置#4であるので、リング装置#5は、フレームFR4をカスケードNWに送信する。
 フレームFR4は、リング装置#4に到着すると、リング装置#4によってRPRヘッダが削除され、オリジナルフレームであるイーサネットフレームFR5になる。その後、宛先端末が存在するリング装置#4の配下のNWに送信される。
 なお、境界ノードであるリング装置#1及びリング装置#5において実行されるRPRフレームとイーサネットフレームとのフレーム変換によって、RPRフレームの送信元ノード情報は書き換えられてしまう。例えば、図7BのフレームFR2の送信元ノードID(図中、SA、6バイト)はリング装置#2であり、フレームFR4の送信元ノードIDはリング装置#5である。このように、第1実施形態では、迂回NWを用いてフレームが転送された場合に、転送途中でRPRフレームの送信元ノードが変更される。ただし、これによって、端末間の通信に影響は及ぼされないため、特に問題にはならない。
 図7A及び図7Bで示されるように、第1実施形態では、IEEE802.1QのVLANタグを用いて、RPRネットワークのノード情報をイーサネットフレームに付与する。これによって、迂回NWとしてイーサネットワークを使用する場合にも、通常のイーサネットと比較して増加するサイズが4バイトに抑えられるので、迂回NWの転送能力の低下を抑えることができる。
 なお、第1実施形態では、図7A及び図7Bで説明されるように、カスケードNW内の障害発生時には、各リング装置によってブロードキャストで送信されるRPRの制御フレームも迂回NWを流れる。これによって、例えば、図7Aの境界ノードではないリング装置#2は、迂回NWを経由してリング装置#1側からリング装置#3-#5の情報(制御フレーム)を取得できる。リング装置#1側のインタフェースに対応する自ノード情報にリング装置#3-#5が存在するようになり、リング装置#2は、リング装置#1が位置する方向にリング装置#3-#5が存在することを認識する。したがって、リング装置#2は、リング装置#3-#5にフレームを送信する際には、リング装置#1が存在する方向にフレームを送信する。以上より、カスケードNW内に障害が発生した場合でも、境界ノードではないリング装置は、障害発生の伝送路の先に存在するリング装置と迂回NWを経由して通信を行うことができる。
 <境界ノードの構成>
 図8は、リング装置1のハードウェア構成の一例を示す図である。図8に示されるリング装置1は、境界ノードとなるリング装置である。リング装置1は、例えば、ルータ,スイッチ等の通信装置である。リング装置1は、「通信装置」の一例である。リング装置1は、制御カード100,IFカード110a,IFカード110b,SWカード120を備える。
 IFカード110aは、RPRネットワークとのインタフェース111を備え、RPRネットワークへ送信またはRPRネットワークから受信されるデータの物理層及びデータリンク層の処理を行う。IFカード110bは、イーサネットワークとのインタフェースであるLAN IF 112と迂回IF 113を備え、イーサネットワークへ送信又はイーサネットワークから受信されるデータの物理層及びデータリンク層の処理を行う。LAN IF 112は、リング装置1の配下のイーサネットワークと接続するインタフェースである。迂回IF 113は、迂回NW(イーサネットワーク)と接続するインタフェースである。SWカード120は、IFカード間のデータの中継を行う。
 制御カード100は、IFカード110a,IFカード110b,SWカード120を制御する。また、制御カード100は、コントロールプレーンとして動作し、ソフトウェア処理を実行する。制御カード100は、プロセッサ101,揮発性メモリ102,不揮発性メモリ103を備える。
 プロセッサ101は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、NPU(Network Processing Unit)である。プロセッサ101は、不揮発性メモリ103に格納されるプログラムを揮発性メモリ102にロードして実行し、様々な処理を実行する。また、プロセッサ101は、1つに限られず、複数備えられてもよい。
 揮発性メモリ102は、プロセッサ101に、不揮発性メモリ103に格納されているプログラムをロードする記憶領域および作業領域を提供したり、バッファとして用いられたりする。例えば、揮発性メモリ102は、SRAM(Static Random Access Memory)やDRAM(Dynamic Random Access Memory)等のような半導体メモリである。
 不揮発性メモリ103は、様々なプログラムや、各プログラムの実行に際してプロセッサ101が使用するデータを格納する。補助記憶装置105は、例えば、PROM(Programmable Read Only Memory)等の不揮発性のメモリと、が含まれる。なお、リング装置1のハードウェア構成は、上記に限られず、実施の形態に応じて適宜構成要素の省略や置換、追加が可能である。
 図9は、リング装置1の機能ブロックの一例を示す図である。リング装置1は、プロセッサ101が不揮発性メモリ103に格納された通信プログラムを実行することによって、RPR処理部11,迂回NW処理部12,LAN処理部13,宛先ノード判定部14,ノードリスト管理部15として動作する。また、プロセッサ101の通信プログラムの実行を通じて、揮発性メモリ102の記憶領域にノードリストデータベース16(図中、ノードリストDB)が作成される。ただし、これに限られず、各機能ブロックは、FPGA(Field-Programmable Gate Array),ASIC(Application Specific Integrated Circuit),LSI(Large Scale Integration)等の電子回路によってハードウェアで実現されてもよい。
 RPR処理部11は、カスケードNW(RPR)経由でRPR IF 111で送受信されるRPRフレームに係る処理を実行する。まず、RPR処理部11は、RPR IF 111においてRPRフレームが受信された場合、RPRフレームを解析して、宛先ノードIDを抽出する。また、RPR処理部11は、受信フレームからRPRヘッダを削除する。次に、RPR処理部11は、抽出した宛先ノードIDのノードリストDB 16での存在の有無を宛先ノード判定部14に問い合わせる。また、RPRフレームの送信の場合には、RPR処理部11は、宛先ノード判定部14から宛先ノードIDを取得し、フレームにRPRヘッダを付与してRPR IF 111からRPRフレームを送信する。RPR処理部11は、「第2のフレーム送信部」の一例である。
 迂回NW処理部12は、カスケードNW(RPR)の障害発生時に動作し、迂回NW(イーサネット)経由で迂回IF 113で送受信されるイーサネットフレームに係る処理を実行する。迂回IF 113で送受信されるイーサネットフレームにはVLANタグが付与されている(図7B、フレームFR3参照)。したがって、迂回IF 113でイーサネットフレームが受信された場合には、迂回NW処理部12は、VLANタグを解析し、ノードIDを抽出する。また、迂回NW処理部12は、受信フレームからVLANタグを削除する。迂回NW処理部12は、抽出したノードIDのノードリストDB 16での存在の有無を宛先ノード判定部14に問い合わせる。また、迂回IF 113からイーサネットフレームが送信される場合には、迂回NW処理部12は、宛先ノード判定部14から宛先ノードIDを取得し、VLANタグにノードIDを格納する。迂回NW処理部12は、このVLANタグをヘッダの所定の位置に挿入してイーサネットフレームを生成し、迂回IF 113からイーサネットフレームを送信する。迂回NW処理部12は、「フレーム送信部」の一例である。
 LAN処理部13は、リング装置1の配下のNW(イーサネット)経由でLAN IF 112で送受信されるイーサネットフレームに係る処理を実行する。LAN IF 112でイーサネットフレームが受信された場合には、LAN処理部13は、受信されたイーサネットフレームを解析し、イーサネットフレームの宛先NWを配下に有する宛先ノードを取得する。なお、各リング装置のノードIDとその配下のNWとの対応付けは、例えば、RPRの機能により取得され、揮発性メモリ102に格納されている。LAN処理部13は、取得した宛先ノードのノードリストDB 16での存在の有無を宛先ノード判定部14に問い合わせる。また、リング装置1の配下のネットワークにフレームが送信される場合には、LAN処理部13は、LAN IF 112からフレーム送信する。
 宛先ノード判定部14は、RPR処理部11,迂回NW処理部12,LAN処理部13からの宛先ノードのノードリストDB 16での存在の有無の問い合わせを受けると、ノードリストDB16を検索する。カスケードNW(RRPネットワーク)が正常な場合には、宛先ノード判定部14は、自ノード情報161について宛先ノードを検索する。カスケードNW(RPRネットワーク)の障害発生時には、宛先ノード判定部14は、自ノード情報161と対向ノード情報162とについて宛先ノードを検索する。
 宛先ノード判定部14は、自ノード情報161に宛先ノードが存在する場合には、RPR IF 111からのフレームの送信を判定する。したがって、この場合には、宛先ノード判定部14は、RPR処理部11にフレームの送信を指示し、宛先ノードを通知する。
 宛先ノード判定部14は、カスケードNWに障害発生時、対向ノード情報162に宛先ノードが存在する場合には、迂回IF 113からのフレームの送信を判定する。この場合には、宛先ノード判定部14は、迂回NW処理部12にフレームの送信を指示し、宛先ノードを通知する。
 宛先ノード判定部14は、宛先ノードが自装置である場合には、LAN IF 112からのフレームの送信を判定する。この場合には、宛先ノード判定部14は、LAN処理部13にフレームの送信を指示する。
 宛先ノード判定部14は、宛先ノードがノードリストDB 16に存在しない場合には、該当フレームの廃棄を判定し、フレームを廃棄する。宛先ノード判定部14は、「判定部」の一例である。
 ノードリスト管理部15は、ノードリストDB 16に格納される自ノード情報161と対向ノード情報162とを管理する。ノードリスト管理部15は、RPRの制御フレームによって自ノード情報にはない情報が通知された場合やRPRの制御フレームの受信状況に応じて、自ノード情報161を更新する。例えば、新たに追加されたリング装置からの制御フレームが受信された場合には、ノードリスト管理部15は、該リング装置の情報を自ノード情報に追加する。また、例えば、所定期間以上、制御フレームが受信されないリング装置については、ノードリスト管理部15は、自ノード情報から削除する。また、例えば、障害発生通知を受信した後の所定期間(上記所定期間より短い期間)内に制御フレームが受信されないリング装置については、ノードリスト管理部15は、自ノード情報から削除する。ノードリスト管理部15は、所定周期で対向ノードから受信される対向ノードの自ノード情報のコピーで、対向ノード情報を更新する。なお、第1実施形態では、障害発生時、各リング装置から送信されるRPRの制御フレームも迂回NWを流れるが、ノードリスト管理部15は、迂回NWを通じて(迂回IF 113で)受信されたRPRの制御フレームについては処理を行わない。そのため、迂回NWから(迂回IF 113で)受信したRPRの制御フレームでは、ノードリスト管理部15は自ノード情報を更新しない。
 また、ノードリスト管理部15は、所定周期で自ノード情報161のコピーを対向ノードに送信する。この自ノード情報161のコピーは、カスケードネットワークの障害の有無にかかわらず、迂回IF 113から送信され、迂回NWを経由して送信される。この自ノード情報161のコピーは、対向ノードにおいて、対向ノード情報として取り扱われる。尚、対向ノードのIPアドレスやMACアドレス等は、事前にリング装置1に設定される。また、所定周期は、例えば、3-10msである。ノードリスト管理部15は、「受信部」の一例である。また、ノードリスト管理部15は、「送信部」の一例である。
 ノードリストDB 16は、リング装置1が認識しているRPRネットワークに存在するノードの情報を格納するデータベースである。ノードリストDB 16は、自ノード情報161と対向ノード情報162とを格納する。ノードリストDB 16は、「格納部」の一例である。
 自ノード情報161は、RPR IF 111からフレームを送信する宛先ノードの情報が格納されている。具体的には、例えば、図6Aで示されるように、自ノード情報161は、リング装置1からのホップ数とノードIDとの対応付けである。自ノード情報161は、例えば、RPR IF 111と対応付けられている。自ノード情報161は、「第1のリスト」の一例である。
 対向ノード情報162は、対向ノードの自ノード情報のコピーである。対向ノード情報162は、カスケードNW(RPRネットワーク)に障害発生時に用いられ、迂回IF 113からフレームを送信する宛先ノードの情報が格納されている。対向ノード情報162は、例えば、迂回IF 113と対応付けられている。対向ノード情報162は、「第2のリスト」の一例である。
 <自ノード情報の管理の動作例>
 図10は、自ノード情報の管理に係る処理のフローチャートの一例である。図10に示されるフローチャートは、リング装置1の起動中、繰り返し実行される。
 OP1では、プロセッサ101は、自ノード情報161の更新の有無を判定する。自ノード情報の更新の有無は、例えば、制御フレームの内容、制御フレームの受信状況から判定される。ただし、制御フレームはRPRネットワークから(RPR IF 111で)受信されたものである。自ノード情報161に更新がある場合には(OP1:Yes)、処理がOP2に進む。自ノード情報161に更新がない場合には(OP1:No)、処理がOP3に進む。
 OP2では、プロセッサ101は、自ノード情報161を更新する。次に処理がOP3に進む。
 OP3では、プロセッサ101は、自ノード情報161のコピーの送信タイミングであるか否かを判定する。自ノード情報のコピーの送信タイミングである場合には(OP3:Yes)、処理がOP4に進む。自ノード情報のコピーの送信タイミングではない場合には(OP3:No)、図10に示される処理が終了し、繰り返し実行される。自ノード情報161のコピーの送信タイミングは、例えば、3ms-10ms間隔である。
 OP4では、プロセッサ101は、自ノード情報161のコピーの送信タイミングであるので、ノードリストDB 16に格納されている自ノード情報161のコピーを迂回IF 113から対向ノードに宛てて送信する。その後、図10に示される処理が終了し、繰り返し実行される。
 OP1-OP4の処理は、ノードリスト管理部15の処理の一部に相当する。また、OP4の自ノード情報161のコピーの迂回IF 113からの送信は、迂回NW処理部12の処理の一部に相当する。
 <カスケードNWの障害発生時のフレーム転送処理>
 図11,図12,図13は、それぞれ、カスケードNW(RPRネットワーク)の障害発生時のフレーム転送処理のフローチャートの一例である。
 図11は、カスケードNWの障害発生時に、RPR IF 111においてフレームが受信された場合のフレーム転送処理のフローチャートの一例である。図11に示されるフローチャートは、カスケードNWの障害発生時にRPR IF 111においてフレームが受信された場合に開始される。
 OP11では、プロセッサ101は、RPRフレームを解析し、RPRヘッダから宛先ノードIDを抽出する。また、プロセッサ101は、受信したフレームからRPRヘッダを削除する。次に処理がOP12に進む。
 OP12では、プロセッサ101は、抽出した宛先ノードIDの自ノード情報161内の存在の有無を判定する。宛先ノードIDが自ノード情報161に存在する場合には(OP12:Yes)、処理がOP13に進む。宛先ノードIDが自ノード情報161に存在しない場合には(OP12:No)、処理がOP16に進む。
 OP13では、プロセッサ101は、宛先ノードIDは自ノードのノードIDを示すか否かを判定する。例えば、自ノードは、自ノード情報161においてホップ数0で登録されている。宛先ノードIDが自ノードのノードIDである場合には(OP13:Yes)、プロセッサ101はLAN IF 112からフレームを送信することを判定し、処理がOP14に進む。宛先ノードIDが自ノードのノードIDではない場合には(OP13:No)、宛先ノードIDは自ノード情報161に存在する他のリング装置のノードIDであることが示される。しかしながら、この場合には、RPR IF 111において受信したフレームを再度RPR IF 111に送信することになるため、処理がOP15に進み、フレームは廃棄される。
 OP14では、プロセッサ101は、LAN IF 112からフレームを送信する。その後、図11に示される処理が終了する。
 OP16では、プロセッサ101は、OP11で抽出した宛先ノードIDの対向ノード情報162内の存在の有無を判定する。宛先ノードIDが対向ノード情報162に存在する場合には(OP16:Yes)、プロセッサ101は、対向ノード情報162に宛先IDが存在したので、迂回IF 113からフレームを送信することを判定し、処理がOP17に進む。宛先ノードIDが対向ノード情報162に存在しない場合には(OP16:No)、自ノード情報161と対向ノード情報162とのいずれにも宛先ノードIDが存在しないので、処理がOP15に進み、プロセッサ101はフレームを廃棄する。
 OP17では、プロセッサ101は、宛先ノードIDの下位8ビットをVLANタグに格納し、このVLANタグを受信フレームのイーサネットヘッダに挿入する。次に、処理がOP18に進み、プロセッサ101は、迂回IF 113からフレームを送信する。その後、図11に示される処理が終了する。
 OP11の処理は、RPR処理部11の処理の一部に相当する。OP12,OP13,OP15,OP16の処理は、宛先ノード判定部14の処理の一部に相当する。OP14の処理は、LAN処理部13の処理の一部に相当する。OP17,OP18の処理は、迂回NW処理部12の処理の一部に相当する。
 図12は、カスケードNWの障害発生時に、迂回IF 113においてフレームが受信された場合のフレーム転送処理のフローチャートの一例である。図12に示されるフローチャートは、カスケードNWの障害発生時に迂回IF 113において、フレームが受信された場合に開始される。なお、迂回IF 113において受信されるフレームは、VLANタグを有するイーサネットフレームである。
 OP21では、プロセッサ101は、イーサネットフレームを解析し、VLANタグからノードID8ビットを抽出する。また、プロセッサ101は、イーサネットフレームからVLANタグを削除する。次に処理がOP22に進む。
 OP22では、プロセッサ101は、抽出したノードIDの自ノード情報161内の存在の有無を判定する。抽出したノードIDが自ノード情報161に存在する場合には(OP22:Yes)、処理がOP23に進む。宛先ノードIDが自ノード情報161に存在しない場合には(OP22:No)、処理がOP27に進む。
 OP23では、プロセッサ101は、抽出したノードIDは自ノードのノードIDを示すか否かを判定する。抽出したノードIDが自ノードのノードIDである場合には(OP23:Yes)、プロセッサ101はLAN IF 112からフレームを送信することを判定し、処理がOP24に進む。抽出したノードIDが自ノードのノードIDではない場合には(OP23:No)、プロセッサ101はRPR IF 111からフレームを送信することを判定し、処理がOP25に進む。
 OP24では、プロセッサ101は、LAN IF 112からフレームを送信する。その後、図12に示される処理が終了する。
 OP25では、プロセッサ101は、OP21で抽出したノードIDにパディングしてRPRヘッダの宛先ノードIDのフィールドに格納し、RPRヘッダを付与してRPRフレームを生成する(図7B、フレームFR4参照)。次に処理がOP26に進み、プロセッサ101はRPRフレームをRPR IF 111からRPRネットワークに送信する。その後、図12に示される処理が終了する。
 OP27では、プロセッサ101はフレームを廃棄する。迂回IF 113において受信したフレームの宛先ノードが自ノード情報116に存在していない場合には、対向ノード情報162には存在していたとしても、再度同一フレームを迂回NWに送信することになるため、フレームは廃棄される。その後、図12に示される処理が終了する。
 OP21の処理は、迂回NW処理部12の処理の一部に相当する。OP22,OP23,OP27の処理は、宛先ノード判定部14の処理の一部に相当する。OP24の処理は、LAN処理部13の処理の一部に相当する。OP25,OP26の処理は、RPR処理部11の処理の一部に相当する。
 図13は、カスケードNWの障害発生時に、LAN IF 112においてフレームが受信された場合のフレーム転送処理のフローチャートの一例である。図13に示されるフローチャートは、カスケードNWの障害発生時にLAN IF 112においてフレームが受信された場合に開始される。
 OP31では、プロセッサ101は、受信したイーサネットフレームの宛先NWを配下に有する宛先ノードIDを取得し、宛先ノードIDの自ノード情報161内の存在の有無を判定する。宛先ノードIDが自ノード情報161に存在する場合には(OP31:Yes)、処理がOP32に進む。宛先ノードIDが自ノード情報161に存在しない場合には(OP31:No)、処理がOP36に進む。
 OP32では、プロセッサ101は、宛先ノードIDは自ノードのノードIDを示すか否かを判定する。宛先ノードIDが自ノードのノードIDである場合には(OP32:Yes)、LAN IF 112から再度同一フレームを送信することになるため、処理がOP35に進み、プロセッサ101はフレームを廃棄する。宛先ノードIDが自ノードのノードIDではない場合には(OP32:No)、プロセッサ101はRPR IF 111からフレームを送信することを判定し、処理がOP33に進む。
 OP33では、プロセッサ101は、宛先ノードIDをRPRヘッダの宛先ノードIDフィールドに格納し、RPRヘッダを付与してRPRフレームを生成する(図7B、フレームFR1、FR2参照)。次に処理がOP34に進み、プロセッサ101はRPRフレームをRPR IF 111からRPRネットワークに送信する。その後、図13に示される処理が終了する。
 OP36では、プロセッサ101は、宛先ノードIDの対向ノード情報162内の存在の有無を判定する。宛先ノードIDが対向ノード情報162に存在する場合には(OP36:Yes)、プロセッサ101は、対向ノード情報162に宛先ノードIDが存在したので、迂回IF 113からフレームを送信することを判定し、処理がOP37に進む。宛先ノードIDが対向ノード情報162に存在しない場合には(OP36:No)、自ノード情報161と対向ノード情報162とのいずれにも宛先ノードIDが存在しないので、処理がOP35に進み、プロセッサ101はフレームを廃棄する。
 OP37では、プロセッサ101は、宛先ノードIDの下位8ビットをVLANタグに格納し、このVLANタグをイーサネットヘッダの所定の位置に挿入する。次に、処理がOP38に進み、プロセッサ101は、迂回IF 113からフレームを送信する。その後、図13に示される処理が終了する。
 OP31の宛先ノードIDを取得する処理は、LAN処理部13の処理の一部に相当する。OP31,OP32,OP35,OP36の処理は、宛先ノード判定部14の処理の一部に相当する。OP33、OP34の処理は、RPR処理部11の処理の一部に相当する。OP37,OP38は、迂回NW処理部12の処理の一部に相当する。
 なお、図10-図13では、図9に示される機能ブロックが、プロセッサ101による通信プログラムに実行によって実現される場合を想定して説明した。ただし、これに限られず、図9に示される機能ブロックが、ハードウェアで実現される場合には、各処理は、それぞれ対応するハードウェアによって実現される。
 図11-図13では、障害発生時の処理について説明したが、カスケードNWが障害から復旧した場合には、通常の処理に戻る。すなわち、宛先ノードの検索に対向ノード情報は用いられない。障害復旧の検知は、例えば、カスケードNWから制御フレームを受信し自ノード情報が更新されることによって検知可能である。例えば、自ノード情報と対向ノード情報とに存在するノードが一致した場合に、カスケードNWの復旧を判定してもよい。
 <第1実施形態の作用効果>
 第1実施形態では、カスケードNWの境界ノードとなるリング装置が、対向ノードの自ノード情報(対向ノード情報)を保持する。対向ノード情報は、迂回NW(イーサネット)経由の宛先ノードの情報を示す。これによって、カスケードNWに障害が発生した場合でも、境界ノードはカスケードNW内の各ノードの情報を認識することができる。また、カスケードNWに障害が発生した場合に、対向ノード情報に存在する宛先ノードへは迂回NWを利用してフレームを送信することができ、通信の切断を防ぐことができる。また、カスケードNW内の障害発生時には、対向ノード情報を使用すれば迂回NWに切り替わるので、可用性の目安である切替時間(50ms以内)を維持することができる。また、リング型トポロジのRPRネットワークでは、リング上の伝送路はすべてRPRであるという制約があるが、第1実施形態によれば、RPRとは種類の異なるネットワークを用いて疑似的なリングを形成することができる。
 また、第1実施形態では、境界ノードにおいて、RPRネットワークから迂回NWへフレームを転送する際には、RPRの宛先情報をVLANタグに格納し、このVLANタグをイーサネットフレームに挿入する。これによって、RPRの宛先情報を維持しつつ、フレームを迂回NWに送信することができる。また、通常のイーサネットフレームからはVLANタグ4バイトが増えるだけなので、迂回NWの帯域消費を抑えることができる。
 <第1実施形態の適用例>
 図14は、第1実施形態の適用例を示す図である。図14に示される例は、迂回NWがRPR1とRPR2との2つのRPRネットワークで共有される例である。迂回NWにおいて、RPR1の境界ノードであるリング装置#1,#5とRPR2の境界ノードであるリング装置#11、#15とがそれぞれレイヤ2スイッチを介して接続される。
 RPRネットワークが正常時には、迂回NWに流れるフレームは少ない(例えば、対向ノード情報)ため、迂回NWにRPR1とRPR2との2つのRPRネットワークの合計帯域を用意しなくてもよく、1つのRPR分の帯域を用意すればよい。複数のカスケードNWで迂回NWを共有することで、帯域を有効に使用することができる。
 <第2実施形態>
 第2実施形態では、境界のノードは、迂回NW(イーサネット)にフレームを転送する際に、カスケードNW(RPR)の宛先情報に加えて、イーサネットフレームのヘッダにカスケードNWのQoS情報も格納される。これによって、迂回NWを経由することによるカスケードNWのQoS情報の欠落を防止することができる。第2実施形態では、第1実施形態と共通する説明は省略される。なお、第2実施形態においても、通信システムの構成は、第1実施形態と同様に図6A,図7Aを想定する。
 図15は、第2実施形態に係る通信システムにおけるフレームの変換による変遷の例を示す図である。図15では、図7Bと同様に、図7Aに示される通信システムにおいて、リング装置#2の配下のNW(イーサネット)の端末から送信されたフレームが、リング装置#2,リング装置#1,迂回ネットワーク,リング装置#5,リング装置#4,リング装置#4の配下のNW(イーサネット)の端末という経路をたどる場合の例が示される。
 リング装置#2の配下のネットワークからリング装置#2,リング装置#2からリング装置#1までのフレームFR11からフレームFR12への変遷については、第1実施形態(図7B)で説明した通りである。
 境界ノードであるリング装置#1では、迂回NWに転送するために、RPRフレームFR2をイーサネットフレームFR3へと変換する。第2実施形態では、第1実施形態と同様に、イーサネットフレームにVLANタグを挿入する。ただし、第2実施形態では、VLANタグに、宛先ノードIDの下位8ビットに加えて、RPRフレームのヘッダに含まれるQoS情報が格納される。
 図15のフレームFR3では、第2実施形態におけるVLANタグのフォーマットが示される。第2実施形態では、通常のVLANタグでVLAN IDフィールドとして使用される2バイト(16ビット)のフィールドが、ノードID(8ビット)、サービスクラス(2ビット)、予約(2ビット)として使用される。ノードIDフィールドには、第1実施形態と同様に、RPRフレームFR2の宛先ノードIDフィールド(6バイト)に格納される値のうち下位8ビットが格納される。サービスクラスフィールド(図中、フレームFR3のSC)には、RPRフレームFR2のコントロールフィールド(図中、フレームFR2のCTRL)に格納される値のうち使用されている2ビットが格納される。なお、サービスクラスは、運用上では、3つである場合が多く、RPRの規定でも最大5クラスである。したがって、RPRフレームでは、コントロールフィールドに1バイト用意されているが、実際に使用されているのは2ビットであることが多いため、第2実施形態ではVLANタグのサービスクラスフィールドに2ビット用意する。ただし、これに限られず、サービスクラスが5つ使用されている場合には、VLANタグのサービスクラスフィールドを3ビット、予約フィールドを1ビットに設定して用いてもよい。
 フレームFR3は、リング装置#1から送信され、迂回NWを経由してリング装置#5に到着する。リング装置#5では、RPRネットワークに送信するために、イーサネットフレームFR3をRPRフレームFR4に変換する。この場合には、まず、イーサネットフレームFR3のVLANタグからノードIDとサービスクラスとのフィールドの値が抽出され、フレームFR3からVLANタグが削除される。次に、フレームにRPRヘッダが付与され、抽出されたノードIDとサービスクラスとの値が、それぞれ、RPRヘッダの宛先ノードIDとコントロールとのフィールドに格納されて、フレームFR4が取得される。このとき、ノードID及びサービスクラスのそれぞれ不足分のビットはパディングされる。これによってリング装置#1において、イーサネットフレームFR3はRPRフレームFR4に変換される。
 図16は、第2実施形態の通信システムの概要を説明するための図である。RPRでは、リング上の帯域は、全て同一であることが規定されている。しかしながら、迂回NWとしてカスケードNW(RPR)の帯域以下の帯域しか用意できない場合がある。迂回NWの帯域がカスケードNWの帯域より小さい場合には、カスケードNWのQoS情報をそのまま適用すると、迂回NWにおいてデータの欠落が発生することがある。
 第2実施形態の通信システムでは、RPRネットワーク内の各リング装置は、QoS情報を格納するQoSテーブルを複数保持し、正常時と障害発生時とでQoSテーブルを使い分ける。
 例えば、図16に示される通信システムにおいて、カスケードNWの帯域は1000Mbps,迂回NWの帯域は600Mbpsであるとする。各リング装置#1-#5は、通常時用のQoSテーブル1と、障害時用のQoSテーブル2とを有する。正常時用のQoSテーブル1には、カスケードNWの帯域1000Mbpsに応じた帯域制御の情報が設定されている。障害時用のQoSテーブル2には、迂回NWの帯域600Mbps用の帯域制御の情報が設定されている。
 正常時には、各リング装置は通常時用のQoSテーブル1を使用し、1000Mps用の帯域制御が実行される。正常時には、カスケードNWから迂回NWにはフレームはほぼ流れないため、帯域制御の設定がカスケードNWの帯域600Mbpsを上回っていてもよい。
 例えば、リング装置#2とリング装置#3との間の伝送路で障害が発生した場合には、リング装置#2とリング装置#3とによってカスケードNW内に障害通知が行われる。境界ノードであるリング装置#1及びリング装置#5は、障害通知を受信すると、カスケードNWのリング装置に、QoSテーブルの切り替えを指示する制御フレームを送信する。QoSテーブルの切り替えを指示する制御フレームを受信すると、リング装置#2-#4は、QoSテーブル1から障害時用のQoSテーブル2に切り替える。境界ノードであるリング装置#1及びリング装置#5は、QoSテーブルの切り替えを指示する制御フレームの送信により、QoSテーブル1から障害時用のQoSテーブル2に切り替える。
 これによって、障害発生時には、障害時用のQoSテーブル2が用いられ、迂回NWの帯域に応じた帯域制御が実行される。したがって、障害発生時においても最低限必要なデータ通信を確保することができる。
 また、障害から復旧した際には、境界ノードであるリング装置#1及びリング装置#5が障害復旧を検知したタイミングで、QoSテーブルの切り替えを指示する制御フレームをカスケードNWに送信する。各リング装置#2-#4は、この制御フレームを受信すると、使用するQoSテーブルを障害時用のQoSテーブル2から正常時用のQoSテーブル1に切り替える。境界ノードであるリング装置#1及びリング装置#5は、QoSテーブルの切り替えを指示する制御フレームの送信によって、使用するQoSテーブルを正常時用のQoSテーブル1に切り替える。
 なお、使用するQoSテーブルを切り替えは、境界ノードからの制御フレームを利用したQoSテーブルの切り替え指示に限られない。例えば、障害発生の検出,障害発生の通知の受信,障害復旧の検出等により、各リング装置#1-5が自律的に使用するQoSテーブルを切り替えてもよい。
 <境界ノードの構成>
 図17は、第2実施形態における境界ノードであるリング装置1bの機能ブロックの一例である。リング装置1bのハードウェア構成は、第1実施形態のリング装置1と同様である。リング装置1bは、プロセッサ101が不揮発性メモリ103に格納される通信プログラムを実行することによって、RPR処理部11,迂回NW処理部12,LAN処理部13,宛先ノード判定部14,ノードリスト管理部15に加え、更にQoS処理部17として動作する。また、プロセッサ101の通信プログラムのインストール又は実行を通じて、揮発性メモリ102の記憶領域にノードリストDB 16と、正常時用QoSテーブル18a,障害時用QoSテーブル18bが作成される。正常時用QoSテーブル18a,障害時用QoSテーブル18bは、ユーザ入力によって設定されてもよい。ただし、これに限られず、各機能ブロックは、FPGA,ASIC等の電子回路によってハードウェアで実現されてもよい。
 QoS処理部17は、リング装置1bの配下のNWから受信し、カスケードNW又は迂回NWへ転送するフレームに対して付与されるQoS情報を管理する。QoS処理部17は、使用されるQoSテーブルを記憶しており、リング装置1bの配下のNWからカスケードNW又は迂回NWへフレームが送信される際に、LAN処理部13からの問い合わせに応じて、記憶されているQoSテーブルからQoS情報を読み出す。読み出されたQoS情報は、該当フレームの転送先に応じて、RPR処理部11又は迂回NW処理部12に通知される。また、QoS処理部17は、障害発生の通知を受信した場合、及び、障害復旧を検出した場合に、カスケードNWに(RPR IF 111から)QoSテーブルの切り替え指示の制御フレームを送信する。また、QoS処理部17は、自身に記憶される使用されるQoSテーブルを正常時用QoSテーブル18a又は障害時用QoSテーブル18bに書き換えて、QoSテーブルを切り替える。なお、障害復旧の検知は、例えば、自ノード情報の更新や、自ノード情報の更新により自ノード情報と対向ノード情報とが有するリング装置が同一になることにより検知される。
 RPR処理部11は、第1実施形態の処理に加えて、以下の処理を実行する。RPR処理部11は、RPR IF 111においてRPRフレームが受信された場合、RPRフレームを解析して、宛先ノードIDとコントロールとのフィールドから値を抽出する。また、RPRフレームの送信の場合には、RPR処理部11は、宛先ノードIDとサービスクラスとを取得し、RPRヘッダの宛先ノードIDとコントロールとのフィールドにそれぞれ値を格納する。宛先ノードIDは宛先ノード判定部14から取得される。サービスクラスは、受信インタフェースに応じてQoS処理部17又は迂回NW処理部12からの通知によって取得される。RPR処理部11は、フレームにRPRヘッダを付与してRPR IF 111からRPRフレームを送信する。
 迂回NW処理部12は、第1実施形態の処理に加えて、以下の処理を実行する。迂回IF 113でイーサネットフレームが受信された場合には、迂回NW処理部12は、VLANタグを解析し、ノードIDとサービスクラスとのフィールドから値を抽出する。また、迂回IF 113からイーサネットフレームが送信される場合には、迂回NW処理部12は、宛先ノードIDとサービスクラスとを取得し、VLANタグに格納する。宛先ノードIDは、宛先ノード判定部14から取得される。サービスクラスは、QoS処理部17又はRPR処理部11からの通知により取得される。迂回NW処理部12は、このVLANタグをヘッダに含めてイーサネットフレームを生成し、迂回IF 113からイーサネットフレームを送信する。
 LAN処理部13は、第1実施形態の処理に加えて、LAN IF 112でイーサネットフレームが受信された場合には、QoS処理部17にQoS情報を問い合わせる。
 宛先ノード判定部14,ノードリスト管理部15,ノードリストDB 16については、第1実施形態と同様である。
 正常時用QoSテーブル18aには、カスケードNWの帯域に応じた帯域制御の情報が設定されている。障害時用QoSテーブル18bには、迂回NWの帯域に応じた帯域制御の情報が設定されている。
 <境界ノード以外のリング装置の構成>
 図18は、境界ノードではないリング装置2の機能ブロックの一例を示す図である。リング装置2のハードウェア構成は、境界ノードであるリング装置1bと同様であり、図8に示される通りである。リング装置2は、プロセッサ101が不揮発性メモリ103に格納される通信プログラムを実行することによって、RPR処理部21,LAN処理部23,宛先ノード判定部24,ノードリスト管理部25,QoS処理部27として動作する。また、該通信プログラムをインストール又は実行することによって、揮発性メモリ102の記憶領域にノードリストDB 26,正常時用QoSテーブル28a,障害時用QoSテーブル28bが作成される。正常時用QoSテーブル28a,障害時用QoSテーブル28bは、ユーザ入力によって設定されてもよい。
 ノードリストDB 26には、自ノード情報261が格納される。境界ノードでないリング装置2は、迂回NWには接続されず、迂回NWについては認識しないため、対向ノード情報は有しない。正常時用QoSテーブル28aには、カスケードNWの帯域に応じた帯域制御の情報が設定されている。障害時用QoSテーブル28bには、迂回NWの帯域に応じた帯域制御の情報が設定されている。
 境界ノード以外のリング装置2は、RPRネットワークと配下のイーサネットワークとに接続しており、迂回NWに係る処理を実行しないこと以外は、境界ノードであるリング装置1bとほぼ同様の処理を実行する。RPR処理部21は、RPR IF 111において送受信されるフレームの処理を行う。したがって、RPR処理部21,LAN処理部23の処理は、境界ノードのリング装置1bのRPR処理部11,LAN処理部13と同様の処理である。宛先ノード判定部24,ノードリスト管理部25は、境界ノード以外のリング装置2は対向ノード情報を保持しないので、対向ノードに係る処理を実行しない以外は、境界ノードのリング装置1bの宛先ノード判定部14,ノードリスト管理部15の処理と同様である。
 QoS処理部27は、リング装置2の配下のNWから受信し、カスケードNWへ転送するフレームに対して付与されるQoS情報を管理する。QoS処理部27は、使用されるQoSテーブルを記憶しており、リング装置2の配下のNWからカスケードNWへフレームが送信される際に、LAN処理部23からの問い合わせに応じて、使用することが記憶されているQoSテーブルからQoS情報を読み出す。読み出されたQoS情報は、RPR処理部21に通知される。また、QoS処理部27は、境界ノードであるリング装置1bからのQoSテーブルの切り替え指示の制御フレームを受信すると、使用されるQoSテーブルを正常時用QoSテーブル28a又は障害時用QoSテーブル28bに書き換えて、QoSテーブルを切り替える。
 <境界ノードの動作例>
 図19,図20,図21は、それぞれ、カスケードNWの障害発生時における境界ノードのリング装置1bのフレーム転送処理のフローチャートの一例である。
 図19は、カスケードNWの障害発生時に、RPR IF 111においてフレームが受信された場合の境界ノードのリング装置1bのフレーム転送処理のフローチャートの一例である。図19に示されるフローチャートは、カスケードNWの障害発生時にRPR IF 111においてフレームが受信された場合に開始される。
 図19に示されるフローチャートにおいて、OP42-OP46,OP48の処理は、図11に示されるフローチャートのOP12-OP16,OP18の処理と同様である。以下、図11に示されるフローチャートの処理と異なるOP41,OP47の処理について説明する。
 OP41では、プロセッサ101は、RPR IF 111において受信したRPRフレームを解析し、RPRヘッダの宛先ノードIDフィールドとコントロールフィールドに格納される値を抽出する。また、プロセッサ101はRPRフレームのヘッダを削除する。このときのフレームは、通常のイーサネットフレームである(図7B参照)。
 OP47では、RPR IF 111において受信したフレームを迂回NWに送信することを判定したので、プロセッサ101は、VLANタグをOP41においてRPRヘッダが外されたフレームのイーサネットヘッダの所定の位置に挿入する。このVLANタグのノードIDフィールドには、OP41において抽出された宛先ノードIDの下位8ビットが格納される。また、VLANタグのサービスクラスフィールドには、OP41において抽出されたRPRヘッダのコントロールフィールドの値のうち使用されている2ビットが格納される。
 図20は、カスケードNWの障害発生時に、迂回IF 113においてフレームが受信された場合の境界ノードであるリング装置1bのフレーム転送処理のフローチャートの一例である。図20に示されるフローチャートは、カスケードNWの障害発生時に迂回IF 113において、フレームが受信された場合に開始される。なお、迂回IF 113において受信されるフレームは、VLANタグを有するイーサネットフレームである。
 図20に示されるフローチャートにおいて、OP52-OP54,OP56-OP57の処理は、図12に示されるフローチャートのOP22-OP24,OP26-OP27の処理と同様である。以下、図12に示されるフローチャートの処理と異なるOP51,OP55の処理について説明する。
 OP51では、プロセッサ101は、迂回NWから迂回IF 113において受信したイーサネットフレームを解析し、VLANタグのノードIDフィールドの値8ビットを抽出する。また、プロセッサ101は、VLANタグのサービスクラスフィールドの値2ビットを抽出する。プロセッサ101は、イーサネットフレームからVLANタグを削除する。
 OP55では、迂回IF 113において受信したイーサネットフレームをRPRネットワークに送信することが判定されたので、プロセッサ101は、該イーサネットフレームにRPRヘッダを付与してRPRフレームを生成する(図7B、フレームFR3、FR4参照)。プロセッサ101は、RPRフレームの宛先ノードIDフィールドに、OP21で抽出されたVLANタグのノードIDフィールドの値8ビットにパディングして6バイトにした値を格納する。また、プロセッサ101は、RPRフレームのコントロールフィールドに、OP21で抽出されたVLANタグのサービスクラスフィールドの値2ビットにパディングして1バイトにした値を格納する。
 図21は、LAN IF 112においてフレームが受信された場合の境界ノードであるリング装置1bのフレーム転送処理のフローチャートの一例である。図21に示されるフローチャートは、LAN IF 112においてフレームが受信された場合に開始される。
 図21に示されるフローチャートにおいて、OP61-OP62,OP64-OP66,OP68の処理は、図13に示されるフローチャートのOP31-OP32,OP34-OP36,OP38の処理と同様である。以下、図12に示されるフローチャートの処理と異なるOP60,OP63,OP67の処理について説明する。
 OP60では、プロセッサ101は、使用されているQoSテーブルからQoS情報を取得する。なお、カスケードNWの正常時には、正常時用QoSテーブル18aが使用される。カスケードNWの障害時には、障害時用QoSテーブル18bが使用される。
 OP63では、LAN IF 112において受信されたイーサネットフレームがカスケードNW(RPR)に転送されることが判定されたので、プロセッサ101は、該イーサネットフレームにRPRヘッダを付与してRPRフレームを生成する(図7B、フレームFR1、FR2参照)。プロセッサ101は、RPRフレームの宛先ノードIDフィールドに、配下のNWとノードIDとの対応付けから取得した宛先ノードIDを格納する。また、プロセッサ101は、RPRフレームのコントロールフィールドに、OP60で取得したQoS情報で指定されるサービスクラスを格納する。このフレームはRPR IF 111からカスケードNW(RPR)に送信される。
 OP67では、LAN IF 112において受信されたイーサネットフレームが迂回NW(イーサネット)に転送されることが判定されたので、プロセッサ101は、該イーサネットフレームの所定の位置にVLANタグを挿入する。プロセッサ101は、このVLANタグのノードIDフィールドに、配下のNWとノードIDとの対応付けから取得した宛先ノードIDの下位8ビットを格納する。また、プロセッサ101は、VLANタグのサービスクラスフィールドに、OP60において取得されたQoS情報で指定されるサービスクラスを格納する。このフレームは迂回IF 113から迂回NW(イーサネット)に送信される。
 <第2実施形態の作用効果>
 第2実施形態では、境界ノードであるリング装置1bは、迂回NW(イーサネット)にフレームを転送する場合に、VLANタグにQoS情報を格納することで、カスケードNW(RPR)内のQoS情報をイーサネットフレームに埋め込む。これによって、迂回NWを経由した場合でもカスケードNWのQoS情報の欠落を防ぐことができる。
 また、第2実施形態では、カスケードNW内のリング装置は、カスケードNWの正常時と障害時とでQoSテーブルを使い分ける。これによって、カスケードNWの障害時には、カスケードNWよりも帯域の狭い迂回NWに応じた帯域制御が実行され、データの欠落を防止することができる。
 <第2実施形態の変形例>
 図22は、迂回NWがRPR1とRPR2との2つのRPRネットワークで共有される例を示す。迂回NWにおいて、RPR1の境界ノードであるリング装置#1,#5とRPR2の境界ノードであるリング装置#11、#15とがそれぞれレイヤ2スイッチを介して接続される。
 RPR1とRPR2との両方で障害が発生することを二重障害と称する。二重障害の場合には、RPR1とRPR2との両方のネットワークが迂回NWを利用するため、迂回NWの帯域が圧迫される。そのため、第2実施形態の変形例では、各リング装置は、正常時用のQoSテーブル1と障害時用のQoSテーブル2とに加えて、二重障害時用のQoSテーブル3を備え、これらを使い分ける。
 例えば、RPR1及びRPR2のカスケードNWの帯域が1000Mbps,迂回NWの帯域が600Mbpsであるとする。この場合、例えば、正常時用のQoSテーブル1には、カスケードNWの帯域1000Mpbsに応じた帯域制御の設定が格納される。例えば、障害時用のQoSテーブル2には、迂回NWの帯域600Mpbsに応じた帯域制御の設定が格納される。また、例えば、二重障害時用のQoSテーブル3には、迂回NWの帯域の半分の300Mpbsのように二重障害時に利用可能な帯域に応じた帯域制御の設定が格納される。
 以下、RPR1について説明するが、RPR2についても同様に構成することができる。境界ノードであるリング装置#1及びリング装置#2は、例えば、迂回NW経由でのフレームの遅延,欠落等を検知することによって、二重障害の発生を検出する。例えば、自ノードのコピーを対向ノードに送信する制御フレームは、所定間隔で迂回NW経由でやり取りされるので、境界ノードはこの制御フレームの受信間隔等を監視して二重障害を検出する。
 境界ノードであるリング装置#1、#5は、二重障害を検出すると、制御フレームを利用して、二重障害の発生をカスケードNW内のリング装置#2-#4に通知する。カスケードNW内のリング装置#2-#4は、二重障害発生の通知を受信すると、使用するQoSテーブルを二重障害時用のQoSテーブル3に切り替える。境界ノードであるリング装置#1、#5は、二重障害を通知する制御フレームを送信すると、使用するQoSテーブルを二重障害時用のQoSテーブル3に切り替える。
 各リング装置が二重障害時用のQoSテーブルを備え、二重障害発生時には、二重障害時用のQoSテーブルを使用することによって、複数のカスケードNWで迂回NWを共有する場合の二重障害にも柔軟に適応する帯域制御を行うことができる。
1,1b,2   リング装置
11   RPR処理部
12   迂回NW処理部
13   LAN処理部
14   宛先ノード判定部
15   ノードリスト管理部
16   ノードリストデータベース
17   QoS処理部
161  自ノード情報
162  対向ノード情報1

Claims (12)

  1.  カスケード型のトポロジの第1のネットワークの終端に接続し、前記第1のネットワークとはフレームの形式が異なる第2のネットワークにも接続する通信装置であって、
     前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第1のリストを、前記第1のネットワークのもう一方の終端に位置し、前記第2のネットワークにも接続し、前記第2のネットワークにおいて対向する通信装置に、送信する送信部と、
     前記対向する通信装置から、前記対向する通信装置の前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第2のリストを受信する受信部と、
     前記第1のリストと、前記第2のリストとを格納する格納部と、
     フレームの宛先が、前記第1のリスト又は前記第2のリストのいずれに含まれるか判定する判定部と、
     前記第1のネットワークから受信したフレームの宛先が前記第2のリストに含まれる場合に、前記フレームを前記第2のネットワークに送信するフレーム送信部と、
    を備える通信装置。
  2.  前記判定部は、前記第1のネットワーク内において障害が発生した場合に、フレームの宛先について、前記第1のリストと、前記第2のリストとを検索する、
    請求項1に記載の通信装置。
  3.  前記フレーム送信部は、前記第1のネットワークから受信したフレームを前記第1のネットワークで用いられる形式から前記第2のネットワークで用いられる形式に変換し、該変換において、前記第2のネットワークで用いられる形式のヘッダ内の宛先情報を格納するフィールドとは異なる位置に、前記フレームの宛先ノードの情報を埋め込む、
    請求項1又は2に記載の通信装置。
  4.  前記第2のネットワークから受信したフレームの宛先が前記第1のリストに含まれる場合に、前記フレームを前記第2のネットワークで用いられる形式から前記第1のネットワークで用いられる形式に変換し、該変換において、前記第2のネットワークで用いられる形式のヘッダ内の宛先情報を格納するフィールドとは異なる位置に埋め込まれた前記フレームの宛先ノードの情報を、前記第1のネットワークで用いられる形式のヘッダ内の宛先情報に格納し、前記フレームを前記第1のネットワークに送信する第2のフレーム送信部、
    をさらに備える請求項3に記載の通信装置。
  5.  前記フレーム送信部は、前記変換において、前記第2のネットワークで用いられる形式のヘッダ内のQoS情報を格納するフィールドとは異なる位置に、前記第1のネットワークで用いられる形式のヘッダ内のQoS情報を埋め込む、
    請求項3又は4に記載の通信装置。
  6.  前記第1のネットワークの正常時用のQoS設定情報と、前記第1のネットワークの障害発生時用のQoS設定情報とを格納する前記第1のネットワーク内の通信装置に対して、前記第1のネットワークの障害発生時に、前記障害発生時用のQoS設定情報への切り替えを通知する通知部をさらに備える、
    請求項1から5のいずれか一項に記載の通信装置。
  7.  前記第2のネットワークには、カスケード型のトポロジの第3のネットワークが接続しており、
     前記第1のネットワーク内の通信装置は、前記第1のネットワーク及び前記第3のネットワークの両方における障害発生時用のQoS設定情報をさらに格納し、
     前記通知部は、前記第1のネットワーク及び前記第3のネットワークの両方における障害発生時に、前記第1のネットワーク内の通信装置に、前記第1のネットワーク及び前記第3のネットワークの両方における障害発生時用のQoS設定情報への切り替えを通知する、
    請求項6に記載の通信装置。
  8.  前記第1のネットワークの正常時用のQoS設定情報と、前記第1のネットワークの障害発生時用のQoS設定情報とを格納する第2の格納部と、
     前記第1のネットワークの障害発生時に、使用するQoS設定情報を前記第1のネットワークの障害発生時用のQoS設定情報に切り替えるQoS管理部と、
    をさらに備える請求項5から7のいずれか一項に記載の通信装置。
  9.  前記第2の格納部は、前記第2のネットワークに接続するカスケード型のトポロジの第3のネットワークと前記第1のネットワークとにおける障害発生時用のQoS設定情報をさらに格納し、
     前記QoS管理部は、前記第1のネットワーク及び前記第3のネットワークの両方における障害発生時に、使用するQoS設定情報を、前記第1のネットワーク及び前記第3のネットワークの両方における障害発生時用のQoS設定情報へ切り替える、
    請求項8に記載の通信装置。
  10.  前記第1のネットワークはRPRネットワークであり、
     前記第2のネットワークはEthernetネットワークであり、
     前記フレーム送信部は、前記変換において、EthernetヘッダにVLANタグを挿入し、該VLANタグ内に、該フレームのRPRヘッダ内の宛先ノード情報を格納する、
    請求項3から9のいずれか一項に記載の通信装置。
  11.  カスケード型のトポロジの第1のネットワークの終端に接続し、前記第1のネットワークとはフレームの形式が異なる第2のネットワークにも接続する通信装置が、
     前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第1のリストを、前記第1のネットワークのもう一方の終端に位置し、前記第2のネットワークにも接続し、前記第2のネットワークにおいて対向する通信装置に、送信し、
     前記対向する通信装置から、前記対向する通信装置の前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第2のリストを受信し、
     前記第1のリストと、前記第2のリストとを格納し、
     フレームの宛先が、前記第1のリスト又は前記第2のリストのいずれに含まれるか判定し、
     前記第1のネットワークから受信したフレームの宛先が前記第2のリストに含まれる場合に、前記フレームを前記第2のネットワークに送信する、
    通信方法。
  12.  カスケード型のトポロジの第1のネットワークの終端に接続し、前記第1のネットワークとはフレームの形式が異なる第2のネットワークにも接続する通信装置を、
     前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第1のリストを、前記第1のネットワークのもう一方の終端に位置し、前記第2のネットワークにも接続し、前記第2のネットワークにおいて対向する通信装置に、送信する送信部と、
     前記対向する通信装置から、前記対向する通信装置の前記第1のネットワーク経由のフレームの送信の宛先である前記第1のネットワーク内の通信装置の情報を含む第2のリストを受信する受信部と、
     前記第1のリストと、前記第2のリストとを格納する格納部と、
     フレームの宛先が、前記第1のリスト又は前記第2のリストのいずれに含まれるか判定する判定部と、
     前記第1のネットワークから受信したフレームの宛先が前記第2のリストに含まれる場合に、前記フレームを前記第2のネットワークに送信するフレーム送信部と、
    として機能させる通信プログラム。
PCT/JP2012/058127 2012-03-28 2012-03-28 通信装置、通信方法、及び通信プログラム WO2013145150A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2012/058127 WO2013145150A1 (ja) 2012-03-28 2012-03-28 通信装置、通信方法、及び通信プログラム
JP2014507118A JP5907252B2 (ja) 2012-03-28 2012-03-28 通信装置、通信方法、及び通信プログラム
US14/497,702 US9614718B2 (en) 2012-03-28 2014-09-26 Communication system for fault tolerance in cascade topology and ring topology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/058127 WO2013145150A1 (ja) 2012-03-28 2012-03-28 通信装置、通信方法、及び通信プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/497,702 Continuation US9614718B2 (en) 2012-03-28 2014-09-26 Communication system for fault tolerance in cascade topology and ring topology

Publications (1)

Publication Number Publication Date
WO2013145150A1 true WO2013145150A1 (ja) 2013-10-03

Family

ID=49258517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/058127 WO2013145150A1 (ja) 2012-03-28 2012-03-28 通信装置、通信方法、及び通信プログラム

Country Status (3)

Country Link
US (1) US9614718B2 (ja)
JP (1) JP5907252B2 (ja)
WO (1) WO2013145150A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017002804B4 (de) * 2017-03-23 2018-10-04 WAGO Verwaltungsgesellschaft mit beschränkter Haftung Koppler für ein Automatisierungssystem
CN113422818B (zh) * 2021-06-18 2022-10-25 重庆紫光华山智安科技有限公司 一种数据级联传输方法、系统及节点设备
US11784916B2 (en) * 2021-07-23 2023-10-10 EMC IP Holding Company LLC Intelligent control plane communication

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006060489A (ja) * 2004-08-19 2006-03-02 Mitsubishi Electric Corp 二重リングネットワーク
JP2010103788A (ja) * 2008-10-24 2010-05-06 Fujitsu Telecom Networks Ltd パケット伝送制御システム及びパケット伝送制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3842379B2 (ja) * 1997-02-17 2006-11-08 富士通株式会社 伝送路データ迂回システム
JP2001285322A (ja) * 2000-03-28 2001-10-12 Fujitsu Ltd Lan間通信装置及びこれを用いるlan間通信ネットワーク
JP4052956B2 (ja) * 2003-02-07 2008-02-27 富士通株式会社 Rprネットワークシステム,ステーションノード,ブリッジノード及びrprカード
CN100364289C (zh) * 2004-04-30 2008-01-23 华为技术有限公司 在基于弹性分组环的网络中实现二层设备互连的方法
JP2007116284A (ja) * 2005-10-18 2007-05-10 Fujitsu Ltd 伝送装置
JP4760504B2 (ja) * 2006-04-12 2011-08-31 株式会社日立製作所 ネットワークシステムおよび通信装置
JP2008060489A (ja) * 2006-09-04 2008-03-13 Nippon Steel Chem Co Ltd 電子部品吸着保持具
JP5105096B2 (ja) * 2006-11-22 2012-12-19 日本電気株式会社 通信ネットワーク、情報処理装置およびアドレス割当方法
ATE536682T1 (de) * 2008-10-15 2011-12-15 Yamaha Corp Audionetzwerksystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006060489A (ja) * 2004-08-19 2006-03-02 Mitsubishi Electric Corp 二重リングネットワーク
JP2010103788A (ja) * 2008-10-24 2010-05-06 Fujitsu Telecom Networks Ltd パケット伝送制御システム及びパケット伝送制御方法

Also Published As

Publication number Publication date
US9614718B2 (en) 2017-04-04
US20150009799A1 (en) 2015-01-08
JP5907252B2 (ja) 2016-04-26
JPWO2013145150A1 (ja) 2015-08-03

Similar Documents

Publication Publication Date Title
US7898942B2 (en) Ring network system, failure recovery method, failure detection method, node and program for node
US7826400B2 (en) Packet ring network system and packet transport method
US9853894B2 (en) Apparatus and method for establishing tunnels between nodes in a communication network
JP4676403B2 (ja) 通信装置及び通信システム
JP4688765B2 (ja) ネットワークの冗長方法及び中位スイッチ装置
JP5345942B2 (ja) Pbtネットワークの中間ノードにおけるイーサネットoam
JP5158369B2 (ja) 通信システム、ノード、端末、通信方法、およびプログラム
US20040170184A1 (en) RPR network system
JPWO2004075485A1 (ja) ネットワークシステム、スパニングツリー構成方法及び構成プログラム、スパニングツリー構成ノード
JP2006270169A (ja) パケット中継装置
GB2471761A (en) Fault recovery path reconfiguration in ring networks
JP5891877B2 (ja) 中継装置および中継方法
CN110401599A (zh) 数据包的处理方法及装置、存储介质、电子装置
KR101477012B1 (ko) Sdn 스위칭 방법, 장치, 시스템 및 컴퓨터 판독 가능한 기록 매체
WO2021088433A1 (zh) 一种报文的处理方法,装置和系统
US8218446B2 (en) Frame transfer route confirmation method, node, frame transfer route confirmation program and frame transfer route confirmation system
US20070217438A1 (en) Ring node device and method of connecting terminal to ring node device
US20150172173A1 (en) Communication system, communication apparatus and path switching method
JP5907252B2 (ja) 通信装置、通信方法、及び通信プログラム
JP2005175591A (ja) スイッチングハブ
JPWO2006075402A1 (ja) オープンループネットワークノード装置及びオープンループネットワーク制御方法
JP2009147653A (ja) 通信システムおよびリングノード装置
JP2017034365A (ja) ネットワークシステムおよびパケット転送方法
JP5045332B2 (ja) パケットリングネットワークシステム、およびフォワーディングデータベース管理方法
JP4447385B2 (ja) Rprノード装置およびrprネットワークのフォワーディングパス制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12872709

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014507118

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12872709

Country of ref document: EP

Kind code of ref document: A1