WO2016021014A1 - 計算機システム、通信制御方法及び優先制御サーバ - Google Patents

計算機システム、通信制御方法及び優先制御サーバ Download PDF

Info

Publication number
WO2016021014A1
WO2016021014A1 PCT/JP2014/070829 JP2014070829W WO2016021014A1 WO 2016021014 A1 WO2016021014 A1 WO 2016021014A1 JP 2014070829 W JP2014070829 W JP 2014070829W WO 2016021014 A1 WO2016021014 A1 WO 2016021014A1
Authority
WO
WIPO (PCT)
Prior art keywords
name resolution
server
relay device
resolution request
priority
Prior art date
Application number
PCT/JP2014/070829
Other languages
English (en)
French (fr)
Inventor
啓生 宮本
延之 村中
橋本 和則
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2014/070829 priority Critical patent/WO2016021014A1/ja
Publication of WO2016021014A1 publication Critical patent/WO2016021014A1/ja

Links

Images

Definitions

  • the present invention relates to a computer system that performs name resolution and priority control.
  • next-generation cities in which social infrastructures with low CO 2 emissions, high efficiency, and lower environmental impact are being promoted are being promoted around the world.
  • smart grid technology that integrates the control technology and information technology that has been cultivated by the government, local government and social infrastructure, social infrastructure such as electricity, gas, transportation and water, buildings and houses Aiming to build smart cities using highly efficient energy in collaboration with other customers.
  • the operation information of related equipment is regularly managed in a data center or the like, and appropriate control is performed from the data center. Further, in the case of a shortage, it may be considered that only the failure information notification is directly transmitted to the related devices.
  • each device Since each device is installed at various bases, it is expensive to install a wired network for each device, so a wide area network using 3G or other wireless communication is used.
  • M2M network M2M (Machine to Machine)
  • M2M service can use a secure private network from a communication device to a data center.
  • M2M services provided by communication carriers use wireless networks that share base stations with mobile phones such as 3G, LTE, WiMAX, and GPRS as access networks.
  • Wireless networks share base stations with normal mobile phones, and in areas with a high population density, it is difficult to connect depending on the time of day, or the communication quality is affected, such as a decrease in bandwidth (decrease in communication speed). The case where it comes out arises.
  • the number of devices (or terminals) used in the smart city must be assumed to be 10 million or more, so the number of line contracts required in the M2M network should be as small as possible from the cost viewpoint. Is a requirement.
  • a relay device that connects WAN (Wide Area Network) and FAN (Field Area Network) is arranged between the actual equipment and the data center. In many cases, a configuration is used in which multiple devices are connected.
  • Patent Document 1 provides a system that can automatically select a network path in a portable communication terminal having a plurality of communication paths connectable to a specific host.
  • the communication data size transmitted / received by the control system such as the smart city of the above-mentioned conventional example is mostly about 1 MTU (Maximum Transmission Unit), which is smaller than the data size transmitted / received by the Web service or the like.
  • the number of devices that are data generation sources is large, but since the data size periodically transmitted from each device is small, the load on communication is small in a steady state.
  • the control system such as the smart city has a large number of devices to be accommodated
  • a plurality of M2M networks provided by communication carriers are used, and each device can be connected to a plurality of M2M networks in consideration of communication failure.
  • Multiple communication modules can be installed.
  • the present invention has been made in view of the above problems, and an object thereof is to reliably transfer a message having a high priority.
  • the present invention relates to a relay device connected to a network, a field device connected to the relay device and transmitting a message, a priority control server connected to the relay device via the network, and a priority control server.
  • a DNS server connected to perform name resolution, wherein the relay device includes a transmission / reception unit that transfers a name resolution request transmitted from the field device to the priority control server, and Each time the control server receives a name resolution request transmitted by the field device, the control server receives a delay time information indicating the network status for each destination of the name resolution request, and the name resolution request. When the name resolution request destination is delayed based on the delay prediction information.
  • a control unit a.
  • the present invention even when the traffic from the network to the priority control server suddenly increases, it is possible to reliably transfer a message having a high priority.
  • FIG. 1 is a block diagram illustrating an example of a computer system according to a first embodiment of this invention.
  • FIG. It is a block diagram which shows a 1st Example of this invention and shows an example of a data center.
  • FIG. 5 shows the first embodiment of the present invention and is the first half of a sequence diagram showing an example of entry processing of a relay device performed in a computer system. It is a second half part of the sequence diagram showing the first embodiment of the present invention and showing an example of the joining process of the relay device performed in the computer system.
  • It is a flowchart which shows a 1st Example of this invention and shows an example of the entry process performed with an entry server.
  • FIG. 1 It is a flowchart which shows a 1st Example of this invention and shows an example of the entry process performed with a DIPM server. It is a sequence diagram which shows a 1st Example of this invention and shows an example of the leaving process of the relay apparatus performed with a computer system. It is a flowchart which shows a 1st Example of this invention and shows an example of the leaving process of the relay apparatus performed with a DIPM server. It is a sequence diagram which shows a 1st Example of this invention and shows an example of the stop process of the relay apparatus performed with a computer system. It is a flowchart which shows a 1st Example of this invention and shows an example of the stop process of the relay apparatus performed with a DIPM server.
  • FIG. 5 is a first half of a sequence diagram illustrating an example of a field device entry process performed in the computer system according to the first embodiment of this invention.
  • FIG. 5 is a second half of a sequence diagram illustrating an example of field device entry processing performed in the computer system according to the first embodiment of this invention. It is a sequence diagram which shows a 1st Example of this invention and shows an example of the stop process of the field apparatus performed with a computer system. It is a sequence diagram which shows a 1st Example of this invention and shows an example of the name resolution process performed with a computer system. It is a first half of a flowchart showing an example of name resolution processing performed in the computer system according to the first embodiment of this invention.
  • FIG. 2 is a state transition diagram of the relay device and the field device according to the first embodiment of this invention. It is a figure which shows a 1st Example of this invention and shows an example of the management table which a DIPM server manages. It is a block diagram which shows a 1st Example of this invention and shows an example of a DIPM server.
  • 1 is a block diagram illustrating an example of a relay device according to a first embodiment of this invention.
  • FIG. It is a block diagram which shows a 1st Example of this invention and shows an example of a communication management server. It is a first half of a flowchart showing an example of name resolution processing performed in the computer system according to the second embodiment of this invention. It is a latter half part of the flowchart which shows a 2nd Example of this invention and shows an example of the name resolution process performed with a computer system. It is a block diagram which shows the 3rd Example of this invention and shows an example of a DIPM server. It is a flowchart which shows a 1st Example of this invention and shows an example of the management table update process performed with a computer system.
  • FIG. 1A is a block diagram of a computer system to which the present invention is applied.
  • FIG. 1A shows field devices 41-A to 41-F constituting a smart city, the data center 1 managing these field devices 41-A to 41-F, and field devices 41-A to 41-F.
  • FAN Field Area Network
  • 40-1 to 40-3 connected to the data center 1, and relay devices 4-1 to 4-3 for connecting the FAN 40-1 to 40-3 to the WANs 3-1 and 3-2, Is a computer system including
  • the generic name of the field devices 41-A to 41-F is represented by reference numeral 41.
  • the generic term of the WANs 3-1 and 3-2 is represented by reference numeral 3
  • the relay apparatuses 4-1 to 4- 3 is represented by reference numeral 4
  • the generic names of FANs 40-1 to 40-3 are represented by reference numeral 40. The same applies to the reference numerals of other components.
  • a wireless communication network such as 3G, LTE, or LTE is adopted as the WAN 3 is not limited thereto.
  • a communication network such as LAN, ZigBee, WiFi, Bluetooth or the like is adopted as the FAN 40 is shown, but is not limited thereto.
  • the relay device 4 controls communication between the field device 41 connected to the FAN 40 and transmitting a message at a predetermined cycle and the data center 1 via the WAN 3.
  • the field devices 41-A to 41-F have sensors 43-A to 43-F and actuators 44-A to 44-F, respectively, and the information measured by the sensor 43 is used for the data center 1 and other field devices 41.
  • Send to. Transmission of information from the field device 41 is performed, for example, at a predetermined cycle with respect to a preset transmission destination.
  • the field device 41 can control the actuator 44 based on a command from the data center 1, another field device 41, or a computer.
  • the data center 1 is connected to the WANs 3-1 and 3-2 via firewalls (FWs in the figure) 20-1 and 20-2.
  • the WAN 3 includes address issuing servers 30-1 and 30-2 that assign or lend IP addresses to the relay device 4 and the like.
  • FIG. 2A is a block diagram showing an example of a data center 1 to which the present invention is applied.
  • the data center 1 includes a business server 10 that executes a business application that uses information from the field device 41, a control server 11 that executes a control application that controls the field device 41, and information unique to each field device 41.
  • Device management server 12 to be managed entry servers 14-1 and 14-2 for authenticating the field device 41 and the relay device 4, DNS server 18 for address conversion, and DIPM for processing at the front end of the DNS server 18
  • a VPN Virtual Private Network
  • the communication management server 15 that temporarily stores communication data (hereinafter, a message) when communication delay occurs, and the relay device 4 or each server.
  • Each server is connected via the networks 100 and 101.
  • a DMZ DeMilitarized Zone
  • the firewalls 20-1, 20-2 to 13 is connected by the network 100, and the firewall 13, the business server 10, the control server 11, and the device management server 12 are connected.
  • the network 101 is connected via the network 101.
  • the tunneling devices 17-1 and 17-2 set a VPN between the field device 41 and the relay devices 4-1 to 4-3 that relay the communication between the data center 1.
  • the relay device 4 collectively transfers the communications of the plurality of field devices 41 under the FAN 40 by using a NAT (Network Address Translation) function. That is, the communication of a large number of field devices 41 is integrated by the NAT function of the relay device 4 while suppressing the number of lines used in the WAN 3.
  • NAT Network Address Translation
  • Firewalls 20-1 and 20-2 function as a gateway on the WAN 3 side by blocking unauthorized communications to ensure security.
  • the firewall 13 on the business server 10 to device management server 12 side functions as a router that divides the network of the server side and the firewall 13 to the relay device 4.
  • a DMZ is provided between the firewall 20 on the WAN 3 side and the firewall 13 on the server side.
  • the tunneling device 16 sets a VPN between the DMZ and the business server 10 to the device management server 12.
  • the network address space of the firewall 13 and the business server 10 to the device management server 12 is the first address space
  • the network address space from the DMZ to the relay device 4 becomes the second address space
  • the FAN 40 shown in FIG. 1A. Is the third address space.
  • Entry servers 14-1 and 14-2 store authentication information in advance, and perform authentication processing when receiving an authentication request from relay device 4 or field device 41.
  • the DNS server 18 converts a URL (or URI) and an IP address using a known or publicly known technique. Note that the DNS server 18 can receive a name resolution request from the field devices 41 under the relay apparatuses 4-1 to 4-3 and perform a name resolution response.
  • the DIPM server (or priority control server) 19 of the present invention functions at the front end of the DNS server 18, monitors the management table 580 as a DNS cache, the communication status of the WAN 3, and delays in the WAN 3 as will be described later.
  • a priority control command for temporarily storing a message (or packet) according to the priority of communication (or message) is sent to the relay device 4 or the communication management server 15.
  • DIPM is an abbreviation for Dummy IP address Management.
  • the DIPM server 19 also has a pool (not shown) for managing dummy IP addresses used for priority control, and a virtual IP address table (not shown) for managing virtual IP addresses assigned to the field devices 41 and the like under the relay device 4. (Omitted).
  • the communication management server 15 functions as a buffer for temporarily storing messages.
  • FIG. 16 is a block diagram illustrating an example of the DIPM server 19.
  • the DIPM server 19 includes a processor 191 that performs arithmetic processing, a memory 192 that stores data and programs, an interface 193 that is connected to the network 100, and a storage device 194 that stores data and programs.
  • the memory 192 counts the number of name resolution requests (DNSRequest) by transmitting / receiving units 520 that transmit and receive messages, address management units 530 that perform name resolution, virtual IP address assignment, and priority control, and the like.
  • DNSequest name resolution requests
  • a network monitoring unit 570 that monitors the congestion degree of the network, and a management table 580 that stores the name resolution result and the congestion degree of the network are stored.
  • the functional units of the transmission / reception unit 520, the address management unit 530, and the network monitoring unit 570 are loaded as programs from the storage device 194 into the memory 192.
  • the processor 191 operates as a functional unit that provides a predetermined function by processing according to the program of each functional unit.
  • the processor 191 functions as the address management unit 530 by performing processing according to the address management program. The same applies to other programs.
  • the processor 191 also operates as a function unit that provides the functions of a plurality of processes executed by each program.
  • a computer and a computer system are an apparatus and a system including these functional units.
  • Information such as programs and tables for realizing each function of the address management unit 530, etc. is stored in a storage device 194, a nonvolatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), an IC card, an SD card, It can be stored in a computer-readable non-transitory data storage medium such as a DVD.
  • a storage device 194 a nonvolatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), an IC card, an SD card, It can be stored in a computer-readable non-transitory data storage medium such as a DVD.
  • the address management unit 530 includes a cache control unit 540 that functions as a primary cache of the DNS server 18, a virtual address management unit 550 that assigns a virtual IP address for accessing the data center 1 in a flat manner to the relay device 4, and the like. And a priority control unit 560 that assigns a dummy IP address as a destination address in accordance with the destination or source information of the name resolution request.
  • the dummy IP address is an IP address of a device that temporarily stores non-priority messages instead of the original destination IP address.
  • the cache control unit 540 When the cache control unit 540 receives a name resolution request from the servers 10 to 12 in the relay device 4 or the data center 1, the cache control unit 540 searches the management table 580 storing the name resolution result, and the IP address corresponding to the URL To get. If there is no search result, the name resolution request is transferred to the DNS server 18. Then, the cache control unit 540 uses the IP address acquired from the management table 580 or the DNS server 18 as the name resolution result.
  • the cache control unit 540 adds a new entry to the management table 580 for a URL that does not exist in the management table 580, and stores the IP address acquired from the DNS server 18.
  • the cache control unit 540 transmits the contents of the management table 580 to the relay device 4 in response to a request from the cache control unit 460 of the relay device 4 to update the DNS cache 470 of the relay device 4.
  • the address management unit 530 adds priority related information (delay prediction information) indicating the degree of congestion of the communication path to the destination and the FAN ID of the destination, and responds to the name resolution request. Respond as a resolution result.
  • priority related information delay prediction information
  • the network monitoring unit 570 calculates the number of entries in the management table 580 referenced or added by the cache control unit 540 as the number of requests per unit time, and as priority related information indicating the degree of congestion of the communication path to the message destination. Set in the management table 580.
  • the priority-related information is an index indicating the degree of congestion until the destination of the message is reached.
  • the number of name resolution requests per unit time can be used as will be described later.
  • the relay device 4 can grasp the congestion level without specifying the location of the destination network.
  • the relay device 4 holds a copy of the management table 580 of the DIPM server 19 in the DNS cache 470 as a secondary DNS cache, and if it hits in the DNS cache 470, the IP address and hit You may make it acquire a number. By adding the number of hits in the DNS cache 470 of the relay device 4 to the calculation of the priority related information, the degree of congestion of the communication path to the destination can be calculated more accurately.
  • the network monitoring unit 570 calculates and updates the priority related information every time the cache control unit 540 refers to the management table 580.
  • the address management unit 530 has a table (not shown) that pools dummy IP addresses and a virtual IP address table that pools virtual IP addresses.
  • FIG. 15 is a diagram showing an example of the management table 580 managed by the DIPM server.
  • the management table 580 includes a URL 581 that stores a URL indicating the name of a message destination, an IP address 582 that stores an IP address that is the result of name resolution by DNS, and priority information that stores the priority assigned to the message. 583, priority related information 584 indicating the degree of congestion of the communication path to the message destination, FAN ID 585 for storing the identifier of the FAN 40 of the message destination, and an entry flag 586 indicating the entry status of the device. Included.
  • URL 581 is the URL of the destination of the message included in the name resolution request.
  • the IP address 582 is an IP address acquired from the DNS server 18 as a result of name resolution.
  • the priority information 583 is information included in the name resolution request and is a value indicating the priority to the destination.
  • the priority information 583 is information set in the source field device 41 or each of the servers 10 and 11. In the entry flag 586, “1” indicates entry and “0” indicates withdrawal.
  • the field device 41, the business server 10, and the control server 11 can set priority information 583 according to the destination in advance.
  • FANID 585 is an identifier of the message destination FAN 40, and is a value acquired by the cache control unit 540 from the device management server 12.
  • the device management server 12 holds a table including the FAN ID 585 corresponding to the URL 581 or the IP address 582 of the message destination. Note that the URLs 581 of the field devices existing under the same relay device 4 are the same FAN ID 585.
  • the cache control unit 540 sets the URL 581, IP address 582, priority information 583, and FANID 585 included in the name resolution request in the management table 580.
  • the priority related information 584 stores the number of name resolution requests per unit time calculated by the network monitoring unit 570.
  • the network monitoring unit 570 counts the entries that have received the name resolution request within a predetermined time, and updates the count result of each entry every predetermined time.
  • a large name resolution request value per unit time indicated by the priority related information 584 indicates that the amount of messages (or packets) to the destination is large, and the load on the WAN 3 and the relay device 4 is high. Become. Then, when the value of the priority related information 584 exceeds a preset threshold value, it can be predicted that a communication delay will occur.
  • the priority control unit 560 of the address management unit 530 compares the value of the priority related information 584 with a predetermined threshold value, and performs priority control described later when a communication delay is predicted.
  • the virtual address management unit 550 of the address management unit 530 acquires a virtual IP address from a preset virtual IP address table and assigns it to the relay device 4 and the devices under the relay device 4. With the virtual IP address, the relay device 4 and the data center 1 are connected as a single network via the VPN.
  • the priority control unit 560 causes the relay device 4 or the communication management server 15 to transfer only the priority message when the communication delay is predicted as described above, or when the communication delay occurs. Send a command to temporarily block non-priority messages.
  • the priority control unit 560 determines whether or not the priority related information 584 has exceeded a predetermined threshold (priority processing determination value) when responding with the name resolution result. If the priority related information 584 exceeds a predetermined threshold, it is determined that there is a possibility that a delay may occur until the message reaches the destination, or that a delay has occurred. In the following, this determination result is assumed to be a delay occurrence prediction.
  • the priority control unit 560 forwards only the priority message when the occurrence of a delay is predicted in the message for which the name resolution request has been executed, and transfers the priority message and temporarily stores the non-priority message in the buffer (or communication management). Command to the server 15).
  • the relay device 4 or the communication management server 15 temporarily blocks the non-priority message, By transferring only the priority message, it is possible to reliably transfer the priority message that needs to reach within a predetermined time.
  • the priority control unit 560 obtains a predetermined dummy IP address from a table (not shown) set in advance, and notifies the transmission source of the name resolution request of the dummy IP address and the buffering setting request.
  • the priority control unit 560 Upon receiving a dummy IP address and buffering setting completion response from the relay apparatus 4 (or servers 10 and 11) that has received the dummy IP address and buffering setting request, the priority control unit 560 responds with a name resolution result. To do.
  • the name resolution result includes a dummy IP address, FAN ID 585, priority information 583, and actual IP address 582.
  • the messages stored after the priority control unit 560 cancels the priority control. Can be sent to the original destination.
  • the priority control unit 560 when the priority control unit 560 receives the name resolution request, the priority control unit 560 refers to the priority related information 584 of the destination, performs communication delay prediction, and when communication delay is predicted, Directs priority control to block non-priority messages to name resolution requesters. As a result, even when a communication delay occurs in another WAN 3 where it is difficult to obtain the communication state from the relay device 4, only the priority message is transferred and the non-priority non-priority message is temporarily blocked. It becomes possible.
  • priority control it is determined whether or not priority control is performed at the time of a name resolution request, and priority control is notified by a name resolution response. Therefore, it is possible to suppress communication only for priority control, and a network or relay device The load of equipment such as can be reduced.
  • FIG. 21 is a flowchart showing an example of the update process of the management table 580 performed by the DIPM server 19. This process is executed when the system is updated, such as when the types and number of field devices 41 and relay devices 4 are increased. Alternatively, it may be executed when the traffic is below a predetermined threshold. Further, this process can be performed by the network monitoring unit 570 of the DIPM server 19.
  • the DIPM server 19 measures the number of name resolution requests accepted within a predetermined period set for each destination (S61). Further, the DIPM server 19 measures the time interval received for the name resolution request for each acquired destination. Note that the name resolution request received by the relay device 4 may be acquired within a certain period of time.
  • step S62 the DIPM server 19 calculates an average value and a variance value of time intervals for each destination of the name resolution request.
  • step S63 the DIPM server 19 sets “1” in the priority information 583 of the management table 580, assuming that the destination whose number of name resolution requests is equal to or less than a preset threshold (a certain number) is “priority”. On the other hand, the DIPM server 19 sets “non-priority” for destinations where the number of name resolution requests exceeds a preset threshold value (a certain number), and sets “0” in the priority information 583 of the management table 580. The DIPM server 19 adds a new entry to the management table 580 if there is no entry for the destination URL 581 or the IP address 582 for which the number of name resolution requests has been counted.
  • step S64 the DIPM server 19 sets the average value and the variance value of the time interval for each destination of the name resolution request calculated in step S62 in the priority related information 584.
  • the DIPM server 19 determines “priority” and “non-priority” for each destination based on the number of name resolution requests and the time interval, and the priority information 583 and the priority related information 584 in the management table 580. Update.
  • “Priority” data The relationship between transmission and reception is often 1: N or 1: 1.
  • “Non-priority” data The relationship between transmission and reception is often N: 1. Also, “non-priority” data often occurs periodically.
  • the DIPM server 19 When performing priority control, when the “priority” name resolution request is generated, the DIPM server 19 distributes response timings for subsequent name resolution requests, and alleviates the concentration of data transmission to a specific destination.
  • FIG. 17 is a block diagram illustrating an example of the relay device 4-1.
  • the relay device 4-1 relays communication between the field device 41 connected to the FAN 40-1 and the data center 1 connected via the WAN 3-1.
  • the relay apparatuses 4-2 and 4-3 are configured in the same manner as the relay apparatus 4-1, and thus redundant description is omitted.
  • the relay device 4-1 includes a processor 401 that performs arithmetic processing, a memory 402 that stores data and programs, an interface 403W that is connected to the WAN 3-1, an interface 403F that is connected to the FAN 40-1, and data and programs.
  • Storage device 404 that holds
  • the memory 402 includes a transmission / reception unit 420 that performs transmission / reception through the interface 403W and the interface 403F, a device information setting unit 430 that sets an operating environment based on the information of the relay device 4-1, received from the device management server 12.
  • the VPN setting unit 440 that sets the VPN between the relay device 4-1 and the tunneling device 17-1 of the data center 1, and the address conversion of communication data transmitted and received between the field device 41 and the data center 1 are performed.
  • the functional units of the transmission / reception unit 420, the device information setting unit 430, the VPN setting unit 440, the NAT unit 450, the cache control unit 460, and the buffer control unit 480 are loaded from the storage device 404 into the memory 402 as programs. .
  • the processor 401 operates as a functional unit that provides a predetermined function by performing processing according to a program of each functional unit.
  • the processor 401 functions as the NAT unit 450 by performing processing according to the NAT program.
  • the processor 401 also operates as a function unit that provides each function of a plurality of processes executed by each program.
  • a computer and a computer system are an apparatus and a system including these functional units.
  • Information such as a program and a table for realizing each function of the transmission / reception unit 420 is stored in a storage device 404, a nonvolatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), or an IC card, SD card, DVD Etc., and can be stored in a computer readable non-transitory data storage medium.
  • a storage device 404 a nonvolatile semiconductor memory
  • a hard disk drive such as an SSD (Solid State Drive), or an IC card, SD card, DVD Etc.
  • the relay device 4-1 when the relay device 4-1 is activated, the relay device 4-1 acquires an IP address from the address issuing server 30-1 that manages the WAN 3-1 and connects to the entry server 14-1 of the data center 1 through the WAN 3-1. To do.
  • the VPN setting unit 440 sets VPN (tunneling) in the WAN 3-1 connecting the data center 1 and the relay device 4-1.
  • the VPN setting unit 440 acquires a virtual IP address from the DIPM server 19 of the data center 1 and sets it in the relay device 4-1. With the virtual IP address, the relay device 4-1 can communicate with the devices in the data center 1 via the VPN via a flat network.
  • the device information setting unit 430 acquires the setting information of the relay device 4-1 from the device management server 12, and the virtual IP address of the front-end DIPM server 19 that performs name resolution and FANID (an identifier of FAN 40). Get information such as settings.
  • the FANID is a unique value set in advance in the relay device 4 and can be set at the time of shipment.
  • the relay device 4-1 can enter the service provided by the data center 1 by the above entry process.
  • the relay device 4-1 having completed the entry process receives the message received from the field device 41 via the FAN 40-1, the field device 41 or device in the FAN 40-1, the data center 1, or the data center 1.
  • the NAT unit 450 converts the transmission source address of the field device 41 into a virtual IP address and transfers it to the data center 1.
  • the message transmitted by the field device 41 has a small data size (for example, 1 MTU). Therefore, even if a large number of field devices 41 are under the control of the relay device 4-1, the bandwidth required for the WAN 3-1 (per unit time) Data transfer amount) is not large. Therefore, by reducing the number of lines contracted (or used) in the WAN 3-1 and communicating the messages together in the NAT unit 450 of the relay device 4-1, communication cost or consumed resources can be suppressed.
  • the relay device 4-1 stores a copy of the management table 580 of the DIPM server 19 in the DNS cache 470, and when a name resolution request is received from the field device 41, the data in the DNS cache 470 is received by the cache control unit 460. Search for. If there is no corresponding address in the DNS cache 470, the name resolution request is transferred to the DIPM server 19, which is a higher DNS cache.
  • the DIPM server 19 notifies FANID and priority related information (congestion degree) to the destination in addition to the destination IP address.
  • the information in the DNS cache 470 is the same as the management table 580 of the DIPM server 19 and includes the destination IP address, the FAN ID, and the priority related information for the destination.
  • the cache control unit 460 acquires and updates the contents of the management table 580 from the DIPM server 19 for data that has passed a predetermined expiration date (or effective time), the latest data is higher than the DIPM server 19. The server holds it.
  • the relay device 4-1 can determine whether the destination is in the same FAN 40-1 from the response from the DIPM server 19 or the destination FAN ID of the name resolution result from the information in the DNS cache 470.
  • the relay device 4-1 receives a buffering request and a dummy IP address when a delay is predicted at the message destination by priority control of the DIPM server 19.
  • the relay device 4-1 sets the dummy IP address as an address addressed to the relay device 4-1, and sets the message addressed to the dummy IP address to be temporarily stored in the buffer 490.
  • the relay apparatus 4-1 stores the message and the original destination in association with each other in the buffer 490. Keep it.
  • the relay device 4-1 uses the data center 1 via the WAN 3-1 for other destination messages (priority messages or messages not subject to priority control) based on the IP address or FANID received from the DIPM server 19. Or it transmits to other FAN40.
  • the buffer control unit 480 stores the non-priority message in the buffer 490 by the priority control of the DNS server 18 and then the value of the priority related information from the DIPM server 19 becomes a predetermined threshold value or less, or the buffer 490 Messages can be output from the buffer 490 in the accumulated order when a predetermined condition is satisfied, such as when there is no more free space.
  • the cache control unit 460 counts the number of hits of the DNS cache 470 for each destination. Then, the cache control unit 460 may notify the DIPM server 19 of the hit count for each destination counted at a predetermined timing.
  • the transmission / reception unit 420 of the relay device 4 functions as a Recursive / forwarder.
  • the name resolution request received from the source field device 41 is transferred to the DIPM server 19 as the name resolution request of the relay device 4.
  • the sender information (URL, priority related information, etc.) is added to the name resolution request message issued by the relay device 4.
  • additional information records are added to the name resolution request and name resolution response (DNS Response) packets, respectively, and the source information is stored.
  • the DIPM server 19 can acquire information on the field device 41 that has transmitted the name resolution request.
  • the non-priority message is stored in the buffer 490 and blocked, while only the priority message is received. Implement priority control to pass.
  • FIG. 18 is a block diagram illustrating an example of the communication management server 15.
  • the communication management server 15 includes a processor 151 that performs arithmetic processing, a memory 152 that stores data and programs, an interface 153 that is connected to the network 101, and a storage device 154 that stores data and programs.
  • the memory 152 controls the buffer 640 that temporarily stores non-priority messages and the buffer 640 when the transmission / reception unit 520 that transmits and receives messages, the business server 10, and the control server 11 accept dummy IP addresses. Buffer control unit 630.
  • Each function unit of the transmission / reception unit 520 and the buffer control unit 630 is loaded from the storage device 154 to the memory 152 as a program.
  • the processor 151 operates as a functional unit that provides a predetermined function by processing according to the program of each functional unit.
  • the processor 151 functions as the buffer control unit 630 by performing processing according to the buffer control program. The same applies to other programs.
  • the buffer control unit 630 stores the non-priority message and the actual destination IP address in association with each other, similarly to the buffer control unit 480 of the relay device 4-1. Then, after accumulating non-priority messages in the buffer 640 by the priority control of the DNS server 18, the buffer control unit 630 notifies the end of the priority control from the DIPM server 19 or when the buffer 640 is full. When a predetermined condition is satisfied, messages can be output from the buffer 640 in the accumulated order.
  • the transmission / reception unit 620 monitors the communication of the field device 41, and if there is a field device 41 that does not communicate for a predetermined time, it determines that the field device 41 has been stopped due to an abnormality, and stops as described later. Perform the process.
  • FIG. 14 is a diagram illustrating the state of the relay device 4 and the field device 41.
  • the relay device 4 and the field device 41 can operate by entering the service of the data center 1. After entering the service, there is a case where the operation is temporarily stopped due to software update or the like. Below, the state of the relay apparatus 4 is demonstrated. The same applies to the field device 41.
  • the relay device 4 transitions to any one of an initial state, a steady state, a detached state, and a stopped state.
  • the initial state indicates a state in which the data center 1 has never been connected.
  • the relay device 4 is placed at the installation location, and communication is active.
  • the steady state indicates a state where the authentication to the data center 1 is completed and necessary setting information is acquired after the relay device 4 performs the entry process.
  • the relay device 4 can communicate with the business server 10 or the control server 11 of the data center 1.
  • the relay device 4 In the disconnected state, when the application of the relay device 4 is temporarily terminated and the connection with the data center 1 is temporarily released, for example, the software (or firmware) of the relay device 4 is updated, the data center 1 and the relay device 4 By executing the leaving process, the relay device 4 releases the connection with the data center 1 via the WAN 3.
  • the relay device 4 automatically transitions to this state even when communication with the data center 1 is interrupted and a certain time has elapsed.
  • the stop state is implemented when the relay device 4 is replaced.
  • a state is shown in which the relay device 4 before the exchange is stopped with the data center 1 and the setting file of the relay device 4 is initialized.
  • the relay apparatus 4 that has transitioned to the stopped state cannot be accessed from the data center 1 via a network such as the WAN 3.
  • ⁇ Entry process of relay device> 2A and 2B are sequence diagrams illustrating an example of processing (entry processing or initial entry processing) in which the relay device 4-1 enters the service of the data center 1.
  • FIG. When activated, the relay device 4-1 transmits a connection processing request to the address issuing server 30-1 managing the WAN 3-1 (S 100).
  • the address issuing server 30-1 executes a predetermined connection process and pays out an IP address used in the WAN 3-1 (S101).
  • the relay apparatus 4-1 sets the IP address of the WAN 3-1 and then connects to the entry server 14-1 of the data center 1 and transmits an authentication request (S 102).
  • the relay device 4-1 transmits the authentication information to the entry server 14-1 after the authentication request.
  • the entry server 14-1 that has received the authentication request and the authentication information executes an authentication process based on the authentication information, and transmits a device authentication response to the relay device 4-1 when the authentication is completed (S103).
  • the relay device 4-1 transmits a temporary payment address acquisition request to the entry server 14-1 (S 104).
  • the temporary payment address is a temporary IP address for performing authentication or the like with each server in the data center 1 by setting a VPN or the like. By using the temporary payment address, it is possible to connect the relay device 4-1 and the data center 1 in a flat manner and reduce the load on the data center 1 side at the time of authentication.
  • the entry server 14-1 issues a temporary payment address to the relay device 4-1, and transmits it as a temporary payment address acquisition response (S105).
  • the relay device 4-1 requests the tunneling device 17-1 to set up a VPN between the data center 1 and the relay device 4-1 (tunneling connection request). Is transmitted (S106).
  • the tunneling device 17-1 receives a tunneling connection request from the relay device 4-1, sets a VPN on the WAN 3-1, and connects the relay device 4-1 and the tunneling device 17-1.
  • the tunneling device 17-1 transmits a response indicating the completion of the tunneling connection to the relay device 4-1 (S107).
  • the relay device 4-1 connected to the data center 1 via the VPN can communicate flatly (without NAT) with the data center 1 by using the temporary payment address.
  • the relay device 4-1 transmits a virtual IP address acquisition request to the DIPM server 19 (S 108). Since the relay device 4-1 is currently connected to the data center 1 with a temporary payment address, the relay device 4-1 requests the IP address of the network address in the data center 1 to be assigned to the relay device 4-1.
  • the DIPM server 19 acquires a virtual IP address and URL to be assigned to the relay device 4-1 from a pool of IP addresses (not shown), and requests the DNS server 18 to register the virtual IP address and URL (S109).
  • the DNS server 18 registers the virtual IP address and URL in the address table (not shown)
  • the DNS server 18 transmits a registration completion response to the DIPM server 19 (S110).
  • the DIPM server 19 receives a virtual IP address registration completion response from the DNS server 18 and then notifies the relay device 4-1 of the virtual IP address and URL (virtual IP address acquisition response in the figure) (S111).
  • the relay device 4-1 sets the virtual IP address acquired from the DIPM server 19 for communication with the data center 1 instead of the temporary payment address.
  • the relay device 4-1 requests the device management server 12 for specific information to be set for the device (device specific setting information acquisition request) (S112).
  • the device management server 12 manages information unique to each relay device 4 and field device 41 using a table (not shown).
  • the information unique to the device includes an encryption key necessary for encrypting a message when the relay device 4-1 transmits data to the business server 10 in the data center 1, Time information for performing time synchronization is included.
  • the device management server 12 acquires unique information necessary for the relay device 4-1 connected to the WAN 3-1 and the FAN 40-1 from the table, and responds to the relay device 4-1 (device unique setting information acquisition response). (S113).
  • the relay device 4-1 sets the unique information received from the device management server 12 in its own device, the relay device 4-1 transmits a setting completion notification to the device management server 12.
  • the relay device 4-1 can communicate with the data center 1 via the VPN on the WAN 3-1 with a flat network address, and relays the message of each field device 41 connected to the FAN 40-1. It becomes possible. Other relay apparatuses 4 are connected to the data center 1 through the same processing.
  • the entry server 14 reserves a sufficient IP address area that does not overlap until the DIPM server 19 assigns a virtual IP address.
  • a DHCP server is arranged in the network in the tunneling device 17 and relayed.
  • a DHCPClinet may be arranged in the device 4 and a virtual IP address may be assigned from a DHCP server.
  • FIG. 3 is a flowchart showing an example of entry processing performed by the entry server 14.
  • the entry server 14 receives an authentication request from the relay device 4 (S1). At this time, the entry server 14 receives or acquires the identification information (for example, MAC address) of the device from the relay device 4 as the authentication information. Then, the entry server 14 performs authentication by collating with information set in advance based on the identification information (S2).
  • S1 an authentication request from the relay device 4
  • the entry server 14 receives or acquires the identification information (for example, MAC address) of the device from the relay device 4 as the authentication information.
  • the entry server 14 performs authentication by collating with information set in advance based on the identification information (S2).
  • the entry server 14 proceeds to step S4 if the authentication is completed, and ends the process if the authentication fails (S3).
  • the entry server 14 transmits a device authentication response to the relay device 4 when the authentication is completed.
  • the entry server 14 receives a temporary payment address acquisition request from the relay device (S4).
  • the entry server 14 acquires an IP address from a pool of temporary payment addresses (not shown) (S5), issues a temporary payment address to the relay device 4, and transmits it as a temporary payment address acquisition response (S6).
  • the entry server 14 can give a temporary payment address to the relay device 4 that has been authenticated and start communication between each device in the data center 1 and the relay device 4.
  • FIG. 4 is a flowchart showing an example of entry processing performed by the DIPM server 19.
  • the DIPM server 19 transmits a virtual IP address acquisition request from the relay device 4 (S11).
  • the text record of this acquisition request includes the identifier (FANID) and URL of the FAN 40 to which the relay device is connected.
  • the DIPM server 19 registers the received FANID and URL in the management table 580 (S12). Further, the DIPM server 19 sets the value of the entry flag 586 of the registered management table 580 to “1”.
  • the DIPM server 19 acquires a virtual IP address assigned to the relay device 4 from a pool of IP addresses (not shown) (S13).
  • the DIPM server 19 requests the DNS server 18 to register the virtual IP address and URL (S14).
  • the DIPM server 19 transmits the virtual IP address registered in the DNS server 18 to the relay device 4-1 (S15).
  • the relay device 4 can communicate flatly with the data center 1 using the virtual IP address acquired from the DIPM server 19 instead of the temporary payment address.
  • the management table 580 may be searched with the URL of the relay device 4 and the entry flag may be updated to “1”.
  • FIG. 5 is a sequence diagram illustrating an example of the leaving process of the relay device 4-1.
  • data such as the relay device 4-1 that has performed the entry process is not transmitted from another device or a server in the data center 1 during operation for the purpose of software update or device replacement. In this way, the information registered in the DNS server 18 is deactivated.
  • Detachment process is started in response to a command from the control server 11 or the like.
  • the operating relay device 4-1 requests the DIPM server 19 for a disconnection process (S 201). This processing request includes the URL of the relay device 4-1.
  • the DIPM server 19 executes a leaving process as will be described later, and transmits a leaving process response to the relay device 4-1 when the leaving process is completed.
  • the relay device 4-1 When the relay device 4-1 receives the response indicating the completion of the leaving process from the DIPM server 19, the relay device 4-1 deactivates the NAT function and stops relaying the message between the networks (WAN 3-1 and FAN 40-1) (203). .
  • the relay device 4-1 temporarily stops processing such as the NAT function, and stops message transfer between networks. Thereby, it is possible to execute processing such as software update of the relay device 4-1.
  • the entry process starts from the authentication process. To do.
  • the entry server 14 of the data center 1 is before the expiration date of the authentication information, it does not perform the above-described authentication processing, does not issue a temporary payment IP address, constructs a VPN tunnel, Communicate.
  • the authentication process is performed in the above-described entry process, the provisional payment IP address is acquired, and the virtual IP address acquisition request from the DIPM server 19 Then, the previously acquired virtual IP address is distributed.
  • FIG. 6 is a flowchart showing an example of the leaving process performed by the DIPM server 19.
  • the DIPM server 19 receives a request for withdrawal processing from the relay device 4 (S21). Since the request for the leaving process includes the URL of the relay device 4-1, the DIPM server 19 acquires this URL.
  • the DIPM server 19 searches the management table 580 using the acquired URL as a key (S22), and updates the entry flag 586 of the corresponding entry to “0” (S23). Then, the DIPM server 19 transmits a response indicating completion of the leaving process to the relay device 4-1 that has transmitted the request for the leaving process.
  • the DIPM server 19 accepts the request for leaving processing, sets the entry flag to OFF, and causes the relay device 4-1 to leave the data center 1 service.
  • FIG. 7 is a sequence diagram illustrating an example of a stop process of the relay device 4-1. This process is a process for initializing and stopping the setting file of the relay apparatus 4 when the relay apparatus 4-1 is replaced. This process is started in response to a command from the control server 11.
  • the operating relay device 4-1 requests the DIPM server 19 for stop processing (S 301).
  • This processing request includes the URL of the relay device 4-1.
  • the DIPM server 19 executes a stop process as described later, and requests the DNS server 18 to delete the virtual IP address and URL assigned to the relay device 4-1 (S302).
  • the DIPM server 19 deletes the entry including the corresponding URL from the management table 580.
  • the DNS server 18 When the DNS server 18 deletes the corresponding virtual IP address, the DNS server 18 transmits a response indicating that the deletion has been completed to the DIPM server 19 (S303). When the processing at the DNS server 18 is completed, the DIPM server 19 transmits a response indicating that the stop processing has been completed to the relay device 4-1 (S304).
  • the relay device 4-1 After receiving the response indicating the completion of the stop process, the relay device 4-1 cancels the setting of the NAT function and then stops (S305).
  • the relay device 4-1 can be stopped after releasing the setting of the NAT function or the like, and can be disconnected from the network.
  • FIG. 8 is a flowchart illustrating an example of a stop process performed by the DIPM server 19.
  • the DIPM server 19 receives a stop processing request from the relay device 4 (S31). Since the request for the stop process includes the URL of the relay device 4-1, the DIPM server 19 acquires this URL.
  • the DIPM server 19 searches the management table 580 using the acquired URL as a key (S32), and deletes the corresponding entry (S33). Next, the DIPM server 19 requests that the information related to the URL searched in step S33 be deleted from the DNS server 18. Further, the DIPM server 19 deletes the entry including the corresponding URL from the management table 580 that also serves as the DNS cache (DNS name space) (S34, S35).
  • DNS cache DNS name space
  • the DIPM server 19 transmits a response indicating the completion of the stop process to the relay device 4-1 that transmitted the stop process request (S36).
  • the DIPM server 19 deletes the URL and IP address of the relay device 4-1 from the management table 580 that also serves as the DNS server 18 and DNS cache, and disconnects the relay device 4-1 from the network.
  • FIG. 9A and 9B are sequence diagrams illustrating an example of entry processing of field devices.
  • FIG. 9A is the first half of a sequence diagram illustrating an example of entry processing of field devices.
  • FIG. 9B is the second half of the sequence diagram showing an example of the field device entry process.
  • the processing of the field device 41-A of the FAN 40-1 will be described, but the same applies to the other field devices 41.
  • the field device 41-A When activated, the field device 41-A transmits a connection processing request to the relay device 4-1 via the FAN 40-1 (S401).
  • the relay device 4-1 executes a predetermined connection process and pays out an IP address used by the FAN 40-1 (S402).
  • the relay device 4-1 has a pool (not shown) of the IP address of the FAN 40-1.
  • the field device 41-A sets the IP address of the FAN 40-1, and then transmits an authentication request including authentication information to the relay device 4-1 (S403).
  • the relay device 4-1 transfers the received authentication request to the entry server 14-1 (S404).
  • the entry server 14-1 that has received the authentication request executes the authentication process based on the authentication information included in the authentication request, and transmits the device authentication response to the relay device 4-1 when the authentication is completed (S405).
  • the relay device 4-1 when the relay device 4-1 receives the authentication response of the field device 41-A from the entry server 14-1, the relay device 4-1 sends the virtual IP address of the field device 41-A to the DIPM server 19.
  • the acquisition request is transmitted (S406).
  • the relay device 4-1 since the field device 41-A communicates with the IP address of the FAN 40-1, the relay device 4-1 needs to convert the network address by the NAT unit 450. If a virtual IP address is assigned to the field device 41-A so that the field device 41-A can be connected to the data center 1 in a flat manner, the relay apparatus 4-1 does not need to convert the network address. Therefore, a virtual IP address is assigned to the field device 41-A.
  • the DIPM server 19 acquires a virtual IP address and URL to be assigned to the field device 41-A from an IP address pool (not shown), and requests the DNS server 18 to register the virtual IP address and URL (S407).
  • the DNS server 18 registers the virtual IP address and URL in the address table (not shown)
  • the DNS server 18 transmits a registration completion response to the DIPM server 19 (S408).
  • the DIPM server 19 receives a virtual IP address registration completion response from the DNS server 18 and then notifies the relay device 4-1 of the virtual IP address and URL (virtual IP address acquisition response in the figure) (S409).
  • the relay device 4-1 transmits the received virtual IP address by including it in the authentication response of the device (S410).
  • the field device 41-A that has received the virtual IP address sets the virtual IP address acquired from the DIPM server 19 for communication with the data center 1 in place of the IP address of the FAN 40-1.
  • the field device 41-A requests specific information to be set for the device (device specific setting information acquisition request) from the communication management server 15 (S414). Since the communication management server 15 can temporarily store non-priority messages addressed to the field device 41 from the business server 10 and the control server 11, communication between the field device 41-A and the data center 1 is performed by the communication management server 15. Relay. The communication management server 15 transfers the device-specific setting information acquisition request received from the field device 41-A to the device management server 12.
  • the device management server 12 acquires unique information necessary for the field device 41-A under the relay apparatus 4-1, from a table (not shown), and responds to the communication management server 15 (S413).
  • the communication management server 15 responds to the field device 41-A with the unique information received from the device management server 12 (device unique setting information acquisition response) (S414).
  • the field device 41-A sets the unique information received from the device management server 12 in its own device, the field device 41-A transmits a setting completion notification to the device management server 12 via the communication management server 15 (S415, S416).
  • the field device 41-A can communicate with the data center 1 from the relay device 4-1 via the VPN on the WAN 3-1 with a flat network address.
  • Other field devices 41 are connected to the data center 1 through the same processing.
  • FIG. 10 is a sequence diagram illustrating an example of a stop process of the field device 41-A. This process is a process of stopping the field device 41-A when the field device 41-A is replaced. This process is started in response to a command from the control server 11 or the like.
  • the operating field device 41-A requests the relay device 4-1 to stop processing (S501).
  • the relay device 4-1 transfers the stop processing request from the field device 41-A to the DIPM server 19 (S502).
  • This processing request includes the URL of the field device 41-A and the like.
  • the DIPM server 19 executes the stop process as shown in FIG. 8, and requests the DNS server 18 to delete the virtual IP address and URL assigned to the field device 41-A (S503).
  • the DIPM server 19 deletes the entry including the corresponding URL from the management table 580.
  • the DNS server 18 transmits a response indicating that the deletion has been completed to the DIPM server 19 (S504).
  • the DIPM server 19 transmits a response indicating that the stop processing has been completed to the relay device 4-1 (S505).
  • the relay device 4-1 After receiving the response indicating the completion of the stop process existing in the NAT unit 450, the relay device 4-1 receives the virtual IP address indicating the field device 41-A and the IP address indicating the field device 41-A in the FAN 40-1. Only items are deleted in order to convert (S506). Through the above processing, the field device 41-A can be disconnected from the network after being stopped.
  • the above processing shows an example of normal stop processing.
  • stop processing is performed as shown in steps S507 and S508.
  • the communication management server 15 monitors communication from the field device 41-A, and when there is no communication from the field device 41-A for a predetermined time, it determines that the field device 41-A has stopped due to an abnormality. Then, the communication management server 15 requests the DIPM server 19 to delete the virtual IP address and URL assigned to the field device 41-A (S507).
  • the DIPM server 19 executes a stop process as shown in FIG. 8, and requests the DNS server 18 to delete the virtual IP address and URL assigned to the field device 41-A (S508).
  • the DIPM server 19 deletes the entry including the corresponding URL from the management table 580.
  • the DNS server 18 When the DNS server 18 deletes the corresponding virtual IP address, the DNS server 18 transmits a response indicating that the deletion has been completed to the DIPM server 19 (S509). When the processing at the DNS server 18 is completed, the DIPM server 19 transmits a response indicating that the stop processing has been completed to the relay device 4-1 (S510).
  • FIG. 11 is a sequence diagram illustrating an example of a priority message name resolution process.
  • the processing of steps S601 to S602 is performed. Is not updated beyond the predetermined expiration date, or when a cache miss occurs, the processing of steps S603 to S608 is performed.
  • step S601 the cache control unit 460 of the relay device 4-1 receives a name resolution request priority message from the field device 41-A.
  • the relay device 4-1 determines that the message is a priority message if the priority information included in the received name resolution request message is “1”.
  • the cache control unit 460 searches the DNS cache 470 using the URL included in the message as a key, and if there is a corresponding entry, transmits the value of the entry to the field device 41-A as a name resolution response.
  • the name resolution request message includes a URL and priority information (583).
  • the relay device 4-1 When the URL of the name resolution request does not exist in the DNS cache 470 (cache miss), or when the corresponding entry has expired, the relay device 4-1 sends the received name resolution request message (S603). Transfer to the DIPM server 19 (S604).
  • the cache control unit 540 of the DIPM server 19 searches the management table 580 with the URL included in the received name resolution request message. If there is no corresponding entry in the management table 580, a name resolution request is transmitted to the DNS server 18 (S605), and a name resolution response is acquired from the DNS server 18 (S606).
  • the DIPM server 19 transfers the acquired name resolution response to the relay device 4-1 (S607).
  • the relay device 4-1 transfers the received name resolution response to the field device 41-A (S608).
  • the field device 41-A that requested name resolution obtains the destination IP address, FANID, and priority related information.
  • the above name resolution process is performed for priority messages during priority control. Further, the non-priority message is stored in the buffer 490 of the relay device 4-1 or the buffer 640 of the communication management server 15 as described later.
  • FIG. 12A and 12B are flowcharts showing an example of name resolution processing.
  • FIG. 12A is the first half of a flowchart showing an example of name resolution processing performed in the computer system.
  • FIG. 12B is the latter half of the flowchart showing an example of the name resolution process performed in the computer system.
  • This processing is executed when the DIPM server 19 or the relay device 4 receives a name resolution request from the field device 41.
  • the DIPM server 19 executes a name resolution request from the field device 41.
  • the DIPM server 19 receives a name resolution request message from the field device 41 from the relay device 4 (S41).
  • the DIPM server 19 acquires the URL included in the name resolution request, searches the management table 580 as a DNS cache using the URL as a key, and determines the presence or absence of the URL (S42). If the corresponding URL exists in the management table 580 (cache hit), the process proceeds to step S51. If the corresponding URL does not exist (cache miss), the process proceeds to step S43.
  • step S51 the DIPM server 19 acquires the IP address 582, the FAN ID 585, and the priority related information 584 from the corresponding URL entry in the management table 580. Thereafter, the process proceeds to step S45.
  • step S43 the DIPM server 19 determines whether there is a higher-order DIPM server. If there is a higher DIPM server than the DIPM server 19, the process proceeds to step S49, and if not, the process proceeds to step S45. Note that the processing in steps S49 and S50 functions when the relay device 4 executes this processing.
  • step S49 the DIPM server 19 transmits a name resolution request to a higher-order DIPM server.
  • step S50 the DIPM server 19 receives a name resolution response from the upper DIPM server.
  • the DIPM server 19 adds the received name resolution response and the URL of the name resolution request to the management table 580. Thereafter, the process proceeds to step S45.
  • step S44 in FIG. 12A in which there is no higher-order DIPM server the DIPM server 19 transmits a name resolution request to the DNS server 18 and acquires transmission destination information (IP address).
  • the DIPM server 19 adds the acquired information and the URL and priority information included in the name resolution request to the management table 580. Note that since the destination information from the DNS server 18 is only the IP address, the DIPM server 19 acquires the FAN ID 585 and the priority related information 584.
  • step S45 the priority information included in the name resolution request is acquired, and it is determined whether or not the priority information is “non-priority”. If the priority information is “non-priority”, the process proceeds to step S46, and if it is “priority”, the process proceeds to step S59 in FIG. 12B. Then, the DIPM server 19 generates a name resolution response including the IP address 582, FAN ID 585, and priority related information 584 (S59). After generating the name resolution response, the process proceeds to step S58, and the DIPM server 19 transmits the name resolution response generated in step S58 to the relay apparatus 4 that is the transmission source of the name resolution request, and ends the process.
  • step S46 of FIG. 12A in the case where the name resolution request message is “non-priority” the DIPM server 19 searches the management table 580 using the URL included in the name resolution request as a key, and relates to the priority of the URL.
  • Information 584 and FANID 585 are acquired.
  • the priority related information 584 acquired here is set as the priority related information of the transmission destination.
  • step S47 the DIPM server 19 performs reverse lookup by the DNS server 18 using the transmission source information (in the additional information record added to the packet) included in the name resolution request as a key, and acquires the URL.
  • step S48 the DIPM server 19 searches the management table 580 using the URL acquired from the DNS server 18 as a key, acquires the priority related information 584 of the URL, and sets it as the priority related information of the transmission source.
  • step S52 of FIG. 12B the acquired priority related information of the transmission source is compared with the priority related information of the transmission destination and a preset priority processing determination value.
  • the process proceeds to step S53 and priority control is started.
  • the process proceeds to step S58, and the transmission destination information is obtained from the DNS server 18 in the same manner as the above priority message.
  • the name resolution response is acquired to obtain a response to the transmission source (S59, S58).
  • step S53 the DIPM server 19 acquires one dummy IP address from a pool of dummy IP addresses (not shown).
  • step S54 the DIPM server 19 determines whether only the priority related information of the transmission source exceeds the priority processing determination value, or the priority related information of the transmission source and the priority related information of the transmission destination are determined to be priority processing. Determine whether the value is exceeded. If only the priority related information of the transmission source or the priority related information of the transmission source and the transmission destination exceeds the priority processing determination value, the process proceeds to step S55, and if not, the process proceeds to step S56.
  • step S55 the DIPM server 19 transmits a dummy IP address setting request and a buffering setting request to the transmission source relay device 4. If the destination of the non-priority message is a dummy IP address, the relay device 4 is set to store it in the buffer 490.
  • the DIPM server 19 sets the dummy IP in step S56.
  • the request and the setting request for buffering are transmitted to the communication management server 15 of the transmission source. If the destination of the non-priority message is a dummy IP address, the communication management server 15 is set to store it in the buffer 640.
  • the DIPM server 19 determines that when only the priority related information of the transmission source exceeds the priority processing determination value, or both the priority related information of the transmission source and the priority related information of the transmission destination exceed the priority processing determination value. If so, the relay apparatus 4 in front of the WAN 3 is instructed to store the non-priority message. When only the priority-related information of the transmission source exceeds the priority processing determination value, there is a possibility that communication delay occurs in the WAN 3 connected to the relay device 4 when transferring the non-priority message to the outside of the FAN 40. Can be predicted to be high.
  • the communication management server 15 in the data center 1 performs a non-priority message. Command to accumulate. If the priority related information of the transmission destination exceeds the priority processing determination value, a communication delay occurs in the WAN 3 between the data center 1 and the transmission destination in the communication path of the transfer destination of the non-priority message. It can be predicted that the possibility is high.
  • step S57 the DIPM server 19 generates a dummy IP address, destination priority related information, and destination FAN ID as a name resolution response.
  • the DIPM server 19 stores the dummy IP address, the priority related information of the transmission destination, and the FAN ID of the transmission destination in the entry of the management table 580 corresponding to the URL of the transmission source of the name resolution request.
  • step S58 the DIPM server 19 transmits a name resolution response to the transmission source of the name resolution request.
  • the DIPM server 19 generates a name resolution response from the information in the management table 580 or the DNS server 18 for the priority message name resolution request, and passes it through the relay apparatus 4.
  • the DNS server 18 When a communication delay is predicted, the DNS server 18 notifies the transmission source field device 41 as a name resolution response, and sets the buffering setting to the relay device 4 or the communication management server 15. Request.
  • the non-priority message is transmitted to the dummy IP address, accumulated in the relay device 4 or the communication management server 15, and temporarily blocked.
  • the relay device 4 or the communication management server 15 accumulates non-priority messages assigned with dummy IP addresses, thereby temporarily blocking non-priority messages that are expected to cause delays and maintaining communication of priority messages. To do.
  • the priority information of the transmission source is also compared with the priority processing determination value, so that in addition to the delay prediction of the previous communication from the data center 1.
  • the communication delay prediction from the field device 41 to the data center 1 is performed, and the non-priority message is accumulated in the relay device 4 or the communication management server 15 closer to the destination WAN 3 on the communication path without communication delay. can do.
  • the stored non-priority message should reach the destination as soon as possible. Is possible.
  • the priority control ends when the priority related information 584 of the entry in which the dummy IP address is set in the management table 580 by the DIPM server 19 is equal to or lower than the priority processing determination value as a predetermined threshold.
  • the relay device 4 or the communication management server 15 may be notified that the priority control related to the dummy IP address has ended.
  • the DIPM server 19 causes the field device 41 that is transmitting the message to the dummy IP address to perform the disconnection process and the entry process, so that the data is sent to the original destination. Send it.
  • the DIPM server 19 does not use the WAN 3 to transfer the non-priority message, and therefore may not perform priority control.
  • FIG. 13 is a sequence diagram showing an example of name resolution processing for a non-priority message performed in the computer system.
  • the field device 41-A transmits a name resolution request message with non-priority priority information to the relay device 4-1 (S701).
  • the relay device 4-1 refers to the priority information included in the name resolution request, and if the priority information is non-priority, transfers the message to the DIPM server 19 (S702).
  • the DIPM server 19 searches the management table 580 using the URL included in the name resolution request message as a key, as in FIGS. 12A and 12B. If there is no corresponding URL in the management table 580, the DNS server 18 is requested to resolve the name, and the destination IP address is acquired.
  • the DIPM server 19 acquires priority related information from the management table 580 and compares it with the priority processing determination value when the priority information of the corresponding URL is non-prioritized. The DIPM server 19 performs priority control if the priority related information exceeds the priority processing determination value.
  • the DIPM server 19 requests the DNS server 18 to reverse lookup the IP address of the transmission source of the name resolution request (S703), and acquires the URL of the transmission source (S704). Then, the DNS server 18 acquires priority related information from the entry corresponding to the URL of the name resolution request transmission source, and determines whether or not the priority related information exceeds the priority processing determination value.
  • the relay apparatus 4-1 is instructed to accumulate non-priority messages.
  • the communication management server 15 instructs the non-priority message to be temporarily stored. In order to accumulate non-priority messages, a dummy IP address is set in the name resolution response (S705). A copy of the additional information record of the name resolution request is added to the name resolution response message, and information of the name resolution request source is added.
  • the DIPM server 19 makes a buffering request to the relay device 4-1 or the communication management server 15 based on the above determination (S706).
  • the relay device 4-1 or the communication management server 15 responds to the DIPM server 19 when the buffering setting is completed (S707).
  • the DIPM server 19 transmits a dummy IP address, FANID, and priority related information to the relay device 4-1 as a name resolution response (S708).
  • the relay device 4-1 transmits the name resolution response to the transmission source included in the additional information record of the name resolution response (packet) (S709).
  • the DIPM server 19 performs a relay device in front of the WAN 3-1 through which the field device 41-A passes. 4 or the non-priority message is accumulated in the communication management server 15 in the data center 1 through which the message passes, and is temporarily blocked. On the other hand, communication is continued as it is for the priority message. Therefore, it is possible to temporarily reduce the traffic of the non-priority message, and to make the priority message reach the destination within a predetermined time required during that time.
  • the communication bottleneck is the WAN 3 from the relay apparatus 4 to the data center 1.
  • the communication bottleneck is the WAN 3 from the relay apparatus 4 to the data center 1.
  • the flow to be monitored in the first embodiment is a flow that goes through WAN3, but it is impossible to determine whether or not it goes through WAN3 only with the destination address. For this reason, FANID is used as information about which relay device 4 belongs to the transmission destination, and it is determined whether the communication is within the same FAN or communication via WAN3.
  • the DIPM server 19 counts the number of flows, and can grasp the number of flows that have a stagnation effect in the relay device 4 or the like.
  • the DIPM server 19 temporarily accumulates the non-priority message in the relay device 4 or the communication management server 15 and outputs a command to be transmitted later when a delay in communication is predicted.
  • the field device 41 that transmits the non-priority message once performs the leaving process and again performs the entry process.
  • the DIPM server 19 notifies the address (dummy IP address) for temporarily storing the message in the name resolution required response, and suppresses communication to the WAN 3 side.
  • the DIPM server 19 performs the entry process again for the field device 41 that transmits the non-priority message, performs the entry process, and transmits the data to the original destination. .
  • the number of flows is controlled in cooperation with the relay device 4 to improve the reachability of the priority message.
  • the DIPM server 19 of the data center 1 counts the DNS query (name resolution request), holds the source of the name resolution request, and sends the non-priority message to the field device 41 under the relay apparatus 4. Carry out the withdrawal process. By switching non-priority messages to buffering, the reachability of priority messages is improved.
  • the DIPM server 19 when the DIPM server 19 predicts or detects a communication delay, the non-priority message is temporarily stored in either the relay device 4 or the communication management server 15 and only the priority message is stored. Let it pass. Further, the DIPM server 19 buffers the non-priority message in the relay device 4 or the communication management server 15 on a communication path without communication delay, at a device close to the destination network. Thereby, after the priority control is completed, it is possible to quickly reach the destination of the non-priority message accumulated.
  • the first embodiment by using a name resolution request and a name resolution response for prediction or detection of communication delay and notification of a device to be buffered, traffic only for priority control is suppressed, and the network load is reduced. Can be reduced.
  • the communication delay is predicted or detected when the DIPM server 19 receives the name resolution request. Therefore, the priority control is started before the field device 41 transmits the message. It becomes possible to do.
  • the communication delay is predicted or detected by the DIPM server 19 comparing the number of name resolution requests per unit time (number of flows) with a predetermined threshold. It is not necessary to directly measure the position and state of each network (WAN3, FAN40), and an increase in the load on each network can be prevented.
  • the DIPM server 19 also functions as a primary DNS cache.
  • the DNS cache in the data center 1 may be performed by other devices.
  • the example in which the relay device 4 functions as a DNS cache has been shown, the DNS cache of the relay device 4 can be omitted.
  • the case where the name resolution request is transmitted from the field device 41 has been described. However, the same applies to the case where the name resolution request and the message are transmitted from the business server 10 or the control server 11.
  • the communication management server 15 may store the non-priority message.
  • FIG. 19A and FIG. 19B are flowcharts showing an example of name resolution processing according to the second embodiment.
  • FIG. 19A is the first half of a flowchart showing an example of name resolution processing performed in the computer system.
  • FIG. 19B is the latter half of the flowchart showing an example of the name resolution process performed in the computer system.
  • 12A and 12B of the first embodiment show an example in which the priority information of the transmission source is compared with the priority processing determination value in addition to the priority information of the transmission destination, but only the priority information of the transmission destination is shown. Priority control may be performed.
  • the DIPM server 19 blocks the non-priority message from the field device 41 by the relay device 4 and transmits only the priority message from the field device 41 to the WAN 3. Forward to.
  • the communication management server 15 shown in FIG. 1B of the first embodiment is not necessary.
  • Other configurations are the same as those of the first embodiment.
  • FIGS. 19A and 19B differ from FIGS. 12A and 12B in the first embodiment.
  • steps S42 to S44 and S49 to S51 for searching the management table 580 as a DNS cache or acquiring an IP address from the DNS server 18 are the same as those in the first embodiment.
  • steps S47 and S48 in FIG. 12A are deleted, the DIPM server 19 searches the management table 580 using the URL included in the name resolution request as a key, and the priority related information 584 and FAN ID 585 of the URL. Is acquired, it progresses to step S52A.
  • step S52A instead of FIG. 12B of the first embodiment, the DIPM server 19 determines whether or not the priority related information of the transmission destination exceeds a predetermined priority processing determination value.
  • FIG. 19B if S54 and S55 in FIG. 12B are deleted and the priority related information of the transmission destination exceeds the priority processing determination value, priority control is started.
  • the dummy IP address is set so that the relay device 4 is the destination of the non-priority message, and a name resolution response is transmitted to the field device 40 via the relay device 4 (S53 to S58). .
  • the non-priority message transmitted by the field device 41 is accumulated in the buffer 490 of the relay device 4 by the dummy IP address, and is temporarily blocked. As a result, when the priority message is transferred to the WAN 3 side, the destination can be reached within the requested time.
  • priority control start and dummy IP address notification use name resolution requests and name resolution responses, traffic only for priority control can be suppressed, and the load on the network can be reduced.
  • FIG. 20 is a block diagram showing an example of the DIPM server 19 according to the third embodiment of the present invention.
  • the buffer 640 of the communication management server 15 is used.
  • the DIPM server 19 is provided with a buffer 590, and the non-priority message Accumulate.
  • Other configurations are the same as those of the first embodiment.
  • the communication management server 15 shown in the first embodiment is not necessary, and the non-priority message can be temporarily stored in the DIPM server 19. Therefore, while simplifying the configuration in the data center 1, it is possible to select either the relay device 4 or the data center 1 as a position where the non-priority message is blocked.
  • the present invention is not limited to this, and is stored in other servers and devices in the data center 1. can do.
  • the present invention is not limited to the first to third embodiments described above, and includes various modifications.
  • the above-described embodiments are described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
  • any of the additions, deletions, or substitutions of other configurations can be applied to a part of the configuration of each embodiment, either alone or in combination.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • each of the above-described configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function.
  • Information such as programs, tables, and files that realize each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

 ネットワークに接続された中継装置と、前記中継装置に接続されてメッセージを送信するフィールド機器と、前記ネットワークを介して前記中継装置に接続された優先制御サーバと、前記優先制御サーバに接続されて名前の解決を行うDNSサーバと、を含み、前記中継装置は、前記フィールド機器から送信された名前解決要求を前記優先制御サーバへ転送する送受信部を含み、前記優先制御サーバは、前記フィールド機器が送信した名前解決要求を受信するたびに、当該名前解決要求の宛先毎に前記ネットワークの状況を示す遅延予測情報を算出するネットワーク監視部と、前記名前解決要求を受信したときに前記遅延予測情報に基づいて当該名前解決要求の宛先で遅延が発生するか否かを予測する優先制御部と、を含む。

Description

計算機システム、通信制御方法及び優先制御サーバ
 本発明は、名前解決及び優先制御を行う計算機システムに関する。
 昨今では、COの排出量が少なく、高効率で、より環境負荷の低い社会インフラが構築された次世代都市(スマートシティ)の実現に向けた事業が世界中で推進されている。政府や自治体及び社会インフラを担ってきた企業が、従来培ってきた制御技術や、情報技術を融合したスマートグリッド技術を基盤として、電力やガス、交通、水道などの社会インフラと、ビルや住宅などの需要家と連携し、高効率なエネルギー利用によるスマートシティの構築を目指している。
 都市を運営するためには、連携する社会インフラシステムと、ビルシステム、需要家の機器や電気自動車(EV)等のように、広域に分散した設備や機器の構成や実績を示す情報を収集及び分析する。そして、分析結果に基づき、適切な情報を適切なタイミングで関係するシステムや機器へ通知(制御)をする必要がある。通知や制御によって関連するシステムのバランスを維持し、不測の事態による利益損失を軽減することが可能になる。
 また、さまざまなシステムの情報を収集し、分析を行うためには定期的に関連する機器の稼働情報をデータセンタ等で一元的に管理し、データセンタから適切な制御を行うことになる。また、不足の事態の場合には、障害情報の通知のみを関係機器へ直接送信する場合も考えられる。
 各機器は様々な拠点に設置されるため、機器ごとに有線網を敷設するにはコストが大きいため、3G等の無線通信を利用した広域網を利用する。
 近年、通信キャリアはM2M(Machine to Machine)に向けた通信サービス(M2Mネットワーク)を提供しており、M2Mのサービスは通信機器からデータセンタまでセキュアなプライベートネットワークを利用することができる。
 通信キャリアが提供するM2Mサービスは、3Gや、LTE、WiMAX、GPRSなどの携帯電話と基地局を共有する無線ネットワークをアクセス網として利用している。無線ネットワークは、通常の携帯電話とは基地局を共有しており、人口密度の多い地域では、時間帯によって接続しにくい、あるいは帯域が低下(通信速度の低下)するなどの通信品質に影響が出る場合が生じる。
 一方で、スマートシティで利用する機器(または端末)の数は1000万台以上の規模を想定する必要があることから、コストの面からM2Mネットワークで必要な回線契約数は可能な限り少なくすることが要件となる。回線契約数を削減するため、実際の機器とデータセンタとの間にはWAN(Wide Area Network)とFAN(Field Area Network)を接続する中継装置が配置され、中継装置の配下に数百台規模の機器が接続する構成をとることが多い。
 制御情報や障害情報などの直接機器間通信を行って送信するデータは、定期的にデータセンタへ送信される時系列データが混在するトラヒックの中で、時系列データの送信を一旦止めても、確実に目的の機器まで送信する必要がある。特許文献1の通信システムは、特定のホストと接続可能な通信経路を複数持つ携帯通信端末において、ネットワークの経路を自動的に選択することが可能なシステムを提供する。
特開2006-333080号公報
 しかしながら、上記従来例のスマートシティなどの制御システムで送受信する通信データサイズは、多くは1MTU(Maximum Transmission Unit)に収まる程度であり、Webサービス等で送受信するデータサイズに比べて小さい。さらに上記制御システムにおいて、データ発生源である機器の数は多いが、各機器から周期的に送信されるデータサイズは小さいため、定常状態においては通信にかかる負荷は小さい。
 しかしながら、上記従来例の制御システムにおいて、停電からの復帰時などで、機器が一斉に電源が入った状態になると、中継装置やデータセンタへのトラヒックが急激に増大し、各機器で通信データの滞留が発生し、優先度の高いメッセージも要求された時間内で到達することができないという課題があった。
 上記スマートシティなどの制御システムでは収容する機器数が多いため、通信キャリアが提供するM2Mネットワークを複数利用し、また、各機器は通信障害を考慮して、複数のM2Mネットワークに接続可能なように通信モジュールを複数搭載することができる。このような環境において、あるM2Mネットワークに存在する端末から別のM2Mネットワークに存在する端末への通信を行う場合、送信先の端末が所属するM2Mネットワークの状況を加味して経路を選択するだけでは、最適な通信は難しい、という問題があった。
 そこで本発明は、上記問題点に鑑みてなされたもので、優先度の高いメッセージを確実に転送させることを目的とする。
 本発明は、ネットワークに接続された中継装置と、前記中継装置に接続されてメッセージを送信するフィールド機器と、前記ネットワークを介して前記中継装置に接続された優先制御サーバと、前記優先制御サーバに接続されて名前の解決を行うDNSサーバと、を含む計算機システムであって、前記中継装置は、前記フィールド機器から送信された名前解決要求を前記優先制御サーバへ転送する送受信部を含み、前記優先制御サーバは、前記フィールド機器が送信した名前解決要求を受信するたびに、当該名前解決要求の宛先毎に前記ネットワークの状況を示す遅延予測情報を算出するネットワーク監視部と、前記名前解決要求を受信したときに前記遅延予測情報に基づいて当該名前解決要求の宛先で遅延が発生するか否かを予測する優先制御部と、を含む。
 本発明によれば、ネットワークから優先制御サーバへのトラヒックが急激に増大するような場合でも、優先度の高いメッセージを確実に転送させることが可能となる。
本発明の第1の実施例を示し、計算機システムの一例を示すブロック図である。 本発明の第1の実施例を示し、データセンタの一例を示すブロック図である。 本発明の第1の実施例を示し、計算機システムで行われる中継装置の参入処理の一例を示すシーケンス図の前半部である。 本発明の第1の実施例を示し、計算機システムで行われる中継装置の参入処理の一例を示すシーケンス図の後半部である。 本発明の第1の実施例を示し、参入サーバで行われる参入処理の一例を示すフローチャートである。 本発明の第1の実施例を示し、DIPMサーバで行われる参入処理の一例を示すフローチャートである。 本発明の第1の実施例を示し、計算機システムで行われる中継装置の離脱処理の一例を示すシーケンス図である。 本発明の第1の実施例を示し、DIPMサーバで行われる中継装置の離脱処理の一例を示すフローチャートである。 本発明の第1の実施例を示し、計算機システムで行われる中継装置の停止処理の一例を示すシーケンス図である。 本発明の第1の実施例を示し、DIPMサーバで行われる中継装置の停止処理の一例を示すフローチャートである。 本発明の第1の実施例を示し、計算機システムで行われるフィールド機器の参入処理の一例を示すシーケンス図の前半部である。 本発明の第1の実施例を示し、計算機システムで行われるフィールド機器の参入処理の一例を示すシーケンス図の後半部である。 本発明の第1の実施例を示し、計算機システムで行われるフィールド機器の停止処理の一例を示すシーケンス図である。 本発明の第1の実施例を示し、計算機システムで行われる名前解決処理の一例を示すシーケンス図である。 本発明の第1の実施例を示し、計算機システムで行われる名前解決処理の一例を示すフローチャートの前半部である。 本発明の第1の実施例を示し、計算機システムで行われる名前解決処理の一例を示すフローチャートの後半部である。 本発明の第1の実施例を示し、計算機システムで行われる名前解決処理(非優先)の一例を示すシーケンス図である。 本発明の第1の実施例を示し、中継装置やフィールド機器の状態遷移図である。 本発明の第1の実施例を示し、DIPMサーバが管理する管理テーブルの一例を示す図である。 本発明の第1の実施例を示し、DIPMサーバの一例を示すブロック図である。 本発明の第1の実施例を示し、中継装置の一例を示すブロック図である。 本発明の第1の実施例を示し、通信管理サーバの一例を示すブロック図である。 本発明の第2の実施例を示し、計算機システムで行われる名前解決処理の一例を示すフローチャートの前半部である。 本発明の第2の実施例を示し、計算機システムで行われる名前解決処理の一例を示すフローチャートの後半部である。 本発明の第3の実施例を示し、DIPMサーバの一例を示すブロック図である。 本発明の第1の実施例を示し、計算機システムで行われる管理テーブル更新処理の一例を示すフローチャートである。
 以下、本発明の一実施形態について添付図面を用いて説明する。
 図1Aは、本発明を適用する計算機システムのブロック図である。図1Aは、スマートシティ等を構成するフィールド機器41-A~41-Fと、これらのフィールド機器41-A~41-Fを管理するデータセンタ1と、フィールド機器41-A~41-Fをデータセンタ1に接続するFAN(Field Area Network)40-1~40-3と、FAN40-1~40-3をWAN3-1、3-2に接続する中継装置4-1~4-3と、を含む計算機システムである。
 なお、以下の説明では、フィールド機器41-A~41-Fの総称を符号41で表し、同様に、WAN3-1、3-2の総称を符号3で表し、中継装置4-1~4-3の総称を符号4で表し、FAN40-1~40-3の総称を符号40で表す。他の構成要素の符号についても同様とする。
 また、本実施例では、WAN3としては3G、LTEあるいはLTEなどの無線通信網を採用する例を示すが、これらに限定されるものではない。同様に、本実施例では、FAN40としてはLAN、ZigBee、WiFi、Bluetoothなどの通信網を採用する例を示すが、これらに限定されるものではない。
 中継装置4は、FAN40に接続されて所定の周期でメッセージを送信するフィールド機器41と、WAN3を介してデータセンタ1との間で通信の制御を行う。フィールド機器41-A~41-Fは、それぞれセンサ43-A~43-Fとアクチュエータ44-A~44-Fを有し、センサ43で測定した情報等をデータセンタ1や他のフィールド機器41へ送信する。フィールド機器41からの情報の送信は、例えば、予め設定された送信先に対して所定の周期で行われる。また、フィールド機器41は、データセンタ1や他のフィールド機器41や計算機からの指令に基づいてアクチュエータ44を制御することができる。
 なお、データセンタ1は、ファイアウォール(図中FW)20-1、20-2を介してWAN3-1、3-2に接続される。WAN3は、中継装置4等へのIPアドレスの付与または貸し出しを行うアドレス発行サーバ30-1、30-2をそれぞれ有する。
 <データセンタの構成>
 図2Aは、本発明を適用するデータセンタ1の一例を示すブロック図である。データセンタ1は、フィールド機器41からの情報を利用する業務アプリケーションを実行する業務サーバ10と、フィールド機器41の制御を行う制御アプリケーションを実行する制御サーバ11と、各フィールド機器41に固有の情報を管理する機器管理サーバ12と、フィールド機器41や中継装置4の認証を行う参入サーバ14-1、14-2と、アドレス変換を行うDNSサーバ18と、DNSサーバ18のフロントエンドで処理を行うDIPMサーバ19と、通信の遅延が発生するとき等に通信データ(以下、メッセージ)を一時的に蓄積する通信管理サーバ15と、中継装置4または各サーバとの間でVPN(Virtual Private Network)を設定するトンネリング装置16、17-1、17-2と、セキュリティの確保またはNAT機能を提供するファイアウォール(FW)13,20-1、20-2とを含む。各サーバはネットワーク100、101を介して接続される。なお、データセンタ1内のネットワークは、ファイアウォール20-1、20-2~13の間のDMZ(DeMilitarized Zone)がネットワーク100で接続され、ファイアウォール13と業務サーバ10、制御サーバ11及び機器管理サーバ12はネットワーク101で接続される。
 トンネリング装置17-1、17-2は、フィールド機器41とデータセンタ1の通信を中継する中継装置4-1~4-3との間でVPNを設定する。後述するように、中継装置4は、NAT(Network Address Translation)機能により、FAN40の配下の複数のフィールド機器41の通信をまとめてVPNで転送する。すなわち、WAN3で使用する回線数を抑制しながら多数のフィールド機器41の通信を中継装置4のNAT機能でまとめる。
 ファイアウォール20-1、20-2は不正な通信を遮断してセキュリティを確保し、WAN3側のゲートウェイとして機能する。一方、業務サーバ10~機器管理サーバ12側のファイアウォール13は、上記サーバ側と、ファイアウォール13~中継装置4のネットワークを分割するルータとして機能する。なお、データセンタ1では、WAN3側のファイアウォール20と、サーバ側のファイアウォール13の間がDMZとなる。なお、トンネリング装置16は、DMZと業務サーバ10~機器管理サーバ12の間でVPNを設定する。
 したがって、ファイアウォール13と業務サーバ10~機器管理サーバ12のネットワークアドレス空間を第1のアドレス空間とすると、DMZから中継装置4までのネットワークアドレス空間は第2のアドレス空間となり、図1Aに示したFAN40の配下のネットワークアドレス空間は第3のアドレス空間となる。
 参入サーバ14-1、14-2は、予め認証情報を格納し、中継装置4やフィールド機器41から認証要求を受信すると、認証処理を行う。
 DNSサーバ18は、周知または公知の技術を用いてURL(またはURI)とIPアドレスの変換を実施する。なお、DNSサーバ18は、各中継装置4-1~4-3の配下のフィールド機器41から名前解決要求を受け付けて、名前解決応答を行うことができる。
 本発明のDIPMサーバ(または優先制御サーバ)19は、DNSサーバ18のフロントエンドで機能し、DNSキャッシュとしての管理テーブル580と、WAN3の通信状態の監視と、後述するように、WAN3で遅延が発生または遅延が予測(または検出)される場合には、通信(またはメッセージ)の優先度に応じて一時的にメッセージ(またはパケット)を蓄積する優先制御の指令を中継装置4または通信管理サーバ15に指令する優先制御を行う。なお、DIPMは、Dummy IP address Managementの略である。また、DIPMサーバ19は、優先制御で使用するダミーIPアドレスを管理するプール(図示省略)と、中継装置4の配下のフィールド機器41等に付与する仮想IPアドレスを管理する仮想IPアドレステーブル(図示省略)を有する。また、通信管理サーバ15は、一時的にメッセージを蓄積するバッファとして機能する。
 以下に、本発明に固有の装置について説明する。
 <DIPMサーバ>
 図16は、DIPMサーバ19の一例を示すブロック図である。DIPMサーバ19は、演算処理を行うプロセッサ191と、データやプログラムを格納するメモリ192と、ネットワーク100に接続されるインターフェース193と、データやプログラムを保持するストレージ装置194と、を含む。
 メモリ192は、メッセージの送受信を行う送受信部520と、名前の解決や仮想IPアドレスの付与及び優先制御などを行うアドレス管理部530と、名前の解決要求(DNSRequest)の数を計数することでネットワークの混雑度合を監視するネットワーク監視部570と、名前の解決結果と上記ネットワークの混雑度合を保持する管理テーブル580と、を格納する。
 送受信部520と、アドレス管理部530と、ネットワーク監視部570の各機能部はプログラムとしてストレージ装置194からメモリ192にロードされる。
 プロセッサ191は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ191は、アドレス管理プログラムに従って処理することでアドレス管理部530として機能する。他のプログラムについても同様である。さらに、プロセッサ191は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
 アドレス管理部530等の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置194や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
 アドレス管理部530は、DNSサーバ18の一次キャッシュとして機能するキャッシュ制御部540と、データセンタ1内とフラットにアクセスするための仮想IPアドレスを中継装置4等へ付与する仮想アドレス管理部550と、名前解決要求の宛先または送信元の情報に応じてダミーIPアドレスを宛先のアドレスとして付与する優先制御部560と、を含む。
 なお、ダミーIPアドレスは、本来の宛先のIPアドレスに代わって、非優先メッセージを一時的に蓄積する機器のIPアドレスを設定したものである。
 キャッシュ制御部540は、中継装置4またはデータセンタ1内の上記サーバ10~12から名前の解決要求を受け付けると、名前の解決結果を格納した管理テーブル580を検索して、URLに対応するIPアドレスを取得する。なお、検索結果がない場合には、名前の解決要求をDNSサーバ18へ転送する。そして、キャッシュ制御部540は、管理テーブル580またはDNSサーバ18から取得したIPアドレスを名前解決結果とする。
 なお、キャッシュ制御部540は、管理テーブル580に存在しないURLについては、新たなエントリを管理テーブル580に追加し、DNSサーバ18から取得したIPアドレスを格納する。
 また、キャッシュ制御部540は、中継装置4のキャッシュ制御部460の要求に応じて管理テーブル580の内容を中継装置4へ送信し、中継装置4のDNSキャッシュ470を更新させる。
 アドレス管理部530は、上記キャッシュ制御部540の名前解決に加えて、宛先までの通信経路の混雑度合を示す優先度関連情報(遅延予測情報)と宛先のFANIDを加えて、名前の解決要求に対する解決結果として応答する。
 ネットワーク監視部570は、キャッシュ制御部540が参照または追加した管理テーブル580のエントリの数を単位時間当たりの要求数として算出し、メッセージの宛先までの通信経路の混雑度合を示す優先度関連情報として管理テーブル580に設定する。
 ここで、優先度関連情報は、メッセージの宛先に到達するまでの混雑度合を示す指標で、例えば、後述するように、単位時間当たりの名前の解決要求の数等を用いることができる。優先度関連情報として、DIPMサーバ19が測定した単位時間当たりの名前の解決要求の数を用いる場合では、中継装置4が宛先のネットワークの位置を特定することなく混雑度を把握することができる。
 なお、後述するように、中継装置4は2次DNSキャッシュとしてDIPMサーバ19の管理テーブル580の複製をDNSキャッシュ470に保持しており、DNSキャッシュ470でヒットした場合には、当該IPアドレスとヒット数を取得するようにしてもよい。中継装置4のDNSキャッシュ470のヒット数を、上記優先度関連情報の演算に加えることで、宛先までの通信経路の混雑度合をより正確に算出できる。
 ネットワーク監視部570は、キャッシュ制御部540が管理テーブル580を参照するたびに優先度関連情報を演算して更新する。
 なお、アドレス管理部530は、ダミーIPアドレスをプールする図示しないテーブルと、仮想IPアドレスをプールする仮想IPアドレステーブルを有する。
 図15は、DIPMサーバが管理する管理テーブル580の一例を示す図である。管理テーブル580は、メッセージの宛先の名前を示すURLを格納するURL581と、DNSによる名前解決の結果であるIPアドレスを格納するIPアドレス582と、メッセージに付与された優先度を格納する優先度情報583と、メッセージの宛先までの通信経路の混雑度合を示す優先度関連情報584と、メッセージの宛先のFAN40の識別子を格納するFANID585と、機器の参入状態を示す参入フラグ586と、をひとつのエントリに含む。
 URL581は、名前の解決要求に含まれるメッセージの宛先のURLである。IPアドレス582は、名前解決の結果としてDNSサーバ18から取得したIPアドレスである。また、優先度情報583は、名前の解決要求に含まれる情報で、当該宛先への優先度を示す値である。優先度情報583は、送信元のフィールド機器41または各サーバ10、11で設定される情報である。参入フラグ586は、“1”が参入を示し、“0”が離脱を示す。なお、フィールド機器41、業務サーバ10及び制御サーバ11は、宛先に応じた優先度情報583を予め設定しておくことができる。
 本実施例では、メッセージの宛先に対応する優先度が高い場合には、例えば、優先度情報=1として当該メッセージを優先メッセージとし、優先度が低い場合には優先度情報=0とし、当該メッセージを非優先メッセージとする。
 FANID585は、メッセージの宛先のFAN40の識別子で、キャッシュ制御部540が、機器管理サーバ12から取得した値である。機器管理サーバ12は、メッセージの宛先のURL581またはIPアドレス582に対応するFANID585含むテーブルを保持する。なお、同じ中継装置4の配下に存在するフィールド機器のURL581は、同一のFANID585となる。
 キャッシュ制御部540は、名前の解決要求に含まれるURL581、IPアドレス582、優先度情報583及びFANID585を管理テーブル580に設定する。
 優先度関連情報584は、ネットワーク監視部570が演算した単位時間当たりの名前解決要求の数が格納される。ネットワーク監視部570は、所定時間内に名前の解決要求を受信したエントリを計数し、所定時間毎に各エントリの計数結果を更新する。
 優先度関連情報584が示す単位時間当たりの名前の解決要求の値が大きいことは、当該宛先へのメッセージ(またはパケット)の量が多いことを示しており、WAN3や中継装置4の負荷も高くなる。そして、優先度関連情報584の値が予め設定した閾値を超えると、通信の遅延が発生することを予測することができる。
 アドレス管理部530の優先制御部560は、優先度関連情報584の値と所定の閾値を比較して、通信の遅延が予測されるときに、後述する優先制御を実施する。
 次に、アドレス管理部530の、仮想アドレス管理部550は予め設定した仮想IPアドレステーブルから仮想IPアドレスを取得して、中継装置4及び中継装置4の配下の機器に割り当てる。仮想IPアドレスによって、中継装置4とデータセンタ1内はVPNを介して単一のネットワークとして接続される。
 優先制御部560は、上述したように通信の遅延が予測されるとき、または通信の遅延が発生しているときに、中継装置4または通信管理サーバ15に対して優先メッセージのみを転送させて、非優先メッセージを一時的に遮断する指令を送信する。
 優先制御部560は、名前の解決結果を応答する際に、優先度関連情報584が所定の閾値(優先処理判定値)を超えたか否かを判定する。そして、優先度関連情報584が所定の閾値を超えていれば、当該メッセージが宛先に到達するまでに遅延が発生する恐れがある、あるいは遅延が発生していると判定する。なお、以下では、この判定結果を遅延の発生予測とする。
 優先制御部560は、名前の解決要求を実施したメッセージに遅延の発生が予測される場合、優先メッセージのみを転送し、非優先メッセージをバッファへ一時的に蓄積するよう中継装置4(または通信管理サーバ15)に指令する。この優先制御により、メッセージの通信経路上の何れかのネットワークまたは何れかの装置で遅延が予測されるときには、中継装置4(または通信管理サーバ15)が非優先メッセージを一時的に遮断して、優先メッセージのみを転送することで、所定の時間内に到達する必要のある優先メッセージを確実に転送することができる。
 具体的には、優先制御部560が、所定のダミーIPアドレスを予め設定したテーブル(図示省略)から取得し、名前の解決要求の送信元にダミーIPアドレスとバッファリングの設定要求を通知する。
 ダミーIPアドレスとバッファリングの設定要求を受け付けた中継装置4(またはサーバ10、11)から、ダミーIPアドレス及びバッファリングの設定完了の応答を受け付けると、優先制御部560は名前の解決結果を応答する。この名前の解決結果には、ダミーIPアドレスと、FANID585と、優先度情報583と、実際のIPアドレス582が含まれる。
 ダミーIPアドレスに加えて、実際の宛先となるIPアドレス582を中継装置4(または通信管理サーバ15)へ通知しておくことで、優先制御部560が優先制御を解除した後に、蓄積されたメッセージを本来の宛先へ送信することができる。
 以上のように、優先制御部560は、名前の解決要求を受け付けると、当該宛先の優先度関連情報584を参照して通信の遅延予測を実施し、通信の遅延が予測される場合には、名前の解決の要求元へ非優先メッセージを遮断する優先制御を指令する。これにより、中継装置4からは通信状態を取得するのが難しい他のWAN3で通信の遅延が発生した場合でも、優先メッセージのみを転送して、緊急性の低い非優先メッセージを一時的に遮断することが可能となる。
 本発明では、名前の解決要求時に優先制御の実施の有無を判定し、名前の解決応答で優先制御を通知するので、優先制御のためだけの通信を抑制することが可能となり、ネットワークや中継装置などの機器の負荷を低減することができる。
 図21は、DIPMサーバ19で行われる管理テーブル580の更新処理の一例を示すフローチャートである。この処理は、フィールド機器41や中継装置4の種類や数が増えた場合などシステムの更新が行われたときに実行される。あるいは、トラフィックが所定の閾値以下のときに実行するようにしてもよい。また、この処理はDIPMサーバ19のネットワーク監視部570で行うことができる。
 DIPMサーバ19は、予め設定した一定の期間内で受け付けた名前解決要求の数を宛先毎に計測する(S61)。また、DIPMサーバ19は、取得した宛先毎の名前解決要求について受信した時間間隔を計測する。なお、一定時間内に、中継装置4が受け付けた名前解決要求を取得するようにしてもよい。
 ステップS62で、DIPMサーバ19は、名前解決要求の宛先毎に、時間間隔の平均値と分散値を演算する。
 ステップS63で、DIPMサーバ19は、名前解決要求の数が予め設定した閾値(一定数)以下の宛先は“優先”とし“1”を管理テーブル580の優先度情報583に設定する。一方、DIPMサーバ19は、名前解決要求の数が予め設定した閾値(一定数)を超える宛先は“非優先”とし“0”を管理テーブル580の優先度情報583に設定する。なお、DIPMサーバ19は、名前解決要求の数を計測した宛先のURL581またはIPアドレス582のエントリがなければ、新たなエントリを管理テーブル580に追加する。
 ステップS64で、DIPMサーバ19は、ステップS62で演算した名前解決要求の宛先毎の時間間隔の平均値と分散値を優先度関連情報584に設定する。以上の処理によって、DIPMサーバ19は名前解決要求の数と時間間隔に基づいて、宛先毎に“優先”と“非優先”を決定し、管理テーブル580の優先度情報583と優先度関連情報584を更新する。
 上記処理は、M2Mネットワークの次のような傾向に基づいている。
“優先”データ:送信と受信の関係は1:Nあるいは1:1になることが多い。
“非優先”データ:送信と受信の関係はN:1になることが多い。また、“非優先”データは周期的に発生することが多い。
 DIPMサーバ19は優先制御を行う場合、“優先”の名前解決要求が発生すると、それ以降の名前解決要求に対する応答タイミングを分散させて、特定の宛先にデータ送信が集中するのを緩和させる。
 <中継装置>
 図17は、中継装置4-1の一例を示すブロック図である。中継装置4-1は、FAN40-1に接続されたフィールド機器41と、WAN3-1を介して接続されたデータセンタ1の通信を中継する。なお、中継装置4-2、4-3は、中継装置4-1と同様に構成されるので、重複した説明は省略する。
 中継装置4-1は、演算処理を行うプロセッサ401と、データやプログラムを格納するメモリ402と、WAN3-1に接続されたインターフェース403Wと、FAN40-1に接続されたインターフェース403Fと、データやプログラムを保持するストレージ装置404と、を含む。
 メモリ402には、インターフェース403W及びインターフェース403Fで送受信を行う送受信部420と、機器管理サーバ12から受信した当該中継装置4-1の情報に基づいて、稼働環境の設定を行う機器情報設定部430と、中継装置4-1とデータセンタ1のトンネリング装置17-1との間でVPNを設定するVPN設定部440と、フィールド機器41とデータセンタ1との間で送受信される通信データのアドレス変換を行うNAT部450と、名前の解決を行うためIPアドレスとURLの変換情報等の管理テーブル580の複製を格納するDNSキャッシュ470と、DNSキャッシュ470を制御するキャッシュ制御部460と、後述するDIPMサーバ19の優先制御によって一時的にバッファ490へ蓄積されたメッセージを制御するバッファ制御部480と、が格納される。
 送受信部420と、機器情報設定部430と、VPN設定部440と、NAT部450と、キャッシュ制御部460と、バッファ制御部480の各機能部はプログラムとしてストレージ装置404からメモリ402にロードされる。
 プロセッサ401は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ401は、NATプログラムに従って処理することでNAT部450として機能する。他のプログラムについても同様である。さらに、プロセッサ401は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
 送受信部420等の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置404や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
 中継装置4-1は、後述するように、起動するとWAN3-1を管理するアドレス発行サーバ30-1からIPアドレスを取得し、WAN3-1を介してデータセンタ1の参入サーバ14-1に接続する。
 中継装置4-1は参入サーバ14-1で認証を行ってから、VPN設定部440により、データセンタ1と中継装置4-1を接続するWAN3-1にVPN(トンネリング)を設定する。
 VPNが設定されると、VPN設定部440はデータセンタ1のDIPMサーバ19から仮想IPアドレスを取得し、当該中継装置4-1に設定する。仮想IPアドレスにより、中継装置4-1はVPNを介してし、データセンタ1内の装置とフラットなネットワークで通信を行うことができる。次に、機器情報設定部430が機器管理サーバ12から当該中継装置4-1の設定情報を取得し、名前の解決を行うフロントエンドのDIPMサーバ19の仮想IPアドレスや、FANID(FAN40の識別子)の設定などの情報を取得する。なお、FANIDは、中継装置4に予め設定されたユニークな値であり、出荷時などに設定することができる。
 上記の参入処理によって中継装置4-1は、データセンタ1が提供するサービスに参入することができる。参入処理が完了した中継装置4-1は、FAN40-1を介してフィールド機器41から受信したメッセージをFAN40-1内のフィールド機器41や装置、またはデータセンタ1、あるいはデータセンタ1を介して他のFAN40-2、40-3の配下のフィールド機器41や装置へ転送する。メッセージの宛先がFAN40-1以外のネットワークの場合、NAT部450が、フィールド機器41の送信元アドレスを仮想IPアドレスに変換してデータセンタ1へ転送する。
 フィールド機器41が送信するメッセージは、データサイズが小さい(例えば、1MTU)ため、多数のフィールド機器41が中継装置4-1の配下にあっても、WAN3-1で必要となる帯域(単位時間当たりのデータ転送量)は大きくない。そこで、WAN3-1で契約(または使用)する回線数を低減し、中継装置4-1のNAT部450でメッセージをまとめて通信することで、通信コストあるいは消費するリソースを抑制することができる。
 また、中継装置4-1は、DIPMサーバ19の管理テーブル580の複製をDNSキャッシュ470に格納し、フィールド機器41から名前の解決要求を受信したときには、キャッシュ制御部460によってDNSキャッシュ470内のデータを検索する。DNSキャッシュ470内に該当するアドレスがない場合には、上位のDNSキャッシュであるDIPMサーバ19に名前の解決要求を転送する。
 DIPMサーバ19は、名前の解決の応答として、宛先のIPアドレスに加えてFANIDと当該宛先への優先度関連情報(混雑度)を通知する。なお、DNSキャッシュ470の情報も、DIPMサーバ19の管理テーブル580と同様であり、宛先のIPアドレスと、FANIDと当該宛先への優先度関連情報を含む。ただし、キャッシュ制御部460は、所定の有効期限(または有効時間)を経過したデータについてはDIPMサーバ19から管理テーブル580の内容を取得して更新するので、最新のデータはDIPMサーバ19より上位のサーバが保持している。
 中継装置4-1は、DIPMサーバ19からの応答または、DNSキャッシュ470の情報から名前の解決結果の宛先のFANIDから、当該宛先が同一のFAN40-1内であるか否かを判定できる。
 中継装置4-1は、DIPMサーバ19の優先制御によって、メッセージの宛先で遅延が予測される場合に、バッファリング要求とダミーIPアドレスを受け付ける。中継装置4-1は、ダミーIPアドレスを自装置宛のアドレスとして設定し、当該ダミーIPアドレスが宛先のメッセージは、一時的にバッファ490へ蓄積するように設定する。
 上述のように、DIPMサーバ19からは、ダミーIPアドレスに加えて本来の宛先のIPアドレス582も通知されるので、中継装置4-1は、メッセージと本来の宛先を対応付けてバッファ490へ格納しておく。
 中継装置4-1は、その他の宛先のメッセージ(優先メッセージまたは優先制御の対象外のメッセージ)については、DIPMサーバ19から受信したIPアドレスまたはFANIDに基づいて、WAN3-1を介してデータセンタ1あるいは他のFAN40へ送信する。
 バッファ制御部480は、上記DNSサーバ18の優先制御によってバッファ490へ非優先メッセージを蓄積した後に、DIPMサーバ19からの優先度関連情報の値が所定の閾値以下になった場合、あるいは、バッファ490の空きがなくなった場合など、所定の条件が成立したときに、蓄積した順序でバッファ490からメッセージを出力することができる。
 なお、キャッシュ制御部460は、DNSキャッシュ470がヒットした数を宛先毎に計数しておく。そして、キャッシュ制御部460は、所定のタイミングで上記計数した宛先毎のヒット数をDIPMサーバ19へ通知するようにしてもよい。
 中継装置4の送受信部420は、Recursive/forwarderとして機能する。送信元のフィールド機器41から受信した名前解決要求を中継装置4の名前解決要求としてDIPMサーバ19へ転送する。このとき、名前解決要求のメッセージから送信元の情報が失われるので、中継装置4が発行した名前解決要求のメッセージに送信元の情報(URL、優先度関連情報等)を付与する。たとえば、本実施例では、名前解決要求と名前解決応答(DNSResponse)のパケットにはそれぞれ追加情報レコードを付加して、送信元の情報を格納しておく。これにより、DIPMサーバ19では、名前解決要求を送信したフィールド機器41の情報を取得することができる。
 以上のように、中継装置4-1では、VPNやNAT機能に加えて、メッセージの宛先がダミーIPアドレスの場合には、非優先メッセージをバッファ490に蓄積して遮断する一方、優先メッセージのみを通過させる優先制御を実施する。
 <通信管理サーバ>
 図18は、通信管理サーバ15の一例を示すブロック図である。通信管理サーバ15は、演算処理を行うプロセッサ151と、データやプログラムを格納するメモリ152と、ネットワーク101に接続されるインターフェース153と、データやプログラムを保持するストレージ装置154と、を含む。
 メモリ152は、メッセージの送受信を行う送受信部520と、業務サーバ10、制御サーバ11がダミーIPアドレスを受け付けたときに、非優先メッセージを一時的に蓄積するバッファ640と、当該バッファ640を制御するバッファ制御部630と、を格納する。
 送受信部520と、バッファ制御部630の各機能部はプログラムとしてストレージ装置154からメモリ152にロードされる。
 プロセッサ151は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ151は、バッファ制御プログラムに従って処理することでバッファ制御部630として機能する。他のプログラムについても同様である。
 バッファ制御部630は、上記中継装置4-1のバッファ制御部480と同様に、非優先メッセージと実際の宛先IPアドレスとを対応付けて格納する。そして、バッファ制御部630は、上記DNSサーバ18の優先制御によってバッファ640へ非優先メッセージを蓄積した後に、DIPMサーバ19からの優先制御の終了通知、あるいは、バッファ640の空きがなくなった場合など、所定の条件が成立したときに、蓄積した順序でバッファ640からメッセージを出力することができる。
 また、送受信部620は、フィールド機器41の通信を監視し、所定時間を超えて通信のないフィールド機器41があれば、当該フィールド機器41を異常により停止したと判定し、後述するように、停止の処理を行う。
 <中継装置の状態>
 図14は、中継装置4やフィールド機器41の状態を示す図である。中継装置4やフィールド機器41は、データセンタ1のサービスへ参入することで稼働することができる。サービスへ参入した後には、ソフトウェアの更新などで一旦稼働を停止する場合などがある。以下に、中継装置4の状態について説明する。なお、フィールド機器41についても同様である。
 中継装置4は、図14に示すとおり、初期状態、定常状態、離脱状態及び停止状態の何れかの状態に遷移する。
 初期状態は、データセンタ1へ一度も接続したことがない状態を示す。または、中継装置4にデータセンタ1と接続するための情報を設定した後、中継装置4を設置場所に配置し、通信がアクティブになっている状態を示す。
 定常状態は、中継装置4が参入処理を実施した後、データセンタ1への認証を完了し、必要な設定情報を取得した状態を示す。この定常状態になれば、中継装置4はデータセンタ1の業務サーバ10または制御サーバ11と通信することが可能となる。
 離脱状態は、中継装置4のソフトウェア(またはファームウェア)のアップデートをするなど、中継装置4のアプリケーションを一旦終了し、データセンタ1との接続を一旦解放する際に、データセンタ1と中継装置4で離脱処理を実施して、中継装置4はデータセンタ1とWAN3を介した接続を開放する。中継装置4は、データセンタ1との通信が途絶し、一定時間経過した場合も自動的にこの状態に遷移する。
 停止状態は、中継装置4の交換を行う場合に実施する。交換前の中継装置4を、データセンタ1との間で停止処理を実施し、中継装置4の設定ファイルを初期化した状態を示す。この停止状態に遷移した中継装置4はデータセンタ1からWAN3等のネットワークを介してアクセスすることはできない。
 <中継装置の参入処理>
 図2A、図2Bは、中継装置4-1がデータセンタ1のサービスへ参入する処理(参入処理または初期参入処理)の一例を示すシーケンス図である。中継装置4-1は、起動するとWAN3-1を管理するアドレス発行サーバ30-1に接続処理要求を送信する(S100)。アドレス発行サーバ30-1は、所定の接続処理を実行し、WAN3-1で用いるIPアドレスを払い出す(S101)。
 中継装置4-1は、WAN3-1のIPアドレスを設定してからデータセンタ1の参入サーバ14-1と接続して認証要求を送信する(S102)。中継装置4-1は、認証要求の後に認証情報を参入サーバ14-1へ送信する。認証要求及び認証情報を受信した参入サーバ14-1は、認証情報に基づいて認証処理を実行し、認証が完了すると機器の認証応答を中継装置4-1へ送信する(S103)。
 中継装置4-1は、参入サーバ14-1に対して仮払いアドレスの取得要求を送信する(S104)。仮払いアドレスは、VPNの設定等でデータセンタ1内の各サーバとの間で認証等を行うための仮のIPアドレスである。仮払いアドレスを用いることで、中継装置4-1とデータセンタ1内をフラットに接続し、認証の際のデータセンタ1側の負荷を低減することができる。参入サーバ14-1は、中継装置4-1に対して仮払いアドレスを発行し、仮払いアドレスの取得応答として送信する(S105)。
 次に、中継装置4-1は、仮払いアドレスを設定してから、トンネリング装置17-1に対してデータセンタ1と当該中継装置4-1の間にVPNを設定する要求(トンネリング接続要求)を送信する(S106)。トンネリング装置17-1は、中継装置4-1からのトンネリング接続要求を受け付けて、WAN3-1上にVPNを設定し、中継装置4-1とトンネリング装置17-1を接続する。トンネリング装置17-1は、VPNの設定が完了するとトンネリング接続の完了を示す応答を中継装置4-1へ送信する(S107)。VPNを介してデータセンタ1内と接続された中継装置4-1は、仮払いアドレスを用いることで、データセンタ1内とフラットに(NATなしで)通信を行うことができる。
 次に、図2Bにおいて、中継装置4-1はDIPMサーバ19に対して仮想IPアドレスの取得要求を送信する(S108)。現在、中継装置4-1は、仮払いアドレスでデータセンタ1内と接続しているため、当該中継装置4-1に割り当てるデータセンタ1内のネットワークアドレスのIPアドレスを要求する。
 DIPMサーバ19は、図示しないIPアドレスのプールから中継装置4-1に割り当てる仮想IPアドレス及びURLを取得し、DNSサーバ18に当該仮想IPアドレス及びURLの登録を要求する(S109)。DNSサーバ18は、仮想IPアドレス及びURLをアドレステーブル(図示省略)に登録すると、登録の完了の応答をDIPMサーバ19に送信する(S110)。
 DIPMサーバ19は、仮想IPアドレスの登録完了の応答をDNSサーバ18から受信した後、当該仮想IPアドレス及びURLを中継装置4-1に通知(図中仮想IPアドレス取得応答)する(S111)。中継装置4-1は、仮払いアドレスに代わって、DIPMサーバ19から取得した仮想IPアドレスをデータセンタ1内との通信用に設定する。
 次に、中継装置4-1は、機器管理サーバ12に対して当該機器に設定すべき固有の情報を要求(機器固有設定情報取得要求)する(S112)。機器管理サーバ12は、図示しないテーブルで各中継装置4やフィールド機器41に固有の情報を管理している。ここで、機器に固有の情報には、中継装置4-1がデータセンタ1内の業務サーバ10等へデータを送信するとき、メッセージを暗号化する場合に必要な暗号鍵や、データセンタ1との時刻同期を行う時刻情報などが含まれる。機器管理サーバ12は、WAN3-1とFAN40-1に接続された中継装置4-1に必要な固有の情報をテーブルから取得して、中継装置4-1へ応答(機器固有設定情報取得応答)する(S113)。中継装置4-1は、機器管理サーバ12から受信した固有情報を自装置へ設定すると、設定の完了通知を機器管理サーバ12へ送信する。
 上記参入処理によって、中継装置4-1はWAN3-1上のVPNを介してデータセンタ1内とフラットなネットワークアドレスで通信可能となり、FAN40-1に接続された各フィールド機器41のメッセージを中継することが可能となる。なお、他の中継装置4も同様の処理を経てデータセンタ1に接続される。
 なお、参入サーバ14は、DIPMサーバ19が仮想IPアドレスを採番するまでの間で重複することのない十分なIPアドレスの領域を確保しておく。
 また、中継装置4とトンネリング装置17の間のVPNトンネルをL2TP(Layer 2 Tunneling Protocol)などを利用し、L2レベルのトンネリングを実施した場合、トンネリング装置17内のネットワークにDHCPサーバを配置し、中継装置4にDHCPClinetを配置し、DHCPサーバから仮想IPアドレスを採番してもよい。
 図3は、参入サーバ14で行われる参入処理の一例を示すフローチャートである。参入サーバ14は、中継装置4から認証要求を受信する(S1)。このとき、参入サーバ14は、認証情報として当該機器の識別情報(例えば、MACアドレス)を中継装置4から受信または取得する。そして、参入サーバ14は、識別情報に基づいて予め設定した情報と照合して認証を行う(S2)。
 参入サーバ14は、認証が完了すればステップS4へ進み、認証に失敗した場合は処理を終了する(S3)。なお、参入サーバ14は、認証が完了すると機器の認証応答を中継装置4へ送信する。
 次に、参入サーバ14は、中継装置から仮払いアドレスの取得要求を受信する(S4)。参入サーバ14は、図示しない仮払いアドレスのプールからIPアドレスを取得し(S5)、中継装置4に対して仮払いアドレスを発行し、仮払いアドレスの取得応答として送信する(S6)。
 上記処理により、参入サーバ14は、認証が完了した中継装置4に仮払いアドレスを付与してデータセンタ1内の各装置と中継装置4の通信を開始させることができる。
 図4は、DIPMサーバ19で行われる参入処理の一例を示すフローチャートである。
 DIPMサーバ19は、中継装置4から仮想IPアドレスの取得要求を送信する(S11)。この取得要求のテキストレコードには、当該中継装置が接続されるFAN40の識別子(FANID)及びURLが含まれる。
 DIPMサーバ19は、受信したFANIDとURLを管理テーブル580に登録する(S12)。また、DIPMサーバ19は、登録した管理テーブル580の参入フラグ586の値を“1”に設定する。
 次に、DIPMサーバ19は、図示しないIPアドレスのプールから中継装置4に割り当てる仮想IPアドレスを取得する(S13)。DIPMサーバ19は、DNSサーバ18に当該仮想IPアドレスとURLの登録を依頼する(S14)。DIPMサーバ19は、DNSサーバ18に登録した仮想IPアドレスを中継装置4-1に送信する(S15)。
 上記処理によって、中継装置4は、仮払いアドレスに代わって、DIPMサーバ19から取得した仮想IPアドレスを用いてデータセンタ1内とフラットに通信することが可能となる。なお、離脱後の参入処理の場合は、雨期ステップS12に代わって、中継装置4のURLで管理テーブル580を検索し、参入フラグを“1”に更新すれば良い。
 <離脱処理>
 図5は、中継装置4-1の離脱処理の一例を示すシーケンス図である。離脱処理は、参入処理を行った中継装置4-1等の機器が、ソフトウェアのアップデートや機器の交換等を目的に、稼働中に他の機器やデータセンタ1内のサーバなどからデータが送信されないように、DNSサーバ18に登録された情報などを不活性にする処理である。
 離脱処理は、制御サーバ11等からの指令に応じて開始される。稼働中の中継装置4-1は、DIPMサーバ19に対して離脱処理を要求する(S201)。この処理要求には中継装置4-1のURL等を含む。DIPMサーバ19は、後述するように離脱処理を実行し、離脱処理が完了すると離脱処理応答を中継装置4-1へ送信する。
 中継装置4-1は、DIPMサーバ19から離脱処理の完了を示す応答を受信すると、NAT機能を不活性化し、ネットワーク(WAN3-1、FAN40-1)間のメッセージの中継を停止する(203)。
 以上の処理によって、中継装置4-1は、NAT機能などの処理を一時的に停止して、ネットワーク間のメッセージの転送を停止する。これにより、中継装置4-1のソフトウェアのアップデートなどの処理を実行することが可能となる。
 なお、中継装置4からデータセンタ1までの通信環境が何らかの原因によって切断されてしまい、認証情報に予め付与された有効期限より前に中継装置4が再接続した場合、参入処理は認証処理から開始する。この際に、データセンタ1の参入サーバ14は認証情報の有効期限前であれば、上述の認証処理を行わず、また、仮払いのIPアドレスの発行はせず、VPNトンネルを構築し、データ通信を行う。また、切断後に中継装置4が再接続せず、有効期限後にアクセスした場合、上述の参入処理で認証処理が行われ、仮払いのIPアドレスを取得し、DIPMサーバ19から仮想IPアドレスの取得要求をすると、以前取得した仮想IPアドレスが配布される。
 図6は、DIPMサーバ19で行われる離脱処理の一例を示すフローチャートである。DIPMサーバ19は、中継装置4から離脱処理の要求を受信する(S21)。離脱処理の要求には中継装置4-1のURLが含まれるので、DIPMサーバ19は、このURLを取得する。
 DIPMサーバ19は、取得したURLをキーにして管理テーブル580を検索し(S22)、該当するエントリの参入フラグ586を“0”に更新する(S23)。そして、DIPMサーバ19は、離脱処理の要求を送信した中継装置4-1へ離脱処理の完了を示す応答を送信する。
 上記処理によって、DIPMサーバ19は、離脱処理の要求を受け付けて参入フラグをOFFに設定し、中継装置4-1をデータセンタ1のサービスから離脱させる。
 <停止処理>
 図7は、中継装置4-1の停止処理の一例を示すシーケンス図である。この処理は、中継装置4-1を交換する場合などで、中継装置4の設定ファイルを初期化して停止させる処理である。この処理は、制御サーバ11からの指令に応じて開始される。
 稼働中の中継装置4-1は、DIPMサーバ19に対して停止処理を要求する(S301)。この処理要求には中継装置4-1のURL等を含む。DIPMサーバ19は、後述するように停止処理を実行し、中継装置4-1に割り当てた仮想IPアドレス及びURLを削除するようにDNSサーバ18へ要求する(S302)。DIPMサーバ19は、管理テーブル580から該当するURLを含むエントリを削除する。
 DNSサーバ18は、該当する仮想IPアドレスを削除するとDIPMサーバ19に削除が完了した応答を送信する(S303)。DIPMサーバ19は、DNSサーバ18での処理が完了すると中継装置4-1に対して停止処理が完了したことを示す応答を送信する(S304)。
 中継装置4-1は、停止処理の完了を示す応答を受信した後、NAT機能の設定を解除してから停止する(S305)。
 以上の処理によって、中継装置4-1は、NAT機能などの設定を解除してから停止し、ネットワークから切り離すことができる。
 図8は、DIPMサーバ19で行われる停止処理の一例を示すフローチャートである。DIPMサーバ19は、中継装置4から停止処理の要求を受信する(S31)。停止処理の要求には中継装置4-1のURLが含まれるので、DIPMサーバ19は、このURLを取得する。
 DIPMサーバ19は、取得したURLをキーにして管理テーブル580を検索し(S32)、該当するエントリを削除する(S33)。次に、DIPMサーバ19は、ステップS33で検索したURLに関する情報をDNSサーバ18から削除するよう依頼する。また、DIPMサーバ19は、DNSキャッシュ(DNS名前空間)を兼ねる管理テーブル580から、該当するURLを含むエントリを削除する(S34、S35)。
 DIPMサーバ19は、停止処理要求を送信した中継装置4-1へ、停止処理の完了を示す応答を送信する(S36)。
 上記処理によって、DIPMサーバ19は、DNSサーバ18やDNSキャッシュを兼ねる管理テーブル580から中継装置4-1のURL及びIPアドレスを削除して、中継装置4-1をネットワークから切り離す。
 <フィールド機器の参入処理>
 図9A、図9Bは、フィールド機器の参入処理の一例を示すシーケンス図である。なお、図9Aは、フィールド機器の参入処理の一例を示すシーケンス図の前半部である。また、図9Bは、フィールド機器の参入処理の一例を示すシーケンス図の後半部である。以下の例では、FAN40-1のフィールド機器41-Aの処理について説明するが、他のフィールド機器41についても同様である。
 フィールド機器41-Aは、起動するとFAN40-1を介して中継装置4-1に接続処理要求を送信する(S401)。中継装置4-1は、所定の接続処理を実行し、FAN40-1で用いるIPアドレスを払い出す(S402)。なお、中継装置4-1は、FAN40-1のIPアドレスのプール(図示省略)を有する。
 フィールド機器41-Aは、FAN40-1のIPアドレスを設定してから中継装置4-1へ認証情報を含む認証要求を送信する(S403)。中継装置4-1は、受信した認証要求を参入サーバ14-1へ転送する(S404)。認証要を受信した参入サーバ14-1は、認証要求に含まれる認証情報に基づいて認証処理を実行し、認証が完了すると機器の認証応答を中継装置4-1へ送信する(S405)。
 図9Bにおいて、中継装置4-1は、参入サーバ14-1からフィールド機器41-Aの認証応答を受信すると、中継装置4-1はDIPMサーバ19に対してフィールド機器41-Aの仮想IPアドレスの取得要求を送信する(S406)。現在、フィールド機器41-Aは、FAN40-1のIPアドレスで通信しているため、中継装置4-1は、NAT部450でネットワークアドレスの変換を行う必要がある。フィールド機器41-Aに仮想IPアドレスを付与してデータセンタ1内とフラットに接続可能にすれば、中継装置4-1は、ネットワークアドレスの変換が不要になる。このため、フィールド機器41-Aに仮想IPアドレスを付与しておく。
 DIPMサーバ19は、図示しないIPアドレスのプールからフィールド機器41-Aに割り当てる仮想IPアドレス及びURLを取得し、DNSサーバ18に当該仮想IPアドレス及びURLの登録を要求する(S407)。DNSサーバ18は、仮想IPアドレス及びURLをアドレステーブル(図示省略)に登録すると、登録の完了の応答をDIPMサーバ19に送信する(S408)。
 DIPMサーバ19は、仮想IPアドレスの登録完了の応答をDNSサーバ18から受信した後、当該仮想IPアドレス及びURLを中継装置4-1に通知(図中仮想IPアドレス取得応答)する(S409)。中継装置4-1は、受信した仮想IPアドレスを機器の認証応答に含めて送信する(S410)。
 仮想IPアドレスを受信したフィールド機器41-Aは、FAN40-1のIPアドレスに代わって、DIPMサーバ19から取得した仮想IPアドレスをデータセンタ1内との通信用に設定する。
 次に、フィールド機器41-Aは、通信管理サーバ15に対して当該機器に設定すべき固有の情報を要求(機器固有設定情報取得要求)する(S414)。通信管理サーバ15は、業務サーバ10、制御サーバ11からフィールド機器41宛の非優先メッセージを一時的に蓄積可能であるため、フィールド機器41-Aとデータセンタ1内の通信は通信管理サーバ15で中継する。通信管理サーバ15は、フィールド機器41-Aから受信した機器固有設定情報取得要求を機器管理サーバ12へ転送する。
 機器管理サーバ12は、中継装置4-1の配下のフィールド機器41-Aに必要な固有の情報を図示しないテーブルから取得して、通信管理サーバ15へ応答する(S413)。通信管理サーバ15は、機器管理サーバ12から受信した固有の情報をフィールド機器41-Aへ応答(機器固有設定情報取得応答)する(S414)。フィールド機器41-Aは、機器管理サーバ12から受信した固有情報を自装置へ設定すると、設定の完了通知を通信管理サーバ15を介して機器管理サーバ12へ送信する(S415、S416)。
 上記参入処理によって、フィールド機器41-Aは中継装置4-1からWAN3-1上のVPNを介してデータセンタ1内とフラットなネットワークアドレスで通信可能となる。なお、他のフィールド機器41も同様の処理を経てデータセンタ1に接続される。
 <フィールド機器の停止処理>
 図10は、フィールド機器41-Aの停止処理の一例を示すシーケンス図である。この処理は、フィールド機器41-Aを交換する場合などで、フィールド機器41-Aを停止させる処理である。この処理は、制御サーバ11等からの指令に応じて開始される。
 稼働中のフィールド機器41-Aは、中継装置4-1に対して停止処理を要求する(S501)。中継装置4-1は、フィールド機器41-Aからの停止処理の要求をDIPMサーバ19に転送する(S502)。この処理要求にはフィールド機器41-AのURL等を含む。DIPMサーバ19は、図8で示したように停止処理を実行し、フィールド機器41-Aに割り当てた仮想IPアドレス及びURLを削除するようにDNSサーバ18へ要求する(S503)。DIPMサーバ19は、管理テーブル580から該当するURLを含むエントリを削除する。
 DNSサーバ18は、該当する仮想IPアドレスを削除するとDIPMサーバ19に削除が完了した応答を送信する(S504)。DIPMサーバ19は、DNSサーバ18での処理が完了すると中継装置4-1に対して停止処理が完了したことを示す応答を送信する(S505)。
 中継装置4-1は、NAT部450に存在する停止処理の完了を示す応答を受信した後、フィールド機器41-Aを示す仮想IPアドレスとFAN40-1内でフィールド機器41-Aを示すIPアドレスを変換するに項目のみを削除する(S506)。以上の処理によって、フィールド機器41-Aを停止させた後にネットワークから切り離すことができる。
 上記の処理は、正常に停止処理を行う例を示す。一方、フィールド機器41-Aが故障などの異常で停止してしまった場合、図示のステップS507、S508のように停止処理を行う。
 通信管理サーバ15は、フィールド機器41-Aからの通信を監視し、所定時間を超えてフィールド機器41-Aからの通信ない場合、当該フィールド機器41-Aが異常により停止したと判定する。そして、通信管理サーバ15は、フィールド機器41-Aに割り当てた仮想IPアドレス及びURLを削除するようにDIPMサーバ19へ要求する(S507)。DIPMサーバ19は、図8で示したように停止処理を実行し、フィールド機器41-Aに割り当てた仮想IPアドレス及びURLを削除するようにDNSサーバ18へ要求する(S508)。DIPMサーバ19は、管理テーブル580から該当するURLを含むエントリを削除する。DNSサーバ18は、該当する仮想IPアドレスを削除するとDIPMサーバ19に削除が完了した応答を送信する(S509)。DIPMサーバ19は、DNSサーバ18での処理が完了すると中継装置4-1に対して停止処理が完了したことを示す応答を送信する(S510)。
 以上の処理によって、フィールド機器41-Aが異常によって停止した場合には、DNSサーバ18等に設定した情報を削除する。
 なお、フィールド機器41の離脱処理は、図5に示した中継装置4の離脱処理と同様である。
 <名前解決処理>
 図11は、優先メッセージの名前解決処理の一例を示すシーケンス図である。図示の例では、優先メッセージの名前解決を行う中継装置4-1のDNSキャッシュ470のデータが、所定の有効期限内でキャッシュヒットした場合にはステップS601~S602の処理を行うが、該当するデータが所定の有効期限を超えて更新されていない場合またはキャッシュミスした場合には、ステップS603~S608の処理を行う。
 ステップS601では、中継装置4-1のキャッシュ制御部460が、フィールド機器41-Aから名前の解決要求の優先メッセージを受け付ける。なお、中継装置4-1は、受け付けた名前解決要求のメッセージに含まれる優先度情報が“1”であれば優先メッセージと判定する。キャッシュ制御部460は、当該メッセージに含まれるURLをキーとしてDNSキャッシュ470を検索し、該当するエントリがあれば当該エントリの値を名前解決応答としてフィールド機器41-Aへ送信する。なお、名前の解決要求のメッセージにはURLと優先度情報(583)が含まれる。
 名前解決要求のURLがDNSキャッシュ470に存在しない場合(キャッシュミス)、または、該当するエントリが有効期限を過ぎている場合、中継装置4-1は、受信した名前解決要求のメッセージ(S603)をDIPMサーバ19へ転送する(S604)。
 DIPMサーバ19のキャッシュ制御部540は、受信した名前解決要求のメッセージに含まれるURLで管理テーブル580を検索する。管理テーブル580に該当するエントリがない場合には、名前解決要求をDNSサーバ18に送信し(S605)、DNSサーバ18から名前解決応答を取得する(S606)。
 DIPMサーバ19は、取得した名前解決応答を中継装置4-1に転送する(S607)。中継装置4-1は、受信した名前解決応答をフィールド機器41-Aに転送する(S608)。名前の解決を要求したフィールド機器41-Aは、宛先のIPアドレス、FANID、優先度関連情報を取得する。
 なお、上記名前解決処理は、優先制御時においては優先メッセージについて実施される。また、非優先メッセージは、後述のように中継装置4-1のバッファ490または通信管理サーバ15のバッファ640に蓄積される。
 図12A、図12Bは、名前解決処理の一例を示すフローチャートである。なお、図12Aは、計算機システムで行われる名前解決処理の一例を示すフローチャートの前半部である。また、図12Bは、計算機システムで行われる名前解決処理の一例を示すフローチャートの後半部である。
 この処理は、DIPMサーバ19または中継装置4がフィールド機器41から名前の解決要求を受け付けたときに実行する処理である。以下では、DIPMサーバ19で処理を行う例について説明する。
 まず、DIPMサーバ19は、フィールド機器41の名前の解決要求のメッセージを中継装置4から受信する(S41)。DIPMサーバ19は、名前の解決要求に含まれるURLを取得して、DNSキャッシュとしての管理テーブル580を当該URLをキーとして検索し、当該URLの有無を判定する(S42)。管理テーブル580に該当するURLが存在すれば(キャッシュヒット)ステップS51へ進み、該当URLが存在しない(キャッシュミス)場合にはステップS43へ進む。
 ステップS51では、DIPMサーバ19が、管理テーブル580で該当するURLのエントリから、IPアドレス582、FANID585及び優先度関連情報584を取得する。この後、ステップS45へ進む。
 一方、キャッシュミスしたステップS43では、DIPMサーバ19が、自身よりも上位のDIPMサーバが存在するか否かを判定する。当該DIPMサーバ19よりも上位のDIPMサーバが存在する場合はステップS49へ進み、そうでない場合にはステップS45へ進む。なお、ステップS49、S50の処理は、中継装置4で本処理を実行する際に機能する。
 ステップS49では、DIPMサーバ19が、自身よりも上位のDIPMサーバに名前解決要求を送信する。次に、ステップS50で、DIPMサーバ19は、上位のDIPMサーバから名前解決応答を受信する。なお、DIPMサーバ19は、受信した名前解決応答と名前解決要求のURLとを管理テーブル580に追加する。その後、ステップS45へ進む。
 一方、上位のDIPMサーバが存在しない図12AのステップS44では、DIPMサーバ19が、DNSサーバ18に名前解決要求を送信し、送信先の情報(IPアドレス)を取得する。DIPMサーバ19は、取得した情報と名前解決要求に含まれるURL及び優先度情報を管理テーブル580に追加する。なお、DNSサーバ18からの送信先の情報はIPアドレスだけとなるので、DIPMサーバ19がFANID585及び優先度関連情報584を取得する。
 ステップS45では、名前解決要求に含まれる優先度情報を取得して、当該優先度情報が“非優先”であるか否かを判定する。優先度情報が“非優先”の場合にはステップS46へ進み、“優先”の場合には図12BのステップS59へ進む。そして、DIPMサーバ19は、IPアドレス582、FANID585及び優先度関連情報584を含む名前解決応答を生成する(S59)。名前解決応答を生成した後にはステップS58へ進んでDIPMサーバ19が、名前解決要求の送信元である中継装置4に、ステップS58で生成した名前解決応答を送信して処理を終了する。
 一方、名前解決要求のメッセージが“非優先”の場合の図12AのステップS46では、DIPMサーバ19が、名前解決要求に含まれるURLをキーに管理テーブル580を検索し、当該URLの優先度関連情報584及びFANID585を取得する。ここで取得した優先度関連情報584を送信先の優先度関連情報とする。
 次に、ステップS47で、DIPMサーバ19は、名前解決要求に含まれる送信元情報(パケットに付加された追加情報レコード内)をキーにDNSサーバ18で逆引きし、URLを取得する。そして、ステップS48では、DIPMサーバ19が、DNSサーバ18から取得したURLをキーに管理テーブル580を検索し、当該URLの優先度関連情報584を取得し、送信元の優先度関連情報とする。
 次に、図12BのステップS52では、上記取得した送信元の優先度関連情報と、送信先の優先度関連情報と予め設定された優先処理判定値とを比較する。そして、送信元の優先度関連情報と送信先の優先度関連情報のいずれかが優先処理判定値を超えているときには、ステップS53へ進んで優先制御を開始する。一方、送信元の優先度関連情報と送信先の優先度関連情報が共に優先処理判定値以下であれば、ステップS58に進んで、上述の優先メッセージと同様に、DNSサーバ18から送信先情報を取得して名前解決応答を生成し、送信元へ応答する(S59、S58)。
 一方、ステップS53では、DIPMサーバ19が、ダミーIPアドレスのプール(図示省略)からダミーIPアドレスをひとつ取得する。
 次に、ステップS54では、DIPMサーバ19が、送信元の優先度関連情報のみが優先処理判定値を超えるか、もしくは、送信元の優先度関連情報及び送信先の優先度関連情報が優先処理判定値を超えているか否かを判定する。送信元の優先度関連情報のみ、または、送信元及び送信先の優先度関連情報が優先処理判定値を超えていればステップS55へ進み、そうでない場合にはステップS56へ進む。
 ステップS55では、DIPMサーバ19が、ダミーIPアドレスの設定要求と、バッファリングの設定要求を送信元の中継装置4へ送信する。中継装置4は、非優先メッセージの宛先がダミーIPアドレスであれば、バッファ490へ格納するように設定する。
 一方、送信元の優先度関連情報が優先処理判定値以下で、送信先の優先度関連情報が優先処理判定値を超えている場合には、ステップS56で、DIPMサーバ19が、ダミーIPの設定要求とバッファリングの設定要求を送信元の通信管理サーバ15へ送信する。通信管理サーバ15は、非優先メッセージの宛先がダミーIPアドレスであれば、バッファ640へ格納するように設定する。
 すなわち、DIPMサーバ19は、送信元の優先度関連情報のみが優先処理判定値を超える場合、または、送信元の優先度関連情報と送信先の優先度関連情報が共に優先処理判定値を超えている場合には、WAN3の手前となる中継装置4で非優先メッセージを蓄積するように指令する。送信元の優先度関連情報のみが優先処理判定値を超える場合は、非優先メッセージをFAN40の外部へ転送するときに、中継装置4に接続されたWAN3で通信の遅延が発生している可能性が高いと予測できる。
 一方、送信元の優先度関連情報が優先処理判定値以下で、送信先の優先度関連情報が優先処理判定値を超えている場合には、データセンタ1内の通信管理サーバ15で非優先メッセージを蓄積するように指令する。送信先の優先度関連情報が優先処理判定値を超えている場合は、非優先メッセージの転送先の通信経路のうち、データセンタ1と送信先の間のWAN3で通信の遅延が発生している可能性が高いと予測できる。
 そして、ステップS57では、DIPMサーバ19が、ダミーIPアドレスと、送信先の優先度関連情報及び送信先のFANIDを名前解決応答として生成する。また、DIPMサーバ19は、この名前解決要求の送信元のURLに該当する管理テーブル580のエントリに、ダミーIPアドレスと、送信先の優先度関連情報及び送信先のFANIDを格納する。そして、ステップS58で、DIPMサーバ19は、名前解決要求の送信元へ名前解決応答を送信する。
 以上の処理によって、DIPMサーバ19は、優先メッセージの名前の解決要求については、管理テーブル580またはDNSサーバ18の情報から名前解決応答を生成し、中継装置4を通過させる。
 一方、非優先メッセージの名前の解決要求では、DIPMサーバ19が、管理テーブル580から取得した優先度関連情報が優先処理判定値を超えている場合には、WAN3または通信経路の機器で遅延が発生すると予測する。
 DNSサーバ18は、通信の遅延が予測される場合には、ダミーIPアドレスを送信元のフィールド機器41に名前解決応答として通知し、また、中継装置4または通信管理サーバ15にバッファリングの設定を要求する。
 ダミーIPアドレスを受信したフィールド機器41では、非優先メッセージをダミーIPアドレス宛に送信することになり、中継装置4または通信管理サーバ15で蓄積されて、一時的に遮断されることになる。中継装置4または通信管理サーバ15は、ダミーIPアドレスを付与された非優先メッセージを蓄積することで、遅延の発生が予測される非優先メッセージを一時的に遮断して、優先メッセージの通信を維持する。
 これにより、データセンタ1へのトラヒックが急激に増大するような場合でも、優先度の高いメッセージを確実に転送させることが可能となる。
 また、上記図12A、図12Bでは、送信先の優先度情報に加えて、送信元の優先度情報も優先処理判定値と比較することで、データセンタ1から先の通信の遅延予測に加えて、フィールド機器41からデータセンタ1までの通信の遅延予測を行って、通信の遅延のない通信経路上で、中継装置4または、より送信先のWAN3に近い通信管理サーバ15に非優先メッセージを蓄積することができる。
 通信の遅延のない通信経路上で、より送信先のWAN3に近い通信管理サーバ15に非優先メッセージを蓄積する場合、優先制御の終了時には、蓄積した非優先メッセージをできるだけ早く送信先に到達させることが可能となる。なお、優先制御の終了は、DIPMサーバ19が、管理テーブル580でダミーIPアドレスを設定したエントリの優先度関連情報584が、所定の閾値としての優先処理判定値以下になったとき等、所定の条件が成立したときに、当該ダミーIPアドレスに関する優先制御が終了したことを中継装置4または通信管理サーバ15に通知するようにしてもよい。
 通信の遅延が軽減され、通信が安定してくるとDIPMサーバ19は、ダミーIPアドレスにメッセージを送信しているフィールド機器41に離脱処理と、参入処理を実施させて、本来の宛先にデータを送信させる。
 なお、DIPMサーバ19は、非優先メッセージの宛先が同一のFANIDの場合には、非優先メッセージの転送にWAN3を使用することがないので、優先制御を行わないようにしてもよい。
 図13は、計算機システムで行われる非優先メッセージの名前解決処理の一例を示すシーケンス図である。フィールド機器41-Aは、優先度情報が非優先の名前解決要求メッセージを中継装置4-1に送信する(S701)。中継装置4-1は、名前解決要求に含まれる優先度情報を参照し、優先度情報が非優先であれば当該メッセージをDIPMサーバ19に転送する(S702)。
 DIPMサーバ19は、図12A、図12Bと同様に、名前解決要求のメッセージに含まれるURLをキーとして管理テーブル580を検索する。管理テーブル580に該当するURLが存在しない場合には、DNSサーバ18に名前解決を要求し、送信先のIPアドレスを取得する。
 DIPMサーバ19は、該当するURLの優先度情報が非優先の場合、管理テーブル580から優先度関連情報を取得して優先処理判定値と比較する。DIPMサーバ19は、優先度関連情報が優先処理判定値を超えていれば、優先制御を行う。
 優先制御では、DIPMサーバ19はDNSサーバ18に名前解決要求の送信元のIPアドレスの逆引きを依頼し(S703)、送信元のURLを取得する(S704)。そして、DNSサーバ18は、名前解決要求の送信元のURLに該当するエントリから優先度関連情報を取得し、当該優先度関連情報が優先処理判定値を超えているか否かを判定する。送信元の優先度関連情報が優先処理判定値を超えている場合は、中継装置4-1で非優先メッセージを蓄積するよう指令する。また、送信先の優先度関連情報のみが優先処理判定値を超えている場合は、通信管理サーバ15で非優先メッセージを一時的に蓄積するよう指令する。非優先メッセージを蓄積させるため、名前解決応答にダミーIPアドレスを設定する(S705)。名前解決応答メッセージには、名前解決要求の追加情報レコードの複製を付加し、名前解決要求の送信元の情報を付加しておく。
 DIPMサーバ19は、上記の判定に基づいて中継装置4-1または通信管理サーバ15にバッファリングの要求を行う(S706)。中継装置4-1または通信管理サーバ15は、バッファリングの設定が完了するとDIPMサーバ19に応答する(S707)。
 DIPMサーバ19は、名前解決応答として、ダミーIPアドレスとFANIDと優先度関連情報を中継装置4-1へ送信する(S708)。中継装置4-1は、名前解決応答(パケット)の追加情報レコードに含まれる送信元へ、当該名前解決応答を送信する(S709)。
 上記処理により、DIPMサーバ19は、フィールド機器41-Aからのメッセージが宛先へ到達するまでに遅延が予測される場合には、当該フィールド機器41-Aが経由するWAN3-1の手前の中継装置4、または当該メッセージが経由するデータセンタ1内の通信管理サーバ15で非優先メッセージを蓄積し、一時的に遮断する。一方、優先メッセージについては、そのまま通信を継続させる。したがって、非優先メッセージのトラヒックを一時的に削減し、その間に、優先メッセージを要求される所定時間内に宛先へ到達させることが可能となる。
 <まとめ>
 以上の実施例についてまとめると以下のようになる。
 本実施例1では、「通信の状況をDNSクエリー(名前解決要求)数によって推定」する。通信のボトルネックになるのは中継装置4からデータセンタ1へのWAN3となる場合が多い。この間の通信は停電などの復帰時において、いっせいに通信が発生すると、中継装置4等で滞留が発生する。よって実際のトラヒックが発生する前に、事前にどれだけのトラヒックが発生するかを検知または予測し、優先メッセージまたは優先メッセージにおいては、非優先メッセージまたは非優先メッセージと振り分ける優先制御を実施して、要求された時間内で優先メッセージを到達させる。
 フィールド機器41からのメッセージは周期的で1メッセージ=1パケットであることが多い。スループットとしては小さいが、他のフィールド機器41のメッセージが集中すると処理が間に合わず中継装置4では滞留が起こる場合がある。
 本実施例1で監視すべきフローは、WAN3を経由するフローであるが、宛先のアドレスだけではWAN3を経由するか否かが判定できない。このため、送信先がどこの中継装置4の配下に所属するかの情報としてFANIDを用い、同一FAN内の通信かWAN3を介した通信であるかを判定する。DIPMサーバ19はフローの数をカウントし、中継装置4等で滞留影響となるフロー数を把握ることができる。
 DIPMサーバ19は、通信の遅延滞留が予測される場合、非優先メッセージは中継装置4または通信管理サーバ15で一時蓄積し、後で送信する指令を出力する。
 非優先メッセージを送信するフィールド機器41は一旦、離脱処理を実施させ、再度参入処理を実施する。DIPMサーバ19は、名前解決要応答でメッセージを一時的に蓄積するためのアドレス(ダミーIPアドレス)を通知し、WAN3側への通信を抑制させる。通信の遅延が軽減され、通信が安定してくるとDIPMサーバ19は、非優先メッセージを送信するフィールド機器41について再度離脱処理を行ってから参入処理を実施し、本来の宛先にデータを送信する。
 また、本実施例1では、中継装置4を連携させてフロー数を制御し、優先メッセージの到達性を向上させる。データセンタ1のDIPMサーバ19で、DNSクエリー(名前解決要求)をカウントし、名前解決要求の送信元を保持しておき、非優先メッセージを送出する中継装置4の配下のフィールド機器41に対して離脱処理を実施する。非優先メッセージをバッファリングに切り替えることにより、優先メッセージの到達性を向上させる。
 以上のように、本実施例1では、DIPMサーバ19が通信の遅延を予測または検出すると、中継装置4または通信管理サーバ15の何れかで非優先メッセージを一時的に蓄積し、優先メッセージのみを通過させる。さらに、DIPMサーバ19は、中継装置4または通信管理サーバ15のうち、通信の遅延のない通信経路上で、送信先のネットワークに近い機器で非優先メッセージをバッファリングする。これにより、優先制御の終了後には、迅速に蓄積した非優先メッセージを宛先に到達させることが可能となる。
 また、本実施例1では、通信の遅延の予測または検出と、バッファリングさせる機器の通知に名前解決要求と名前解決応答を用いることで、優先制御のためだけのトラヒックを抑制し、ネットワークの負荷を低減できる。
 また、本実施例1では、通信の遅延の予測または検出を、DIPMサーバ19が名前解決要求を受信したときに実行するようにしたので、フィールド機器41がメッセージを送信する以前に優先制御を開始することが可能となる。
 また、本実施例1では、通信の遅延の予測または検出を、名前解決要求の単位時間当たりの数(フロー数)と所定の閾値をDIPMサーバ19が比較するようにしたので、送信元や宛先のネットワーク(WAN3、FAN40)の位置や状態を直接測定する必要がなく、各ネットワークの負荷が増大するのを防止できる。
 また、上記実施例1では、DIPMサーバ19が一次DNSキャッシュとしても機能する例を示したが、データセンタ1内のDNSキャッシュは他の機器で行ってもよい。また、中継装置4がDNSキャッシュとしても機能する例を示したが、中継装置4のDNSキャッシュは省略することができる。
 また、上記実施例1では、フィールド機器41から名前解決要求を送信した場合について説明したが、業務サーバ10や制御サーバ11から名前解決要求及びメッセージの送信を行った場合も同様である。業務サーバ10や制御サーバ11からメッセージをフィールド機器41へ送信する際に、宛先のネットワークで通信の遅延が予測される場合には、通信管理サーバ15で非優先メッセージを蓄積すれば良い。
 図19A、図19Bは、第2の実施例を示す名前解決処理の一例を示すフローチャートである。なお、図19Aは、計算機システムで行われる名前解決処理の一例を示すフローチャートの前半部である。また、図19Bは、計算機システムで行われる名前解決処理の一例を示すフローチャートの後半部である。
 前記実施例1の図12A、図12Bでは、送信先の優先度情報に加えて、送信元の優先度情報も優先処理判定値と比較する例を示したが、送信先の優先度情報のみで優先制御を行うようにしてもよい。
 本実施例2では、DIPMサーバ19は、通信の遅延が予測または検出されるときには、フィールド機器41からの非優先メッセージを中継装置4で遮断して、当該フィールド機器41からは優先メッセージのみをWAN3へ転送する。
 このため、本実施例2では、前記実施例1の図1Bに示した通信管理サーバ15は不要となる。その他の構成は、前記実施例1と同様である。
 以下、図19A、図19Bについて、前記実施例1の図12A、図12Bとの差について説明する。
 まず、DNSキャッシュとしての管理テーブル580の検索、またはDNSサーバ18からのIPアドレスの取得を行うステップS42~S44、S49~S51は前記実施例1と同様である。
 次に、図19Aでは、図12AのステップS47、S48を削除し、DIPMサーバ19が名前解決要求に含まれるURLをキーにして管理テーブル580を検索し、当該URLの優先度関連情報584及びFANID585を取得した後は、ステップS52Aに進む。
 ステップS52Aでは、前記実施例1の図12Bに代わって、DIPMサーバ19が送信先の優先度関連情報が所定の優先処理判定値を超えているか否かを判定する。図19Bでは、図12BのS54、S55を削除して、送信先の優先度関連情報が優先処理判定値を超えていれば、優先制御を開始する。
 本実施例2の優先制御では、ダミーIPアドレスを中継装置4が非優先メッセージの宛先となるように設定し、中継装置4を介してフィールド機器40に名前解決応答を送信する(S53~S58)。
 フィールド機器41が送信する非優先メッセージは、ダミーIPアドレスによって中継装置4のバッファ490に蓄積され、一時的に遮断される。これにより、優先メッセージをWAN3側へ転送した場合に、要求された時間内で送信先へ到達させることができる。
 また、前記実施例1と同様に、優先制御の開始やダミーIPアドレスの通知は名前解決要求及び名前解決応答を利用するので、優先制御のためだけのトラヒックを抑制し、ネットワークの負荷を低減できる。
 図20は、本発明の第3の実施例を示し、DIPMサーバ19の一例を示すブロック図である。前記第1実施例では、データセンタ1で非優先メッセージを蓄積する場合、通信管理サーバ15のバッファ640を使用したが、本実施例3では、DIPMサーバ19にバッファ590を設けて、非優先メッセージを蓄積する。その他の構成は前記実施例1と同様である。
 本実施例3では、前記実施例1に示した通信管理サーバ15は不要となって、DIPMサーバ19で非優先メッセージを一時的に蓄積することができる。このため、データセンタ1内の構成を簡易にしながらも、非優先メッセージを遮断する位置を中継装置4とデータセンタ1内の何れかを選択することが可能となる。
 なお、本実施例3では、非優先メッセージを一時的に蓄積するバッファをDIPMサーバ19に設ける例を示したが、これに限定されるものではなくデータセンタ1内の他のサーバや機器に蓄積することができる。
 なお、本発明は上記した実施例1~3に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
 また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。

Claims (15)

  1.  ネットワークに接続された中継装置と、
     前記中継装置に接続されてメッセージを送信するフィールド機器と、
     前記ネットワークを介して前記中継装置に接続された優先制御サーバと、
     前記優先制御サーバに接続されて名前の解決を行うDNSサーバと、を含む計算機システムであって、
     前記中継装置は、
     前記フィールド機器から送信された名前解決要求を前記優先制御サーバへ転送する送受信部を含み、
     前記優先制御サーバは、
     前記フィールド機器が送信した名前解決要求を受信するたびに、当該名前解決要求の宛先毎に前記ネットワークの状況を示す遅延予測情報を算出するネットワーク監視部と、
     前記名前解決要求を受信したときに前記遅延予測情報に基づいて当該名前解決要求の宛先で遅延が発生するか否かを予測する優先制御部と、
    を含むことを特徴とする計算機システム。
  2.  請求項1に記載の計算機システムであって、
     前記中継装置は、
     前記フィールド機器から送信された前記メッセージを一時的に格納するバッファをさらに含み、
     前記優先制御部は、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を取得し、当該遅延予測情報が所定の閾値を超えているときには、前記名前解決要求の宛先で遅延が発生すると予測し、前記フィールド機器からのメッセージを前記バッファに蓄積する指令を前記中継装置に送信することを特徴とする計算機システム。
  3.  請求項2に記載の計算機システムであって、
     前記フィールド機器は、
     前記名前解決要求に、メッセージが非優先であるか否かを識別する優先度情報を含めて送信し、
     前記優先制御部は、
     前記受信した前記名前解決要求の優先度情報は非優先のときに、前記名前解決要求の宛先で遅延が発生するか否かを予測することを特徴とする計算機システム。
  4.  請求項3に記載の計算機システムであって、
     バッファを備えて前記優先制御サーバに接続された管理サーバをさらに含み、
     前記優先制御部は、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を取得し、当該遅延予測情報が所定の閾値を超えているときには、前記名前解決要求の宛先で遅延が発生すると予測し、前記フィールド機器からのメッセージを前記中継装置または前記管理サーバの何れか一方に蓄積する指令を送信することを特徴とする計算機システム。
  5.  請求項4に記載の計算機システムであって、
     前記ネットワークは、
     前記フィールド機器からの名前解決要求を前記優先制御サーバへ転送する第1のネットワークと、
     前記優先制御サーバに接続されて前記名前解決要求の宛先となる第2のネットワークと、を含み、
     前記中継装置は、
     前記フィールド機器を前記第1のネットワークに接続する第1の中継装置と、
     前記第2のネットワークに接続された第2の中継装置と、を含み、
     前記優先制御部は、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を第1の遅延予測情報として取得し、前記名前解決要求の送信元の前記遅延予測情報を第2の遅延予測情報として取得し、前記第1の遅延予測情報が所定の閾値を超え、かつ、前記第2の遅延予測情報が所定の閾値以下のときには、前記管理サーバに前記フィールド機器からのメッセージを蓄積する指令を送信し、前記第2の遅延予測情報が所定の閾値を超えるときには、前記中継装置に前記フィールド機器からのメッセージを蓄積する指令を送信することを特徴とする計算機システム。
  6.  ネットワークに接続された中継装置と、前記中継装置に接続されてメッセージを送信するフィールド機器と、前記ネットワークを介して前記中継装置に接続された優先制御サーバと、前記優先制御サーバに接続されて名前の解決を行うDNSサーバと、を含む計算機システムで前記メッセージを制御する通信制御方法であって、
     前記フィールド機器が、名前解決要求を前記中継装置へ送信する第1のステップと、
     前記中継装置が、前記フィールド機器から送信された前記名前解決要求を前記優先制御サーバへ転送する第2のステップと、
     前記優先制御サーバが、前記フィールド機器が送信した名前解決要求を受信するたびに、当該名前解決要求の宛先毎に前記ネットワークの状況を示す遅延予測情報を算出する第3のステップと、
     前記優先制御サーバが、前記名前解決要求を受信したときに前記遅延予測情報に基づいて当該名前解決要求の宛先で遅延が発生するか否かを予測する第4のステップと、
    を含むことを特徴とする通信制御方法。
  7.  請求項6に記載の通信制御方法であって、
     前記中継装置は、
     前記フィールド機器から送信された前記メッセージを一時的に格納するバッファをさらに含み、
     前記優先制御サーバが、前記名前解決要求に含まれる宛先の前記遅延予測情報を取得し、当該遅延予測情報が所定の閾値を超えているか否かを判定し、当該遅延予測情報が所定の閾値を超えている場合には、前記名前解決要求の宛先で遅延が発生すると予測し、前記フィールド機器からのメッセージを前記バッファに蓄積する指令を前記中継装置に送信する第5のステップと、
    をさらに含むことを特徴とする通信制御方法。
  8.  請求項7に記載の通信制御方法であって、
     前記第1のステップは、
     前記フィールド機器が、前記名前解決要求に前記メッセージが非優先であるか否かを識別する優先度情報を含めて送信し、
     前記4のステップは、
     前記優先制御サーバが、前記受信した前記名前解決要求の優先度情報は非優先のときに、前記名前解決要求の宛先で遅延が発生するか否かを予測することを特徴とする通信制御方法。
  9.  請求項8に記載の通信制御方法であって、
     バッファを備えて前記優先制御サーバに接続された管理サーバをさらに含み、
     前記第5のステップは、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を取得し、当該遅延予測情報が所定の閾値を超えているときには、前記名前解決要求の宛先で遅延が発生すると予測し、前記フィールド機器からのメッセージを前記中継装置または前記管理サーバの何れか一方に蓄積する指令を送信することを特徴とする通信制御方法。
  10.  請求項9に記載の通信制御方法であって、
     前記ネットワークは、
     前記フィールド機器からの名前解決要求を前記優先制御サーバへ転送する第1のネットワークと、前記優先制御サーバに接続されて前記名前解決要求の宛先となる第2のネットワークと、を含み、
     前記中継装置は、前記フィールド機器を前記第1のネットワークに接続する第1の中継装置と、前記第2のネットワークに接続された第2の中継装置と、を含み、
     前記第5のステップは、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を第1の遅延予測情報として取得し、前記名前解決要求の送信元の前記遅延予測情報を第2の遅延予測情報として取得し、前記第1の遅延予測情報が所定の閾値を超え、かつ、前記第2の遅延予測情報が所定の閾値以下のときには、前記管理サーバに前記フィールド機器からのメッセージを蓄積する指令を送信し、前記第2の遅延予測情報が所定の閾値を超えるときには、前記中継装置に前記フィールド機器からのメッセージを蓄積する指令を送信することを特徴とする通信制御方法。
  11.  ネットワークを介して中継装置に接続された優先制御サーバであって、
     前記優先制御サーバは、
     前記中継装置から受信した名前解決要求を受信するたびに、当該名前解決要求の宛先毎に前記ネットワークの状況を示す遅延予測情報を算出するネットワーク監視部と、
     前記名前解決要求を受信したときに前記遅延予測情報に基づいて当該名前解決要求の宛先で遅延が発生するか否かを予測する優先制御部と、
    を含むことを特徴とする優先制御サーバ。
  12.  請求項11に記載の優先制御サーバであって、
     前記中継装置は、受信したメッセージを一時的に格納するバッファを含み、
     前記優先制御部は、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を取得し、当該遅延予測情報が所定の閾値を超えているときには、前記名前解決要求の宛先で遅延が発生すると予測し、前記メッセージを前記バッファに蓄積する指令を前記中継装置に送信することを特徴とする優先制御サーバ。
  13.  請求項12に記載の優先制御サーバであって、
     前記名前解決要求は、前記メッセージが非優先であるか否かを識別する優先度情報を含み、
     前記優先制御部は、
     前記受信した前記名前解決要求の優先度情報は非優先のときに、前記名前解決要求の宛先で遅延が発生するか否かを予測することを特徴とする優先制御サーバ。
  14.  請求項13に記載の優先制御サーバであって、
     前記優先制御部は、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を取得し、当該遅延予測情報が所定の閾値を超えているときには、前記名前解決要求の宛先で遅延が発生すると予測し、前記メッセージを前記中継装置またはバッファを備えて当該優先制御サーバに接続された管理サーバの何れか一方に蓄積する指令を送信することを特徴とする優先制御サーバ。
  15.  請求項14に記載の優先制御サーバであって、
     前記ネットワークは、名前解決要求を受け付ける第1のネットワークと、前記名前解決要求の宛先となる第2のネットワークと、を含み、
     前記中継装置は、前記第1のネットワークに接続された第1の中継装置と、前記第2のネットワークに接続された第2の中継装置と、を含み、
     前記優先制御部は、
     前記名前解決要求に含まれる宛先の前記遅延予測情報を第1の遅延予測情報として取得し、前記名前解決要求の送信元の前記遅延予測情報を第2の遅延予測情報として取得し、前記第1の遅延予測情報が所定の閾値を超え、かつ、前記第2の遅延予測情報が所定の閾値以下のときには、前記管理サーバに前記メッセージを蓄積する指令を送信し、前記第2の遅延予測情報が所定の閾値を超えるときには、前記中継装置に前記メッセージを蓄積する指令を送信することを特徴とする優先制御サーバ。
PCT/JP2014/070829 2014-08-07 2014-08-07 計算機システム、通信制御方法及び優先制御サーバ WO2016021014A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/070829 WO2016021014A1 (ja) 2014-08-07 2014-08-07 計算機システム、通信制御方法及び優先制御サーバ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/070829 WO2016021014A1 (ja) 2014-08-07 2014-08-07 計算機システム、通信制御方法及び優先制御サーバ

Publications (1)

Publication Number Publication Date
WO2016021014A1 true WO2016021014A1 (ja) 2016-02-11

Family

ID=55263320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/070829 WO2016021014A1 (ja) 2014-08-07 2014-08-07 計算機システム、通信制御方法及び優先制御サーバ

Country Status (1)

Country Link
WO (1) WO2016021014A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159508A1 (ja) * 2016-03-16 2017-09-21 日本電気株式会社 設定装置、通信システム、通信装置の設定更新方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037595A (ja) * 2001-07-23 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> 輻輳制御システムと方法およびロケーションサーバならびにプログラムと記録媒体
JP2011071619A (ja) * 2009-09-24 2011-04-07 Yokogawa Electric Corp フィールド制御ネットワーク構築補助装置およびこれを備えたフィールド制御ネットワークシステム
JP2011250147A (ja) * 2010-05-27 2011-12-08 Fujitsu Ltd 通信システム、処理装置、及び通信システムにおける通信方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037595A (ja) * 2001-07-23 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> 輻輳制御システムと方法およびロケーションサーバならびにプログラムと記録媒体
JP2011071619A (ja) * 2009-09-24 2011-04-07 Yokogawa Electric Corp フィールド制御ネットワーク構築補助装置およびこれを備えたフィールド制御ネットワークシステム
JP2011250147A (ja) * 2010-05-27 2011-12-08 Fujitsu Ltd 通信システム、処理装置、及び通信システムにおける通信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159508A1 (ja) * 2016-03-16 2017-09-21 日本電気株式会社 設定装置、通信システム、通信装置の設定更新方法及びプログラム

Similar Documents

Publication Publication Date Title
US11134012B2 (en) Communication system, communication device, controller, and method and program for controlling forwarding path of packet flow
US8832272B2 (en) Network system, control method for the same, and controller, using targeted relay processing devices
JP5794320B2 (ja) コントローラ、負荷分散方法、プログラム、コンピュータシステム、制御装置
JPH0522345A (ja) 最大転送単位の最適値管理決定方式
JP5464266B2 (ja) 通信システムおよびネットワーク管理方法
JP2014504811A (ja) 通信システム、転送ノード、受信パケット処理方法およびプログラム
US20130176861A1 (en) Control apparatus, a communication system, a communication method and a recording medium having recorded thereon a communication program
EP2309799B1 (en) A route optimization method and system
WO2012081202A1 (en) Communication control system, control device, communication control method, and communication control program
US20130272125A1 (en) Component, system and method for controlling communication of data of at least one application of a communications network
JPWO2016121293A1 (ja) ネットワーク中継装置、ゲートウェイ冗長化システム、プログラム、および冗長化方法
JP5935881B2 (ja) 通信システム、制御装置及びその制御方法
US20140233393A1 (en) Network system, front-end unit and control message transmission rate reducing method
US10257763B2 (en) Routing protocol for advanced metering infrastructure system
WO2016021014A1 (ja) 計算機システム、通信制御方法及び優先制御サーバ
JP6090471B2 (ja) 通信システム、共通サービス制御装置、データ送信方法及びプログラム
KR101378313B1 (ko) 오픈플로우(OpenFlow)를 이용하여 사용자 단말 장치와 로컬 호스트 사이의 통신을 지원하기 위한 방법, 장치, 시스템 및 컴퓨터 판독 가능한 기록 매체
US20150288388A1 (en) Method and system for supporting mobility of a mobile terminal in a software-defined network
CN106487682B (zh) 一种Diameter信令网路由方法和装置
JP2016046697A (ja) 経路制御システムおよびその方法
JP2012114714A (ja) 通信システム
CN105722172A (zh) 无线链状网下的快速路由恢复方法
JP2011193378A (ja) 通信システム
Pavithra et al. An optimized routing method for data gathering in wireless sensor networks
JP2016039460A (ja) 中継装置及びその制御方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14899250

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14899250

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP