WO2009148021A1 - パケット解析装置 - Google Patents

パケット解析装置 Download PDF

Info

Publication number
WO2009148021A1
WO2009148021A1 PCT/JP2009/059995 JP2009059995W WO2009148021A1 WO 2009148021 A1 WO2009148021 A1 WO 2009148021A1 JP 2009059995 W JP2009059995 W JP 2009059995W WO 2009148021 A1 WO2009148021 A1 WO 2009148021A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
processing apparatus
information
packet
eigenvalue
Prior art date
Application number
PCT/JP2009/059995
Other languages
English (en)
French (fr)
Inventor
裕明 鹿野
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US12/994,355 priority Critical patent/US20110085443A1/en
Priority to JP2010515862A priority patent/JP5211162B2/ja
Publication of WO2009148021A1 publication Critical patent/WO2009148021A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/50Testing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS

Definitions

  • the present invention relates to a packet analysis apparatus that visualizes a network situation using a heterogeneous multi-core processor including a dynamically reconfigurable processor as means for efficiently analyzing a packet flowing on a network.
  • the network is rapidly spreading.
  • the broadband penetration rate in each home has already exceeded 50%, and various services have begun to be provided.
  • the network traffic is taking a step forward, and from the text-centric traffic such as e-mail, Web browsing, etc., the amount of data such as video streaming service, IP phone, etc. has jumped over the network, It is an important social infrastructure.
  • the existing network based on the Internet is a best-effort service, and quality assurance is a big problem. For example, how to realize quality assurance (Quality of Service: Quality of Service) such as IP telephone and video distribution and to ensure reliability against failure is becoming a differentiating factor of networks.
  • Next Generation Network: NGN Next Generation Network
  • Such a situation applies not only to an infrastructure network provided by a telecommunications carrier (carrier) but also to an intra network laid in an organization such as a company.
  • a telecommunications carrier carrier
  • intra network laid in an organization such as a company.
  • expensive router equipment is required, and it is difficult to introduce it in terms of cost.
  • the current situation is that network maintenance costs a lot.
  • various household information appliances such as digital TV are beginning to be connected to the network as household broadband penetration increases.
  • other devices such as a digital video recorder, an IP phone, a PC, an audio, and a camera are provided with a LAN connection terminal, and these devices are becoming connected to the Internet via a home network.
  • networking of home devices is progressing, for example, communication using a power line (Power Line Communication: PLC) has begun to spread.
  • PLC Power Line Communication
  • a home gateway or home router is disposed at the interface between the home network and the external network, and provides a firewall function for security purposes and a packet forwarding function between a plurality of devices and the external network.
  • a network is composed of a single function router or hub used for home use. In such a network, when a problem such as a failure occurs, it takes a long time to investigate the cause.
  • the inventor of the present application investigated prior art documents on packet analysis and failure detection in a network based on the above background.
  • the outline is as follows.
  • Patent Document 1 discloses an embodiment of a reconfigurable device that includes a large number of arithmetic elements, wiring that connects the elements, and a switch that connects the wirings.
  • Patent Document 2 discloses one form of a reconfigurable device that includes a wiring that connects a plurality of arithmetic elements and adjacent elements, a circuit that controls the function of the arithmetic element, and a memory. .
  • Patent Document 3 discloses a system for searching for the shortest path between nodes included between networks.
  • Patent Document 4 discloses an apparatus for searching for a relay destination address from a packet destination address in a network device such as a router. When searching for a relay destination address, a means for searching at high speed is provided by setting address information to be compared on a reconfigurable device and comparing the information while switching the information.
  • Patent Document 5 provides means for performing control for determining transfer, discard, etc. regarding packet processing in a network device such as a router in cooperation with a reconfigurable device and a general-purpose processor.
  • a processor having a first processor core that is a general-purpose processor and a second processor core that can dynamically reconstruct components, and receives first information from a header of the packet when the packet is received; And reconstructing the components of the second processor core based on the first information.
  • a method of processing a packet in an IP probe arranged on a network wherein a first step of extracting first information from a header of a packet received by the IP probe, and an IP probe based on the first information
  • a packet processing method comprising: a second step of determining a next configuration of a processor core having a third step of switching the processor core to the configuration determined in the second step.
  • the present invention realizes improvement of network quality, reduction of maintenance management cost, and the like.
  • IP probe 300 ... device ID, 301 ... connection device ID, 302 ... connection port, 303 ... average packet data amount, 304 ..Average number of packets, 305 ... Average packet transit time, 306 ... Status, 310 ... Average packet data amount, 311 ... Average packet transit time, 312 ... Circle indicating network bandwidth usage status Graph, 313 ... service server, 314 ... IP probe.
  • An IP probe is a system that visualizes the trends of packets flowing on a network and grasps the network status in real time.
  • a packet is a division unit of data flowing through a network. That is, when a server or a client device connected to the network executes a communication service (for example, file transfer), the data transmitted and received by the service is divided into a plurality of packets and transmitted onto the network. At this time, a group of packets belonging to the same communication service is called a flow.
  • information related to determining a packet distribution route such as destination information based on a flow to which the packet belongs is added to the head (header) portion of the packet.
  • the IP probe analyzes the header information of the packet received by the system, extracts information representing packet attributes such as the source address, destination address, protocol type, source port number, destination port number, etc. From this combination, the flow to which the packet originally belonged is specified. By grasping the trend of this flow, failure detection, quality control, detection of abnormal communication flow, and the like are possible.
  • FIG. 1 shows the configuration of the IP probe.
  • This system is connected to a network (LAN), receives physical electric signals and converts them into digital signals, physical layer chips (PHY) 101 and 102, and LAN controllers (LCTL) 103 and 104 that control transmission and reception of packets, A processor (HMCP) 106 that performs packet analysis and a memory (RAM) 105 that stores packet data, data being processed, programs, and the like.
  • LAN network
  • PHY physical layer chips
  • LCTL LAN controllers
  • HMCP processor
  • RAM memory
  • PHY and LCTL are provided with 2 ports, which are installed in an existing network. Further, since communication on the network is multiplexed in the upstream direction and the downstream direction, it is possible to receive packets separately using upstream and downstream using these two ports.
  • LCTL is connected to an input / output terminal for peripheral device expansion, such as PCI Express, which HMCP has.
  • the HMCP analyzes the received packet, generates statistical information, and executes processing such as bandwidth control and abnormal flow detection.
  • the RAM corresponds to a volatile memory such as a DRAM that holds temporary data, a nonvolatile memory that stores programs, or a ROM.
  • FIG. 2 shows a configuration diagram of the IP probe when PP is added.
  • packet processing such as packet header separation and packet port transfer in PP
  • FIG. 2 shows a configuration diagram of the IP probe when PP is added.
  • packets received by the PHY 101 and the LCTL 103 are separated by PP in packet header information, and the header information is transferred to the HMCP.
  • the packet is temporarily stored in a packet buffer (RAM) 108 connected to the PP.
  • the HMCP analyzes the header information, adds new header information as necessary, and transfers it to the PP together with a command for controlling the PP.
  • the PP updates the packet data temporarily stored in the RAM, and transmits the packet using the LCTL 104 and the PHY 102.
  • FIG. 3 shows a configuration diagram of an IP probe when PP and HMCP are made into multichips.
  • FIG. 3 shows a configuration in which two HMCPs are connected to PP.
  • the packets received by the PHY 101 and the LCTL 103 temporarily store the packet body on the RAM 108 and transfer the packet header information to the HMCP 111.
  • the packet received by the PHY 102 and the LCTL 104 temporarily stores the packet body on the RAM 108 and transfers the packet header information to the HMCP 112.
  • the PP allocates data of different ports to different HMCPs, whereby the HMCP load can be distributed.
  • the HMCP 111 and the HMCP 112 are connected to the memory RAMs 114 and 115, respectively, and are connected in common to the RAM 113 for inter-chip communication.
  • HMCP is a processor that analyzes packets. Since each packet does not have data dependency that determines the processing order, it can be processed in parallel. Therefore, it is preferable that the HMCP uses a multi-core processor equipped with a plurality of processor cores.
  • high power performance (high performance and low power) is achieved by operating a plurality of processor cores in parallel at low clock frequencies and operating voltages. Further, by introducing a dedicated processor (accelerator) that performs specific processing efficiently and making a multi-core processor with a heterogeneous configuration, further improvement in power performance can be realized.
  • Fig. 4 shows a configuration example of HMCP.
  • processors CPUs
  • 122, 123, and 124 and two accelerators (ACC) 125 and 126 are mounted.
  • Each core is equipped with high-speed local memories LM141 and 144, and processing performance can be improved by placing frequently accessed data in the LM.
  • processor core includes data transfer units DTU 143 and 147 for transferring data from the external memory RAM 130.
  • power control registers PR142 and 146 for setting the clock frequency and power supply voltage of each core are provided.
  • the HMCP further includes a centralized shared memory (CSM) 127 that arranges data shared among the processor cores, a memory controller (MEMCTL) 129 that connects external memory, and a peripheral device connection interface that connects the packet processor PP and the LAN controller LCTL 131.
  • CSM centralized shared memory
  • MEMCTL memory controller
  • DMAC data transfer controller
  • the packet received by the LCTL 131 or the header information extracted by the PP is transferred to the LM 144 of the ACC or the LM 141 of the CPU via the IOCTL 132 and the ITCNW 133 by the DMAC 128 or the DTUs 143 and 147 of each core, and on the ACC or the CPU.
  • the analysis process is executed at. After the analysis process is completed, one of the CPUs 121 to 124 determines as the management CPU the next process content based on the result of the analysis process, and determines a CPU or ACC that has a margin for executing the process content. .
  • the DTUs 143 and 147 on the CPU or ACC that have performed the determination process transfer the analysis result to the LMs 141 and 144 of the CPU or ACC that will execute the next process. Thereafter, the ACC configuration described later is reconstructed based on the analysis result.
  • the IP probe analyzes the header information of the packet on the HMCP, determines the next process based on the result of the analysis process, and reconstructs the ACC to the configuration corresponding thereto.
  • the ACC configuration can be loaded from a centralized shared memory CSM or an external memory RAM provided on the IP probe. This feature makes it possible to load an optimal configuration according to ACC processing.
  • FIG. 5 shows a configuration diagram of the HMCP when the interface with the LCTL or PP is directly connected to the accelerator ACC.
  • the LCTLs or PPs 155 and 156 are directly connected to the ACCs 125 and 126 via the buffer memory RAMs 153 and 154 and the memory controllers MEMCTLs 151 and 152. Since the ACC can directly access the data on the RAM, the data on the RAM can be efficiently processed by the ACC.
  • a packet received by LCTL or header information cut out by PP is written in RAMs 153 and 154.
  • the ACCs 125 and 126 on the HMCP continuously take in the packets on the RAMs 153 and 154 and perform packet analysis processing.
  • the management CPU determines the next process content based on the result of the analysis process, and determines a CPU or ACC having a sufficient process for executing the process content.
  • the DTU on the ACC that has undergone the determination process transfers the analysis result to the CPU or LM of the ACC that executes the next process.
  • the configuration of the HMCP in FIG. 5 is characterized in that the accelerator ACC can directly access the external RAM via the memory controller MEMCTL as compared with the configuration in FIG.
  • This feature makes it possible to efficiently process data on the external RAM with ACC. Further, since the ACC can directly access the external RAM, the load on the intra-chip bus is reduced as compared with the embodiment via the intra-chip bus. From these effects, it is possible to further improve the performance of the multi-core processor.
  • FIG. 6 shows a dynamically reconfigurable processor (DRP) as a specific configuration example of the accelerator included in the HMCP.
  • the DRP is composed of an arithmetic cell array in which ALUs whose functions can be dynamically changed are connected in a two-dimensional array.
  • This DRP is composed of three elements: an arithmetic processing unit, an arithmetic control unit, and a bus interface.
  • the arithmetic processing unit includes an arithmetic cell array (AARY) 161 in which arithmetic cells for executing arithmetic logic operations are two-dimensionally connected, a local memory (CRAM) 166 for storing arithmetic data such as arithmetic operands and arithmetic results, and the like.
  • a load / store cell (LS) 165 that performs access address generation and read / write control
  • XBNW crossbar network
  • the arithmetic cell array AARY161 has a two-dimensional arithmetic cell array structure composed of 32 general-purpose arithmetic cells (arithmetic logic arithmetic cells (ALU) ⁇ 24, multiplication cells (MLT) ⁇ 8)). Each cell is connected by an adjacent wiring, and the function of each cell and the connection of the adjacent wiring can be changed by software. The software description for determining this function and wiring connection is called configuration.
  • the arithmetic control unit includes a configuration manager (CFGM) 164 and a sequence manager (SEQM) 160 that control the operation content and operation state of the arithmetic processing unit.
  • the CFGM 164 stores and manages configuration information, and the SEQM 160 controls the execution order of a plurality of configurations.
  • the bus interface is a bus interface (BUSIF) 167 for connecting to the in-chip network ITCNW, and an expansion interface (IOCTL) 162 for connecting to a large capacity memory and another DRP for expanding the operation cell array size.
  • FIG. 7 shows a network configuration diagram when an IP probe is arranged in a network CMPNW 180 laid in an organization such as a company.
  • CMPNW 180 a router RT is arranged for each department (SC-A 185, SC-B 190, SC-C 191), and the terminal TM of each department is connected.
  • a higher-level router RTIPP 184 is arranged on a communication path between departments, and a device such as a server SRV 183 is connected, and is connected to an external network OTNW 181 via the highest-layer router RTIPP 182.
  • the server SRV 183 not only provides various services such as file transfer to the terminal, but also performs management and control such as setting the operation of the IPP and RTIPP installed in the CMPNW 180, and the network status from each IPP and RTIPP. And provides the administrator with information on the entire network.
  • the IP probe IPP 186 is added to a communication path for tracing a packet among communication paths of an existing network, or is incorporated into a network device (RTIP) such as a router to which the communication path is connected.
  • RTIP network device
  • the IP probe IPP 186 is placed in the upstream communication path of the router RT installed in the SC-A in order to grasp the communication status of the network in the department SC-A 185.
  • FIG. 8 shows a network configuration diagram when the IP probe is applied to a home network.
  • a communication provider that provides communication infrastructure constructs INNW 203 and provides communication lines to homes HN-A 204 and HN-B 210.
  • the INNW 203 is connected to an external network OTNW 200 such as the Internet via the gateway GW 202.
  • Connected to the INNW 203 is a server SRV 201 for providing various services such as mail, WEB, and video streaming by a communication carrier.
  • a gateway HGW 206 is arranged as a connection port between the INNW 203 and a home network for connecting home communication devices.
  • Communication devices such as a digital television DTV 207, a personal computer PC 208, and an IP phone TLP 209 are connected to the HGW 206.
  • Each communication device exchanges packets with the server and various communication devices on the INNW 203 or the server and various communication devices connected to the OTNW via the HGW 206.
  • the IP probe IPP205 is arranged in a communication path connecting the HGW 206 and the INNW 203 or arranged in a form (HGWIPP) 211 built in the HGW, and traces exchange packets between the home device and the server and communication device on the INNW and OTNW. To do.
  • the communication carrier accesses the IPP 205 or HGWIPP 211 to check whether there is a problem with the network provided by the carrier, or the home network and communication device. You can investigate whether there is a problem. Band reservations for various communication devices can also be set.
  • packet header analysis is executed (221). After the header analysis, it is determined whether a flow eigenvalue HKEY for distinguishing the packet flow is added to the packet header (222). This is because it is not necessary to calculate HKEY when HKEY is added to the packet header by another IP probe. If HKEY is not added, HKEY is derived (223). HKEY is obtained by applying a hash function using the extracted header information as a key. The HKEY adds a flow entry to the statistical table in the IP probe RAM. If the HKEY is the same but the flow is different (224 if there is a HKEY collision), the HKEY is replaced. (HKEY collision avoidance process 225). For the replacement, for example, an identifier is added to the key of the header information and applied to the hash function again.
  • the processing flow of this embodiment determines whether or not the flow eigenvalue HKEY, which is a value for determining to which flow the packet belongs, is added to the packet header when the packet is received. If not added, HKEY is derived and added. This feature makes it possible to derive a flow eigenvalue only when necessary, and to reliably analyze a packet using the flow eigenvalue.
  • the statistics table entry is updated (226), HKEY is added to the packet header, the header is transferred to the PP, the packet body is reconfigured on the PP (227), and the LCTL is transmitted together with the control command for transmitting the packet.
  • the packet is transmitted (228).
  • the packet analysis process and the process for obtaining the flow eigenvalue are executed by the dynamically reconfigurable processor DRP that is an accelerator of the HMCP.
  • DRP dynamically reconfigurable processor
  • the packet analysis is a process of extracting various pieces of information arranged at predetermined positions from a bit string constituting the packet header.
  • the header information specifically has the following identification information and attribute information.
  • the network packet is hierarchized into seven layers according to the standardized OSI (Open Systems Interconnect) reference model.
  • OSI Open Systems Interconnect
  • the network packet is defined by the third network layer and the fourth transport layer. Assume a device that analyzes header information.
  • IP Internet Protocol
  • IPX Inter-network Packet eXchange
  • the transport layer is responsible for functions such as connection establishment and error recovery to provide end-to-end reliable packet delivery.
  • TCP Transmission Control Protocol
  • UDP User Datagram Protocol
  • TCP and UDP communication port numbers used by services such as upper FTP (File Transfer Protocol) and HTTP (Hyper Text Transfer Protocol) are defined.
  • one attribute information and identification information are extracted in one configuration. Different attribute information and identification information are extracted by changing the configuration. As described above, since packet information is hierarchized, after extracting certain information, attribute / identification information to be extracted next may be determined based on that information. For example, the extraction target is different between the IP protocol and the IPX protocol in the network layer. Even in the upper transport layer, for example, information to be extracted is different between TCP and UDP. In addition, since the DRP has a configuration in which the arithmetic array is connected to a memory divided into a plurality of banks, a plurality of packets can be processed in parallel.
  • Fig. 10 shows the basic flow of packet analysis in DRP.
  • packet analysis processing is started, first, target data to be extracted is determined (240), a configuration for extracting the data is loaded into an array on the DRP (241), and function switching according to the configuration is performed ( 242). Then, an attribute / identification information extraction operation is executed (243). Next, target data having attribute / identification information to be extracted next is determined from the extracted data, and configuration loading and extraction execution are repeated in the same manner (244).
  • DRP has a function to perform configuration load in parallel with computation on the array. If, for example, the next extracted data is the same as the packet data extracted for the previous packet during packet extraction using this function, preloading is performed. By doing so, you can also hide the configuration load. Normally, packets with the same attribute such as file transfer and streaming are often sent continuously. Therefore, preloading of such a configuration is effective.
  • FIG. 11 shows a generation example of a statistical table in the present embodiment.
  • a source IP address (SIP), a destination IP address (DIP), a source port (SPRT), a destination port (DPRT), a protocol (PRCL), packet data are targeted for IP packets.
  • the size is extracted, and the statistical information table is SIP250, DIP251, SPRT252, DPRT253, PRCL254, total packet number (PKT) 255, total packet data size (DGRM) 256, packet number per second (PPS) 257, packet data amount per second ( Information such as (BPS) 258, flow eigenvalue (HKEY) 259, etc. is recorded.
  • the IP probe of this embodiment extracts data such as a transmission source IP address, a transmission destination IP address, a transmission source port, a protocol, a transmission destination port, or a packet data size by packet analysis. It is characterized in that a statistical table recording information such as the total number of packets, the total packet data size, the number of packets per second, the amount of packet data per second, and the flow eigenvalue is created.
  • SIP, DIP, PRCL, SPRT, and DPRT have the same packet recorded as the same flow, but depending on the type of flow, for example, only SIP and DIP, PRCL, SPRT, DPRT, If there is no question, a value indicating that the entry is invalid is written, and packets having the same SIP and DIP are treated as the same flow.
  • this statistical table information it is possible to detect whether the flow is the same flow or an abnormal flow based on the minimum necessary information.
  • the generated statistical table information is notified to the server at a specific frequency. Since this frequency can be set by software or the like for each IP probe, it can be set to notify the server at an optimum interval according to the network environment. For example, information is usually notified to the server with a large frequency such as 5 minutes, but the frequency of notification is increased, for example, every 10 seconds to grasp a more detailed situation at a node where abnormal communication is observed. Etc., depending on the status of the network to which the IP probe is connected. These settings are realized by distributing setting information from the server to each IP probe.
  • the IP probe of this embodiment is characterized in that the statistical table is transferred to the server at a specific frequency.
  • the server can grasp in real time the traffic amount of the entire network that could not be known by the conventional IP probe. Then, it becomes easy to find a bottleneck route in the entire network, and the throughput of the entire network can be improved.
  • FIG. 12 shows a Gantt chart when the IP probe process is performed on the HMCP configured with four CPUs (CPU0 to CPU3) and two ACCs (ACC0 and ACC1).
  • the CPU 0 performs packet reception PRCV270. Subsequently, header analysis HEAD 271 and flow eigenvalue calculation processing HKEY 272 are performed in ACC 0, and finally table update processing TBL 273 is performed in CPU 0. After the packet reception PRCV 270, the CPU 1 continues to execute the packet reception PRCV 274. Similarly, HEAD275 and HKEY276 are executed by ACC1, and TBL277 is executed by CPU1. The next packet reception PRCV 278 is then performed by the CPU 0, and the subsequent processing is similarly performed by the ACC 0 and the CPU 0.
  • the processing can be continuously performed on the received packets by alternately processing the CPU 0 and the CPU 1 in parallel.
  • the CPU 2 and CPU 3 monitor the generated statistical information table and execute application functions such as abnormal flow detection.
  • IP probe node cooperation processing method An inter-node cooperation method of the IP probe IPP will be described.
  • a plurality of IP probes IPP are arranged on the network, but each node manages the packet status of the entire network by communicating with each other.
  • one node communicates only with upstream and downstream nodes of a connected communication path, and transmits and receives flow eigenvalues to share packet flow statistical information.
  • Each node communicates with a server. By communicating, the packet flow of the entire network is visualized.
  • Each node has a management table as shown in FIG.
  • This table includes an ID number (IPPID) 300 of the own IPP node, an ID number (CNTIPP) 301 of the connected IPP node, a port identification flag (DIR) 302, an average packet data amount between nodes (AGTP) 303, and an average number of packets between nodes. (AGPPS) 304, an inter-node average packet transit time (AGLT) 305, and a flow state (STAT) 306.
  • AGLT is an average of the time (latency) required for packets to pass between nodes, and this value increases due to equipment failure, router performance deficiency due to increased load, and the like.
  • IPPID2 has a connection relationship with IPPID1 (290) on the upstream port and a connection relationship with IPPID3 (292) and IPPID4 (293) on the downstream port.
  • the inter-node management table shows connection relations and overall packet information between nodes.
  • the own node ID is 2
  • the connection destination ID is 3
  • the connection port is a DN indicating a downstream port
  • the average packet data amount is 3617 Kbytes / second
  • the average number of packets is 80 packets / Second
  • the average packet transit time is 50 milliseconds
  • the state is recorded as 1 indicating the standard state.
  • the local node ID is 2
  • the connection destination ID is 4
  • the connection port is the downlink DN
  • the average packet data amount is 21 Kbytes / second
  • the average packet number is 3124 packets / second
  • the average packet transit time is 1500 milliseconds
  • state 2 representing an abnormal state is recorded.
  • the entry on the second line has a very large average number of packets with respect to the average amount of packet data, and the packet transit time is also very large with respect to the normal state. There is a possibility that the load has increased, and state 2 representing an abnormal state is recorded.
  • This management table is transmitted from each node to the management server SRV, and the copy is managed as an integrated management table for the entire network on the SRV.
  • the local node ID is 2
  • the connection destination ID is 1
  • the connection port is UP indicating the upstream port
  • the average packet data amount is 3700 Kbytes / second
  • the average number of packets is 80 packets / second.
  • the average packet transit time is 40 milliseconds, and the state is recorded as 1 indicating the standard state.
  • the IP probe according to the present embodiment is characterized in that a management table between nodes is created by transmitting and receiving eigenvalues to and from IP probes connected upstream and downstream thereof.
  • a management table between nodes is created by transmitting and receiving eigenvalues to and from IP probes connected upstream and downstream thereof.
  • each IPP node The function of each IPP node is distributed from the management server SRV to the IPP.
  • a dynamically reconfigurable processor is installed as the accelerator ACC of the HMCP, and new functions such as anomaly detection and bandwidth control for security purposes are received. If the program is distributed to each node, the management configuration of the entire network can be easily changed.
  • the server SRV can present the information collected by the above means to the administrator and the user through a graphical interface (GUI) about the communication volume of the entire network and the situation between nodes.
  • GUI graphical interface
  • FIG. 15 shows an example of a GUI indicating the network status shown in FIG.
  • a service server (SVCSRV) 313 that performs services such as file transfer, e-mail, and WEB server is added to the in-house network of FIG.
  • the server SRV displays a connected device (rectangular box) and a network topology (a line connecting the devices) according to information from the IP probe IPP or the router RTIPP incorporating the IP probe. It also presents the average amount of data between nodes, the amount of packets, and the average packet transit time.
  • the average packet data amount (throughput) (310) is indicated by the thickness of the line
  • the average packet transit time (latency) (311) between the nodes is indicated by the color density of the line.
  • These indications are examples, and can be shown more effectively by using colors, for example.
  • the GUI of this embodiment changes the communication state between nodes by changing the line density, line thickness, line color, etc. based on the information aggregated using the above-described IP probe.
  • a method of presenting a breakdown of communication on a certain node in a graph is also conceivable.
  • a breakdown of communication on the IPP 314 is indicated by a pie chart 312.
  • a pie chart 312 indicates that communication of a hypertext transfer protocol (http), a file transfer protocol (ftp), and direct communication between nodes (p2p) that provide a service for browsing a WEB page is performed.
  • http hypertext transfer protocol
  • ftp file transfer protocol
  • p2p direct communication between nodes
  • the latency is also large. Looking at the breakdown of communication, it can be seen that the direct communication between nodes p2p accounts for a large percentage, and this communication is the cause of tight network bandwidth.
  • the GUI of this embodiment is also characterized in that the breakdown of communication is expressed using means such as a graph.
  • the network administrator and the user can intuitively understand the cause of the pressure on the network bandwidth.
  • it becomes easy to take measures such as incorporating a function for blocking a specific communication in the IP probe or limiting a band used for the specific communication, and the network quality can be improved. .
  • a low-power, small-sized IP probe node is realized, and by arranging a plurality of IP probe nodes on the network, the trend of packets circulating on the network that could not be observed in the past is real-time. As a result, network quality can be improved and maintenance management costs can be reduced.
  • the present invention is particularly useful when applied to a packet analysis device that visualizes the network status using a heterogeneous multi-core processor including a dynamically reconfigurable processor as a means for efficiently analyzing packets flowing on the network. is there.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

 ネットワークが普及し、映像ストリームやIP電話等の様々なサービスが実現されている。それに合わせ、ネットワークの複雑化も進むが、ネットワーク上を流通するすべてのパケットを管理する方法がなく、品質の保証や、信頼性の確保が課題となっている。また、故障時の復旧対応といった、維持管理のコストの増加も大きな問題となっている。そこで、通信路上を流通するパケットをリアルタイムで検知し、ネットワークの状況を可視化するIPプローブを、動的再構成可能プロセッサを含むヘテロジニアスマルチコアプロセッサで実現する。パケット解析で、パケットの特性によって構成機能を変化させることで、様々な規格やサービスに対し柔軟に対応しつつ、低電力・高性能を達成する。また、これらのノードを複数配置することで、ネットワーク全体状況を可視化する。これにより、低電力・小型なIPプローブノードが実現し、これをネットワーク上に複数個配置することにより、これまで観測することができなかったネットワーク上を流通するパケットの動向をリアルタイムで把握できることになり、ネットワーク品質の向上、保守管理コストの低減が実現される。

Description

パケット解析装置
 本発明は、ネットワーク上を流れるパケットを効率よく解析する手段として、動的再構成可能プロセッサを含んだヘテロジニアスマルチコアプロセッサを用いた、ネットワークの状況を可視化するパケット解析装置に関する。
 ネットワークの普及が急速に進んでいる。各家庭へのブロードバンド普及率は既に50%を超え、多様なサービスが提供され始めている。ネットワークトラフィックは増加の一歩をたどっており、電子メール、Webブラウジング等これまでテキスト中心のトラフィックから、動画ストリーミングサービス、IP電話、等のデータ量が飛躍的に大きなデータがネットワークを飛び交い、我々の生活にとって重要な社会インフラとなっている。しかしながら、インターネットをベースとしたこれまでのネットワークはベストエフォート型のサービスであり、その品質確保が大きな問題となっている。例えば、IP電話や映像配信等の品質保証(Quality of Service: QoS)、故障に対する信頼性の確保を如何に実現するかが、ネットワークの差別化要因となりつつある。その流れを受けて、電話や映像配信のQoS保証、通信内容のセキュリティ性保証といった高度なサービスへの対応を目指し、次世代ネットワーク(Next Generation Network: NGN)の構築が進められている。
 またこのような状況は、通信事業者(キャリア)が提供するインフラネットワークだけでなく、会社等の組織内で敷設されるイントラネットワークにおいても同様に当てはまる。QoSを制御したり自動管理等を可能としたりするためには、高価なルータ機器が必要になりコスト的に導入が難しい。しかしながら、ネットワークの維持管理には多くのコストがかかっているのが現状である。
 また、家庭のブロードバンド普及率が高まる中、デジタルテレビを初めとする様々な情報家電がネットワークに接続され始めている。例えば他にもデジタルビデオレコーダ、IP電話、PC、オーディオ、カメラ、といった機器にLAN接続端子が設けられ、これらの機器が家庭内ネットワークを介してインターネットに接続される状況となりつつある。家庭内ネットワークの構築に際しても、電力線を用いた通信(Power Line Communication: PLC)方式が普及を始めるなど、家庭内機器のネットワーク化が進んでいる。家庭内ネットワークと外部ネットワークの界面にはホームゲートウェイまたはホームルータが配置され、セキュリティを目的としたファイアウォール機能、複数の機器と外部ネットワーク間でのパケットのフォワーディング機能を提供する。
 さらに、会社内のイントラネットワークでは、特に保守管理のコスト低減が重要となっている。業務で使用する場合、ネットワークの信頼性が高い次元で要求される。高信頼性が要求される基幹ネットワークでは、パケット解析や故障検出等が可能な高機能ルータを導入することが多いが、一般業務で使用される末端ネットワークや一般事務で用いられるようなネットワークでは、家庭向けにも用いられるような単機能ルータやハブでネットワークを構成することが多い。そのようなネットワークでは、障害等の問題が発生すると、その原因を追究するための調査に多大な時間がかかる。
 本願発明者は、以上の背景を踏まえて、ネットワークにおけるパケット解析や故障検出についての先行技術文献を調査した。その概要は、以下の通りである。
 パケット解析、経路検索といったネットワーク処理を行うルータ等の機器は、非常に高い演算性能を要求するため、従来は当該処理を専用ハードウェアで実行していた。しかしながら、新たなサービスの導入等に伴うパケット処理方式の変更に対応ができないといった問題がある。そこで、多数個の演算セルを配置し、その機能と配線を動的に再構成することで、専用ハードウェアに近い性能を出しつつも、機能を柔軟に切り替えることが可能なリコンフィグラブルデバイス(動的再構成可能プロセッサ)が提案されている。例えば、特許文献1では、多数個の演算素子と、当該素子間を結ぶ配線と、配線間を結ぶスイッチで構成したリコンフィギュラブルデバイスの一形態が開示されている。また、特許文献2では、複数個の演算素子と隣接する素子間を結合する配線と、当該演算素子の機能を制御する回路と、メモリを備えたリコンフィギュラブルデバイスの一形態が開示されている。
 このようなリコンフィギュラブルデバイスを用いて、ネットワーク処理を高速化する方式が提案されている。特許文献3では、ネットワーク間に含まれるノード間の最短経路を探索するためのシステムが開示されている。また、特許文献4では、ルータ等のネットワーク機器において、パケットのあて先アドレスから中継先アドレスを検索する装置が開示されている。中継先のアドレスを検索する際に、リコンフィギュラブルデバイス上に比較対象とするアドレス情報を設定し、当該情報を切替えながら比較することで、高速に検索する手段を提供する。また、特許文献5では、ルータ等におけるネットワーク機器において、パケット処理に関して転送、破棄、等を決定するための制御をリコンフィグラブルデバイスと汎用プロセッサの協調で行う手段を提供している。
WO02/095946 特開2006-139670号公報 特開2007-306442号公報 特開2007-013856号公報 特開2005-117290号公報
 本発明が解決すべき課題は、以下の通りである。
 ネットワークの維持管理、保守や管理にコストがかかる要因としては、以下のような課題が考えられる。
 第1には、会社やビル建屋内のネットワーク機器やネットワーク障害が発生しても、障害を解決するためにその原因を掴むまでに多大な時間と人的コストが掛かってしまうという、問題がある。ユーザから通信障害を受けると、ネットワーク管理者はネットワークの状況を解析する装置をユーザサイドに設置されたネットワーク機器に接続し、現地で解析作業を進める必要があるためである。
 第2には、障害も複合的な原因で発生しており、再現性に乏しいケースもあり、原因解明が難しく、また、複雑化するシステムの中で、問題の切り分けが難しいという問題がある。例えば、ユーザが通信品質を得ることができていない場合、サービス提供者側のサーバ等機器の問題、通信経路の問題、またはユーザサイドの機器の問題、何れであるかを切り分ける必要もある。しかしながら、このような切り分けを行うためのネットワーク状況を、管理者側がリアルタイムで知る手段がないためである。
 そこで、以上の課題を解決するためには、通信路上を流通するパケットをリアルタイムで検知し、ネットワーク全体のトラフィック量やノード間通信時間(レイテンシ)をリアルタイムに把握することで、障害の解析やネットワーク上のボトルネック経路を発見することを容易とするための、ネットワークの状況を「見える化」する仕組みが必要となる。
 しかしながら、このようにネットワーク全体のトラフィック量やノード間通信時間(レイテンシ)をリアルタイムで把握するための手段は、現状では存在しない。前述の特許文献においても、上述の課題を解決するための構成は発見されなかった。
 上述の課題を解決するために本願において開示される発明のうち代表的なものの概要を簡単に説明すれば以下の通りである。
 汎用プロセッサである第1のプロセッサコアと、構成要素を動的に再構築可能な第2のプロセッサコアとを具備するプロセッサを有し、パケットを受信した際に、パケットのヘッダから第1の情報を抽出し、第1の情報に基づいて第2のプロセッサコアの構成要素を再構築することを特徴とするIPプローブ。
 または、ネットワーク上に配置されたIPプローブにおけるパケットの処理方法であって、IPプローブが受信したパケットのヘッダから第1の情報を抽出する第1工程と、第1の情報に基づいてIPプローブが有するプロセッサコアの次の構成を決定する第2工程と、プロセッサコアを第2工程で判定された構成へと切り替える第3工程とを有することを特徴とするパケットの処理方法。
 本発明により、ネットワーク品質の向上、保守管理コストの低減等が実現される。
IPプローブの構成の一例を示した図である。 IPプローブの構成の一例を示した図である。 IPプローブの構成の一例を示した図である。 IPプローブ処理用へテロマルチコアプロセッサの構成例を示した図である。 IPプローブ処理用へテロマルチコアプロセッサの構成例を示した図である。 動的再構成可能プロセッサの構成を示した図である。 IPプローブを適用した会社内ネットワークの構成例を示した図である。 IPプローブを適用した家庭向けネットワークの構成例を示した図である。 IPプローブ処理全体フローを説明する図である。 動的再構成可能プロセッサ上でのパケット解析処理フローを示した図である。 統計テーブルの構成を示した図である。 ヘテロマルチコア上でのIPプローブ並列処理の方法を示した図である。 複数個のIPプローブノードを配置したときのネットワーク構成例を示した図である。 IPプローブノード間連携用管理テーブルの構成を示した図である。 IPプローブによるネットワーク状況表示の例を示した図である。
 101、102・・・物理層チップ、103、104・・・LANコントローラ、105・・・メモリ、106・・・プロセッサ、107・・・パケットプロセッサ、108・・・メモリ、111、112・・・プロセッサ、113、114、115・・・メモリ、121、122、123、124・・・汎用プロセッサ、125、126・・・アクセラレータ、127・・・集中共有メモリ、128・・・データ転送コントローラ、129・・・メモリコントローラ、130・・・メモリ、131・・・LANコントローラ、132・・・IOインタフェース、133・・・チップ内バス、140・・・汎用プロセッサコア、141、144・・・ローカルメモリ、142、146・・・電力制御レジスタ、143、147・・・データ転送ユニット、145・・・アクセラレータコア、151、152・・・メモリコントローラ、153、154・・・メモリ、155、156・・・LANコントローラ、160・・・シーケンサ、161・・・演算アレイ部、162・・・IOインタフェース、163・・・クロスバネットワーク、164・・・コンフィグレーションマネージャ、165・・・ロードストアセル、166・・・ローカルメモリ、167・・・バスインタフェース、180・・・会社内ネットワーク、181・・・外部ネットワーク、182、184・・・IPプローブ内蔵ルータ、183・・・サーバ、185、190、191・・・部署、186、189・・・IPプローブ、187・・・ルータ、188・・・端末、200・・・外部ネットワーク、201・・・サーバ、202・・・ゲートウェイ、203・・・内部ネットワーク、204、210・・・家庭、205・・・IPプローブ、206、211・・・ゲートウェイ、207・・・デジタルテレビ、208・・・コンピュータ、209・・・IP電話、220~221、223、225~230・・・処理、222、224・・・分岐を含む処理、240~243・・・処理、244・・・分岐を含む処理、250・・・送信元IPアドレス、251・・・送信先IPアドレス、252・・・送信元ポート、253・・・送信先ポート、254・・・プロトコル、255・・・パケット数、256・・・パケットデータ量、257・・・毎秒パケット数、258・・・毎秒パケットデータ量、259・・・フロー固有値情報、270~279・・・処理、290~294・・・IPプローブ、300・・・装置ID、301・・・接続装置ID、302・・・接続ポート、303・・・平均パケットデータ量、304・・・平均パケット数、305・・・平均パケット通過時間、306・・・状態、310・・・平均パケットデータ量、311・・・平均パケット通過時間、312・・・ネットワーク帯域使用状況を示す円グラフ、313・・・サービスサーバ、314・・・IPプローブ。
 以下、本発明の実施例を用いて、詳細に説明する。IPプローブはネットワーク上を流れるパケットの動向を可視化し、ネットワークの状況をリアルタイムで把握するシステムである。パケットは、ネットワークを流れるデータの分割単位である。つまり、ネットワークに接続されたサーバやクライアント機器は、通信サービス(例えばファイル転送等)を実行する際、当該サービスが送受するデータを複数のパケットに分割してネットワーク上に送出する。このとき、同一の通信サービスに属するパケット群を、フローと呼ぶ。パケット分割する際、パケットの先頭(ヘッダ)部分に、当該パケットの属するフローに基づいたあて先情報等のパケット配信経路決定に関わる情報が付加される。IPプローブは、当該システムが受信するパケットのヘッダ情報を解析し、送信元アドレス、送信先アドレス、プロトコルの種類、送信元ポート番号、送信先ポート番号等のパケット属性を表す情報を抽出し、それらの組み合わせから、パケットがもともと属していたフローを特定する。このフローの動向を把握することで、故障検知や品質制御、異常通信フローの検出等が可能となる。
 <IPプローブの構成>
 図1にIPプローブの構成を示す。本システムは、ネットワーク(LAN)に接続し、物理的な電気信号を受信しデジタル信号に変換する物理層チップ(PHY)101、102、パケットの送受信を制御するLANコントローラ(LCTL)103、104、パケット解析を行うプロセッサ(HMCP)106、パケットデータ、処理途中のデータ及びプログラム等を保存するメモリ(RAM)105で構成される。
 PHY、LCTLは2ポート用意され、既存のネットワークに挿入する形で設置する。また、ネットワーク上の通信は上流方向と下流方向で多重化されているため、これら2ポートを利用して上流と下流で分けてパケットを受信することも可能である。
 LCTLはHMCPが持つ、例えばPCI Expressといった周辺デバイス拡張用の入出力端子に接続される。HMCPは受信したパケットを解析し、統計情報を生成したり、帯域制御や異常フロー検出等の処理を実行したりする。RAMは一時データを保持するDRAM等の揮発メモリ、プログラム等を格納する不揮発メモリまたはROMに相当する。
 また別の構成として、パケット処理を専用に行うパケットプロセッサ(PP)107を付加した構成も考えられる。図2にPPを付加したときのIPプローブの構成図を示す。図2に示したように、PPにてパケットのヘッダ部分離、パケットポート間転送、といったパケット処理を分離することで、HMCPの処理負荷や転送帯域の使用を低減することが可能となる。例えば、PHY101及びLCTL103にて受信されたパケットはPPでパケットヘッダ情報を分離し、当該ヘッダ情報をHMCPに転送する。パケットはPPに接続されたパケットバッファ(RAM)108に一時的に保存される。HMCPはヘッダ情報を解析し、必要に応じて新たなヘッダ情報を追加してPPを制御するコマンドとともにPPへ転送する。PPはRAMに一時保存されているパケットデータを更新し、LCTL104、PHY102にて当該パケットを送信する。
 また、さらに複雑なパケット解析、または統計情報を利用したパケット制御等のHMCPの性能が求められるときは、PP、HMCPのマルチチップ化構成とすることも考えられる。PP、HMCPをマルチチップ化した時のIPプローブの構成図を図3に示す。図3は、PPに対しHMCPを2個接続した構成である。例えば、PHY101及びLCTL103で受信されたパケットは、パケット本体をRAM108上に一時保存しパケットヘッダ情報をHMCP111へ転送する。また、PHY102及びLCTL104で受信されたパケットは、パケット本体をRAM108上に一時保存しパケットヘッダ情報をHMCP112へ転送する。このように異なるポートのデータを異なるHMCPにPPが割り振ることにより、HMCPの負荷を分散できる。HMCP111及びHMCP112はそれぞれメモリRAM114、115に接続され、またチップ間通信用のRAM113に共通で接続される。
 <HMCPの構成>
 続いて、本実施例でIPプローブに適用するHMCPの構成例を示す。HMCPはパケットを解析するプロセッサである。パケットそれぞれは、処理の順番を決定するようなデータ依存性が存在しないため、並列で処理することが可能である。従って、HMCPは複数のプロセッサコアを搭載したマルチコアプロセッサを利用することが好ましい。
 マルチコアプロセッサでは、プロセッサコアをクロック周波数並びに動作電圧を低くして複数個並列で動作させることにより、高い電力性能(高性能・低電力)を達成する。また、特定の処理を効率よく行う専用プロセッサ(アクセラレータ)を導入し、ヘテロジニアスな構成のマルチコアプロセッサとすることで、更なる電力性能の向上を実現することができる。
 図4にHMCPの構成例を示す。本例では、4個の汎用プロセッサ(CPU)121、122、123、124と2個のアクセラレータ(ACC)125、126を搭載する。各コアは、高速なローカルメモリLM141、144を搭載しており、頻繁にアクセスされるデータをLMに配置することにより、処理性能を向上させることができる。また、同様に各プロセッサコアは、外部メモリRAM130からデータを転送するためのデータ転送ユニットDTU143、147を備える。また、各コアのクロック周波数や電源電圧を設定する電力制御レジスタPR142、146を持つ。HMCPはさらに、各プロセッサコア間で共有されるデータを配置する集中共有メモリ(CSM)127、外部メモリを接続するメモリコントローラ(MEMCTL)129、パケットプロセッサPPやLANコントローラLCTL131を接続する周辺デバイス接続インタフェース(IOCTL)132、RAM130、LM141、144間でデータを転送するデータ転送コントローラ(DMAC)128を搭載する。プロセッサコア、メモリ、各種コントローラやインタフェースはチップ内バス(ITCNW)133で相互に接続される。
 上記HMCP上でのIPプローブ処理の簡単なフローを説明する。LCTL131にて受信されたパケット、またはPPにて切り出されたヘッダ情報は、DMAC128または各コアのDTU143、147によって、IOCTL132およびITCNW133を介し、ACCのLM144またはCPUのLM141へ転送され、ACCまたはCPU上にて解析処理が実行される。解析処理の終了後、CPU121~124のいずれかが管理用CPUとして当該解析処理の結果に基づいて次の処理内容を判定し、当該処理内容を実行するための余裕のあるCPUまたはACCを決定する。前記決定処理がなされたCPUまたはACC上のDTU143、147は、次に処理を実行するCPUまたはACCのLM141、144に前記解析結果を転送する。その後、解析結果に基づいて後述のACCの構成を再構築する。
 以上のように、本実施例のIPプローブは、HMCP上でパケットのヘッダ情報を解析し、解析処理の結果に基づいて次の処理を決定し、それに対応した構成へとACCを再構築する点に特徴がある。このような構成とすることで、各ACCを処理するパケットに適した構成とすることが可能となり、ACCがパケットを効率よく処理できるようになるため、低消費電力で高性能なマルチコアプロセッサを実現することが可能となる。ACCの構成は、IPプローブ上に設けられた集中共有メモリCSMや外部メモリRAMからロードすることが可能である。この特徴によってACCの処理に応じた最適な構成をロードすることが可能となる。
 <HMCPの別構成>
 以上はHMCPの一構成例であり、たとえばプロセッサコア数やアクセラレータの種類、コア数は目的とする機能や性能によって決定される。また、画像表示等その他外部インタフェースを活用するための機能を具備することもできる。図5に、LCTLまたはPPとのインタフェースを、アクセラレータACCと直結したときのHMCPの構成図を示す。本構成では、LCTLまたはPP155、156はバッファ用メモリRAM153、154及びメモリコントローラMEMCTL151、152を介して直接ACC125、126に接続される。ACCはRAM上のデータを直接アクセス可能であるため、RAM上のデータを効率よくACCにて処理が可能となる。本構成での処理は、まずLCTLにより受信されたパケット、またはPPにて切り出されたヘッダ情報はRAM153、154に書き込まれる。HMCP上のACC125、126はRAM153、154上のパケットを連続して取り込みパケット解析処理を行う。解析処理の終了後、管理用CPUは、当該解析処理の結果に基づいて次の処理内容を判定し、当該処理内容を実行するための、処理に余裕のあるCPUまたはACCを決定する。前記決定処理がなされたACC上のDTUが、次に処理を実行するCPUまたはACCのLMに前記解析結果を転送する。
 以上のように、図5のHMCPの構成は、図4の構成と比較して、アクセラレータACCがメモリコントローラMEMCTLを介して外部のRAMと直接アクセス可能である点に特徴がある。この特徴により、外部RAM上のデータを効率よくACCで処理することが可能となる。また、ACCが外部のRAMと直接アクセスできるため、チップ内バスを経由する実施例と比較してチップ内バスにかかる負荷も軽減される。これらの効果より、さらなるマルチコアプロセッサの性能向上を実現できる。
 <アクセラレータの構成>
 HMCPが持つアクセラレータの具体的な構成例として、図6に動的再構成可能プロセッサ(DRP)を示す。DRPは動的に機能を変更可能なALUを二次元配列状に接続した演算セルアレイで構成される。本DRPは、演算処理部、演算制御部、バスインタフェースの3つの要素から構成される。演算処理部には、算術論理演算を実行する演算セルを二次元的に接続した演算セルアレイ(AARY)161、演算オペランドや演算結果などの演算データを格納するローカルメモリ(CRAM)166、ローカルメモリへのアクセスアドレス生成と読み書き制御を行うロードストアセル(LS)165、演算セルアレイとロードストアセルとの間を接続するクロスバネットワーク(XBNW)163が含まれる。演算セルアレイAARY161は32個の汎用演算セル(算術論理演算セル(ALU)×24個、乗算セル(MLT)×8個) からなる二次元演算セルアレイ構造となっている。各セルは隣接配線で接続されており、各セルの機能と隣接配線の接続をソフトウェアで変更可能となっている。この機能および配線接続を決定するためのソフトウェア記述をコンフィグレーションと呼ぶ。
 また、演算制御部はそれぞれ演算処理部の動作内容および動作状態を制御するコンフィグレーションマネージャ(CFGM)164、シーケンスマネージャ(SEQM)160から構成される。CFGM164は、コンフィグレーション情報の記憶と管理を行い、SEQM160では複数のコンフィグレーションの実行順序を制御する。また、バスインタフェースは、チップ内ネットワークITCNWと接続を行うバスインタフェース(BUSIF)167並びに、大容量メモリや演算セルアレイサイズを拡張するために他のDRPとを接続するための拡張インタフェース(IOCTL)162で構成する。
 <ネットワークに配置する時のシステム構成図>
 次に、IPプローブをネットワークに複数配置して、ネットワーク全体の状況を可視化するシステムの構成を説明する。図7に会社等の組織内に敷設するネットワークCMPNW180にIPプローブを配置するときのネットワーク構成図を示す。CMPNW180では、部署別(SC-A185、SC-B190、SC-C191)にルータRTを配置し、各部署の端末TMを接続する。また、部署間の通信路上に上位のルータRTIPP184を配置し、さらにサーバSRV183等の機器を接続し、最上位層のルータRTIPP182を介して外部ネットワークOTNW181に接続する。
 サーバSRV183は、端末に対してファイル転送等の各種のサービスを提供するのみならず、CMPNW180に設置されたIPPおよびRTIPPの動作を設定するといった管理・制御を行い、また各IPP、RTIPPからネットワーク状況を集約しネットワーク全体の情報を管理者に提供する役割を持つ。
 IPプローブIPP186は既存ネットワークの通信路のうち、パケットをトレースする通信路に追加され、または当該通信路が接続されるルータ等のネットワーク機器(RTIPP)に組み込まれる。たとえば、会社内ネットワークCMPNWにおいて、部署SC-A185内のネットワークの通信状況を把握するために、SC-Aに設置されたルータRTの上流通信経路にIPプローブIPP186を置く。
 このようにすることで、SC-A内の末端機器TM188とサーバSRV183や外部ネットワークOTNW181との通信、または異なる部署SC-B190内の端末TMとの通信におけるパケットの動向を把握することが可能となる。
  <家庭向けネットワークでの配置図>
 続いて家庭向けネットワークにIPプローブを適用した際のネットワーク構成図を図8に示す。通信インフラを提供する通信事業者はINNW203を構築し、各家庭HN-A204、HN-B210に通信回線を提供する。INNW203はゲートウェイGW202を介してインターネット等の外部ネットワークOTNW200に接続される。INNW203には、通信事業者がメールやWEB、映像ストリーミングといった各種サービスを提供するサーバSRV201が接続される。
 各家庭では、INNW203と家庭内の通信機器を接続する家庭内ネットワークとの接続口としてゲートウェイHGW206を配置する。HGW206には、デジタルテレビDTV207、パソコンPC208、IP電話TLP209、といった通信機器が接続される。各通信機器は、HGW206を介して、INNW203上のサーバや各種通信機器、またはOTNWに接続されたサーバや各種通信機器とパケットの交換を行う。
 IPプローブIPP205は、HGW206とINNW203を結ぶ通信路に配置され、または、HGWに内蔵する形(HGWIPP)211で配置され、家庭内機器とINNW、OTNW上のサーバ、通信機器との交換パケットをトレースする。その結果、たとえば家庭内通信機器が通信できない故障が発生したときに、通信事業者はIPP205やHGWIPP211にアクセスすることにより、事業者側の提供ネットワークに問題があるか、家庭内のネットワークおよび通信機器に問題があるかを調査することができる。また、各種通信機器の帯域予約を設定しておくこともできる。たとえば、デジタルテレビでの映像ストリーミングやIP電話の利用では、サービス品質を保つために一定以上の帯域をそれぞれのサービスで確保する必要がある。ユーザがIPPに対し各サービスの使用帯域や優先度を設定しておくことで、IPP205またはHGWIPP211が設定された帯域情報を元にパケットの通信量を制御することが可能となる。
 <全体処理の処理フロー>
 続いて、IPプローブの全体処理フローを、図9を用いて説明する。まず、LCTL103、104でパケット受信すると、PP107またはHCMP106、111、112にパケット受信を割り込み等で通知する(PRCV)。PPはパケットヘッダをパケット本体から分離し、パケット本体はPPに接続されたRAM108上に一時的に保持する。HMCPはパケット受信の割り込みを受けて、PPより分離されたヘッダ部をHMCPに転送する。
 続いて、パケットヘッダ解析を実行する(221)。ヘッダ解析後、パケットフローを区別するためのフロー固有値HKEYが、パケットヘッダに付加されているかを判定する(222)。これは、別のIPプローブにより、HKEYがパケットヘッダに付加されている場合は、HKEYを計算する必要がないからである。HKEYが付加されていない場合はHKEYの導出を行う(223)。HKEYは抽出されたヘッダ情報をキーとして、ハッシュ関数を適用することにより求められる。HKEYにより、IPプローブのRAMに持つ統計テーブルにフローのエントリが追加されるが、もし、HKEYが同一であるが、フローが異なる場合(HKEYの衝突がある場合224)は、HKEYの付け替えを行う(HKEY衝突回避処理225)。付け替えは、例えばヘッダ情報のキーに識別子を追加して、再度ハッシュ関数に適用する方法がある。
 以上のように、本実施例の処理フローは、パケットを受信した際に、パケットがどのフローに属するかを判定するための値であるフロー固有値HKEYが、パケットヘッダに付加されているかを判定し、付加されていなければHKEYを導出して付加する点に特徴がある。この特徴により、フロー固有値の導出を必要なときのみに行うことが可能となり、かつ確実にフロー固有値を用いたパケットの解析が可能となる。
 続いて、統計テーブルのエントリを更新し(226)、パケットヘッダにHKEYを付加して、PPへヘッダを転送しPP上でパケット本体を再構成し(227)、パケットを送信する制御命令とともにLCTLへ送り、パケットを送信する(228)。
 <アクセラレータでのパケット解析処理方法>
 以上の全体フローのうち、本実施例ではパケット解析処理とフロー固有値を求める処理をHMCPが持つアクセラレータである動的再構成可能プロセッサDRPにて実行する。ここでは、パケットヘッダから目的の情報を抽出するパケット解析処理を、DRPにて実行する方法について説明する。パケット解析は、パケットヘッダを構成するビット列から、あらかじめ決められた位置に配置された各種情報を抽出する処理である。
 ヘッダ情報は具体的に以下のような識別情報や属性情報を持つ。ネットワークパケットは、標準化されているOSI(Open Systems Interconnect)参照モデルによって7つに階層化されているが、本実施例では第3層のネットワーク層、及び第4層のトランスポート層で定義されるヘッダ情報を解析する装置を想定する。
 ネットワーク層では、ルータ等の異なるネットワークセグメント間をルーティングするために必要な情報が定義される。例えば、TCP/IPで用いられるIP(Internet Protocol)やNetWareで使われるIPX(Inter-network Packet eXchange)がある。パケットがネットワーク層を識別するフラグがIPパケットであることを表していたとすると、IPのネットワーク層では、送信元IPアドレス、送信先IPアドレス、データ長、が定義されている。
 またトランスポート層では、エンドツーエンドで信頼できるパケット配送を提供するための、接続確立やエラー回復等の機能を担当する。例えば、送達確認を伴う高信頼なデータ送受を実現するTCP(Transport Control Protocol)、送達確認を行わず信頼性は劣るが高いスループットを実現するUDP(User Datagram Protocol)などがある。TCP、UDPでは上位のFTP(FileTransfer Protocol)、HTTP(Hyper Text Transfer Protocol)といったサービスが使用する通信ポート番号が定義される。
 DRPでは、1コンフィグレーションで1属性情報、識別情報を抽出する。コンフィグレーションを変化させることにより、異なる属性情報、識別情報を抽出する。上述の通り、パケット情報は階層化されているため、ある情報を抽出後、その情報を元に次に抽出すべき属性・識別情報が決定されることもある。例えば、ネットワーク層でIPプロトコルとIPXプロトコルでは、抽出対象が異なる。上位のトランスポート層でも例えば、TCP、UDPで抽出対象の情報は異なる。また、DRPは演算アレイが複数のバンクに分かれたメモリと接続される構成となっているため、複数のパケットを並列で処理することも可能となっている。
 よって、DRPのように構成を変えながら実行することで、複数パケットを並列で効率よく解析処理ができ、なおかつ様々なプロトコルや規格に柔軟に対応できる。
 図10にDRPでのパケット解析の基本フローを示す。パケット解析処理を開始すると、まず抽出すべき目的データを決定し(240)、当該データを抽出するコンフィグレーションをDRP上のアレイにロードし(241)、当該コンフィグレーションに合わせた機能切り替えを行う(242)。そして、属性・識別情報抽出の演算を実行する(243)。次に、抽出されたデータより、次に抽出すべき属性・識別情報を持つ目的データを決定し、同様にコンフィグレーションロード、抽出実行を繰り返す(244)。
 DRPはコンフィグレーションロードをアレイ上の演算と並行して行う機能を持つが、本機能を利用してパケット抽出中に例えば次の抽出データが前回パケット対象に抽出したパケットデータと同じ場合は、プレロードしておくことで、コンフィグレーションロードを隠蔽することもできる。通常、ファイル転送やストリーミング等、同じ属性のパケットが連続して送られてくることが多い。そこで、このようなコンフィグレーションのプレロードが有効となる。
 <保持する統計テーブル>
 続いて、IPプローブが生成する統計情報テーブルについて説明する。図11に本実施例における統計テーブルの生成例を示す。
 本例では、パケット解析により、IPパケットを対象に送信元IPアドレス(SIP)、送信先IPアドレス(DIP)、送信元ポート(SPRT)、送信先ポート(DPRT)、プロトコル(PRCL)、パケットデータサイズ等を抽出し、統計情報テーブルとしてSIP250、DIP251、SPRT252、DPRT253、PRCL254、総パケット数(PKT)255、総パケットデータサイズ(DGRM)256、毎秒パケット数(PPS)257、毎秒パケットデータ量(BPS)258、フロー固有値(HKEY)259等の情報を記録する。
 以上のように、本実施例のIPプローブは、パケット解析によって送信元IPアドレス、送信先IPアドレス、送信元ポート、プロトコル、送信先ポート若しくはパケットデータサイズ等のデータを抽出し、これらの情報及び総パケット数、総パケットデータサイズ、毎秒パケット数、毎秒パケットデータ量、フロー固有値等の情報を記録した統計テーブルを作成する点に特徴がある。
 この構成により、フロー単位でどのパケットが流通しているかを把握することができるため、IPプローブの配置された点におけるトラフィック量やノード間通信時間(レイテンシ)を、リアルタイムに把握することが可能となる。その結果、ネットワーク障害時にその原因をリアルタイムで解析することが可能となる。
 このような構成のIPプローブを、例えば前述のように家庭内ネットワークに設けることで、ネットワーク障害の原因がキャリア網から家庭までのネットワーク経路にあるか、若しくは家庭内のネットワーク機器にあるかを特定することが可能となる。
 また、この例では、SIP、DIP、PRCL、SPRT、DPRTが同一のパケットを同一のフローとして記録しているが、フローの種別によっては、例えばSIPとDIPのみで、PRCL、SPRT、DPRT、は問わないといった場合は、エントリが無効であることを示す値が書き込まれ、SIPとDIPが同一のパケットが同一のフローとして扱われる。本統計テーブル情報を利用することで、必要最低限の情報に基づいて同一フローであるか異常フローであるかを検知することが可能となる。
 ここで、生成された統計テーブル情報は、特定の頻度でサーバに通知される。この頻度は、IPプローブ毎にソフトウェア等で設定可能であるため、ネットワークの環境に応じて最適の間隔でサーバへ通知するよう設定することができる。例えば、通常は例えば5分といった大きな頻度で情報をサーバに通知するが、異常な通信が観測されたノードではより詳細な状況をつかむため、通知の頻度を高くし、例えば10秒おきに通知する等、IPプローブが接続されているネットワークの状況に応じて変化させることができる。これらの設定は、サーバから各IPプローブに設定情報を配信することで、実現される。
 統計テーブル情報の通知では、すべての情報を転送する必要はなく、フローを区別するフロー固有値とPPS、BPS等の統計情報のみ転送される。また、例えば各フローでPPSが大きい上位10フローのみを転送する、等の設定を事前にサーバから行うことで、必要最低限の情報をサーバに送信しつつ、転送量を抑えることもできる。
 このように、本実施例のIPプローブは、統計テーブルを特定の頻度でサーバに転送する点に特徴がある。この特徴によれば、サーバにおいて、従来のIPプローブでは知ることのできなかったネットワーク全体のトラフィック量をリアルタイムに把握することが可能となる。すると、ネットワーク全体でのボトルネック経路を発見することも容易となり、ネットワーク全体のスループットを向上させることが可能となる。
 <HMCP上での並列処理手法>
 HMCPでのIPプローブ処理の並列処理方法について説明する。図9のIPプローブ処理フローに示す、パケット受信(PRCV)220はCPUにて、パケットヘッダ解析(HEAD)221及びフロー固有値算出(HKEY)処理229はアクセラレータであるDRPにて、HKEY衝突回避処理、テーブルエントリ更新、パケットヘッダ更新、パケット送信を含むテーブル更新処理TBL230はCPUにて実行する。パケット処理はパケット単位で並列処理が可能である。図12に4個のCPU(CPU0~CPU3)と2個のACC(ACC0、ACC1)で構成されたHMCP上でIPプローブ処理を行った際のガントチャートを示す。まず、CPU0にてパケット受信PRCV270を行う。続いて、ACC0にてヘッダ解析HEAD271とフロー固有値算出処理HKEY272を行い、最後にCPU0にてテーブル更新処理TBL273を行う。前記パケット受信PRCV270後は、続けてCPU1でパケット受信PRCV274を実行する。同様に、HEAD275、HKEY276はACC1にて、TBL277をCPU1にて実行する。次のパケット受信PRCV278は次にCPU0で行い、同様にACC0とCPU0で続きの処理を行う。
 このように、CPU0とCPU1で交互に並列で処理することで、受信パケットに対し連続的に処理を行うことができる。
 なお、CPU2及びCPU3では生成した統計情報テーブルを監視し、異常フロー検出等の応用機能を実行する。
 <IPプローブノード連携処理手法>
 続いて、IPプローブIPPのノード間連携手法について説明する。IPプローブIPPはネットワーク上に複数配置されるが、各ノードは互いに通信することで、ネットワーク全体のパケット状況を管理する。
 本実施例では、1個のノードは接続された通信経路の上流側、下流側のノードとのみ通信し、フロー固有値を送受信することによって、パケットフローの統計情報を共有し、各ノードがサーバと通信することによって、ネットワーク全体のパケットフローを可視化する。
 例えば、図13のように、IPPがネットワーク上に設置されているとする。各ノードでは図14に示すような管理テーブルを持つ。本テーブルは、自IPPノードのID番号(IPPID)300、接続IPPノードのID番号(CNTIPP)301、ポート識別フラグ(DIR)302、ノード間平均パケットデータ量(AGTP)303、ノード間平均パケット数(AGPPS)304、ノード間平均パケット通過時間(AGLT)305、フロー状態(STAT)306の項目を持つ。なお、AGLTはノード間でパケットの通過にかかる時間(レイテンシ)の平均であり、機器の故障や負荷の増加に伴うルータの性能不足等によりこの数値は増加する。この値がわかることで、例えばネットワークサービスのレスポンスが悪いときに、ネットワーク経路側の問題か、サービスを提供するサーバ側の問題かの切り分けを可能とする。
 ここで、図13のIPPID2ノード291に着目する。IPPID2(291)は上流側ポートにIPPID1(290)と接続関係を、下流側ポートにIPPID3(292)及びIPPID4(293)と接続関係を持つ。
 ノード間管理テーブルは接続関係と、ノード間のパケット全体情報を示している。例えば、1行目のエントリは、自ノードIDは2であり、接続先のIDは3、接続ポートは下り方向ポートを示すDN、平均パケットデータ量は3617Kバイト/秒、平均パケット数は80パケット/秒、平均パケット通過時間は50ミリ秒、状態は標準状態を示す1が記録される。
 また、2行目のエントリでは、自ノードIDは2であり、接続先のIDは4、接続ポートは下り方向DN、平均パケットデータ量は21Kバイト/秒、平均パケット数は3124パケット/秒、平均パケット通過時間は1500ミリ秒で、異常状態を表す状態2が記録されている。ここで、2行目のエントリは、平均パケットデータ量に対し平均パケット数が非常に大きく、またパケット通過時間も通常状態に対して非常に大きいため、ポートアタックなどの攻撃を受け、ネットワーク機器の負荷が上がっている可能性があり、異常状態を表す状態2が記録されている。この管理テーブルは、各ノードから管理サーバSRVに送信され、SRV上でネットワーク全体の統合管理テーブルとしてそのコピーが管理される。
 3行目のエントリでは、自ノードIDは2であり、接続先のIDは1、接続ポートは上り方向ポートを示すUP、平均パケットデータ量は3700Kバイト/秒、平均パケット数は80パケット/秒、平均パケット通過時間は40ミリ秒、状態は標準状態を示す1が記録される。
 このように、本実施例のIPプローブは、その上流及び下流に接続されたIPプローブと固有値を送受信することで、ノード間の管理テーブルを作成することを特徴とする。この特徴により、ノード間でのトラフィックの書類や使用帯域、レイテンシ等をマップで表示することが可能となる。さらに、この管理テーブルの平均パケット量と、平均パケット数又はノード間平均パケット通過時間とを対比することで、異常な通信を検出することを特徴とする。すると、ネットワークの異常を速やかに把握することが可能となり、障害への対応を迅速に行うことも可能となる。
 <各ノードの機能>
 各IPPノードの機能は管理サーバSRVよりIPPへ配信される。本実施例では、HMCPのアクセラレータACCとして動的再構成可能プロセッサを搭載しており、新たな規格のパケットを受信する、セキュリティを目的とした異常検出や帯域制御など新たな機能を設定したい場合は、プログラムを各ノードに配信すれば、容易にネットワーク全体の管理構成を変更することが可能である。
 <ネットワーク状況の提示方法>
 サーバSRVは以上の手段にて集約した情報を、ネットワーク全体の通信量やノード間の状況を、グラフィカルなインタフェース(GUI)で管理者やユーザに提示することができる。
 図15に図7で示したネットワークの状況を示すGUIの一例を示す。図7の社内ネットワークに、ファイル転送や、電子メール、WEBサーバ等のサービスを行うサービスサーバ(SVCSRV)313を追加している。サーバSRVはIPプローブIPPまたはIPプローブを内蔵したルータRTIPPからの情報により、接続されている機器(長方形の箱)とネットワークのトポロジ(機器間を接続する線)を表示する。また、ノード間の平均データ量、パケット量、平均パケット通過時間も提示する。本例では、平均パケットデータ量(スループット)(310)を線の太さで、ノード間の平均パケット通過時間(レイテンシ)(311)を線の色の濃さで示している。つまり、ノード間を接続する線の太さが太いほど、平均データ量が大であり、また線の色が薄いほど平均パケット通過時間が大であることを示す。これらの示し方は一例であり、例えば色の利用によってより効果的に示すこともできる。また、状態が異常な個所を点滅させたり、強調するような色を使ったり、といった提示が考えられる。また、平均パケット量など、他の指標値を画面の切替で表示することも考えられる。
 以上のように、本実施例のGUIは、上述のIPプローブを用いて集約した情報に基づいて、ノード間の通信状態を、線の濃さ、線の太さ、線の色等を変えて表現する点に特徴がある。また、異常箇所を、点滅や強調する色彩等の強調した表現で示す点や、上述のIPプローブによって取得した複数の情報を、画面を切り替えて順次表示する点にも特徴がある。
 この特徴により、ネットワーク管理者やユーザは、現在のネットワークの状況を直感的に理解することが可能となり、また、障害箇所の特定も容易となるので、障害への対処も迅速に行うことができる。
 また、あるノード上の通信の内訳をグラフで提示するといった方法も考えられる。例えば図15では、IPP314上の通信の内訳を円グラフ312で示している。円グラフ312では、WEBページを閲覧するサービスを提供するハイパーテキスト転送プロトコル(http)、ファイル転送プロトコル(ftp)、そしてノード間直接通信(p2p)の通信が行われていることを表す。IPP314が接続されたネットワーク回線上では、データ量が大きく、レイテンシも大きい。通信の内訳を見ると、ノード間直接通信p2pが大きな割合をしめ、この通信がネットワーク帯域を逼迫している原因であることがわかる。
 このように、本実施例のGUIは、通信の内訳をグラフ等の手段を用いて表現する点にも特徴がある。この特徴により、ネットワーク帯域を圧迫している原因を、ネットワーク管理者やユーザが直感的に理解することが可能となる。さらに、この特徴に基づいて、IPプローブに特定の通信を遮断する、または特定の通信が使用する帯域を限定する機能を組み込むといった対応を取ることも容易となり、ネットワーク品質を高めることが可能となる。
 以上、本発明により、低電力・小型なIPプローブノードが実現し、これをネットワーク上に複数個配置することにより、これまで観測することができなかったネットワーク上を流通するパケットの動向をリアルタイムで把握できることになり、ネットワーク品質の向上、保守管理コストの低減が実現される。
 本発明は、ネットワーク上を流れるパケットを効率よく解析する手段として、動的再構成可能プロセッサを含んだヘテロジニアスマルチコアプロセッサを用いた、ネットワークの状況を可視化するパケット解析装置に利用して特に有用である。

Claims (19)

  1.  複数の論理演算セルを有する第1のプロセッサコアと、前記第1のプロセッサコアの処理内容を決定するための第2のプロセッサコアとを具備するプロセッサを有し、
     前記複数の論理演算セルのそれぞれは、演算機能及び隣接する前記複数の論理演算セルとの接続関係を変更可能であり、
     前記プロセッサは、受信したパケットのヘッダから第1の情報を抽出し、前記第2のプロセッサコアが前記第1の情報に基づいて決定した前記第1のプロセッサコアの処理内容に従って、前記第1のプロセッサコアの前記演算機能及び前記接続関係を変更することを特徴とする情報処理装置。
  2.  請求項1記載の情報処理装置において、
     前記第1の情報は、送信元IPアドレス、送信先IPアドレス、送信元ポート、プロトコル、送信先ポート若しくはパケットデータサイズ、又はこれらの組合せであり、
     前記情報処理装置は、前記第1の情報、総パケット数、総パケットデータサイズ、毎秒パケット数、毎秒パケットデータサイズ、毎秒パケットデータ量若しくは第1の固有値、又はこれらの組合せについてのデータを記録した第1のテーブルをさらに有することを特徴とする情報処理装置。
  3.  請求項2記載の情報処理装置において、
     前記第1のテーブルは、特定の頻度で、前記情報処理装置の外部に設けられたサーバに送信されることを特徴とする情報処理装置。
  4.  請求項3記載の情報処理装置において、
     前記情報処理装置は、前記第1のテーブルに記憶されたデータの一部を参照することで、受信する複数のパケットが同一のフローに属するか否かを判定することを特徴とする情報処理装置。
  5.  請求項1記載の情報処理装置において、
     前記プロセッサは、前記第1の情報を抽出する際に、前記パケットがどのフローに属しているかを示す第1の固有値が前記ヘッダに含まれているかいないかを判定し、含まれていない場合は前記第1の固有値を前記ヘッダに付加することを特徴とする情報処理装置。
  6.  請求項1記載の情報処理装置において、
     前記第1のプロセッサコアと前記第2のプロセッサコアとを接続するためのバスと、
     前記第1のプロセッサコアを前記情報処理装置の外部に設けられた第1のメモリに接続するためのメモリコントローラとをさらに有することを特徴とする情報処理装置。
  7.  請求項1記載の情報処理装置において、
     前記情報処理装置は、前記第1のプロセッサコアが用いるプログラムを記憶するための第2のメモリをさらに有し、
     前記プロセッサは、前記第1の情報の情報に基づいて前記第1のプロセッサコアの次の構成を決定し、前記決定した構成に基づいて前記第2のメモリより前記第1のプロセッサコアのプログラムをロードすることを特徴とする情報処理装置。
  8.  請求項5記載の情報処理装置において、
     前記情報処理装置は、外部にある第2の情報処理装置と接続される場合に、前記第2の情報処理装置に前記第1の固有値を送信し、前記第2の情報処理装置から第2のパケットがどのフローに属する情報であるかを示す第2の固有値を受信し、
     前記情報処理装置は、前記第1及び第2の固有値に基づいて、第2のテーブルを作成することを特徴とする情報処理装置。
  9.  複数の第1の論理演算セルを有する第1のプロセッサコアと、前記第1のプロセッサコアの処理内容を決定するための第2のプロセッサコアとを具備する第1のプロセッサを有する第1の情報処理装置と、
     前記第1の情報処理装置に隣接して配置され、複数の第2の論理演算セルを有する第3のプロセッサコアと、前記第3のプロセッサコアの処理内容を決定するため第4のプロセッサコアとを具備する第2のプロセッサを有する第2の情報処理装置とを有し、
     前記複数の第1の論理演算セルのそれぞれは、第1の演算機能及び隣接する前記複数の第1の論理演算セルとの第1の接続関係を変更可能であり、
     前記第1のプロセッサは、受信した第1のパケットの第1のヘッダから第1の情報を抽出し、前記第2のプロセッサコアが前記第1の情報に基づいて決定した前記第1のプロセッサコアの処理内容に従って、前記第1のプロセッサコアの前記第1の演算機能及び前記第1の接続関係を変更し、
     前記複数の第2の論理演算セルのそれぞれは、第2の演算機能及び隣接する前記複数の第2の論理演算セルとの第2の接続関係を変更可能であり、
     前記第2のプロセッサは、受信した第2のパケットの第2のヘッダから第2の情報を抽出し、前記第4のプロセッサコアが前記第2の情報に基づいて決定した前記第3のプロセッサコアの処理内容に従って、前記第3のプロセッサコアの前記第2の演算機能及び前記第2の接続関係を変更し、
     前記第1のプロセッサは、前記第1の情報を抽出する際に、前記第1のパケットがどのフローに属しているかを示す第1の固有値が前記第1のヘッダに含まれているかいないかを判定し、含まれていない場合は前記第1の固有値を前記第1のヘッダに付加し、
     前記第2のプロセッサは、前記第2の情報を抽出する際に、前記第2のパケットがどのフローに属しているかを示す第2の固有値が前記第2のヘッダに含まれているかいないかを判定し、含まれていない場合は前記第2の固有値を前記第2のヘッダに付加し、
     前記第1の情報処理装置は、前記第1の固有値を前記第2の情報処理装置に送信し、前記第2の固有値を前記第2の情報処理装置から受信し、前記第1の固有値及び前記第2の固有値に基づいて第2のテーブルを作成することを特徴とするネットワークシステム。
  10.  請求項9記載のネットワークシステムにおいて、
     前記第2のテーブルは、前記第1の情報処理装置のID番号、前記第2の情報処理装置のID番号、ポート識別フラグ、平均パケットデータ量、平均パケット数、ノード間平均パケット通過時間若しくはフロー状態又はこれらの組合せであることを特徴とするネットワークシステム。
  11.  請求項10記載のネットワークシステムにおいて、
     前記第2のテーブルは、前記平均パケットデータ量、前記平均パケット数及び前記ノード間平均パケット通過時間とを有し、
     前記第1の情報処理装置は、前記平均パケットデータ量と、前記平均パケット数又は前記ノード間平均パケット通過時間とを対比することで、異常な通信を検出することを特徴とするネットワークシステム。
  12.  第1の情報処理装置が受信した第1のパケットの第1のヘッダから第1の情報を抽出する第1工程と、
     前記第1の情報に基づいて前記第1の情報処理装置が有する第1のプロセッサコアの次の構成を決定する第2工程と、
     前記第1のプロセッサコアを前記第2工程で決定された構成へと切り替える第3工程とを有することを特徴とする情報処理方法。
  13.  請求項12記載の情報処理方法において、
     前記第1の情報は、送信元IPアドレス、送信先IPアドレス、送信元ポート、プロトコル、送信先ポート若しくはパケットデータサイズ、又はこれらの組合せであり、
     前記第1工程の後に、前記第1の情報、総パケット数、総パケットデータサイズ、毎秒パケット数、毎秒パケットデータサイズ、毎秒パケットデータ量若しくはフロー固有値、又はこれらの組合せについてのデータが記録された第1のテーブルを作成する第4工程をさらに有することを特徴とする情報処理方法。
  14.  請求項13記載の情報処理方法において、
     前記第1工程の後に、前記第1のテーブルに記録されたデータを、指定された頻度で、前記情報処理装置の外部に設けられたサーバに送信する複数の第5工程をさらに有することを特徴とする情報処理方法。
  15.  請求項14記載の情報処理方法において、
     前記第4工程の後に、前記第1のテーブルに記録されたデータを参照し、前記第1の情報処理装置が受信する複数のパケットが同一のフローであるか否かを判定する第6工程をさらに有することを特徴とする情報処理方法。
  16.  請求項12記載の情報処理方法において、
     前記第1工程において、前記第1のパケットがどのフローに属するかを示す第1の固有値が前記第1のヘッダに含まれているかいないかを判定する第7工程と、
     前記第7工程において前記第1の固有値が前記第1のヘッダに含まれていないと判定された場合に、前記第1の固有値を求める第8工程と、
     前記第8工程の後に、前記第1の固有値を前記第1のヘッダに付加する第9工程とをさらに有することを特徴とする情報処理方法。
  17.  請求項16記載の情報処理方法において、
     前記第1の固有値を前記情報処理装置に隣接して接続された第2の情報処理装置に送信し、前記第2の情報処理装置から第2の固有値を受信する第10工程と、
     前記第1の固有値及び前記第2の固有値に基づいて、前記情報処理装置のID番号、前記隣接して接続された情報処理装置のID番号、ポート識別フラグ、平均パケットデータ量、平均パケット数、ノード間平均パケットデータ量若しくはフロー状態又はこれらの組合せを記録し第2のテーブルを作成する第11工程とをさらに有することを特徴とする情報処理方法。
  18.  請求項16記載の情報処理方法において、
     前記第1の固有値を前記第2の情報処理装置に送信し、前記第2の情報処理装置から第2の固有値を受信する第12工程と、
     前記第1の固有値及び前記第2の固有値に基づいて、平均パケットデータ量、平均パケット数及びノード間平均パケット通過時間を記録する第13工程と、
     前記平均パケットデータ量と、前記平均パケットデータ数又はノード間平均パケット通過時間とを比較することで、異常な通信を検出する第14工程とをさらに有することを特徴とする情報処理方法。
  19.  請求項12記載の情報処理方法において、
     前記第3工程において、前記第1のプロセッサコアの構成情報を記憶したメモリから前記第2工程で決定された構成をロードする第16工程をさらに有することを特徴とする情報処理方法。
PCT/JP2009/059995 2008-06-03 2009-06-01 パケット解析装置 WO2009148021A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/994,355 US20110085443A1 (en) 2008-06-03 2009-06-01 Packet Analysis Apparatus
JP2010515862A JP5211162B2 (ja) 2008-06-03 2009-06-01 情報処理装置および情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008145264 2008-06-03
JP2008-145264 2008-06-03

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/602,454 A-371-Of-International US8475528B2 (en) 2007-05-30 2008-05-30 Intraocular lens insertion device
US13/244,452 Division US8535375B2 (en) 2007-05-30 2011-09-24 Intraocular lens insertion device

Publications (1)

Publication Number Publication Date
WO2009148021A1 true WO2009148021A1 (ja) 2009-12-10

Family

ID=41398098

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/059995 WO2009148021A1 (ja) 2008-06-03 2009-06-01 パケット解析装置

Country Status (3)

Country Link
US (1) US20110085443A1 (ja)
JP (1) JP5211162B2 (ja)
WO (1) WO2009148021A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011078108A1 (ja) * 2009-12-21 2011-06-30 日本電気株式会社 マルチプロセッサ環境におけるパターンマッチング方法、及び装置
JP2013207507A (ja) * 2012-03-28 2013-10-07 Hitachi Ltd ネットワークノード及びネットワークノードの設定方法
JP2014511088A (ja) * 2011-08-05 2014-05-01 リアルハブ コープ,.エルティーディ 映像入力機器の接続障害判別装置および接続障害判別方法
WO2015136712A1 (ja) * 2014-03-14 2015-09-17 オムロン株式会社 経路伝送頻度出力装置
CN108370335A (zh) * 2015-10-27 2018-08-03 特里马克思发展中心 以太网虚拟连接的实时分布的引擎框架
CN111194056A (zh) * 2018-11-15 2020-05-22 诺基亚通信公司 数据分组的封装
JP2021500640A (ja) * 2017-10-18 2021-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 多層ネットワーク・トポロジにおける攻撃フローを識別するコンピュータ実施方法、コンピュータ・プログラム製品およびシステム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213590B2 (en) 2012-06-27 2015-12-15 Brocade Communications Systems, Inc. Network monitoring and diagnostics
KR101371902B1 (ko) * 2012-12-12 2014-03-10 현대자동차주식회사 차량 네트워크 공격 탐지 장치 및 그 방법
EP2869625A1 (en) * 2013-11-01 2015-05-06 JDS Uniphase Corporation Mobile network management system with different types of visualization of network performance data
US20170124043A1 (en) 2015-11-02 2017-05-04 Microsoft Technology Licensing, Llc Sound associated with cells in spreadsheets
US9990350B2 (en) * 2015-11-02 2018-06-05 Microsoft Technology Licensing, Llc Videos associated with cells in spreadsheets
EP3457276B1 (en) * 2017-09-13 2023-08-23 Sap Se Network system, method and computer program product for real time data processing
US11809495B2 (en) * 2021-10-15 2023-11-07 o9 Solutions, Inc. Aggregated physical and logical network mesh view

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348155A (ja) * 2002-05-27 2003-12-05 Hitachi Ltd 通信品質計測システム
JP2005117209A (ja) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> ポリシ制御回路
JP2005159747A (ja) * 2003-11-26 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> 無瞬断リコンフィグレーション方法及び装置
JP2005522924A (ja) * 2002-04-11 2005-07-28 エイチアイ/エフエヌ,インコーポレイテッド パケット処理方法およびパケット処理システム
JP2005260679A (ja) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> サービスノード及びサービス処理方法
JP2005277804A (ja) * 2004-03-25 2005-10-06 Hitachi Ltd 情報中継装置
JP2007184988A (ja) * 2007-03-28 2007-07-19 Hitachi Ltd フロー検出機能を備えたパケット転送装置およびフロー管理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8204082B2 (en) * 2000-06-23 2012-06-19 Cloudshield Technologies, Inc. Transparent provisioning of services over a network
US20020110133A1 (en) * 2000-12-15 2002-08-15 Tomas Bern Front-end service for selecting intelligent network services
TWI234737B (en) * 2001-05-24 2005-06-21 Ip Flex Inc Integrated circuit device
US20050036483A1 (en) * 2003-08-11 2005-02-17 Minoru Tomisaka Method and system for managing programs for web service system
JP4265326B2 (ja) * 2003-08-12 2009-05-20 株式会社日立製作所 サービス処理方法及びシステム並びにその処理プログラム
US7765250B2 (en) * 2004-11-15 2010-07-27 Renesas Technology Corp. Data processor with internal memory structure for processing stream data
JP4734539B2 (ja) * 2006-05-15 2011-07-27 学校法人慶應義塾 ネットワークに含まれるノード間の最短経路を探索するためのシステムおよび方法
US8910168B2 (en) * 2009-04-27 2014-12-09 Lsi Corporation Task backpressure and deletion in a multi-flow network processor architecture
US8537832B2 (en) * 2010-03-12 2013-09-17 Lsi Corporation Exception detection and thread rescheduling in a multi-core, multi-thread network processor
US8505013B2 (en) * 2010-03-12 2013-08-06 Lsi Corporation Reducing data read latency in a network communications processor architecture
US20120314710A1 (en) * 2010-02-12 2012-12-13 Hitachi, Ltd. Information processing device, information processing system, and information processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005522924A (ja) * 2002-04-11 2005-07-28 エイチアイ/エフエヌ,インコーポレイテッド パケット処理方法およびパケット処理システム
JP2003348155A (ja) * 2002-05-27 2003-12-05 Hitachi Ltd 通信品質計測システム
JP2005117209A (ja) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> ポリシ制御回路
JP2005159747A (ja) * 2003-11-26 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> 無瞬断リコンフィグレーション方法及び装置
JP2005260679A (ja) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> サービスノード及びサービス処理方法
JP2005277804A (ja) * 2004-03-25 2005-10-06 Hitachi Ltd 情報中継装置
JP2007184988A (ja) * 2007-03-28 2007-07-19 Hitachi Ltd フロー検出機能を備えたパケット転送装置およびフロー管理方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011078108A1 (ja) * 2009-12-21 2011-06-30 日本電気株式会社 マルチプロセッサ環境におけるパターンマッチング方法、及び装置
JP2014511088A (ja) * 2011-08-05 2014-05-01 リアルハブ コープ,.エルティーディ 映像入力機器の接続障害判別装置および接続障害判別方法
JP2013207507A (ja) * 2012-03-28 2013-10-07 Hitachi Ltd ネットワークノード及びネットワークノードの設定方法
WO2015136712A1 (ja) * 2014-03-14 2015-09-17 オムロン株式会社 経路伝送頻度出力装置
CN108370335A (zh) * 2015-10-27 2018-08-03 特里马克思发展中心 以太网虚拟连接的实时分布的引擎框架
JP2018533327A (ja) * 2015-10-27 2018-11-08 センター フォー ディベロップメント オブ テレマティックスCentre For Development Of Telematics イーサネット仮想接続に関するリアルタイム分散エンジンフレームワーク
JP2021500640A (ja) * 2017-10-18 2021-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 多層ネットワーク・トポロジにおける攻撃フローを識別するコンピュータ実施方法、コンピュータ・プログラム製品およびシステム
JP7002647B2 (ja) 2017-10-18 2022-01-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 多層ネットワーク・トポロジにおける攻撃フローを識別するコンピュータ実施方法、コンピュータ・プログラム製品およびシステム
CN111194056A (zh) * 2018-11-15 2020-05-22 诺基亚通信公司 数据分组的封装
CN111194056B (zh) * 2018-11-15 2023-08-01 诺基亚通信公司 数据分组的封装

Also Published As

Publication number Publication date
US20110085443A1 (en) 2011-04-14
JPWO2009148021A1 (ja) 2011-10-27
JP5211162B2 (ja) 2013-06-12

Similar Documents

Publication Publication Date Title
JP5211162B2 (ja) 情報処理装置および情報処理方法
Chaves et al. Ofswitch13: Enhancing ns-3 with openflow 1.3 support
US10148492B2 (en) Data center bridging network configuration and management
Yu Network telemetry: towards a top-down approach
US9577944B2 (en) Network switching system using software defined networking applications
US8086739B2 (en) Method and system for monitoring virtual wires
Bernardos et al. Network virtualization research challenges
US20200195530A1 (en) Method and apparatus for tap aggregation and network data truncation
Liu et al. NetAlytics: Cloud-scale application performance monitoring with SDN and NFV
Hyun et al. Real‐time and fine‐grained network monitoring using in‐band network telemetry
CN105827629A (zh) 云计算环境下软件定义安全导流装置及其实现方法
US20170063660A1 (en) Application-specific integrated circuit data flow entity counting
CN109194590B (zh) 支持网内智能的网络交换系统
Mohammadi et al. Taxonomy of traffic engineering mechanisms in software-defined networks: a survey
US20190205776A1 (en) Techniques for policy-controlled analytic data collection in large-scale systems
WO2023065848A1 (zh) 业务调度方法、装置、设备及计算机可读存储介质
Griffioen et al. The design of an instrumentation system for federated and virtualized network testbeds
US10797941B2 (en) Determining network element analytics and networking recommendations based thereon
Ando et al. L7 packet switch: packet switch applying regular expression to packet payload
Lin Client-centric orchestration and management of distributed applications in multi-tier clouds
Romanov et al. Analysis of Performance in Docker Net deployed in AWS cloud
US20240097998A1 (en) Extending distributed application tracing for network optimizations
Deri et al. Towards monitoring programmability in future internet: Challenges and solutions
TWI665578B (zh) 軟體連線之管理系統及方法
Koerner The ofelia tub-island an europe-wide connected openflow testbed

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09758288

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010515862

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12994355

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09758288

Country of ref document: EP

Kind code of ref document: A1