WO2012104981A1 - トラフィックデータ統合方法および装置 - Google Patents

トラフィックデータ統合方法および装置 Download PDF

Info

Publication number
WO2012104981A1
WO2012104981A1 PCT/JP2011/051968 JP2011051968W WO2012104981A1 WO 2012104981 A1 WO2012104981 A1 WO 2012104981A1 JP 2011051968 W JP2011051968 W JP 2011051968W WO 2012104981 A1 WO2012104981 A1 WO 2012104981A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
frame
traffic data
time
traffic
Prior art date
Application number
PCT/JP2011/051968
Other languages
English (en)
French (fr)
Inventor
千原孝太郎
田中春孝
中村亘
鹿間隆雄
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2011/051968 priority Critical patent/WO2012104981A1/ja
Priority to JP2012555604A priority patent/JP5641062B2/ja
Publication of WO2012104981A1 publication Critical patent/WO2012104981A1/ja
Priority to US13/936,730 priority patent/US9723579B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W56/00Synchronisation arrangements
    • H04W56/0005Synchronisation arrangements synchronizing of arrival of multiple uplinks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation

Definitions

  • the present invention relates to a traffic data integration method and apparatus for evaluating a network.
  • a wireless network such as an ad hoc network (or other network may be used)
  • the network traffic data is captured and analyzed by a capture device.
  • These capture devices collect data on radio wave conditions of nodes in the network. In the case of a wide-area network, or in situations where radio wave conditions change such as building shadows, it is not possible to capture the radio wave conditions of all nodes with a single capture device, so collect data using multiple capture devices, It is done to integrate them.
  • a “network analyzer” packet analyzer
  • data from a plurality of capture devices are integrated based on capture times (time stamps) of a plurality of capture data.
  • the time information When the operation is performed internally and / or externally by the time information generating means that generates the time information and the first and second communication protocol executing means, the time information generating means is generated during the operation.
  • the first and second trace information storage means for sequentially accumulating the time information and the operation information groups accumulated by the first and second trace information storage means are assigned to each operation information.
  • a conventional technique configured to include trace information integration means for integrating on the same time axis based on information is known (for example, Patent Document 1).
  • a processing device for analyzing a network trace using a data packet transmitted through a network includes a memory unit for storing trace data generated from the data packet, and the same session from the trace data.
  • the packet analysis unit that searches the packet pairs belonging to the node and generates the node order relationship, and the array data for estimating the time difference on the specific time axis of each node using the packet pair data and the order relationship data
  • a conventional technique is known that includes an array data generation unit that generates and stores, and a solution engine unit that calculates an estimated value of a time difference using the array data and stores the estimated value in a memory (for example, Patent Documents). 2).
  • a packet data analysis program for causing a computer to analyze packet data, the packet collecting packet data collected at a plurality of positions on the network and a time stamp indicating the time when the packet data was collected
  • a data collection step a message information acquisition step for acquiring message information that is information about the message from the packet data collected by the packet data collection step, and the time according to the position based on the message information acquired by the message information acquisition step.
  • a conventional technique is known in which a computer performs a time stamp correction step for correcting stamp deviation (for example, Patent Document 3).
  • a time lag may occur between capture devices, and a time lag may occur between capture data. Then, data may be merged in an order different from the actual order. Area overlap occurs between a plurality of capture devices, and the data of the capture devices in the overlapped portion are counted redundantly.
  • An object of the present invention is to be able to integrate traffic data in the order in which they actually flow on the network.
  • the same data pattern is obtained between the first and second traffic data respectively collected by the first and second capture devices that capture the frame data communicated by the nodes in the network as traffic data.
  • Time correction processing for correcting the time of each frame data in the first and second traffic data is performed so that the frame data is obtained and the capture time of the obtained frame data becomes the same time.
  • a traffic data integration method that uses frame data for which the same data pattern does not appear repeatedly as frame data for performing the time correction process, and limits the time difference of the frame data used when the time correction process is performed.
  • FIG. 6 is an operation explanatory diagram of an integration order determination unit 2-1. It is a network block diagram of 1st Embodiment. It is a flowchart which shows the traffic data integration process in 1st Embodiment. It is a flowchart which shows the time correction process in 1st Embodiment. It is a figure which shows the example of the traffic data before and behind time correction in 1st Embodiment. It is a flowchart which shows the duplicate frame deletion process in 1st Embodiment.
  • FIG. 10 is an image diagram of a network for explaining a method for increasing the accuracy of time correction by determining the adjacent relationship of capture ranges in the third embodiment.
  • FIG. 14 is a diagram for explaining integration processing in the network of FIG.
  • FIG. 20 is a diagram for describing a method for estimating a logical position of a node using overlapping frame data in the fourth embodiment.
  • FIG. 20 is a diagram illustrating a configuration example of management data for estimating the position of a node due to overlap of capture ranges in the fourth embodiment.
  • 14 is a flowchart illustrating processing for estimating the position of a node due to overlap of capture ranges in the fourth embodiment.
  • FIG. 10 is a diagram for describing a method of creating information necessary for estimating a node position based on duplicate frame data and wireless physical information in the fourth embodiment.
  • FIG. 1 is a diagram illustrating the capture and integration of traffic data in a wireless network.
  • a plurality of capture devices A, B, C, D, and E are arranged, and each capture range covers each node in the range indicated by a broken-line circle having the center.
  • Data from a plurality of capture devices A, B, C, D, and E are collected and analyzed by one traffic data integration device.
  • FIG. 2 is a configuration diagram common to the first to fourth embodiments of the traffic data integration device in FIG.
  • the traffic data integration device a includes an operation / setting unit 1, a file integration unit 2, a data reading unit 3, a data output unit 4, a traffic data storage area 5, an integrated data storage area 6, an input / output interface 7, and a time.
  • a correction unit 8, a frame search unit 9, and a duplicate frame deletion unit 10 are provided.
  • the operation / setting unit 1 is a means for a user to set a traffic data integration method and perform an integration operation, and includes a user interface such as a screen or a command.
  • the file integration unit 2 is a function for integrating (merging) a plurality of traffic data based on the time stamp value added to the frame data.
  • the frame data is communication data collected by each capture device in FIG. 1 from nodes within the capture range that it has jurisdiction over.
  • the data reading unit 3 has a function of reading the traffic data file to be integrated and the intermediate data file generated during the integration process from the traffic data storage area 5.
  • the data output unit 4 has a function of outputting the integrated data and intermediate data generated during the integration process to a file in the integrated data storage area 6.
  • the traffic data storage area 5 is a data area that is a storage unit for storing traffic data files output from a plurality of capture devices b.
  • the integrated data storage area 6 is a data area that is a storage unit for storing the integrated data file and the intermediate data file generated during the integration process.
  • the input / output interface 7 is an external interface for taking in traffic data files output by a plurality of capture devices b and outputting the integrated data files for use in a traffic data analysis tool or the like.
  • the time correction unit 8 uses the fact that the same frame data is duplicated and captured in the traffic data where the capture ranges overlap, and the traffic is set so that the time stamps of the frame data capturing the same frame have the same value. Correct the time stamp of the data. That is, assuming that the same data pattern is obtained between one capture device and another capture device, the capture times of the obtained frame data are set to the same time, and the times of all capture data are corrected. This correction is performed by matching the time of one capture device with the time of the other capture device. At this time, data captured by one capture device and capturing the same frame data as the frame data included in the traffic data is captured by another capture device. In order to determine whether it is included in the traffic data, the frame search unit 9 is used.
  • the frame search unit 9 detects the same frame data by searching frame data having the same data pattern as the frame data included in certain traffic data from other traffic data. At this time, data frames in which the same data pattern repeatedly appears in the same capture device, such as retransmission data, are not used as data frames for time correction. Since a retransmission flag is assigned to the retransmission data, it is determined that the same data pattern is repeated using this retransmission flag. Furthermore, by setting the data frame time difference used when correction is performed, the time can be accurately corrected even when the time lag of the capture device is large.
  • the data search can be supplemented by the frame search unit 9 as the data frame subject to correction time correction.
  • the “data pattern” indicates a byte string of the entire frame that has actually been flown through the network, captured by the capture device.
  • the duplicate frame deletion unit 10 has a function of deleting one of the duplicate data included in the plurality of traffic data while leaving one.
  • the determination as to whether or not the data is duplicated is performed by searching for frame data having the same data pattern using the frame search unit 9 described above.
  • a time stamp consistency check It is comprised with the means of.
  • the duplicate frame deletion unit 10 searches for duplicate frames using the frame search unit 9 to compare the time stamp values after time correction given to the frame data having the same data pattern.
  • the time stamp difference after the time correction is within a predetermined time range, it is determined that they are the same data frame, and one of them is deleted and merged.
  • the time stamp difference exceeds a certain time, the frames are regarded as different frames even if the data pattern is the same.
  • the threshold value of the time stamp difference serving as a determination criterion is set by the user by the operation / setting unit 1 or set in advance by the system.
  • the above-described traffic data integration device includes an integration order determination unit 2-1 in the file integration unit 2.
  • the integration order determination unit 2-1 determines the adjacency relationship of the capture devices by determining whether there is a duplicate frame between the traffic data, and determines the integration order .
  • the target traffic data may not contain duplicate frames, so time correction cannot be performed correctly. However, it is possible to perform time correction using traffic data acquired by a capture device adjacent to the capture device.
  • FIG. 3 is an operation explanatory diagram of the integration order determination unit 2-1.
  • the capture device A and the capture device C are separated from each other in the capture range, duplicate data is not included in the data captured by the capture device A and the capture device C.
  • the capture device B and the capture device C and the capture device C overlap each other, the overlapping frames are captured.
  • the traffic data acquired from the capture device A and the capture device C is first integrated, time correction cannot be performed correctly.
  • the traffic data acquired from the capture device A and the capture device B is first integrated, and the integrated data and the traffic data acquired from the capture device C are integrated. Then, it is possible to correct the time correctly for the traffic data whose capture ranges do not overlap.
  • a means for estimating the position of a node based on radio physical information included in traffic data, and a position information management unit 11 is configured.
  • the traffic data output by a general capture device includes not only the byte sequence of the entire frame that actually flows through the network, but also physical physical information (such as radio wave intensity and noise strength) acquired by the capture device.
  • the distance between the node and the capture device can be determined from the wireless physical information included in the traffic data. By combining this with the position information of the capture device managed by the position information management unit 11, the logical positional relationship of the nodes can be estimated.
  • the time correction can be performed even when the time of the capture device is deviated, so that the traffic data can be integrated in the order in which they actually flow on the network.
  • the data of the same data pattern is stored together in a file at the time of integration, it does not appear that the data of the same data pattern is transmitted a plurality of times.
  • traffic data for the entire network can be created by using a plurality of capture devices. .
  • an analysis tool By analyzing the data created in the configuration of FIG. 1 with an analysis tool, it becomes possible to efficiently analyze the operation of the entire network that could not be analyzed with one capture device. As a result, it is possible to shorten the period and man-hours for network device development, network construction, and maintenance work, and as a result, it is possible to construct and maintain a high-quality network.
  • the first to fourth embodiments of the traffic data integration device having the configuration of FIG. 1 will be sequentially described below.
  • a first embodiment of the traffic data integration device will be described.
  • An example of the network configuration in the first embodiment is shown in FIG.
  • wireless LAN access points AP1 and AP2 are connected by a wired LAN such as Ethernet (registered trademark), and terminals A to C are connected to the access point AP1 by a wireless LAN.
  • terminals D to F are connected to the access point AP2 via a wireless LAN.
  • a wireless LAN is cited as an example of a wireless network, but the network targeted in the present embodiment is not limited to a wireless LAN.
  • capture devices X and Y are arranged.
  • the capture device X captures the traffic data of AP1 and terminals A to D
  • the capture device Y is arranged to capture the traffic data of AP2 and terminals D to F.
  • Each of the ranges is indicated by a dashed circle.
  • the traffic data of the terminal D can be captured by both the capture devices X and Y.
  • the traffic data acquisition may fail depending on the radio wave condition.
  • the traffic data can be obtained by using a plurality of capture devices in order to prevent the traffic data from being lost.
  • the traffic data acquired by the capture devices X and Y is collected in the traffic data integration device a.
  • a method of collecting data a method of using a portable storage medium such as a USB memory, or a method of connecting a capture device and a traffic data integration device via a network and collecting them via the network can be considered.
  • a file server or an FTP (File Transfer Protocol) server can be used as a method of passing through the network.
  • the operation when two capture devices are installed and two traffic data are integrated will be described.
  • the number of files to be integrated is not limited to two, and may be three or more.
  • the integration condition includes the file name of the traffic data to be integrated, the output destination file name of the resultant integrated data, the data integration order, and the like.
  • the file integration unit 2 corrects the time of the traffic data using the time correction unit 8 (step S502).
  • the time correction unit 8 uses the frame search unit 9 to search for duplicate frame data from a plurality of traffic data files, and corrects the time so that the time stamps of the duplicate frame data have the same value.
  • the file integration unit 2 deletes the duplicate frame data included in the plurality of traffic data using the duplicate frame deletion unit (step S503). Finally, the traffic data from which duplicated frame data has been deleted is integrated (merged) in the order of time stamps after time correction, and the integrated result is output to a file (step S504).
  • FIG. 6 is a flowchart showing the time correction processing in step S502 of FIG. 5 executed by the time correction unit 8 of FIG. First, the traffic data 1 and 2 that are subject to time correction are read (step S601).
  • frame data 1 is acquired from the traffic data 1 as one frame data (step S602).
  • step S603 If it is determined in step S603 that there is a frame, the frame data 2 having the same pattern as the frame data 1 is searched from the traffic data 2 (step S604).
  • step S604 it is determined whether or not a frame with the same pattern exists (step S605). If it does not exist, the process returns to step S602, frame data 1 is acquired from the traffic data 1 as the next one frame data, and frame data 2 of the same pattern is searched for the frame data 1. That is, the process of steps S605 ⁇ S602 ⁇ S603 ⁇ S604 ⁇ S605 is repeated.
  • step S603 If all the frame data in the traffic data 1 is processed and it is determined in step S603 that there are no more frames, the time correction process ends. If it is determined in step S605 that frame data 2 having the same pattern as frame data 1 exists, the time difference from the reference data is calculated by the following equation (steps S605 ⁇ S606).
  • FIG. 7 is a diagram illustrating an example of traffic data before and after time correction in the first embodiment.
  • reference numeral 701 denotes traffic data 1 before time correction collected from one capture device.
  • Reference numeral 702 denotes traffic data 2 before time correction collected from other capture devices.
  • the traffic data includes frame data flowing through the network and time (time stamp) when the frame data is captured by the capture device.
  • the first frame data “AAAAAAAAA” of “Traffic data 1 (before time correction)” (701) is acquired (S602 in FIG. 6). Then, it is searched whether or not frame data whose data pattern is “AAAAAAAAA” exists in “traffic data 2 (before time correction)” (702) (S604 and S605 in FIG. 6). However, since the frame data “AAAAAAAAA” does not exist in “Traffic data 2 (before time correction)” (702), the frame is not used for time correction.
  • the second frame data “BBBBBBBBB” of “traffic data 1 (before time correction)” (701) is acquired (S602 in FIG. 6), and the frame data whose data pattern is “BBBBBBBBB” is “traffic data 2”. It is searched whether or not it exists in (before time correction) "(702) (S604, S605 in FIG. 6).
  • “Traffic data 2 (before time correction)” (702) includes frame data whose data pattern is “BBBBBBBBB”. Therefore, it is determined that the frame data is data obtained by capturing the same frame with different capture devices, and is used for time correction (S605 ⁇ S606 in FIG. 6).
  • the time stamp of the frame data whose data pattern is “BBBBBBBBB” is “2010/7/7 18: 00: 03.000” in “Traffic data 1 (before time correction)” (701).
  • “traffic data 2 (before time correction)” (702) is “2010/7/7 18: 00: 03.500”
  • the time stamp of “traffic data 2 (before time correction)” (702) is 500 milliseconds ahead. Therefore, the time of each frame of “traffic data 2 (before time correction)” (702) which is not the reference data is returned by 500 milliseconds, and the time stamps of the frame data whose data pattern is “BBBBBBBBB” are matched (FIG. 6 S606 ⁇ S607).
  • the time stamps of all frames of traffic data that are not reference data are corrected due to the time difference of that frame.
  • various methods can be employed, such as obtaining an average value of time differences from a plurality of frames and using it for correction, or changing reference data in units of frames.
  • FIG. 8 is a flowchart showing the duplicate frame deletion process of step S503 in FIG. 5 executed by the duplicate frame deletion unit 10 in FIG. First, the traffic data 1 and 2 after the above-described time correction, which is a target for deleting duplicate frames, are read (step S801).
  • frame data 1 is acquired from the traffic data 1 after time correction as one frame data (step S802).
  • step S803 If it is determined in step S803 that a frame exists, frame data 2 is acquired as one frame data from the traffic data 2 after time correction (step S804).
  • step S805 it is determined whether or not there is a frame, that is, whether or not the frame data 2 has been acquired in step S804 (step S805). If it is determined in step S805 that a frame exists, it is determined whether or not the data pattern of the frame data 1 acquired in step S802 matches the data pattern of the frame data 2 acquired in step S804 (step S806). ).
  • step S804 the process returns to step S804, and the frame data 2 is acquired from the traffic data 2 as the next one frame data, and it is determined whether or not the frame data 2 matches the frame data 1. . That is, the process of steps S806 ⁇ S804 ⁇ S805 ⁇ S806 is repeated.
  • step S805 If all the frame data in the traffic data 2 is processed and it is determined in step S805 that there are no more frames, the process returns to step S802. If it is determined in step S806 that the data patterns of the frame data 1 and 2 match, the current frame data 2 is deleted from the traffic data 2 after time correction (step S807). Thereafter, the process returns to step S802.
  • step S802 When returning from step S805 or S807 to step S802, frame data 1 is acquired from the traffic data 1 as the next one frame data, and duplication determination and deletion processing for the frame data 1 is executed. That is, a series of processing from step S802 to S807 is repeated.
  • step S803 If all the frame data in the traffic data 1 is processed and it is determined in step S803 that there are no more frames, the traffic data 1 and 2 after the time correction are merged in the order of the time stamp, and the duplicate frame deletion process ends ( Step S808).
  • FIG. 9 is a diagram illustrating an example of traffic data before and after deletion of duplicate frames in the first embodiment.
  • reference numeral 901 denotes traffic data 1 before duplicate deletion after being collected from one capture device and subjected to time correction processing.
  • Reference numeral 902 denotes traffic data 2 before duplicate deletion after being collected from another capture device and subjected to time correction processing.
  • 7 is the same as “Traffic data 1 (after time correction)” (703) and “Traffic data 2 (after time correction)” (704), respectively.
  • FIG. 10 When the two traffic data are merged in order of time stamp (S808 in FIG. 8), “integrated data” (1001) in FIG. 10 is output.
  • the frame data “BBBBBBBBB” and “CCCCCCCC” are redundantly deleted to form one data each.
  • the frame data “AAAAAAAAA”, “DDDDDDD”, and “EEEEEEEE” are obtained from the traffic data 1.
  • the frame data “FFFFFFFF”, “GGGGGGGG”, and “HHHHHHHH” are obtained from the traffic data 2. These are rearranged in time stamp order and merged.
  • the two traffic data can be integrated by the configuration of the first embodiment.
  • the integration of three or more traffic data can be realized by repeating the integration of two traffic data.
  • FIG. 11 is a flowchart showing a duplicate frame deletion process including a time stamp consistency check process according to the second embodiment.
  • the same step numbers are assigned to the same processing steps as in FIG. 8 according to the first embodiment.
  • step S1101 If it is determined in step S805 in FIG. 11 that a frame of frame data 2 exists, it is first determined whether or not the time (time difference) between frame data 1 and frame data 2 is within an allowable range (Ste S1101). Only when the times of the frame data 1 and the frame data 2 are within the allowable range, whether or not the data patterns of the frame data 1 acquired in step S802 and the frame data 2 acquired in step S804 match. A determination is made (step S806). If the times of the frame data 1 and the frame data 2 are not within the allowable range, they are not regarded as the same frame data and the process returns to step S802 without performing the duplicate frame deletion process.
  • FIG. 12 is a diagram showing an example of traffic data before and after time correction in the second embodiment.
  • 1201 is the traffic data 1 before time correction collected from one capture device.
  • Reference numeral 1202 denotes traffic data 2 before time correction collected from another capture device.
  • the frame data “BBBBBBBBB” is the same between the traffic data 1 and the traffic data 2.
  • the time difference 500 ms between the frame data “BBBBBBBBB” is returned from “traffic data 2 (before time correction)” (1202).
  • the time stamp of the frame data “CCCCCC” is “2010/7/7 18: 00: 07,000” in “traffic data 1 (after time correction)” (1203), and “traffic data 2 (time correction After) ”(1204),“ 2010/7/7 18: 00: 07.050 ”, which is a time difference of 50 milliseconds. This is because the difference between the time stamps of the frame data “BBBBBBBBB” and “CCCCCCCC” in each traffic data does not match, and this state may occur due to processing delay of the capture device.
  • the allowable error range of the time stamp after the time correction in step S1101 of FIG. 11 is 100 milliseconds.
  • the error of the time stamp of the frame of the data pattern “CCCCCCCC” is 50 milliseconds, and is within 100 milliseconds.
  • a time correction process is performed to correct the time of each frame data in the first and second traffic data so that the obtained capture times of the frame data become the same time (S606).
  • S607 frame data in which the same data pattern does not appear repeatedly in the same capture device is used as frame data for performing the time correction process, and the time difference of the frame data used when performing the time correction process is limited.
  • Fick data integration method is provided.
  • the description has been made on the assumption that a plurality of traffic data includes duplicate frames, but the actual traffic data does not necessarily include duplicate frames.
  • the time is corrected with A (1001) and C (1002), then the time corrected C (1002) and D (1003) are time corrected, and finally the time corrected D (1003) and B (1004) are corrected.
  • the time of the four traffic data can be corrected.
  • the time correction can be performed in the optimum order by checking the presence or absence of duplicate data between traffic data.
  • a table in which traffic data files are arranged in an integration order (integration order table) and a table (file list table) for storing traffic data files to be integrated are provided.
  • integration order table a file used as a time reference (here, traffic data A) is stored at the head.
  • traffic data A duplicate data is searched for the traffic data in the file list table. Search is performed in descending order of traffic data B to D from the top of the file list table. Duplicate data is searched for the traffic data C by the arrangement of the capture device of FIG. The retrieved traffic data is stored in the integration order table as indicated by I in FIG. II.
  • the file list table is similarly searched with the traffic data C (stored in the integration order table with I) next to the integration order table.
  • the traffic data D is retrieved from the arrangement of the capture devices in FIG. 13 and stored in the integration order table as indicated by II in FIG. III. Search in the same way as I and II.
  • Traffic data B is retrieved from the arrangement of the capture device in FIG. 13 (III in FIG. 14). IV.
  • the search ends (IV in FIG. 14). At this time, if traffic data remains in the file list table, there is traffic data that cannot be time-corrected because the data is not duplicated.
  • FIG. 15 is a flowchart showing an integration order determination process executed by the integration order determination unit 2-1 of FIG. 2 in order to realize the operation of the third embodiment described above.
  • traffic data serving as a time reference is stored in the integration order table (step S1501).
  • step S1502 data overlapping with the traffic data at the end of the integration order table is searched from the file list table (step S1502).
  • step S1503 it is determined whether or not there is duplicate data as a result of the search (step S1503). If there is duplicate data, the duplicate traffic data is moved to the integration order table (steps S1503 ⁇ S1504).
  • step S1505 the presence / absence of data in the file list table is determined. If there is data in the file list table, the process returns to step S1502, and data that overlaps with the traffic data at the end of the integration order table is further searched from the file list table (step S1502).
  • step S1503 If it is determined in step S1503 that there is no duplicate data, or if it is determined in step S1505 that there is no data in the file list table, the integration order determination process ends.
  • the integration order determination process when three or more pieces of traffic data are integrated by the integration order determination process (integration order determination unit 2-1 in FIG. 2), the presence / absence of duplicate frames between the traffic data is determined.
  • the adjacency order of the capture devices can be determined, and the integration order can be determined.
  • the two traffic data selected according to the integration order are set as traffic data 1 and 2, and the time correction process and the duplicate frame deletion process are executed. These processes are the same as the time correction process described in the first embodiment and the duplicate frame deletion process described in the first or second embodiment.
  • FIG. 16 is a diagram for explaining a method of estimating the logical position of a node using duplicate frame data in the fourth embodiment.
  • the traffic data can include radio physical information acquired from the capture device hardware in addition to the time stamp and frame data.
  • radio physical information acquired from the capture device hardware in addition to the time stamp and frame data.
  • SSI wireless signal strength
  • FIG. 16 (a) is a diagram showing the positional relationship between the nodes on the network and the capture device.
  • a range in which the capture device can capture traffic data is indicated by a broken-line circle.
  • the capture range of the fourth embodiment is described on the assumption that it extends in a circular shape centering on the capture device, but in an actual network, it changes depending on the position of an obstacle.
  • the data supplemented by the capture device A is the data of the nodes 1, 2, 3, 5 and the data supplemented by the capture device B is the data of the nodes 1, 2, 4, 6 and the capture device C is supplemented.
  • the data to be performed is the data of nodes 1, 3, 4, and 7.
  • FIG. 16B is a diagram in which areas where the capture ranges of the capture devices A, B, and C overlap are classified into I to IV. How the capture ranges overlap is determined based on the position information of the capture device and the distance from the capture device. For example, as the position information of the capture device, information acquired by mounting a GPS (Global Positioning System) on the capture device can be used, or position information grasped in advance by the user can be used. . The distance from the capture device within the capture range is determined based on the specifications of the network to be captured.
  • GPS Global Positioning System
  • the node 1 that is the transmission source of the corresponding frame is in the area I in FIG. I guess it exists.
  • the node 2 is assumed to exist in the area II of FIG. The same applies to areas III and IV.
  • FIG. 17 is a diagram illustrating a data configuration example of the overlapping frame table and the position information table provided in the position information management unit 11 of FIG. 2 in order to realize the operation of the above-described fourth embodiment.
  • the duplicate frame table in FIG. 17A includes a time stamp after time correction, identification information of frame data, identification information of a transmission source node that transmitted the frame data, and identification of the capture device that detected the frame data. Keep information. From the example of FIG. 17A, the frame data “BBBBBBBBB” whose time stamp from the transmission source node 1 is “2010/7/7 18: 00: 03.000” is three captures of A, B, and C. It can be seen that it was detected by the device. It can also be seen that the frame data “CCCCCCCC” with the time stamp “2010/7/7 18: 00: 07000” from the source node 2 is detected by the two capture devices A and B.
  • the capture device A has an XY coordinate value of (100, 300) as the installation position and the capture range is 150.
  • the capture device B has an XY coordinate value of (300, 250) as the installation position and the capture range is 150.
  • the capture device C has an XY coordinate value of (200, 100) as the installation position and the capture range is 150.
  • FIG. 18 is a flowchart showing a process of estimating the position of a node due to the overlap of capture ranges, which is executed by the position information management unit 11 of FIG. 2 in order to realize the operation of the fourth embodiment described above.
  • step S1801 the time of all traffic data is corrected by the time correction unit 8 of FIG. 2 by the method shown in the first embodiment (step S1801) (the flowchart of FIG. 6 executed by the time correction unit 8 of FIG. 2). ).
  • step S1801 one piece of traffic data whose time is corrected in step S1801 is selected, and frame data is acquired (step S1802).
  • step S1803 the traffic data to be searched whose time is corrected in step S1801 is selected.
  • step S1804 duplicate frame data is searched from the search target traffic data selected in step S1803 (step S1804). Then, it is determined whether or not there is an overlapping frame (step S1805).
  • step S1805 If it is determined in step S1805 that there are duplicate frames, the identification information of the capture device is added to the duplicate frame table (see FIG. 17A) (step S1806).
  • step S1805 If it is determined in step S1805 that there is no duplicate frame, the transmission source node is specified from the frame data acquired in step S1802 (step S1807).
  • a new record that is, each information set of the time stamp, the frame data, and the transmission source node is added to the duplicate frame table (FIG. 17A) (step S1808).
  • step S1806 or S1808 it is determined whether there is other traffic data whose time is corrected in step S1801 as a search target (step S1809).
  • step S1809 If it is determined in step S1809 that there is other traffic data, the process returns to step S1803, new search target traffic data is selected, and duplicate frame data is searched.
  • step S1803 If it is determined in step S1803 that there is no other traffic data, a list of capture devices is acquired from the duplicate frame table (FIG. 17A) (step S1810).
  • step S1810 the position information (XY coordinate value and capture range of the installation position) of each capture device in the list acquired in step S1810 is acquired from the position information table (FIG. 17B) (step S1811). Then, an area where the capture range overlaps is specified from the XY coordinate value of each piece of position information acquired in step S1811 and the capture range (step S1812).
  • FIG. 19 is a diagram for explaining a method for creating information necessary for estimating the position of a node based on duplicate frame data and wireless physical information in the fourth embodiment.
  • the signal strength when the data transmitted from the node 1 in the area I in FIG. 16B is captured by the capture devices A, B, and C is represented by SSI [A], SSI [B], and SSI [C ]
  • the frame search unit 9 in FIG. 2 detects duplication of frame data, the following control is performed.
  • the management table illustrated in FIG. 19A the identification information (2101) of the transmission source node of the corresponding frame data, the identification information (2102) of the device that captured the corresponding frame data, and the signal strength ( 2103).
  • the position of the node can be estimated. That is, as shown in FIG. 19B, the position of the node can be estimated from each capture device as a distance proportional to the detected signal strength.
  • FIG. 20 is a diagram showing a data configuration example of a duplicate frame table and a position information table provided in the position information management unit 11 of FIG. 2 in order to realize the operation of the fourth embodiment shown in FIG. .
  • the duplicate frame table of FIG. 20A includes a time stamp after time correction, identification information of frame data, identification information of a transmission source node that transmitted the frame data, and The identification information of the capture device that detected the frame data is held. Further, the overlap frame table holds the signal strength (decibel value) when the frame data is detected for each capture device.
  • the frame data “BBBBBBBBB” with the time stamp “2010/7/7 18: 00: 03.000” from the transmission source node 1 is three captures A, B, and C. It can be seen that it was detected by the device. It can be seen that the signal intensities at the A, B, and C capture devices are ⁇ 50 dBm, ⁇ 70 dBm, and ⁇ 65 dBm, respectively. It can also be seen that the frame data “CCCCCC” with the time stamp “2010/7/7 18: 00: 07000” from the source node 2 is detected by the two capture devices A and B. It can be seen that the signal intensities at the A and B capture devices are -55 dBm and -55 dBm, respectively.
  • the capture device A is the XY coordinate value of (100, 300) as the installation position
  • the capture device B is the XY coordinate value of (300, 250)
  • the capture device C is (200, 100). It can be seen that these are the XY coordinate values.
  • FIG. 21 is a flowchart showing processing for estimating the position of a node based on the difference in signal strength, which is executed by the position information management unit 11 of FIG. 2 in order to realize the operation of the fourth embodiment shown in FIG. It is.
  • the same step numbers are assigned to the same processing steps as in FIG.
  • steps S2101 and S2102 are executed instead of step S1810 of FIG. 18, and step S2103 is executed instead of step S1812 of FIG.
  • step S1806 in FIG. 21 when the identification information of the capture device is added to the duplicate frame table (see FIG. 20A), the signal strength information is also added.
  • step S2101 a list of capture devices and signal strengths is acquired from the overlapping frame table. Subsequently, the distance between each capture device and the transmission source node is calculated from the signal intensity (step S2102) (see FIG. 20B).
  • step S1811 the position information (XY coordinate value of the installation position) of each capture device in the list acquired in step S2101 is acquired from the position information table (FIG. 20B) (step S1811).
  • the position of the node is specified from the XY coordinate value of each position information acquired in step S1811 and the distance from each capture device calculated in step S2102 (step S2103).
  • the fourth embodiment it is possible to estimate the logical positional relationship between the transmission source nodes of each frame data of the traffic data based on the traffic data collected from the plurality of capture devices. Become.
  • frame data in which the same data pattern repeatedly appears in the same capture device may not be used as time correction frame data.
  • the first embodiment by limiting the time difference of the frame data used when correcting the time, it is possible to correct the time accurately even when the time lag of the capture device is large.
  • FIG. 22 is a diagram illustrating an example of a hardware configuration of a computer that can implement the traffic data integration device according to the first to fourth embodiments as software processing.
  • 22 includes a CPU 2201, a memory 2202, an input device 2203, an output device 2204, an external storage device 2205, a portable recording medium driving device 2206 into which a portable recording medium 2209 is inserted, and a communication interface 2207. , These are connected to each other by a bus 2208.
  • the configuration shown in the figure is an example of a computer that can implement the above system, and such a computer is not limited to this configuration.
  • the CPU 2201 controls the entire computer.
  • the memory 2202 is a memory such as a RAM that temporarily stores a program or data stored in the external storage device 2205 (or portable recording medium 2209) when executing a program, updating data, or the like.
  • the CUP 2201 performs overall control by reading the program into the memory 2202 and executing it.
  • the input / output device 2203 detects an input operation by a user using a keyboard, a mouse, or the like, notifies the CPU 2201 of the detection result, and outputs data sent under the control of the CPU 2201 to a display device or a printing device.
  • the external storage device 2205 is, for example, a hard disk storage device. Mainly used for storing various data and programs.
  • the portable recording medium driving device 2206 accommodates a portable recording medium 2209 such as an optical disc, SDRAM, or Compact Flash (registered trademark), and has an auxiliary role for the external storage device 2205.
  • the communication interface 2207 is a device for connecting, for example, a LAN (local area network) or WAN (wide area network) communication line.
  • the CPU 2201 executes a program having functions implemented by the flowcharts of FIGS. 5, 6, 8, 11, 11, 15, 18, 21 and the like. This is realized.
  • the program may be recorded and distributed in the external storage device 2205 or the portable recording medium 2209, or may be acquired from the network by the network connection device 2207.

Abstract

 フレーム検索部9は、ネットワーク内のノードが通信するフレームデータをトラフィックデータとしてキャプチャする第1および第2のキャプチャ装置がそれぞれ収集した第1および第2のトラフィックデータの間で、同じデータパターンとなるフレームデータであって、同一のキャプチャ装置で同じデータパターンが繰り返し現れないフレームデータを求める。時刻補正部8は、フレーム検索部9が求めたフレームデータのキャプチャ時刻が同一時刻になるように、第1および第2のトラフィックデータ内の各フレームデータの時刻を、各フレームデータの時刻差を限定して補正する時刻補正処理を行う。

Description

トラフィックデータ統合方法および装置
 本発明は、ネットワークの評価を行うトラフィックデータ統合方法および装置に関する。
 例えばアドホックネットワーク等のワイヤレスネットワーク(その他のネットワークでもよい)においては、ネットワークの振る舞いを解析・検証するために、キャプチャ装置によりネットワークのトラフィックデータをキャプチャし解析することが行われる。これらのキャプチャ装置は、ネットワーク中のノードの電波状況のデータを収集する。広範囲のネットワークである場合や、建物の影など電波状態が変わる状況では1台のキャプチャ装置で全てのノードの電波状況をキャプチャすることはできないため、複数のキャプチャ装置を用いてデータを収集し、それらを統合することが行われる。
 従来技術としては、「ネットワークアナライザ」(パケットアナライザ)が知られている。アナライザ技術では、複数のキャプチャデータのキャプチャ時間(タイムスタンプ)を基に、複数のキャプチャ装置からのデータを統合する。
 また、新たに設計された第1及び第2の通信プロトコル情報1及び2に基づいて、対向する第1及び第2の通信プロトコル実行手段間で行われる通信を評価する通信評価システムにおいて、時間情報を発生する時間情報発生手段と、第1及び第2の通信プロトコル実行手段でそれぞれ、内的及び又は外的に動作が行われると、その動作情報に、前記時間情報発生手段がその動作時に発生した時間情報を付して順次蓄積する第1及び第2のトレース情報記憶手段と、第1及び第2のトレース情報記憶手段が蓄積した双方の動作情報群を、各動作情報に付された時間情報に基づいて同一時間軸上に統合するトレース情報統合手段とを有するように構成した従来技術が知られている(例えば特許文献1)。
 また、ネットワークを通して伝送されるデータ・パケットを使用してネットワーク・トレースを解析するための処理装置は、データ・パケットから生成されるトレース・データを格納するメモリ部と、トレース・データから同一のセッションに帰属されるパケット対を検索して、ノードの序列関係を生成するパケット解析部と、パケット対データと序列関係データとを使用して各ノードの固有時間軸の時間差を見積もるための配列データを生成し、格納させる配列データ生成部と、配列データを使用して時間差の見積もり値を算出し、メモリに格納する解法エンジン部とを含むように構成した従来技術が知られている(例えば特許文献2)。
 さらに、パケットデータの解析をコンピュータに実行させるパケットデータ解析プログラムであって、ネットワーク上の複数の位置で採取されたパケットデータと、該パケットデータが採取された時刻であるタイムスタンプとを収集するパケットデータ収集ステップと、パケットデータ収集ステップにより収集されたパケットデータからメッセージに関する情報であるメッセージ情報を取得するメッセージ情報取得ステップと、メッセージ情報取得ステップにより取得されたメッセージ情報に基づいて、位置による前記タイムスタンプのずれを補正するタイムスタンプ補正ステップとをコンピュータに実行させるように構成した従来技術が知られている(例えば特許文献3)。
 加えて、複数パケットがプロトコルシーケンスの特定状況にあるか否かを判断し、特定状況にある場合に当該複数パケットを圧縮可能と判定する圧縮判定部と、圧縮可能な複数パケットのやり取りをまとめて出力させる出力データを生成するプロトコルシーケンス表示部とを備えるように構成した従来技術が知られている(例えば特許文献4)。
特開2000-244605号公報 特開2005-27252号公報 特開2007-166453号公報 特開2003-264609号公報
 複数のキャプチャ装置を用いる場合には、キャプチャ装置間で時刻ずれが生じることがあり、キャプチャデータ間に時刻ずれが生じることがある。そうすると実際の順序と異なる順序でデータがマージされる可能性がある。複数のキャプチャ装置間でエリアの重なりが生じ、その重なり部分にあるキャプチャ装置のデータは重複してカウントされることになる。
 本発明の課題は、実際にネットワーク上に流れる順序でトラフィックデータを統合できるようにすることである。
 一態様によれば、ネットワーク内のノードが通信するフレームデータをトラフィックデータとしてキャプチャする第1および第2のキャプチャ装置がそれぞれ収集した第1および第2のトラフィックデータの間で、同じデータパターンとなるフレームデータを求め、求められたフレームデータのキャプチャ時刻が同一時刻になるように、第1および第2のトラフィックデータ内の各フレームデータの時刻を補正する時刻補正処理を行い、同一のキャプチャ装置で同じデータパターンが繰り返し現れないフレームデータについて、前記時刻補正処理を行うためのフレームデータとして用い、時刻補正処理を行うときに用いるフレームデータの時刻差を限定するトラフィックデータ統合方法が提供される。
ワイヤレスネットワークにおける、トラフィックデータのキャプチャおよび統合を説明する図である。 第1から第4の実施形態に共通の構成図である。 統合順序判定部2-1の動作説明図である。 第1の実施形態のネットワーク構成図である。 第1の実施形態におけるトラフィックデータ統合処理を示すフローチャートである。 第1の実施形態における時刻補正処理を示すフローチャートである。 第1の実施形態における時刻補正前後のトラフィックデータの例を示す図である。 第1の実施形態における重複フレーム削除処理を示すフローチャートである。 第1の実施形態における重複フレーム削除前後のトラフィックデータの例を示す図である。 第1の実施形態におけるトラフィックデータの統合により得られる、統合データの例を示す図である。 第2の実施形態におけるタイムスタンプの整合性チェック処理を含む重複フレーム削除処理を示すフローチャートである。 第2の実施形態における時刻補正前後のトラフィックデータの例を示す図である。 第3の実施形態において、キャプチャ範囲の隣接関係を判断して時刻補正の精度を上げる方法を説明するための、ネットワークのイメージ図である。 第3の実施形態において、キャプチャ範囲の隣接関係を判断するための方法で、一例として図13のネットワークでの統合処理を説明した図である。 第3の実施形態における統合順序判定処理を示すフローチャートである。 第4の実施形態において、重複フレームデータを用いてノードの論理的な位置を推測する方法を説明するための図である。 第4の実施形態において、キャプチャ範囲の重なりによるノードの位置を推測するための管理データの構成例を示す図である。 第4の実施形態において、キャプチャ範囲の重なりによるノードの位置を推測する処理を示すフローチャートである。 第4の実施形態において、重複フレームデータと無線の物理情報をもとに、ノードの位置の推測に必要な情報を作成する方法を説明するための図である。 第4の実施形態において、信号強度の差によりノードの位置を推測するための管理データの構成図である。 第4の実施形態において、信号強度の差によりノードの位置を推測する処理を示すフローチャートである。 各実施形態のシステムを実現可能なハードウェアの構成図である。
 以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。
 図1は、ワイヤレスネットワークにおける、トラフィックデータのキャプチャおよび統合を説明する図である。複数のキャプチャ装置A、B、C、D、Eが配置され、それぞれのキャプチャ範囲としては、それぞれが中心となる破線の円で示される範囲内の各ノードがカバーされる。そして、複数のキャプチャ装置A、B、C、D、Eからのデータが、1つのトラフィックデータ統合装置によって収集され、解析される。
 図2は、図1におけるトラフィックデータ統合装置の第1から第4の実施形態に共通の構成図である。図2において、トラフィックデータ統合装置aは、操作・設定部1、ファイル統合部2、データ読込み部3、データ出力部4、トラフィックデータ格納領域5、統合データ格納領域6、入出力インタフェース7、時刻補正部8、フレーム検索部9、重複フレーム削除部10を備えて構成される。
 トラフィックデータ統合装置aにおいて、操作・設定部1は、利用者がトラフィックデータの統合方法を設定し、統合の操作を行うための手段であり、画面やコマンド等のユーザインタフェースを備える。
 ファイル統合部2は、複数のトラフィックデータを、フレームデータに付加されたタイムスタンプの値を元に統合(マージ)する機能である。ここで、フレームデータとは、図1の各キャプチャ装置が、それが管轄するキャプチャ範囲内のノードから収集した通信データである。
 データ読込み部3は、統合対象のトラフィックデータファイルおよび統合処理中に生成される中間データファイルを、トラフィックデータ格納領域5から読み込む機能である。
 データ出力部4は、統合されたデータおよび統合処理中に生成される中間データを、統合データ格納領域6内のファイルに出力する機能である。
 トラフィックデータ格納領域5は、複数のキャプチャ装置bにて出力されたトラフィックデータファイルを格納するための、記憶部であるデータ領域である。
 統合データ格納領域6は、統合されたデータファイルおよび統合処理中に生成される中間データファイルを格納するための、記憶部であるデータ領域である。
 入出力インタフェース7は、複数のキャプチャ装置bにて出力されたトラフィックデータファイルを取り込み、また、統合されたデータファイルをトラフィックデータの解析ツール等で使うために出力するための、外部インタフェースである。
 さらに、第1の実施形態に係る構成として、以下の構成を有する。
 時刻補正部8は、キャプチャ範囲が重なったトラフィックデータには同一のフレームデータが重複して捕捉されることを利用し、同一フレームを捕捉したフレームデータのタイムスタンプが同一の値となるようにトラフィックデータのタイムスタンプを補正する。すなわち、ひとつのキャプチャ装置と他のキャプチャ装置の間で同じデータパターンとなるものとして、求められたフレームデータのキャプチャ時刻を同一時刻として全てのキャプチャデータの時刻を補正する。この補正は一方のキャプチャ装置の時刻に他方のキャプチャ装置の時刻を合わせることにより行う。この時、ひとつのキャプチャ装置でキャプチャされ、トラフィックデータに含まれるフレームデータと同一のフレームを捕捉したデータが他のキャプチャ装置でキャプチャされる。トラフィックデータに含まれているか否かを判断するために、フレーム検索部9を用いる。
 すなわち、フレーム検索部9は、あるトラフィックデータに含まれるフレームデータと同じデータパターンを持つフレームデータを他のトラフィックデータから検索することにより、同一フレームデータを検出する。このとき、同一のキャプチャ装置で同じデータパターンが繰り返し現れるデータフレーム、例えば再送データについては、時刻補正のデータフレームとして用いない。再送データには、再送フラグが付与されているのでこの再送フラグを用いて同じデータパターンが繰り返されるデータフレームと判断する。さらに、補正を行うときに用いるデータフレーム時刻差を設定することで、キャプチャ装置の時刻のずれが大きい場合でも正確に時刻補正できるようにする。すなわち、時刻補正を行うときに用いるデータフレーム時刻差を大きく(例えば1分と)設定あるいは限定しておけば分キャプチャ装置でキャプチャするデータフレームの時刻のずれが大きい(例えば1分の)場合でもそのデータフレームを補正時刻補正対象のデータフレームとして、フレーム検索部9で補足できる。ここで、「データパターン」とは、キャプチャ装置によって捕捉された、実際にネットワークを流れたフレーム全体のバイト列のことを示している。
 重複フレーム削除部10は、複数のトラフィックデータに含まれる重複データのうち、1つを残して残りを削除する機能である。重複データか否かの判断は、前述のフレーム検索部9を用いてデータパターンが同じフレームデータを検索することにより行う。
 第2の実施形態に係る構成として、上述のトラフィックデータ統合装置において、フレーム検索部9における同一フレームの検出手段として、データパターンが一致するか否かのチェックに加えて、タイムスタンプの整合性チェックの手段を備えて構成される。
 ネットワーク上を流れるプロトコルによっては、例えばプロトコルの再送処理などで同一のデータパターンのフレームが複数回送信することがありえる。従って、単純にデータパターンが一致しただけで同じフレームが重複して捕捉されたものであると判断できない場合がある。そのため、重複フレーム削除部10がフレーム検索部9を用いて重複フレームを検索する場合に、データパターンが同一のフレームデータに付与されている時刻補正後のタイムスタンプの値を比較する。時刻補正後のタイムスタンプ差が所定の時間範囲である場合に、同一のデータフレームであると判断し、一方を削除してマージする。そして、タイムスタンプの差が一定時間を超えた場合は、データパターンが同一であっても異なるフレームであるとみなす。判定基準となるタイムスタンプの差の閾値は、操作・設定部1によりユーザが指定するか、予めシステムで設定した値とする。
 第3の実施形態に係る構成として、上述のトラフィックデータ統合装置において、ファイル統合部2内に、統合順序判定部2-1を備える。この統合順序判定部2-1は、3つ以上のトラフィックデータを統合する場合に、トラフィックデータ間の重複フレームの有無を判定することにより、キャプチャ装置の隣接関係を判断し、統合順序を判定する。
 物理的に離れた位置に配置したキャプチャ装置で取得したトラフィックデータ同士を統合する場合、対象のトラフィックデータの中に、重複したフレームが含まれない場合があるため、時刻補正が正しく行えない。しかし、該当のキャプチャ装置とそれぞれ隣接しているキャプチャ装置で取得したトラフィックデータを用いて、時刻補正を行うことが可能である。
 図3は、統合順序判定部2-1の動作説明図である。図3において、キャプチャ装置Aとキャプチャ装置Cはキャプチャできる範囲が離れているため、両者がキャプチャしたデータの中には重複したフレームは含まれない。しかし、キャプチャ装置Bはキャプチャ装置A、キャプチャ装置Cとそれぞれキャプチャできる範囲が重なっているため、重複したフレームが捕捉されることになる。この場合、キャプチャ装置Aとキャプチャ装置Cから取得したトラフィックデータを最初に統合しようとすると時刻補正を正しく行うことができない。しかし、キャプチャ装置Aとキャプチャ装置Bから取得したトラフィックデータを最初に統合し、統合したデータとキャプチャ装置Cから取得したトラフィックデータを統合する。すると、キャプチャできる範囲が重なっていないトラフィックデータ同士を正しく時刻補正することができる。
 第4の実施形態に係る構成として、図1のトラフィックデータ統合装置のフレーム検索部9において、トラフィックデータに含まれる無線の物理情報を基にノードの位置を推測する手段、および、位置情報管理部11を備えて構成される。
 一般的なキャプチャ装置が出力するトラフィックデータには、実際にネットワークを流れたフレーム全体のバイト列だけでなく、キャプチャ装置が取得した無線の物理情報(電波強度やノイズ強度等)が含まれる。トラフィックデータに含まれる無線の物理情報から、ノードとキャプチャ装置間の距離の大小を判断することができる。これを、位置情報管理部11で管理するキャプチャ装置の位置情報と組み合わせることで、ノードの論理的な位置関係を推測することができる。
 以上説明した図1の構成によれば、キャプチャ装置の時刻がずれていても時刻補正を行えるため、実際にネットワーク上に流れる順序でトラフィックデータを統合できる。
 また、同じデータパターンのデータは統合の際に1つにまとめてファイルに格納するため、同一データパターンのデータが複数回送信されたように見えることはない。
 図1の構成により、1つのキャプチャ装置でネットワーク全体のトラフィックデータを捕捉できないようなネットワーク環境においても、複数のキャプチャ装置を使用することで、ネットワーク全体のトラフィックデータを作成することができるようになる。図1の構成にて作成されたデータを解析ツールで解析することにより、1つのキャプチャ装置では解析できなかったネットワーク全体の動作を効率よく解析できるようになる。
 その結果、ネットワーク機器の開発やネットワーク構築、保守作業の期間・工数を短縮でき、また、結果として高品質のネットワークを構築・維持することが可能となる。
 図1の構成を有するトラフィックデータ統合装置の第1から第4の実施形態について、それぞれ以下に順次説明する。
 まず、トラフィックデータ統合装置の第1の実施形態について説明する。
 第1の実施形態におけるネットワーク構成の例を、図4に示す。図4の例では、無線LANのアクセスポイントAP1とAP2がEthernet(登録商標)等の有線LANで接続され、アクセスポイントAP1には端末A~Cが無線LANで接続される。また、アクセスポイントAP2には端末D~Fが無線LANで接続されているケースについて説明する。ここで、ワイヤレスネットワークの例として無線LANを挙げているが、本実施形態で対象とするネットワークは無線LANには限定しない。
 図4において、キャプチャ装置X、Yを配置する。キャプチャ装置XはAP1および端末A~Dのトラフィックデータをキャプチャし、キャプチャ装置YはAP2および端末D~Fのトラフィックデータをキャプチャできるように配置する。それぞれ、破線の円で示される範囲である。この場合、端末Dのトラフィックデータはキャプチャ装置X、Yの両方で捕捉できる。
 本実施形態では、ネットワークの範囲が広く端末Dだけが重複する場合について記載しているが、狭い範囲のネットワークでも電波の状態によってはトラフィックデータの捕捉に失敗することもありえる。このような場合に、トラフィックデータの取りこぼしを防ぐために複数のキャプチャ装置を使ってトラフィックデータを取得するような使い方もできる。
 キャプチャ装置X、Yで取得したトラフィックデータは、トラフィックデータ統合装置aに集める。
 データを集める方法としては、USBメモリなどの可搬記憶媒体を利用する方法や、キャプチャ装置とトラフィックデータ統合装置をネットワークで接続してネットワーク経由で集める方法が考えられる。ネットワークの経由方法としては例えば、ファイルサーバや、FTP(ファイル・トランスファ・プロトコル)サーバを利用できる。
 ここでは、キャプチャ装置を2台設置して2つのトラフィックデータを統合する場合の動作を説明するが、統合するファイルの数は2つには限定せず、3つ以上であってもよい。
 次に、第1の実施形態におけるトラフィックデータ統合処理の全体の処理の流れを、図5のフローチャートを用いて説明する。
 まず、利用者は、操作・設定部1を用いて、統合の条件を設定し、統合処理を開始する(ステップS501)。統合の条件としては、統合するトラフィックデータのファイル名、結果として得られる統合データの出力先ファイル名、データの統合順序などが挙げられる。
 統合処理を開始すると、ファイル統合部2は時刻補正部8を用いて、トラフィックデータの時刻補正を行う(ステップS502)。時刻補正部8では、フレーム検索部9を用いて、複数のトラフィックデータファイルの中から重複したフレームデータを検索し、重複したフレームデータのタイムスタンプが同じ値になるように時刻を補正する。
 次に、ファイル統合部2は、重複フレーム削除部を用いて、複数のトラフィックデータに含まれる重複したフレームデータを削除する(ステップS503)。
 最後に、重複したフレームデータが削除されたトラフィックデータを、時刻補正後のタイムスタンプの順序で統合(マージ)し、統合した結果をファイルに出力する(ステップS504)。
 図6は、図2の時刻補正部8により実行される、図5のステップS502の時刻補正処理を示すフローチャートである。
 まず、時刻補正の対象となるトラフィックデータ1,2が読み込まれる(ステップS601)。
 次に、トラフィックデータ1から1つのフレームデータとしてフレームデータ1が取得される(ステップS602)。
 次に、フレームが存在するか否か、すなわち、ステップS602にてフレームデータ1が取得できたか否かが判定される(ステップS603)。
 ステップS603にてフレームが存在すると判定された場合には、トラフィックデータ2から、フレームデータ1と同一パターンのフレームデータ2が検索される(ステップS604)。
 次に、ステップS604の検索の結果、同一パターンのフレームが存在するか否かが判定される(ステップS605)。
 存在しなければ、ステップS602に戻って、トラフィックデータ1から次の1つのフレームデータとしてフレームデータ1が取得され、そのフレームデータ1に対して、同一パターンのフレームデータ2が検索される。すなわち、ステップS605→S602→S603→S604→S605の処理が繰り返される。
 トラフィックデータ1中のフレームデータが全て処理され、ステップS603にてフレームが存在しなくなったと判定されたら、時刻補正処理を終了する。
 ステップS605にて、フレームデータ1と同一パターンのフレームデータ2が存在すると判定されると、次式により、基準データとの時差が計算される(ステップS605→S606)。
  (フレームデータ1の時刻-フレームデータ2の時刻)
 最後に、トラフィックデータ2の全フレームに対して、基準データとの時差が加算されることにより、その全フレームの時刻が更新される(ステップS607)。この処理の後、時刻補正処理が終了する。
 図7は、第1の実施形態における時刻補正前後のトラフィックデータの例を示す図である。
 図7において、701は、1つのキャプチャ装置から収集された、時刻補正前のトラフィックデータ1である。また、702は、他のキャプチャ装置から収集された、時刻補正前のトラフィックデータ2である。トラフィックデータには、ネットワークを流れるフレームデータと、キャプチャ装置にてフレームデータを捕捉した時刻(タイムスタンプ)が含まれている。
 本実施例では、「トラフィックデータ1(時刻補正前)」(701)のタイムスタンプが正しく、「トラフィックデータ2(時刻補正前)」(702)のタイムスタンプがずれていると仮定して、「トラフィックデータ2(時刻補正前)」(702)のタイムスタンプを補正する方法を用いる。以降、「トラフィックデータ1(時刻補正前)」(701)を、基準データと呼ぶ。
 まず、「トラフィックデータ1(時刻補正前)」(701)の先頭のフレームデータ“AAAAAAAA”が取得される(図6のS602)。そして、データパターンが“AAAAAAAA”であるフレームデータが「トラフィックデータ2(時刻補正前)」(702)に存在するか否かが検索される(図6のS604、S605)。しかし、「トラフィックデータ2(時刻補正前)」(702)にはフレームデータ“AAAAAAAA”が存在しないので、当該フレームは時刻補正には利用しない。
 次に、「トラフィックデータ1(時刻補正前)」(701)の2番目のフレームデータ“BBBBBBBB”が取得され(図6のS602)、データパターンが“BBBBBBBB”であるフレームデータが「トラフィックデータ2(時刻補正前)」(702)に存在するか否かが検索される(図6のS604、S605)。「トラフィックデータ2(時刻補正前)」(702)にはデータパターンが“BBBBBBBB”であるフレームデータが存在する。このため、当該フレームデータは同一フレームが異なるキャプチャ装置で捕捉されたデータであると判断され、時刻補正に利用される(図6のS605→S606)。
 ここで、データパターンが“BBBBBBBB”であるフレームデータのタイムスタンプは、「トラフィックデータ1(時刻補正前)」(701)では“2010/7/7 18:00:03.000”である。一方、「トラフィックデータ2(時刻補正前)」(702)では“2010/7/7 18:00:03.500”であり、「トラフィックデータ2(時刻補正前)」(702)のタイムスタンプが500ミリ秒進んでいる。そのため、基準データではない「トラフィックデータ2(時刻補正前)」(702)の各フレームの時刻が500ミリ秒戻され、データパターンが“BBBBBBBB”であるフレームデータのタイムスタンプが一致させられる(図6のS606→S607)。
 その結果、時刻補正後のトラフィックデータのタイムスタンプは「トラフィックデータ1(時刻補正後)」(703)と「トラフィックデータ2(時刻補正後)」(704)のように変更される。
 以上説明した第1の実施形態では、1フレームのデータパターンが一致した時点で、そのフレームの時差で基準データではないトラフィックデータの全フレームのタイムスタンプが修正される。これに対して、複数のフレームから時差の平均値を求めて補正に使用したり、基準とするデータをフレーム単位で変えたりと、様々な方法を採用することができる。
 図8は、図2の重複フレーム削除部10により実行される、図5のステップS503の重複フレーム削除処理を示すフローチャートである。
 まず、重複フレーム削除の対象となる上述の時刻補正後のトラフィックデータ1,2が読み込まれる(ステップS801)。
 次に、時刻補正後のトラフィックデータ1から1つのフレームデータとしてフレームデータ1が取得される(ステップS802)。
 次に、フレームが存在するか否か、すなわち、ステップS802にてフレームデータ1が取得できたか否かが判定される(ステップS803)。
 ステップS803にてフレームが存在すると判定された場合には、時刻補正後のトラフィックデータ2から、1つのフレームデータとしてフレームデータ2が取得される(ステップS804)。
 次に、フレームが存在するか否か、すなわち、ステップS804にてフレームデータ2が取得できたか否かが判定される(ステップS805)。
 ステップS805にてフレームが存在すると判定された場合には、ステップS802で取得されたフレームデータ1とステップS804で取得されたフレームデータ2のデータパターンが一致するか否かが判定される(ステップS806)。
 データパターンが一致しなければ、ステップS804に戻って、トラフィックデータ2から次の1つのフレームデータとしてフレームデータ2が取得され、そのフレームデータ2がフレームデータ1と一致するか否かが判定される。すなわち、ステップS806→S804→S805→S806の処理が繰り返される。
 トラフィックデータ2中のフレームデータが全て処理され、ステップS805にてフレームが存在しなくなったと判定されたら、ステップS802に戻る。
 ステップS806にてフレームデータ1と2のデータパターンが一致すると判定されると、時刻補正後のトラフィックデータ2から、現在のフレームデータ2が削除される(ステップS807)。その後、ステップS802に戻る。
 ステップS805またはS807からステップS802に戻ると、トラフィックデータ1から次の1つのフレームデータとしてフレームデータ1が取得され、そのフレームデータ1に対する重複の判定と削除の処理が実行される。すなわち、ステップS802からS807までの一連の処理が繰り返される。
 トラフィックデータ1中のフレームデータが全て処理され、ステップS803にてフレームが存在しなくなったと判定されたら、時刻補正後のトラフィックデータ1、2がタイムスタンプ順にマージされ、重複フレーム削除処理を終了する(ステップS808)。
 図9は、第1の実施形態における重複フレーム削除前後のトラフィックデータの例を示す図である。
 図9において、901は、1つのキャプチャ装置から収集され時刻補正処理された後の、重複削除前のトラフィックデータ1である。また、902は、他のキャプチャ装置から収集され時刻補正処理された後の、重複削除前のトラフィックデータ2である。それぞれ、図7の「トラフィックデータ1(時刻補正後)」(703)と、「トラフィックデータ2(時刻補正後)」(704)と同一である。
 時刻補正の場合と同様に、「トラフィックデータ1(時刻補正後)」(901)と「トラフィックデータ2(時刻補正後)」(902)でデータパターンが同じフレームが検索される(図8のS802からS806)。この結果、データパターン“BBBBBBBB”と“CCCCCCCC”が重複していることが分かる。そこで、基準データではない「トラフィックデータ2(時刻補正後)」(902)からデータパターンが“BBBBBBBB”と“CCCCCCCC”のフレームが削除される(図8のS807)。この結果として、「トラフィックデータ1(重複削除後)」(903)と「トラフィックデータ2(重複削除後)」(904)が得られる。
 この2つのトラフィックデータをタイムスタンプ順にマージすると(図8のS808)、図10の「統合データ」(1001)が出力される。図10において、フレームデータ“BBBBBBBB”と“CCCCCCCC”が重複削除されて、それぞれ1つずつのデータにされたものである。また、フレームデータ“AAAAAAAA”と“DDDDDDDD”と“EEEEEEEE”は、トラフィックデータ1から取得されたものである。さらに、フレームデータ“FFFFFFFF”と“GGGGGGGG”と“HHHHHHHH”は、トラフィックデータ2から取得されたものである。これらがタイムスタンプ順に並び替えられてマージされる。
 以上のようにして、第1の実施形態の構成により、2つのトラフィックデータを統合することができる。3つ以上のトラフィックデータの統合は、2つのトラフィックデータの統合を繰り返すことにより実現できる。
 次に、トラフィックデータ統合装置の第2の実施形態について説明する。
 第2の実施形態では、図2の重複フレーム削除部10から参照されるフレーム検索部9の処理において、同一フレームの検出において、データパターンが一致するか否かのチェックに加えて、タイムスタンプの整合性チェックを行うようにしたものである。
 図11は、第2の実施形態におけるタイムスタンプの整合性チェック処理を含む重複フレーム削除処理を示すフローチャートである。図11において、第1の実施形態に係る図8の場合と同じ処理のステップには、同じステップ番号を付してある。
 第2の実施形態に係る図11の処理が第1の実施形態に係る図8の処理と異なる点は、次の点である。図11のステップS805にてフレームデータ2のフレームが存在すると判定された場合に、まず、フレームデータ1とフレームデータ2の時刻(時差)が、許容範囲内にあるか否かが判定される(ステップS1101)。そして、フレームデータ1とフレームデータ2の時刻が許容範囲内にある場合に限り、ステップS802で取得されたフレームデータ1とステップS804で取得されたフレームデータ2のデータパターンが一致するか否かが判定される(ステップS806)。フレームデータ1とフレームデータ2の時刻が許容範囲内にない場合には、両者は同じフレームデータであるとはみなされず重複フレーム削除処理は行われずに、ステップS802に戻る。
 このようにして、第2の実施形態では、フレームデータ1とフレームデータ2の時刻がかけ離れている場合には重複フレーム削除処理は行わないという、タイムスタンプの整合性チェックを行うことが可能となる。
 図12は、第2の実施形態における時刻補正前後のトラフィックデータの例を示す図である。図12において、1201は、1つのキャプチャ装置から収集された、時刻補正前のトラフィックデータ1である。また、1202は、他のキャプチャ装置から収集された、時刻補正前のトラフィックデータ2である。第1の実施形態に係る図7の場合と同じように、トラフィックデータ1とトラフィックデータ2間で、フレームデータ“BBBBBBBB”が同一と判定される。これを受けて、フレームデータ“BBBBBBBB”のタイムスタンプの差500ミリ秒が、「トラフィックデータ2(時刻補正前)」(1202)から戻される。この結果、フレームデータ“CCCCCCCC”のタイムスタンプは、「トラフィックデータ1(時刻補正後)」(1203)では“2010/7/7 18:00:07.000”で、「トラフィックデータ2(時刻補正後)」(1204)では“2010/7/7 18:00:07.050”となり、50ミリ秒の時差がある。これは、各トラフィックデータにおけるフレームデータ“BBBBBBBB”と“CCCCCCCC”のタイムスタンプの差が一致しないためであり、キャプチャ装置の処理遅延などによりこのような状態になることがありえる。
 このような場合に、本来同一フレームであるはずのデータパターン“CCCCCCCC”のフレームデータが別フレームとして判断することを避けるために、時刻補正後のタイムスタンプの誤差を許容できるようにする(図11のS1101)。
 例えば、図12のデータにおいて、図11のステップS1101での時刻補正後のタイムスタンプの誤差の許容範囲を100ミリ秒とする。図12の例では、データパターン“CCCCCCCC”のフレームのタイムスタンプの誤差は50ミリ秒であり、100ミリ秒以内である。この結果、トラフィックデータ1とトラフィックデータ2とでフレームデータ“CCCCCCCC”は同一フレームであると判断され、トラフィックデータ2から重複フレームとして削除される(図11のS1101→S806→S807)。
 次に、トラフィックデータ統合装置の第3の実施形態について説明する。
 以上をまとめるとネットワーク内のノードが通信するフレームデータをトラフィックデータとしてキャプチャする第1および第2のキャプチャ装置がそれぞれ収集した第1および第2のトラフィックデータの間で、同じデータパターンとなるフレームデータを求め、(S601~S605)求められたフレームデータのキャプチャ時刻が同一時刻になるように、前記第1および第2のトラフィックデータ内の各フレームデータの時刻を補正する時刻補正処理を行い(S606、S607)、同一のキャプチャ装置で同じデータパターンが繰り返し現れないフレームデータについて、前記時刻補正処理を行うするためのフレームデータとして用い、前記時刻補正処理を行うときに用いるフレームデータの時刻差を限定する、ことを特徴とするトラフィックデータ統合方法が提供される。
 これまでの実施形態において、複数のトラフィックデータに重複したフレームが含まれていることを前提に説明したが、実際のトラフィックデータには、必ずしも重複したフレームが含まれているとは限らない。
 例えば、図13のように4台のキャプチャ装置A~Dがあり、それぞれのキャプチャ範囲が、A、C、D、Bの順に一列に並んでいるケースを考える。
 トラフィックデータA(1301)とトラフィックデータB(1304)は、キャプチャ装置のキャプチャ範囲が重なっていないため、フレームデータは重複しておらず、時刻補正が行えない。
 しかし、A(1301)とC(1302)、C(1302)とD(1303)、D(1303)とB(1304)の各トラフィックデータは、それぞれキャプチャ装置のキャプチャ範囲が重なっているため、データが重複する。
 よって、A(1001)とC(1002)で時刻補正し、次に時刻補正後のC(1002)とD(1003)を時刻補正し、最後に時刻補正後のD(1003)とB(1004)を時刻補正する、4つのトラフィックデータの時刻を補正できる。
 このように、時刻補正の順序によって時刻補正の結果が異なるため、トラフィックデータ間での重複データの有無を調べることにより、最適な順序で時刻補正を行えるようにする。
 上記のように最適な順序で統合を行うために、第3の実施形態では、次のような方法を用いる。まず図14のように、トラフィックデータのファイルが統合順に並ぶテーブル(統合順テーブル)と、統合対象となるトラフィックデータのファイルを格納するテーブル(ファイル一覧テーブル)を設ける。統合順テーブルには、時刻の基準としたファイル(ここではトラフィックデータAとする)を先頭に格納する。
I.トラフィックデータAで、ファイル一覧テーブルのトラフィックデータに対して、重複するデータを検索する。検索順はファイル一覧テーブルの上から、トラフィックデータB~Dの降順で検索する。図13のキャプチャ装置の配置より、トラフィックデータCに重複データが検索される。検索されたトラフィックデータは、図14のIのように統合順テーブルに格納される。
II.統合順テーブルのトラフィックデータAでの検索が終了すると、統合順テーブルの次の(Iで統合順テーブルに格納された)トラフィックデータCで同様に、ファイル一覧テーブルに対して検索を行う。図13のキャプチャ装置の配置より、結果として、トラフィックデータDが検索され、図14のIIのように統合順テーブルに格納される。
III.I、IIと同様の方法で検索を行う。図13のキャプチャ装置の配置より、トラフィックデータBが検索される(図14のIII)。
IV.統合順テーブルのすべてのトラフィックデータでの検索が終わるか、ファイル一覧テーブルに検索対象のトラフィックデータがなくなれば、検索は終了する(図14のIV)。この際ファイル一覧テーブルに、トラフィックデータが残っていれば、データが重複していないため、時刻補正が行えないトラフィックデータが存在することになる。
 これにより統合順テーブルには、最適な統合の順にトラフィックデータが並び、テーブルにあるトラフィックデータを降順で統合することができる。
 図15は、以上の第3の実施形態の動作を実現するために、図2の統合順序判定部2-1により実行される統合順序判定処理を示すフローチャートである。
 まず、時刻の基準となるトラフィックデータが統合順テーブルに格納される(ステップS1501)。
 次に、統合順テーブルの末尾のトラフィックデータと重複するデータが、ファイル一覧テーブルから検索される(ステップS1502)。
 次に、上記検索の結果、重複データがあるか否かが判定される(ステップS1503)。
 重複データがあれば、重複するトラフィックデータが統合順テーブルに移動させられる(ステップS1503→S1504)。
 次に、ファイル一覧テーブルのデータの有無が判定される(ステップS1505)。
 ファイル一覧テーブルのデータが有れば、ステップS1502に戻って、統合順テーブルの末尾のトラフィックデータと重複するデータが、ファイル一覧テーブルからさらに検索される(ステップS1502)。
 ステップS1503で重複データがないと判定されるか、ステップS1505でファイル一覧テーブルのデータが無くなったと判定されると、統合順序判定処理を終了する。
 このように第3の実施形態では、統合順序判定処理(図2の統合順序判定部2-1)により、3つ以上のトラフィックデータを統合する場合に、トラフィックデータ間の重複フレームの有無を判定してキャプチャ装置の隣接関係を判断し、統合順序を判定できる。
 以上のようにして統合順次が判定された後、その統合順序に従って選択された2つのトラフィックデータをトラフィックデータ1、2とし、時刻補正処理および重複フレーム削除処理が実行される。これらの処理は、第1の実施形態で説明した時刻補正処理、および第1または第2の実施形態で説明した重複フレーム削除処理と同様である。
 トラフィックデータ統合装置の第4の実施形態について説明する。
 図16は、第4の実施形態において、重複フレームデータを用いてノードの論理的な位置を推測する方法を説明するための図である。
 トラフィックデータには、タイムスタンプとフレームデータの他に、キャプチャ装置のハードウェアから取得した無線物理情報を含めることが可能である。例えば、無線の信号強度(SSI)などである。
 図16(a)は、ネットワーク上のノードとキャプチャ装置の位置関係を示した図である。また、キャプチャ装置がトラフィックデータをキャプチャできる範囲を破線の円で記載している。第4の実施形態のキャプチャ範囲は、キャプチャ装置を中心とした円状に広がると仮定して記載しているが、実際のネットワークでは障害物の位置などにより変わる。
 図16(a)において、キャプチャ装置Aが補足するデータはノード1,2,3,5のデータ、キャプチャ装置Bが補足するデータはノード1,2,4,6のデータ、キャプチャ装置Cが補足するデータはノード1,3,4,7のデータである。
 図16(b)は、キャプチャ装置A,B,Cのキャプチャ範囲が重なるエリアをI~IVに分類した図である。キャプチャ範囲がどのように重なるかは、キャプチャ装置の位置情報と、キャプチャ装置からの距離を元に決定する。例えば、キャプチャ装置の位置情報はキャプチャ装置にGPS(Global Positioning System:全地球測位システム)を搭載して取得した情報を用いたり、ユーザが事前に把握している位置情報を用いたりすることができる。また、キャプチャ範囲内とするキャプチャ装置からの距離は、キャプチャ対象のネットワークの仕様を基に決定しておく。
 ここで、ノード1から送信されたフレームデータが、キャプチャ装置A、B、Cのトラフィックデータすべてに含まれていた場合、該当フレームの送信元であるノード1は図16(b)のエリアIに存在すると推測する。同様に、ノード2から送信されたデータがキャプチャ装置A、Bのトラフィックデータに含まれていた場合、ノード2は図16(b)のエリアIIに存在すると推測する。エリアIII、IVについても同様である。
 このようにして、フレームデータの重複度合いから、大まかなノードの位置を推測することが可能となる。
 図16において、AとBとの交わりA∩Bにあるノード2と1に関し、AとBを統合したA∪Bの集合の中でデータ統合し、その次に集合A∪BとCとの間でデータ統合すればノード3,1,4がデータ統合される。一般的に多重化されたキャプチャ領域が重なっている場合は、2つのキャプチャ領域の重なりに関するデータ統合の繰り返しでデータ統合が可能となる。
 図17は、上述の第4の実施形態の動作を実現するために、図2の位置情報管理部11内に設けられる重複フレームテーブルと位置情報テーブルのデータ構成例を示す図である。
 図17(a)の重複フレームテーブルは、時刻補正後のタイムスタンプと、フレームデータの識別情報と、そのフレームデータを送信した送信元ノードの識別情報と、そのフレームデータを検出したキャプチャ装置の識別情報を保持する。図17(a)の例からは、送信元ノード1からのタイムスタンプが“2010/7/7 18:00:03.000”のフレームデータ“BBBBBBBB”が、A、B、Cの3つのキャプチャ装置で検出されたことがわかる。また、送信元ノード2からのタイムスタンプが“2010/7/7 18:00:07.000”のフレームデータ“CCCCCCCC”が、A、Bの2つのキャプチャ装置で検出されたことがわかる。
 図17(b)の位置情報テーブルは、キャプチャ装置の識別情報と、キャプチャ装置の設置位置のX座標とY座標、キャプチャ範囲(キャプチャ装置が配置される中心からの距離)を保持する。図17(b)の例からは、キャプチャ装置Aは、設置位置として(100,300)のXY座標値を有し、キャプチャ範囲は150であることがわかる。また、キャプチャ装置Bは、設置位置として(300,250)のXY座標値を有し、キャプチャ範囲は150であることがわかる。さらに、キャプチャ装置Cは、設置位置として(200,100)のXY座標値を有し、キャプチャ範囲は150であることがわかる。
 図18は、上述した第4の実施形態の動作を実現するために、図2の位置情報管理部11によって実行される、キャプチャ範囲の重なりによるノードの位置を推測する処理を示すフローチャートである。
 まず、第1の実施形態で示した方法により、図2の時刻補正部8により全トラフィックデータの時刻が補正される(ステップS1801)(図2の時刻補正部8により実行される図6のフローチャート)。
 次に、ステップS1801にて時刻補正されたトラフィックデータが1つ選択され、フレームデータが取得される(ステップS1802)。
 次に、ステップS1801にて時刻補正された検索対象のトラフィックデータが選択される(ステップS1803)。
 次に、ステップS1803で選択された検索対象のトラフィックデータより、重複フレームデータが検索される(ステップS1804)。
 そして、重複フレームがあるか否かが判定される(ステップS1805)。
 ステップS1805にて重複フレームがあると判定された場合、重複フレームテーブル(図17(a)参照)にキャプチャ装置の識別情報が追加される(ステップS1806)。
 ステップS1805にて重複フレームがないと判定された場合、ステップS1802で取得されているフレームデータより、送信元ノードが特定される(ステップS1807)。
 そして、重複フレームテーブル(図17(a))に、新規レコード、すなわち、タイムスタンプとフレームデータと送信元ノードの各情報組が、追加される(ステップS1808)。
 ステップS1806またはS1808の処理の後、検索対象として、ステップS1801にて時刻補正された他のトラフィックデータがあるか否かが判定される(ステップS1809)。
 ステップS1809にて他のトラフィックデータがあると判定されれば、ステップS1803の処理に戻って、新たな検索対象のトラフィックデータが選択され、重複フレームデータが検索される。
 ステップS1803にて他のトラフィックデータがないと判定されれば、重複フレームテーブル(図17(a))より、キャプチャ装置のリストが取得される(ステップS1810)。
 次に、位置情報テーブル(図17(b))より、ステップS1810で取得されたリスト中の各キャプチャ装置の位置情報(設置位置のXY座標値とキャプチャ範囲)が取得される(ステップS1811)。
 そして、ステップS1811で取得された各位置情報のXY座標値とキャプチャ範囲より、キャプチャ範囲が重なるエリアが特定される(ステップS1812)。
 図19は、第4の実施形態において、重複フレームデータと無線の物理情報を基に、ノードの位置の推測に必要な情報を作成する方法を説明するための図である。
 例えば、図16(b)のエリアIにあるノード1から送信されたデータを、キャプチャ装置A,B,Cで捕捉した時の信号強度を、SSI[A]、SSI[B]、SSI[C]とする。
 図2のフレーム検索部9にてフレームデータの重複を検出すると、次のような制御を行う。図19(a)に例示される管理テーブルに、該当フレームデータの送信元ノードの識別情報(2101)、該当フレームデータをキャプチャした装置の識別情報(2102)、該当フレームデータ捕捉時の信号強度(2103)を格納する。この管理テーブルの情報とキャプチャ装置の位置情報を用いれば、ノードの位置を推測することが可能となる。すなわち、図19(b)に示されるように、各キャプチャ装置から、各々にて検出された信号強度に比例する距離として、ノードの位置を推測できる。
 図20は、図19に示される第4の実施形態の動作を実現するために、図2の位置情報管理部11内に設けられる重複フレームテーブルと位置情報テーブルのデータ構成例を示す図である。
 図20(a)の重複フレームテーブルは、図17(a)と同様に、時刻補正後のタイムスタンプと、フレームデータの識別情報と、そのフレームデータを送信した送信元ノードの識別情報と、そのフレームデータを検出したキャプチャ装置の識別情報を保持する。さらに、重複フレームテーブルは、各キャプチャ装置ごとに、そこでフレームデータが検出されたときの信号強度(デシベル値)を保持する。
 図20(a)の例からは、送信元ノード1からのタイムスタンプが“2010/7/7 18:00:03.000”のフレームデータ“BBBBBBBB”が、A、B、Cの3つのキャプチャ装置で検出されたことがわかる。そして、A、B、Cの各キャプチャ装置での信号強度はそれぞれ、-50dBm、-70dBm、-65dBmであることがわかる。また、送信元ノード2からのタイムスタンプが“2010/7/7 18:00:07.000”のフレームデータ“CCCCCCCC”が、A、Bの2つのキャプチャ装置で検出されたことがわかる。そして、A、Bの各キャプチャ装置での信号強度はそれぞれ、-55dBm、-55dBmであることがわかる。
 図20(b)の位置情報テーブルは、キャプチャ装置の識別情報と、キャプチャ装置の設置位置のX座標とY座標を保持する。図20(b)の例からは、キャプチャ装置Aは設置位置として(100,300)のXY座標値、キャプチャ装置Bは(300,250)のXY座標値、キャプチャ装置Cは(200,100)のXY座標値であることがわかる。
 図21は、図19に示される第4の実施形態の動作を実現するために、図2の位置情報管理部11によって実行される、信号強度の差によりノードの位置を推測する処理を示すフローチャートである。図21において、図18の場合と同じ処理のステップには、同じステップ番号を付してある。
 図21のフローチャートが図18のフローチャートと異なる点は、図18のステップS1810の代わりにステップS2101とS2102が実行され、図18のステップS1812の代わりにステップS2103が実行される点である。
 また、図21のステップS1806において、重複フレームテーブル(図20(a)参照)にキャプチャ装置の識別情報が追加されるときに、信号強度の情報も共に追加される。
 そして、重複フレームテーブルへの設定が全て終了した後、重複フレームテーブルよりキャプチャ装置と信号強度のリストが取得される(ステップS2101)。
 続いて、信号強度より各キャプチャ装置と送信元ノードの距離が計算される(ステップS2102)(図20(b)参照)。
 次に、位置情報テーブル(図20(b))より、ステップS2101で取得されたリスト中の各キャプチャ装置の位置情報(設置位置のXY座標値)が取得される(ステップS1811)。
 そして、ステップS1811で取得された各位置情報のXY座標値と、ステップS2102にて計算された各キャプチャ装置からの距離より、ノードの位置が特定される(ステップS2103)。
 以上のようにして、第4の実施形態では、複数のキャプチャ装置から収集されるトラフィックデータに基づいて、トラフィックデータの各フレームデータの送信元ノードの論理的な位置関係を推測することが可能となる。
 以上説明した各実施形態において、同一のキャプチャ装置で同じデータパターンが繰り返し現れるフレームデータについては、時刻補正のフレームデータとして用いないようにすることができる。
 また、第1の実施形態において、時刻の補正を行うときに用いるフレームデータの時刻差を限定することで、キャプチャ装置の時刻のずれが大きい場合でも正確に時刻補正できるようにすることもできる。
 図22は、上記第1から第4の実施形態のトラフィックデータ統合装置をソフトウェア処理として実現できるコンピュータのハードウェア構成の一例を示す図である。
 図22に示されるコンピュータは、CPU2201、メモリ2202、入力装置2203、出力装置2204、外部記憶装置2205、可搬記録媒体2209が挿入される可搬記録媒体駆動装置2206、及び通信インタフェース2207を有し、これらがバス2208によって相互に接続された構成を有する。同図に示される構成は上記システムを実現できるコンピュータの一例であり、そのようなコンピュータはこの構成に限定されるものではない。
 CPU2201は、当該コンピュータ全体の制御を行う。メモリ2202は、プログラムの実行、データ更新等の際に、外部記憶装置2205(或いは可搬記録媒体2209)に記憶されているプログラム又はデータを一時的に格納するRAM等のメモリである。CUP2201は、プログラムをメモリ2202に読み出して実行することにより、全体の制御を行う。
 入出力装置2203は、ユーザによるキーボードやマウス等による入力操作を検出し、その検出結果をCPU2201に通知し、CPU2201の制御によって送られてくるデータを表示装置や印刷装置に出力する。
 外部記憶装置2205は、例えばハードディスク記憶装置である。主に各種データやプログラムの保存に用いられる。
 可搬記録媒体駆動装置2206は、光ディスクやSDRAM、コンパクトフラッシュ(登録商標)等の可搬記録媒体2209を収容するもので、外部記憶装置2205の補助の役割を有する。
 通信インタフェース2207は、例えばLAN(ローカルエリアネットワーク)又はWAN(ワイドエリアネットワーク)の通信回線を接続するための装置である。
 第1~第4の実施形態によるシステムは、図5、図6、図8、図11、図15、図18、図21等のフローチャート等で実現される機能を搭載したプログラムをCPU2201が実行することで実現される。そのプログラムは、例えば外部記憶装置2205や可搬記録媒体2209に記録して配布してもよく、或いはネットワーク接続装置2207によりネットワークから取得できるようにしてもよい。

Claims (8)

  1.  ネットワーク内のノードが通信するフレームデータをトラフィックデータとしてキャプチャする第1および第2のキャプチャ装置がそれぞれ収集した第1および第2のトラフィックデータの間で、同じデータパターンとなるフレームデータを求め、
     求められたフレームデータのキャプチャ時刻が同一時刻になるように、前記第1および第2のトラフィックデータ内の各フレームデータの時刻を補正する時刻補正処理を行い、
     同一のキャプチャ装置で同じデータパターンが繰り返し現れないフレームデータについて、前記時刻補正処理を行うためのフレームデータとして用い、
     前記時刻補正処理を行うときに用いるフレームデータの時刻差を限定する、
     ことを特徴とするトラフィックデータ統合方法。
  2.  前記第1および第2のキャプチャ装置がそれぞれ収集し前記時刻補正処理が行われた後の各トラフィックデータ内からそれぞれ選択した各フレームデータについて、データパターンが同じフレームデータであって、前記時刻補正処理の後のタイムスタンプ差が所定の時間範囲である場合に、前記各フレームデータは同一のデータフレームであると判断し、一方を削除してマージする、
     ことを特徴とする請求項1に記載のトラフィックデータ統合方法。
  3.  3つ以上のキャプチャ装置がそれぞれ収集したトラフィックデータを統合する際に、前記各トラフィックデータ間の重複フレームの有無を判定することにより、前記各キャプチャ装置の隣接関係を判断し、データ統合を行う順序を判定する、
     ことを特徴とする請求項1に記載のトラフィックデータ統合方法。
  4.  前記求められた同じデータパケットを有するフレームデータに含まれる無線の物理情報と、前記求められた同じデータパケットを有するフレームデータを送信したキャプチャ装置の位置情報とを基に、前記ネットワーク上のノードの論理的な位置関係を測定する、
     ことを特徴とする請求項1に記載のトラフィックデータ統合方法。
  5.  ネットワーク内のノードが通信するフレームデータをトラフィックデータとしてキャプチャする第1および第2のキャプチャ装置がそれぞれ収集した第1および第2のトラフィックデータの間で同じデータパターンとなるフレームデータであって、同一のキャプチャ装置で同じデータパターンが繰り返し現れないフレームデータを求めるフレーム検索部と、
     前記フレーム検索部9が求めたフレームデータのキャプチャ時刻が同一時刻になるように、前記第1および第2のトラフィックデータ内の各フレームデータの時刻を、前記各フレームデータの時刻差を限定して補正する時刻補正処理を行う時刻補正部と、
     を有することを特徴とするトラフィックデータ統合装置。
  6.  前記第1および第2のキャプチャ装置がそれぞれ収集し前記時刻補正処理が行われた後の各トラフィックデータ内からそれぞれ選択した各フレームデータについて、データパターンが同じフレームデータであって、前記時刻補正処理の後のタイムスタンプ差が所定の時間範囲である場合に、前記各フレームデータは同一のデータフレームであると判断し、一方を削除してマージする重複フレーム削除部をさらに有する、
     ことを特徴とする請求項5に記載のトラフィックデータ統合装置。
  7.  3つ以上のキャプチャ装置がそれぞれ収集したトラフィックデータを統合する際に、前記各トラフィックデータ間の重複フレームの有無を判定することにより、前記各キャプチャ装置の隣接関係を判断し、データ統合を行う順序を判定する統合順序判定部をさらに有する、
     ことを特徴とする請求項5に記載のトラフィックデータ統合装置。
  8.  前記求められた同じデータパケットを有するフレームデータに含まれる無線の物理情報と、前記求められた同じデータパケットを有するフレームデータを送信したキャプチャ装置の位置情報とを基に、前記ネットワーク上のノードの論理的な位置関係を測定する位置情報管理部をさらに有する、
     ことを特徴とする請求項5に記載のトラフィックデータ統合装置。
PCT/JP2011/051968 2011-01-31 2011-01-31 トラフィックデータ統合方法および装置 WO2012104981A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2011/051968 WO2012104981A1 (ja) 2011-01-31 2011-01-31 トラフィックデータ統合方法および装置
JP2012555604A JP5641062B2 (ja) 2011-01-31 2011-01-31 トラフィックデータ統合方法および装置
US13/936,730 US9723579B2 (en) 2011-01-31 2013-07-08 Traffic data integration method and traffic data integration apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/051968 WO2012104981A1 (ja) 2011-01-31 2011-01-31 トラフィックデータ統合方法および装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/936,730 Continuation US9723579B2 (en) 2011-01-31 2013-07-08 Traffic data integration method and traffic data integration apparatus

Publications (1)

Publication Number Publication Date
WO2012104981A1 true WO2012104981A1 (ja) 2012-08-09

Family

ID=46602226

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/051968 WO2012104981A1 (ja) 2011-01-31 2011-01-31 トラフィックデータ統合方法および装置

Country Status (3)

Country Link
US (1) US9723579B2 (ja)
JP (1) JP5641062B2 (ja)
WO (1) WO2012104981A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057785A (ja) * 2017-09-20 2019-04-11 株式会社東芝 無線通信システム、通信装置及びデータ統合方法
JP2019195224A (ja) * 2019-07-24 2019-11-07 株式会社富士通エフサス 測定装置および測定方法
JP2019216439A (ja) * 2019-07-24 2019-12-19 株式会社富士通エフサス 測定装置および測定方法
JP2020137055A (ja) * 2019-02-25 2020-08-31 サイレックス・テクノロジー株式会社 通信装置、通信装置の制御方法及びプログラム
JP2020155889A (ja) * 2019-03-19 2020-09-24 株式会社国際電気通信基礎技術研究所 無線品質分析装置、無線品質分析方法、および、プログラム
JPWO2021149138A1 (ja) * 2020-01-21 2021-07-29
WO2022259335A1 (ja) * 2021-06-07 2022-12-15 日本電信電話株式会社 分析装置、分析方法、および、分析プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9270396B2 (en) * 2013-04-11 2016-02-23 Tellabs Operations, Inc. Method and apparatus for providing timing analysis for packet streams over packet carriers
WO2014197521A1 (en) 2013-06-03 2014-12-11 Seven Networks, Inc. Blocking/unblocking algorithms for signaling optimization in a wireless network for traffic utilizing proprietary and non-proprietary protocols
US11641245B2 (en) 2021-05-03 2023-05-02 Mellanox Technologies, Ltd. Timestamp confidence level
US11606157B1 (en) * 2021-11-07 2023-03-14 Mellanox Technologies, Ltd. Time synchronization based on network traffic patterns

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136157A (ja) * 2008-12-05 2010-06-17 Shinko Electric Ind Co Ltd 無線ネットワーク解析システム
WO2010086907A1 (ja) * 2009-02-02 2010-08-05 富士通株式会社 パケットキャプチャシステム、パケットキャプチャ方法、情報処理装置およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3375561B2 (ja) 1999-02-18 2003-02-10 株式会社 沖マイクロデザイン 通信評価システム
JP3819309B2 (ja) 2002-03-08 2006-09-06 Kddi株式会社 プロトコルシーケンス解析装置及びそのプロトコルシーケンス表示データ生成方法、コンピュータプログラム
JP3791921B2 (ja) 2003-07-04 2006-06-28 インターナショナル・ビジネス・マシーンズ・コーポレーション ネットワーク・トレースを解析する方法、ネットワーク・トレースを解析するための処理装置、および該処理装置としてコンピュータを制御させるためのコンピュータ実行可能なプログラム、並びにネットワークにおけるノード間の時間差補正方法
JP4335724B2 (ja) * 2004-03-26 2009-09-30 富士通株式会社 送信パケット補填システムおよび送信パケット補填方法
US7606187B2 (en) * 2004-10-28 2009-10-20 Meshnetworks, Inc. System and method to support multicast routing in large scale wireless mesh networks
US7492770B2 (en) * 2005-08-31 2009-02-17 Starent Networks, Corp. Synchronizing data transmission over wireless networks
JP4648181B2 (ja) 2005-12-16 2011-03-09 富士通株式会社 データ解析装置、データ解析方法、及びそのプログラム
US8873560B2 (en) * 2009-07-08 2014-10-28 Dejero Labs Inc. Multipath video streaming over a wireless network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136157A (ja) * 2008-12-05 2010-06-17 Shinko Electric Ind Co Ltd 無線ネットワーク解析システム
WO2010086907A1 (ja) * 2009-02-02 2010-08-05 富士通株式会社 パケットキャプチャシステム、パケットキャプチャ方法、情報処理装置およびプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057785A (ja) * 2017-09-20 2019-04-11 株式会社東芝 無線通信システム、通信装置及びデータ統合方法
JP2020137055A (ja) * 2019-02-25 2020-08-31 サイレックス・テクノロジー株式会社 通信装置、通信装置の制御方法及びプログラム
JP7068708B2 (ja) 2019-02-25 2022-05-17 サイレックス・テクノロジー株式会社 通信装置、通信装置の制御方法及びプログラム
JP2020155889A (ja) * 2019-03-19 2020-09-24 株式会社国際電気通信基礎技術研究所 無線品質分析装置、無線品質分析方法、および、プログラム
JP7232678B2 (ja) 2019-03-19 2023-03-03 株式会社国際電気通信基礎技術研究所 無線品質分析装置、無線品質分析方法、および、プログラム
JP2019195224A (ja) * 2019-07-24 2019-11-07 株式会社富士通エフサス 測定装置および測定方法
JP2019216439A (ja) * 2019-07-24 2019-12-19 株式会社富士通エフサス 測定装置および測定方法
JPWO2021149138A1 (ja) * 2020-01-21 2021-07-29
WO2021149138A1 (ja) * 2020-01-21 2021-07-29 日本電信電話株式会社 タイムスタンプ補正装置、タイムスタンプ補正方法、およびプログラム
JP7335529B2 (ja) 2020-01-21 2023-08-30 日本電信電話株式会社 タイムスタンプ補正装置、タイムスタンプ補正方法、およびプログラム
US11831532B2 (en) 2020-01-21 2023-11-28 Nippon Telegraph And Telephone Corporation Timestamp correction apparatus, time stamp correction method, and program
WO2022259335A1 (ja) * 2021-06-07 2022-12-15 日本電信電話株式会社 分析装置、分析方法、および、分析プログラム

Also Published As

Publication number Publication date
US9723579B2 (en) 2017-08-01
JPWO2012104981A1 (ja) 2014-07-03
JP5641062B2 (ja) 2014-12-17
US20130297820A1 (en) 2013-11-07

Similar Documents

Publication Publication Date Title
JP5641062B2 (ja) トラフィックデータ統合方法および装置
JP4347082B2 (ja) イベントトレースデータの時刻補正装置,時刻補正方法及び時刻補正プログラム
US9581680B2 (en) Positioning method and device for drive test
CN106656643B (zh) 一种分段计算网络延迟的测量方法
WO2018076677A1 (zh) 一种集成电路测试的方法、装置及存储介质
CN101907724A (zh) 同步记录系统和同步记录方法
CN105743732A (zh) 一种记录局域网文件传输路径和分布情况的方法及系统
US9588544B2 (en) Time synchronization across computers in a distributed system
CN103634157A (zh) 并行报文路由探测方法
JP3937341B2 (ja) 計算機システム性能測定分析用のトランザクションプロファイルの生成システム、その生成方法及びプログラム
CN114328122A (zh) 一种io全生命周期时延监测方法及相关装置
CN104618922A (zh) 一种rtt测量定位系统中的测量结果匹配方法和装置
JP3791921B2 (ja) ネットワーク・トレースを解析する方法、ネットワーク・トレースを解析するための処理装置、および該処理装置としてコンピュータを制御させるためのコンピュータ実行可能なプログラム、並びにネットワークにおけるノード間の時間差補正方法
CN102137414B (zh) 一种移动视频业务时延的评估方法和装置
US20150172225A1 (en) Packet storage method, information processing apparatus, and non-transitory computer-readable storage medium
JP2007188152A (ja) クロック・スキュー補正システム、クロック・スキュー補正方法およびクロック・スキュー補正用プログラム
JP5484376B2 (ja) ログ収集自動化装置、ログ収集自動化試験システム、及びログ収集制御方法
CN103532779A (zh) 一种快速定位分流设备丢包的方法及系统
JP2017096651A (ja) 時刻同期方法、振動センサー、振動検知装置、プログラム及び記録媒体
JPWO2020111115A1 (ja) 干渉検出システム、干渉検出装置、干渉検出方法、および干渉検出プログラム
Behrisch et al. Modelling Bluetooth inquiry for SUMO
US20160077907A1 (en) Network processing tracing device, network processing tracing method, and storage medium
CN113132292B (zh) 僵尸网络控制通道的动态监测方法和系统
CN114157713B (zh) 一种捕获隐藏服务流量的方法和系统
US9170603B2 (en) Time-correlation of data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11857728

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012555604

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11857728

Country of ref document: EP

Kind code of ref document: A1