WO2010116827A1 - 大量データ可視化システム及び大量データ可視化方法 - Google Patents

大量データ可視化システム及び大量データ可視化方法 Download PDF

Info

Publication number
WO2010116827A1
WO2010116827A1 PCT/JP2010/053603 JP2010053603W WO2010116827A1 WO 2010116827 A1 WO2010116827 A1 WO 2010116827A1 JP 2010053603 W JP2010053603 W JP 2010053603W WO 2010116827 A1 WO2010116827 A1 WO 2010116827A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
animation
user
time
compact
Prior art date
Application number
PCT/JP2010/053603
Other languages
English (en)
French (fr)
Inventor
晋一 福間
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2011508282A priority Critical patent/JPWO2010116827A1/ja
Publication of WO2010116827A1 publication Critical patent/WO2010116827A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Definitions

  • the present invention relates to a technique for executing in real time an analysis operation and display of analysis results for a large amount of original data (spatio-temporal data) collected.
  • POS Point of sale
  • Non-Patent Document 1 software that can display the above-mentioned information and GIS (Geographic Information System) information combined with dedicated visualization software (visualization software) has already been proposed.
  • the visualization software not only visualizes the contents of data, but also has a function of displaying analysis results and tabulation results that are difficult to understand at a glance so as to be easily understood by humans. In this way, visualization software has become more complex in recent years.
  • Some visualization software executes data processing at the stage of visualization so as to satisfy the conditions operated by the user of the visualization software (see Patent Document 1).
  • One solution to this situation is to perform pre-processing (data statistical processing, analysis, etc.) in advance using a computer with excellent computing capabilities, such as a server or workstation, and visualize the processing results. It is common. For example, the gender ratio and age ratio of users are graphed, and the increase in the number of users is graphed.
  • the burden on the user increases if data is collected accurately. Therefore, a method such as reducing the chance of sensing is used, but in this case, the continuity of data is generally lost. As a result, the data becomes sparse, and the amount of information is insufficient to display the analysis and the result of the analysis as an animation.
  • the inventor proposes a data analysis technique capable of faithfully visualizing all information contained in the original data (spatio-temporal data) and immediately reflecting the user's request in the animation.
  • the present invention decomposes the processing operation for a set of original data (spatio-temporal data) into multiple steps, and sequentially executes data format conversion and narrowing processing according to the usable storage capacity and the processing contents of each step.
  • an animation that is immediately reflected in the user's operation without losing the original information possessed by a large amount of spatiotemporal data. can be displayed.
  • Example 1 In this embodiment, a case will be described in which spatiotemporal data collected in large quantities from railway users is a processing target.
  • the railway users pass through the ticket gates when they get on and when they get off.
  • user boarding / alighting data is automatically collected through the ticket gate. That is, the time when the user enters and the ticket gate passed, the time when the user entered and the ticket gate passed are collected as log data by the railway operator.
  • This log data is always collected based on actions that are indispensable for the use of railways, and accurate information is recorded.
  • the number of railway users is enormous and the amount of data is enormous.
  • a case will be described in which the meaning included in such data is immediately visualized in response to a user's arbitrary operation.
  • FIG. 1 shows a configuration example of a mass data visualization system (hereinafter referred to as “system”) according to an embodiment.
  • the system is mainly composed of three functional units, a data storage unit 100, a processing unit 110, and a screen display unit 120.
  • the system includes an input device (not shown) (for example, a mouse and a keyboard), a communication function, and the like.
  • the processing operation of the processing unit 110 is realized through a processing function of a program executed on a computer.
  • all or part of the processing functions can be realized by hardware.
  • various programs are installed in the computer.
  • the data storage unit 100 stores data required for each process constituting the processing unit 110 and generated data.
  • a hard disk device or a semiconductor storage device (memory) is used.
  • the data storage unit 100 includes the following storage units.
  • the original data storage unit 101 is a storage device that stores the original data 131.
  • the original data 131 is information on boarding / exiting collected sequentially from the user, and the amount of data is very large. Therefore, a storage device having a very large storage capacity is used.
  • the compact data storage unit 102 is a storage device that stores compact data 132 in which a part of the original data 131 is replaced with external data to shorten the data length. However, the number of data of the original data 131 and the compact data 132 is the same.
  • the animation data storage unit 103 is a storage device that stores animation data 133 obtained by converting the compact data 132 into a data format suitable for animation display. As will be described later, when data is converted from the compact data 132 to the animation data 133, the data is also narrowed down. Accordingly, the number of data of the animation data 133 is smaller than the number of data of the compact data 132. Therefore, the storage capacity of the animation data storage unit 103 can be smaller than the storage capacity of the compact data storage unit 102.
  • the reproduction-waiting animation data storage unit 104 is a storage device that stores animation data for screen display as an animation.
  • the external data storage unit 105 is a storage device that stores external data 135 that is referred to when the data format (data structure) is converted.
  • the processing unit 110 executes a defined processing operation through data exchange with the data storage unit 100. For example, narrowing processing and data conversion processing are executed.
  • the processing unit 100 includes the following processing units.
  • the compact data generation unit 111 executes processing for generating the compact data 132 from the original data 131 with reference to the external data 135.
  • the reproduction data selection unit 112 performs a process of reducing the number of data transferred to the subsequent process in the compact data 132.
  • the animation data generation unit 113 executes processing for generating the animation data 133 from the compact data 132. At this time, the moving route is predicted and the passing station information is added so that the moving route can be displayed as animation data.
  • the animation data distribution unit 114 executes processing for registering the animation data 133 in advance in the data list 211 for each reproduction time so that the position information of each reproduction time can be displayed in real time.
  • the reproduction waiting data generation unit 115 reads the corresponding animation data 133 from the data list 211 according to the progress of the reproduction time, and executes a process of converting the data into drawing data 134.
  • the animation data reproduction unit 116 executes processing for converting the animation data 133 into the drawing data 134 with reference to the external data 135.
  • the information adding unit 117 executes a process of reflecting the analysis result on the drawing data 134 and the user's operation input as the adding data 136 in the compact data 132.
  • the screen display unit 120 is used for inputting an instruction to each process (program) from the user and presenting a process result to the user from each process (program).
  • the screen display unit 120 includes the following display units.
  • the screen display 121 is a screen that presents the analysis result to the user as an animation including spatiotemporal information.
  • the playback time selection screen 122 is an operation screen for instructing input of playback conditions (playback time) for the animation data playback unit 116.
  • the reproduction data selection screen 123 is an operation screen for instructing and inputting selection conditions for the reproduction data selection unit 112.
  • FIG. 2 schematically shows the flow of data processing executed in the system according to the embodiment and the data transfer relationship in each unit. In the description to be described later, the data flow will be described according to the processing shown in FIG. In this embodiment, all of the data is collectively referred to as data 130.
  • FIG. 3 shows a processing image executed by the compact data generation unit 111.
  • the compact data generation unit 111 executes processing for converting the original data 131 into compact data.
  • the original data 131 is a set of data collected from users by the railway operator, and is stored in the original data storage unit 101.
  • the original data 131 has a data structure including “boarding station name”, “boarding station coordinates”, “boarding time”, “fare”, and the like.
  • the “boarding station coordinates” is information on the coordinate position of the ticket gate where entry / exit is detected, and is added to the entry / exit data and recorded.
  • the original data 131 is tabulated and displayed in a graph based on the number of passengers getting on and off at each station, the user classification according to age, and the like.
  • the original data 131 includes data ID, user ID, boarding station, boarding station coordinates, boarding time, boarding station, boarding station coordinates, boarding time, and fare data.
  • the compact data generation unit 111 applies the external data 135 stored in the external data storage unit 105, and executes processing for compressing the data length in a compact manner. For compactness, IDs and symbols are used.
  • the compact data 132 is generated using the station ID registered in the external data 135 for the data relating to the boarding / exiting station and boarding station coordinates. Specifically, information such as a station name and coordinates having a large occupied size is compressed into a station ID, a symbol, and the like using the external data 135.
  • the occupation amount of the storage area can be compressed to several tenths and stored, and a large amount of data that has been difficult until now can be processed in real time.
  • the external data 135 is composed of station name, station ID, coordinates, and route data. Note that the generated compact data 132 is stored in the compact data storage unit 102 by the compact data generation unit 111.
  • FIG. 4 shows a processing image executed by the reproduction data selection unit 112.
  • the reproduction data selection unit 112 executes a process of selecting only the compact data 132 that satisfies the condition specified by the user through the reproduction data selection screen 123. That is, the number of data is narrowed down. Display examples of the reproduction data selection screen 123 are shown in FIGS. In the case of this embodiment, the reproduction data selection screen 123 includes gender, age, boarding station, getting-off station, use area as selection items, and buttons for determining selected conditions.
  • the usage area is a display example when the usage area information is given by the information giving unit 117. Therefore, various displays can be considered according to the contents of the assigned information.
  • FIG. 4 shows a state in which only the boarding / exiting station is designated.
  • FIG. 5 shows a state in which the gender, age, getting-off station, and usage area are designated.
  • the reproduction data selection unit 112 deletes the compact data 132 that does not satisfy the selection condition from the compact data storage unit 102.
  • the compact data 132 includes only information on boarding / exiting stations. That is, it contains only discrete information regarding the starting point and the ending point of the moving route in terms of time and distance. In this case, only animation display by linear movement ignoring railway lines can be performed. Therefore, route information is added to the compact data 132 using the animation data generation unit 113.
  • FIG. 6 shows a processing image executed by the animation data generation unit 113. As illustrated in FIG. 6, the animation data generation unit 113 refers to the route database as the external data 135 and adds a station on the route predicted from the two information of the boarding station and the getting-off station to the compact data 132.
  • FIG. 7 shows a route prediction image. In FIG.
  • E route 204 and F route 205) related to the boarding station (A station 200) and the getting off station (B station 201) are shown.
  • E route 204 ...
  • a station 200, D station 203, B station 201, ... are registered.
  • F route 205,..., C station 202, and D station are registered. That is, D station is a connecting station of two routes.
  • the animation data generation unit 113 determines that only that route is used. In the case of this example, the animation data generation unit 113 estimates that the user who gets on the A station 200 and gets off at the B station 201 uses only the E route 204. On the other hand, when the boarding station is A station 200 and the disembarking station is C station 202, these two stations are not on the same route. Therefore, the animation data generation unit 113 estimates that the route has been changed.
  • the animation data generation unit 113 has a function of enumerating the used routes by matching a plurality of route lists (for example, E route 204, F route 205,...) Registered in the route database with the boarding / exiting station. Have. Therefore, if the boarding station is A station 200 and the exit station is C station 202, the animation data generation unit 113 predicts that the transfer has been made at D station 203 common to the two routes.
  • a plurality of route lists for example, E route 204, F route 205, etc.
  • the transit station predicted in this way is additionally registered in the compact data 132. These transit stations are given at all stations on the route estimated between the getting-on / off stations.
  • (D) Animation Data Sorting Process By the way, most of the animation data 133 at this stage is arranged in random order or in the order of data ID. Therefore, in order to reproduce the animation data 133 at this stage on the basis of the reproduction time, it is necessary to extract the animation data 133 to be reproduced with all the animation data 133 as a search target. Moreover, it is necessary to complete the search process within a limited time so as to be in time for the animation display. This search process is very heavy.
  • the animation data distribution unit 114 is used to execute processing for distributing the animation data 133 to the data list 211 suitable for reproduction.
  • FIG. 8 shows a processing image executed by the animation data distribution unit 114.
  • the animation data distribution unit 114 registers the corresponding animation data 133 in the reproduction time list prepared in the animation data storage unit 103 (data list 211 in FIG. 8).
  • FIG. 8 shows an example of creating a data list every 20 minutes. Of course, the time interval of the data list can be set arbitrarily.
  • FIG. 9 shows an image of the array 210 created in the animation data storage unit 103 by the animation data distribution unit 114.
  • the animation data sorting unit 114 registers the animation data 133 in the data list 211 of the time zone including the boarding time, using the boarding time (the time when the ticket passes through the ticket gate of the boarding station) of the anime data 133 as an evaluation criterion.
  • animation data with a boarding time of 10:20 to 10:39 is registered in the “10:20 data list”.
  • this evaluation criterion is referred to as “evaluation point”.
  • a plurality of animation data 133 can be associated with the data list 211.
  • One animation data 133 can be associated with a plurality of data lists 210. This effect will be described later.
  • FIG. 10 shows a processing image of the reproduction waiting data generation unit 115.
  • the reproduction waiting data generation unit 114 takes out only the animation data 133 of the data list 211 associated with the reproduction time designated by the user using the reproduction time selection screen 122 from the array 210, and displays the animation 104 Execute the process stored in. Thereby, the detection time of the required animation data 133 can be significantly shortened.
  • FIG. 10 shows a display example of a playback time selection screen 122 in a format in which the playback time can be specified by moving the slider.
  • the time corresponding to the position of the slider is also displayed on the screen as a numerical value. Therefore, the user can freely specify the playback time while confirming this display.
  • the data list 211 at 10:20 is designated as the playback time on the screen.
  • a playback button and a stop button are arranged on the playback time selection screen 122. As will be described later, this is because it is also used when an animation is displayed using the drawing data 134.
  • the reproduction waiting data generation unit 115 always refers to the data list 211 corresponding to the current time 310 and stores the corresponding data list 211 in the animation 104 every time a new data list 211 is found. For example, in the case of FIG. 11, when the current time 310 reaches the evaluation point (ride) 311 of the data B, the reproduction waiting data generation unit 115 stores the data B in the animation 104. Similarly, when the current time 310 reaches the evaluation point (ride) 312 of the data D, the reproduction waiting data generation unit 115 stores the data D in the animation 104. However, when FIG. 11 shows a state immediately after the user specifies the playback time, the data A cannot be stored in the animation 104. This is because the evaluation point of data A is a past time point with respect to the current time 310 and cannot be found.
  • FIG. 12 shows an example in which one animation data 133 is associated with a plurality of data lists 211.
  • one data has a plurality of evaluation points (black circles). Therefore, if the data list 211 associated with one of the evaluation points matches the current time (reproduction time) 310, the reproduction waiting data generation unit 115 can store the corresponding animation data 133 in the animation 104. .
  • a point 312 at which the reproduction of each animation data 133 is started is indicated by a white circle.
  • associating one animation data 133 with a plurality of data lists 211 increases the storage area occupied, but a large amount of data can be reproduced even when the user jumps the reproduction time. It becomes possible.
  • FIG. 13 shows a processing image of the animation data reproduction unit 116.
  • the animation data reproduction unit 116 executes a process of expanding (data conversion) the animation data 133 to the drawable data 134 that can be drawn.
  • the extension (data conversion) here uses the external data 135 used in the compact data generation unit 111.
  • the drawing data 134 is composed of data necessary for drawing such as coordinates, colors, and angles.
  • the coordinates are expressed by X coordinates and Y coordinates.
  • the color is expressed in red (R), G (green), and B (blue).
  • the animation data reproduction unit 116 calculates these data based on the current time (reproduction time) 310 given from the reproduction time selection screen 122.
  • FIG. 14A As shown in FIG. 14A, consider a case in which there is original data 131 indicating that the ticket entered at 10:30 from the ticket gate at A station 200 and entered at 10:50 from the ticket gate at B station 201.
  • the animation data 133 has already added information on the D station 203 as a transit station to the animation data 133.
  • the animation data reproduction unit 116 reproduces the animation data 133, the time required for the train to pass through the D station is determined based on the positional relationship between the number of stations existing between the A station 200 and the B station 201 and the D station 203. It is predicted to be 10:40 and played back.
  • the animation data reproducing unit 116 calculates the coordinates of the passing point (drawing coordinates 306) by interpolation so as to smoothly connect the two stations located on both sides with respect to the reproduction time (step 305).
  • coordinates are expressed by latitude and longitude in accordance with the notation of the external data 135.
  • the animation data reproducing unit 116 draws the corresponding data 307 at the calculated coordinate position with a symbol such as a triangle. For example, when a triangular symbol is used, not only position information but also information on the traveling direction can be expressed by displaying the apex direction as the traveling side.
  • FIG. 15 shows a display screen example (screen display 121) by the animation data reproducing unit 116.
  • a reproduction time selection screen 122 (FIG. 10) is displayed in an overlapping manner.
  • two symbol clusters 320 with the triangle vertices facing in the same direction on the arc are recognized.
  • a lump of symbols whose traveling direction is random is also recognized.
  • the expansion process accompanying the generation of the drawing data 134 does not necessarily need to be executed in the animation data reproducing unit 116 that requires real-time processing.
  • extended processing such as railway transfer analysis and clustering analysis is executed by the compact data generation unit 111 and the animation data generation unit 113 and stored in advance in the compact data 132 and the animation data 133, respectively. I do not care.
  • the amount of data handled in each process is larger than that in the above-described embodiment.
  • the number of steps to be executed when displaying data can be reduced, high-speed drawing can be realized.
  • FIG. 16 shows a processing image of the information giving unit 117.
  • the information adding unit 117 executes a process of generating the additional data 136 as a new meaning based on the drawing coordinates and the color used when the drawing data 134 is visualized.
  • semantic extraction as signal processing by the information adding unit 117 and input of semantic information by the user may be used in combination.
  • FIG. 16 shows a case where a new meaning is found in four data.
  • the four pieces of data shown in FIG. 16 all start from the same place and all go to the same place. These are known from the boarding / alighting data.
  • the data of ID “00001” and the data of ID “00002” have passed through area A (330), whereas the data of ID “00003” and data of ID “00004” are in area B (331). Has passed.
  • the information adding unit 117 generates the adding data 136 called “passing area” for the drawing data 134.
  • use area A is generated as the assignment data 136 for the data of ID “00001” and ID “00002”
  • use area B is the assignment data 136 for the data of ID “00003” and ID “00004”. Shows an generated example.
  • the added data 136 is written into the external data storage unit 105 and the compact data storage unit 102 by the information adding unit 117.
  • FIG. 17 shows a corresponding example.
  • FIG. 17 shows an example in which three users (data 400) use each station 401 on the route 402 in a disjoint manner.
  • the dark shaded portions are the entry and exit times recorded in the original data 131, and the thin shaded portions are passages calculated from the original data 131 in an expanded manner. It's time.
  • a playback time of 11:10 is designated (step 403).
  • three drawing data 134 are registered in a data list prepared in increments of 1 minute, for example.
  • all three symbols are drawn between the station J and the station K by the animation data reproducing unit 116 (step 404).
  • the information adding unit 117 that has analyzed the drawing position as a lump predicts that the user corresponding to these three symbols is probably a person on the same train (step 405). Therefore, the information assigning unit 117 generates and assigns new assignment data 136 for the person on the “limited express XX xx” to the chunk, and assigns the information to the compact data storage unit 102 or the external data storage. It adds to the part 105.
  • the display color of the symbol can be changed according to the contents of the assignment data 136 when an animation is displayed on the screen display 121.
  • an animation For example, in the example of FIG. 15, a symbol of a person on an express train and a symbol of a person on each station train can be distinguished and drawn on the screen.
  • FIG. 18 shows the change between the data. That is, it shows how the original data 131, the compact data 132, the animation data 133 (in the animation data storage unit 103), the animation data 133 (in the animation 104), and the drawing data 134 change.
  • narrowing is also executed simultaneously with the data conversion, and only a part of the compact data 132 is stored in the animation 104.
  • the station name is the real name only in the original data 131 and the drawing data 134, and other data is handled only by the ID. As a result, the data amount is reduced. It can also be seen that the coordinates necessary for drawing appear only in the drawing data. It can also be seen that the route information is added from the stage of the animation data 133.
  • the information of the original data 131 is retained as much as possible even at the stage of the drawing data 134 displayed as an animation.
  • the original data 131 is also automatically collected at the timing when the railroad user passes the ticket gate. Therefore, unlike the case where the data is collected according to the user's arbitraryness, the continuity of data is not lost. Accordingly, the visualization data finally presented to the user includes much more information than the conventional technology. Therefore, information can be analyzed and analyzed with free ideas.
  • information is collected only at the entrance and exit of a ticket gate, and not all actions are collected continuously like GPS information, so the amount of data is small. At the same time, since all of the user's continuous actions are not collected, it is possible to consider the privacy of the individual user.
  • the process is divided into multiple steps, and a process of sequentially converting to a data format that matches the behavior of the processing unit and a process of narrowing down are executed.
  • the data size required for data storage can be reduced, and the capacity of the storage device required for hardware can be reduced.
  • a larger amount of data than before can be handled.
  • a mechanism for referring to another database is introduced so that the data size can be freely changed according to the necessity of each process.
  • the system according to the form example not only the data format but also the method for storing data is changed in each process, and the storage suitable for each process is performed. Thereby, the amount of data read / written to / from the storage device can be optimized for each process. Further, by optimizing the amount of data, it is possible to display in real time an animation that satisfies a condition specified by the user through an operation input. For this reason, the workability of the user is remarkably improved, and the original data 131 can be verified by a free idea.
  • a mechanism is adopted in which information (drawing data) generated by visualization is reflected in the compact data 132 and the external data 135 as the added data 136.
  • information drawing data
  • a mechanism for extracting feature information such as attributes or internal information of a user or an object
  • coordinate information such as attributes or internal information of a user or an object
  • color information such as color information, or the like.
  • Example 2 In this embodiment, a system that visualizes and displays a large amount of original data 131 collected from a vehicle that has passed through a gate by a highway operator will be described. Except for the specific data structure to be collected, the basic system structure and data processing flow are the same as in the first embodiment.
  • FIG. 19 illustrates a case where the vehicle moves on the highway 500.
  • the entrance 502 and the exit 503 correspond to the boarding station and the getting-off station in the first embodiment.
  • records of charges collected in the toll gates 504 and 505 and the fee collection system are additionally accumulated.
  • These additional information corresponds to the passing station information in the first form example, but differs from the first form example in that the time of the passing point is determined.
  • these data are stored in the server as log data for each user.
  • the coordinate data of the entrance, the exit, and the toll gate is prepared as the external data storage unit 105.
  • the compact data generation unit 111 executes processing for converting the original data 131 into the compact data 132 using the external data storage unit 105.
  • the animation data reproduction unit 116 uses the external data storage unit 105 to execute processing for converting the animation data 133 into drawing data 134. Therefore, the storage capacity of the storage device necessary for the system can be reduced by the amount that the coordinate data and the ID data can be freely replaced.
  • the external data 135 stores highway 500 network information, traffic jam information, speed limit information, traffic regulation information, and the like. By referring to these pieces of information as the external data 135, the current position (reproduction position) when the drawing data 134 is created can be predicted to some extent.
  • the information adding unit 117 detects the characteristic information (for example, a lump on the space plane) included in the drawing data 134 and reflects it as the adding data 136 in the compact data 132 or the external data storage unit 105. Can be made. As a result, it is possible to predict the route and time for people to detour in the event of traffic jams and accidents, and this can be used when planning bypass design and new establishments of rest areas (service areas). Thereby, design work can be made efficient.
  • the characteristic information for example, a lump on the space plane
  • Example 3 a system for visualizing and displaying a large amount of original data 131 collected from an input / output gate by an operator such as an art museum or a museum will be described.
  • the basic system structure is the same as that of Embodiment 1 except for the specific data structure to be collected.
  • FIG. 20 illustrates a case where a visitor moves within the exhibition area 600.
  • the exhibition area 600 also has an entrance 602 and an exit 603 as in the case of railway lines and highways. That is, a visitor who has purchased a ticket enters from the entrance 602 and exits from the exit 603.
  • a large amount of log data that records the time of entry / exit is used.
  • the route 601 along the normal route is often determined, and the same method as in the first and second embodiments can be applied to the data expansion by the animation data generation unit 113. Therefore, in the case of this embodiment, it is possible to predict and display an animation by predicting the route arbitrarily specified by the user and the position of the visitor at a specific time.
  • museums and museums are densely located on one site.
  • the user may also visit a plurality of buildings (for example, an art museum and a museum) in turn in addition to one exhibition area.
  • a site configuration not only the movement in a specific building (for example, a museum) but also the movement route is extended to the movement route and position between a plurality of buildings to predict the movement situation of the user. be able to.
  • FIG. 21 shows an example of such a site configuration.
  • FIG. 21 shows an example in which the A museum 604, the B museum 605, and the C science museum 606 are adjacent to each other on the same site.
  • the same entrance / exit system in these three exhibition areas it is possible to collect centralized log data. Thereby, it is possible to visualize how the user has moved in art museums and museums of different genres.
  • semantic information such as “Japanese painting lover”, “Western painting lover”, “sculpture lover” can be extracted. it can. If this information is additionally stored in the compact data 132 or the external data storage unit 105 as the added data 136, it can be used for advertising strategy, selection of recommended products at a store, and the like.
  • a railway, a highway, and an exhibition area are illustrated as application examples of the mass data visualization system according to the invention, but of course, the applicable system is not limited thereto.
  • the present invention can be widely applied to a system in which entrance / exit data is automatically collected from a gate such as a factory, an office, an amusement park, and the like.
  • the coordinate data is managed in the two-dimensional coordinate system (longitude, latitude)
  • the coordinate data can be managed in the three-dimensional coordinate system (longitude, latitude, altitude).
  • the movement of the symbol can be displayed in a three-dimensional animation.
  • DESCRIPTION OF SYMBOLS 100 ... Data storage part, 101 ... Original data storage part, 102 ... Compact data storage part, 103 ... Animation data storage part, 104 ... Animation data storage part waiting for reproduction, 105 ... External data storage part, 110 ... Processing part, 111 ... Compact data generation unit 112 ... reproduction data selection unit 113 ... animation data generation unit 114 ... animation data distribution unit 115 ... reproduction waiting data generation unit 116 ... animation data reproduction unit 117 ... information addition unit 120 ... screen Display unit 121 ... Screen display 122 ... Playback time selection screen 123 ... Playback data selection screen 130 ... Data 131 ... Original data 132 ... Compact data 133 ... Animation data 134 ... Drawing data 135 135 External data 136: Granted data.

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 大量に収集された移動ログデータを動的に解析し、アニメーションとして可視化することを目的とする。まず、外部データに基づいて、元データのうち座標情報を位置識別コードで置換する。次に、コンパクトデータの集合のうち、選択画面を通じてユーザより指定入力された条件に関連するコンパクトデータだけを選択する。次に、選択されたコンパクトデータのそれぞれに推定経路の情報を付加してアニメデータを生成する。次に、アニメデータを処理対象とし、各アニメデータを、時間軸上に所定の時間幅で設定されたデータリストのいずれかに登録する。その後、指定入力された任意の再生時間に対応するデータリストに登録されている各アニメデータのそれぞれに対応するシンボルを、外部データから読み出される座標情報又は推定経路の情報に基づいて予測した位置に表示する。

Description

大量データ可視化システム及び大量データ可視化方法
 本発明は、大量に収集された元データ(時空間データ)を対象とした解析動作と解析結果の表示をリアルタイムで実行する技術に関する。
 センサネットワーク、GPS(Global Positioning System)、非接触型IC(Integrated Circuit)等の実用化により、昨今では、人の動きや物の移動等を時間と位置で特定できる時空間情報が大量に発生され収集されている。例えば携帯電話機等による通話ログや電子マネー等の利用ログ等が大量に収集されている。因みに、通話ログに含まれるアンテナの位置情報を用いれば、携帯電話機がどの時間にどのアンテナ付近にいたかを知ることができる。また、利用ログに含まれる利用店舗の情報を用いれば、ユーザがどの時間に、どの店舗で、どれぐらいの金額のものを買ったかを知ることができる。
 昨今では、これらのデータを対象とした集計や解析により、新たな価値を生み出すシステムが提案されている。例えば携帯電話機について収集された通話ログについての解析結果に基づいて、携帯電話サービスを提供する会社は、どのエリアに、どれぐらいのアンテナを設置するかを判断している。また例えば電子マネーの利用ログについての解析結果は、POS(Point of sale)と呼ばれる購買データに加え、ユーザの特性や移動等の情報も含んでいる。このため、利用ログは、より一層価値のある情報を示すものとして用いられている。
 このような背景の元、既に、専用の可視化ソフトウェア(ビジュアライズソフトウェア)等によって、前述した情報やGIS(Geographic Information System)情報等を組み合わせて表示できるソフトウェア等が提案され、実際にマーケティングや価値算出等の場面で利用されている(非特許文献1を参照)。また、可視化ソフトウェアは、データの内容を単に可視化するだけでなく、一見分かり難い解析結果や集計結果を人間が理解し易いように組み替えて表示する機能も有している。このように昨今では、可視化ソフトウェアも複雑化してきている。なお、可視化ソフトウェアの中には、可視化ソフトウェアの利用者が操作した条件を満たすように、可視化する段階でデータの加工処理を実行するものが存在する(特許文献1を参照)。
特開2004-139575号公報
Google、Google Earth、[online]、インターネット<URL:http://earth.google.com/>
 ところが、大量のデータがますます増え続けるという状況下においては、処理対象となるデータの数及びデータ量があまりにも大量になりすぎており、データの中から意味を見出すことが難しくなってきている。このような状況に対する一つの解決策として、サーバやワークステーション等の演算能力に優れたコンピュータを用いて予め前処理(データの統計処理、解析など)を実行し、その処理結果を可視化することが一般的である。例えばユーザの男女比や年齢比等を円グラフ化したり、ユーザ数の増加を線グラフ化したりすることが行われている。
 しかし、このような可視化手法は、大量のデータのうち重要と思われる部分を抜き出しているのに過ぎず、前処理の段階でデータが本来有する大量の情報が失われているのが現状である。また、前処理で実行する内容自体は人間が創り出すものであり、人間の既成概念が組み込まれている。従って、前処理が実行されたデータを可視化しても、可視化された情報から飛躍的に新しい発想は生まれ難くなっている。
 また、データを正確に集めようとすると、ユーザの負担も増加する。そこで、センシングする機会を減らす等の方法が用いられているが、これではデータの連続性が失われてしまう場合が一般的である。結果的にデータが疎になり、分析や解析の結果をアニメーションとして表示するには情報量が不足してしまう。
 このような状況を解決するため、発明者は、元データ(時空間データ)が有する全ての情報を忠実に可視化し、ユーザの要求を即座にアニメーションに反映できるデータ解析技術を提案する。本発明は、元データ(時空間データ)の集合に対する処理動作を多ステップに分解し、使用可能な記憶容量や各ステップの処理内容に応じてデータ形式の変換や絞り込み処理を逐次実行する。
 本発明によれば、サーバやワークステーションに比して処理能力が劣るハードウェアを用いる場合でも、大量の時空間データが有する本来の情報を失うことなく、ユーザの操作に即座に反映したアニメーションを表示することができる。
形態例に係るシステム構成図である。 形態例において使用する構成要素とデータの流れとの関係を示す図である。 コンパクトデータ生成部の処理イメージを説明する図である。 再生データ選択部の処理イメージを説明する図である。 再生データ選択画面の一例を示す図である。 アニメデータ生成部の処理イメージを説明する図である。 移動経路の予測例を示す図である。 アニメデータ振り分け部の処理イメージを説明する図である。 アニメデータ蓄積部内のデータ構造例を示す図である。 再生待ちデータ生成部の処理イメージを説明する図である。 データリストと再生時間の関係を説明する図である。 複数の評価ポイントを有するデータの例を示す図である。 アニメデータ再生部の処理イメージを説明する図である。 再生時間選択画面と描画座標の予測イメージを説明する図である。 アニメデータ再生部による表示イメージ例を示す図である。 情報付与部の処理イメージを説明する図である。 情報付与部の処理イメージを説明する図である。 各データの流れを概念的に示す図である。 高速道路上の入退場データを用いる形態例を説明する図である。 美術館内の入退場データを用いる形態例を説明する図である。 隣接して立地する美術館等の間を移動する場合を例示する図である。
 以下、図面に基づいて、本発明に対応する形態例を順番に説明する。
(1)形態例1
 この形態例では、鉄道の利用者より大量に収集される時空間データを処理対象とする場合について説明する。なお、鉄道の利用者は、乗車時と降車時のそれぞれで改札を通る。この際、利用者の乗降データは、改札機を通じて自動的に収集される。すなわち、利用者が入場した時刻と通過した改札と、利用者が出場した時刻と通過した改札とがログデータとして鉄道事業者によって収集される。このログデータは、鉄道の利用に際して不可欠な行動に基づいて必ず収集されるものであり、正確な情報が記録されている。ただし、鉄道の利用者数は莫大であり、そのデータ量も莫大なものになる。以下の形態例では、このようなデータに含まれている意味をユーザの任意の操作に対応して即座に可視化する場合を説明する。
(1-1)システムの全体構成
 図1に、形態例に係る大量データ可視化システム(以下、「システム」という。)の構成例を示す。システムは、主に、データ蓄積部100、処理部110、画面表示部120の3つの機能部で構成されている。この他、システムは、不図示の入力装置(例えばマウス、キーボード)や通信機能等も備えている。この形態例の場合、処理部110の処理動作は、コンピュータ上で実行されるプログラムの処理機能を通じて実現される。もっとも、処理機能の全部又は一部をハードウェアにより実現することもできる。また、コンピュータには、形態例に係る処理機能を実現するプログラム以外にも様々なプログラムが搭載されている。
 データ蓄積部100は、処理部110を構成する各処理で必要とされるデータや発生したデータを格納する。例えばハードディスク装置や半導体記憶装置(メモリ)等が用いられる。この形態例の場合、データ蓄積部100は、以下の蓄積部で構成される。元データ蓄積部101は、元データ131を格納する記憶装置である。なお、元データ131は利用者から逐次収集される乗降に関する情報であり、非常にデータ量が膨大である。従って、非常に記憶容量の大きい記憶装置が用いられる。コンパクトデータ蓄積部102は、元データ131の一部を外部データと置換し、データ長を短縮したコンパクトデータ132を格納する記憶装置である。もっとも、元データ131とコンパクトデータ132のデータ数は同じである。しかし、データ長が短縮されることで、コンパクトデータ蓄積部102の記憶容量は、元データ蓄積部101の記憶容量よりも小さく済む。アニメデータ蓄積部103は、コンパクトデータ132をアニメーション表示に適したデータ形式に変換したアニメデータ133を格納する記憶装置である。後述するように、コンパクトデータ132からアニメデータ133に変換される際にデータの絞り込みも実行される。従って、アニメデータ133のデータ数はコンパクトデータ132のデータ数よりも少なくなる。従って、アニメデータ蓄積部103の記憶容量は、コンパクトデータ蓄積部102の記憶容量よりもさらに小さく済む。再生待ちアニメデータ蓄積部104は、アニメーションとして画面表示するためのアニメデータを格納する記憶装置である。従って、再生待ちアニメデータ蓄積部104の記憶容量は、アニメデータ蓄積部103の記憶容量よりもさらに小さく済む。外部データ蓄積部105は、データ形式(データ構造)を変換する場合に参照する外部データ135を格納する記憶装置である。
 処理部110は、データ蓄積部100との間のデータの受け渡しを通じて定義された処理動作を実行する。例えば絞り込み処理やデータ変換処理が実行される。この形態例の場合、処理部100は、以下の処理部で構成される。コンパクトデータ生成部111は、外部データ135を参照して元データ131からコンパクトデータ132を生成する処理を実行する。再生データ選択部112は、コンパクトデータ132のうち後続する処理に受け渡すデータ数を削減する処理を実行する。アニメデータ生成部113は、コンパクトデータ132からアニメデータ133を生成する処理を実行する。この際、アニメデータとして移動経路を表示できるように、移動経路が予測され、通過駅の情報が追加される。アニメデータ振り分け部114は、リアルタイムで各再生時間の位置情報を表示できるように事前に再生時間別のデータリスト211にアニメデータ133を登録する処理を実行する。再生待ちデータ生成部115は、再生時間の進行に応じてデータリスト211から対応するアニメデータ133を読み出し、描画データ134にデータ変換する処理を実行する。アニメデータ再生部116は、外部データ135を参照してアニメデータ133を描画データ134に変換する処理を実行する。情報付与部117は、描画データ134に対する分析結果やユーザの操作入力を付与データ136としてコンパクトデータ132に反映する処理を実行する。
 画面表示部120は、ユーザから各処理(プログラム)に対する指示の入力や各処理(プログラム)からユーザに処理結果を提示するのに用いられる。画面表示部120は、以下の表示部で構成される。画面表示121は、解析結果を時空間情報を含むアニメーションとしてユーザに提示する画面である。再生時間選択画面122は、アニメデータ再生部116に対する再生条件(再生時間)を指示入力する操作画面である。再生データ選択画面123は、再生データ選択部112に対する選択条件を指示入力する操作画面である。
(1-2)データの処理の内容
 図2に、形態例に係るシステムにおいて実行されるデータ処理の流れと各部におけるデータの受け渡し関係を概略的に示す。後述する説明では、図2に示す処理に従って、データの流れを説明する。この形態例では、データの全てを総称してデータ130と呼ぶ。
(a)コンパクトデータ生成処理
 図3に、コンパクトデータ生成部111で実行される処理イメージを示す。コンパクトデータ生成部111は、元データ131をコンパクトデータに変換する処理を実行する。元データ131は、鉄道事業者が利用者から収集したデータの集合であり、元データ蓄積部101に蓄積されている。元データ131は、「乗車駅名称」、「乗車駅座標」、「乗車時間」、「運賃」等で構成されるデータ構造を有している。因みに、「乗車駅座標」は入退場を検出した改札の座標位置の情報であり、入退場データに付加して記録される。また、従来では、各駅の乗降車数や年齢別の利用者区分等で元データ131を集計し、グラフ化して表示する程度である。
 図3の場合、元データ131は、データID、ユーザID、乗車駅、乗車駅座標、乗車時間、降車駅、降車駅座標、降車時間、運賃の各データで構成される。コンパクトデータ生成部111は、外部データ蓄積部105に格納されている外部データ135を適用し、データ長をコンパクトに圧縮する処理を実行する。コンパクト化には、IDや記号等を使用する。図3の場合、乗降駅と乗車駅座標に関するデータを、外部データ135に登録されている駅IDを使用してコンパクトデータ132を生成する。具体的には、占有サイズが大きい駅名や座標といった情報を、外部データ135を用いて駅IDや記号等に圧縮する。これにより、記憶領域の占有量を数十分の一に圧縮して格納することが可能となり、今まで困難であった大量のデータをリアルタイムに処理することが可能となる。なお図3の場合、外部データ135は、駅名、駅ID、座標、路線の各データで構成される。なお、生成されたコンパクトデータ132は、コンパクトデータ生成部111によってコンパクトデータ蓄積部102に格納される。
(b)再生データ選択処理
 図4に、再生データ選択部112で実行される処理イメージを示す。再生データ選択部112は、再生データ選択画面123を通じてユーザが指定した条件を満たすコンパクトデータ132だけを選択する処理を実行する。すなわち、データ数の絞込みが実行される。再生データ選択画面123の表示例を図4と図5に示す。この形態例の場合、再生データ選択画面123は、選択項目としての性別、年齢、乗車駅、降車駅、利用エリアと、選択した条件を決定するボタンとで構成される。なお、利用エリアは、情報付与部117において利用エリア情報が付与された場合の表示例である。従って、付与情報の内容に応じて様々な表示が考えられる。また、付与情報が複数の場合には、それらの全て又は一部が選択的に表示される。なお、図4は、乗降駅だけが指定された状態を表している。また、図5は、性別と、年齢と、降車駅と、利用エリアが指定された状態を表している。例えば、再生データ選択部112は、選択条件を満たさないコンパクトデータ132をコンパクトデータ蓄積部102から削除する。
(c)アニメデータ生成処理
 前述したように、コンパクトデータ132には乗降駅の情報しか含まれていない。すなわち、移動経路の起点と終点に関する時間的にも距離的にも離散した情報しか含まれていない。これでは、鉄道の路線を無視した直線移動によるアニメーション表示しか行うことができない。そこで、アニメデータ生成部113を使用して、コンパクトデータ132に路線情報を付加する。図6に、アニメデータ生成部113で実行される処理イメージを示す。図6に示すように、アニメデータ生成部113は、路線データベースを外部データ135として参照し、乗車駅と降車駅の2つの情報から予測される経路上の駅をコンパクトデータ132に追加する。図7に、経路の予測イメージを示す。図7では、乗車駅(A駅200)と降車駅(B駅201)に関連のある2つの路線(E路線204とF路線205)だけを表している。因みに、E路線204には、…、A駅200、D駅203、B駅201、…が登録されている。また、F路線205には、…、C駅202、D駅が登録されている。すなわち、D駅が2つの路線の接続駅である。
 アニメデータ生成部113は、乗車駅(A駅200)と降車駅(B駅201)の両方が同じ路線上にあった場合には、その路線だけを利用したと判断する。この例の場合、アニメデータ生成部113は、A駅200で乗車し、B駅201で降車した利用者は、E路線204だけを利用したと推定する。これに対し、乗車駅がA駅200で降車駅がC駅202の場合には、これら2つの駅が同じ路線内に無い。従って、アニメデータ生成部113は、路線を乗り換えたと推測する。
 このように、アニメデータ生成部113は、路線データベースに登録された複数の路線リスト(例えばE路線204、F路線205…)と乗降駅とをマッチングさせることにより、利用した路線を列挙する機能を有している。従って乗車駅がA駅200で降車駅がC駅202の場合であれば、アニメデータ生成部113は、2つの路線に共通するD駅203において乗り換えたと予測する。
 図6のアニメデータ133では、このように予測された経由駅がコンパクトデータ132に対して追加的に登録されている。これらの経由駅は、乗降駅間で推測された経路上にある全ての駅で与えられる。
(d)アニメデータ振り分け処理
 ところで、この段階におけるアニメデータ133は、順不同又はデータIDの順番に並んでいるものがほとんどである。従って、この段階のアニメデータ133を、再生時間を基準として再生するには、全てのアニメデータ133を検索対象として再生すべきアニメデータ133を抽出せねばならない。しかも、アニメーション表示に間に合うように限られた時間内に検索処理を完了する必要がある。この検索処理は非常に重い処理となる。
 そこで、アニメデータ振り分け部114を使用して、アニメデータ133を再生に適したデータリスト211に振り分ける処理を実行する。図8に、アニメデータ振り分け部114で実行される処理イメージを示す。この形態例の場合、アニメデータ振り分け部114は、アニメデータ蓄積部103に用意した再生時間別のリスト(図8では、データリスト211)に、対応するアニメデータ133を登録する。図8は、20分刻みでデータリストを作成する例を表している。勿論、データリストの時間間隔は任意に設定することができる。
 図9に、アニメデータ振り分け部114によりアニメデータ蓄積部103に作成される配列210のイメージを示す。この際、アニメデータ振り分け部114は、アニメデータ133が有する乗車時間(乗車駅の改札を通過した時刻)を評価基準とし、乗車時間が含まれる時間帯のデータリスト211にアニメデータ133を登録する。図8の例であれば、乗車時間が10:20から10:39までのアニメデータは、「10:20のデータリスト」に登録される。この明細書の場合には、この評価基準を「評価ポイント」と呼ぶことにする。データリスト211には複数のアニメデータ133を関連づけることができる。また、1つのアニメデータ133を複数のデータリスト210に関連づけることも可能である。この効果については後述する。
(e)再生待ちデータ処理
 図10に、再生待ちデータ生成部115の処理イメージを示す。再生待ちデータ生成部114は、図10に示すように、再生時間選択画面122を用いてユーザが指定した再生時間に関連付けられているデータリスト211のアニメデータ133だけを配列210から取り出し、アニメ104に格納する処理を実行する。これにより、必要なアニメデータ133の検出時間を大幅に短縮することができる。
 なお、図10には、スライダーの移動により再生時間を指定できる形式の再生時間選択画面122の表示例を示している。この例の場合、スライダーの位置に対応する時間も数値として画面上に表示される。従って、ユーザは、この表示を確認しながら再生時間を自由に指定することができる。この例の場合、画面上には、10時20分のデータリスト211が再生時間として指定されていることが分かる。図10の場合、アニメデータ蓄積部103に格納されたデータリスト211は2つであるのに対し、再生待ちアニメデータ蓄積部104に格納されたデータリスト211は1つである。なお、この例の場合、再生時間選択画面122には、再生ボタンもストップボタンも配置する。後述するように、描画データ134によるアニメーションの表示時にも使用するためである。
 ところで、アニメーション表示は、図11に示すように、現在時間(再生時間)310の時間軸上での移動に伴って表示内容を変化させるものである。従って、再生待ちデータ生成部115は、常に現在時間310に対応するデータリスト211を参照し、新たなデータリスト211が見つかるたびに対応するデータリスト211をアニメ104に格納する。例えば図11の場合、現在時間310がデータBの評価ポイント(乗車)311に達すると、再生待ちデータ生成部115は、データBをアニメ104に格納する。同様に、現在時間310がデータDの評価ポイント(乗車)312に達すると、再生待ちデータ生成部115は、データDをアニメ104に格納する。ただし、図11が、ユーザが再生時間を指定した直後の様子を表している場合、データAをアニメ104に格納することができない。データAの評価ポイントは、現在時間310に対して過去の時点であり、見つけ出すことができないためである。
 このような場合には、前述したように、1つのアニメデータ133を複数のデータリスト211に関連づけることが有効である。図12に、1つのアニメデータ133を複数のデータリスト211に関連づけた例を示す。図12に示すように、この場合、1つのデータが複数の評価ポイント(黒丸)を持つことになる。従って、そのどれかの評価ポイントに関連づけられたデータリスト211と現在時間(再生時間)310が一致すれば、再生待ちデータ生成部115は、対応するアニメデータ133をアニメ104に格納することができる。図12においては、各アニメデータ133の再生が開始されるポイント312を白丸で示す。このように、1つのアニメデータ133を複数のデータリスト211に関連付けると、占有する記憶領域が増えることになるが、ユーザが再生時間をジャンプさせた場合等においても多くのデータを再生することが可能になる。
(f)アニメデータ再生処理
 図13に、アニメデータ再生部116の処理イメージを示す。アニメデータ再生部116は、アニメデータ133を描画可能な描画データ134に拡張(データ変換)する処理を実行する。ここでの拡張(データ変換)には、コンパクトデータ生成部111で利用した外部データ135を使用する。描画データ134は、図13に示すように、座標、色、角度等の描画に必要なデータで構成される。この形態例の場合、座標は、X座標とY座標で表現する。また、色は、赤(R)、G(緑)、B(青)で表現する。なお、アニメデータ再生部116は、再生時間選択画面122から与えられる現在時間(再生時間)310に基づいて、これらのデータを算出する。
 以下、図14に沿って説明する。図14(A)に示すように、A駅200の改札から10時30分に入場し、B駅201の改札から10時50分に出場したという元データ131があった場合を考える。なお、アニメデータ133には、経由駅としてのD駅203の情報がアニメデータ生成部113により既に追加されている。アニメデータ再生部116は、このアニメデータ133を再生する際に、A駅200とB駅201との間に存在する駅数とD駅203との位置関係からD駅を電車が通過する時間を10時40分と予測して再生させる。
 次に、図14(B)に示すように、ユーザが通過駅間を再生時間(例えば10時35分)として指定した場合を説明する(ステップ304)。この場合、アニメデータ再生部116は、再生時間に対して両側に位置する2つの駅の間をスムーズに繋ぐように通過点の座標(描画座標306)を補間演算により算出する(ステップ305)。図14(B)では、外部データ135の表記に合わせて緯度と経度で座標を表現している。この後、アニメデータ再生部116は、算出された座標位置に、対応するデータ307を三角形等のシンボルにより描画する。例えば三角形のシンボルを用いる場合、頂点方向を進行側として表示することで、位置情報だけでなく進行方向の情報も表現することができる。
 図15に、アニメデータ再生部116による表示画面例(画面表示121)を示す。図15の画面表示121には、再生時間選択画面122(図10)が重ねて表示されている。図15の場合、円弧上に同一方向に三角形の頂点が向いた2つのシンボルの塊320が認められる。また、進行方向がランダムのシンボルの塊も認められる。
 ところで、描画データ134の生成に伴う拡張処理は、必ずしもリアルタイム処理が要求されるアニメデータ再生部116において実行する必要は無い。例えば鉄道の乗り換え分析、クラスタリングの分析等の処理が重い拡張処理については、コンパクトデータ生成部111やアニメデータ生成部113において実行し、それぞれコンパクトデータ132やアニメデータ133に予め格納しておいても構わない。この場合、各処理で扱うデータ量は、前述した形態例よりも増えることになる。しかし、データ表示の際に実行すべきステップ数を削減できるので、高速な描画を実現できる。
(g)情報付与処理
 図16に、情報付与部117の処理イメージを示す。情報付与部117は、描画データ134を可視化する際に使用する描画座標や色等に基づいて、さらに新しい意味としての付与データ136を生成する処理を実行する。もっとも、ユーザ自身が画面上の表示を通じて発想した意味情報を情報付与部117に対して入力する手法を用いることもできる。勿論、情報付与部117による信号処理としての意味抽出とユーザによる意味情報の入力とを併用しても良い。
 図16は、4つのデータに新しい意味を見出す場合を示している。図16に示す4つのデータは、全て同じ場所を出発点とし、全て同じ場所に向かっている。これらは、乗降データより分かる。ただし、ID「00001」のデータとID「00002」のデータはエリアA(330)を通過しているのに対し、ID「00003」のデータとID「00004」のデータはエリアB(331)を通過している。この場合、情報付与部117は、描画データ134に対して「通過エリア」という付与データ136を生成する。図16では、ID「00001」とID「00002」のデータに対する付与データ136として「利用エリアA」が生成され、ID「00003」とID「00004」のデータに対する付与データ136として「利用エリアB」が生成された例を示している。この付与データ136は、情報付与部117によって外部データ蓄積部105やコンパクトデータ蓄積部102に書き込まれる。
 次に、別の意味付け例を示す。例えば同じ電車に乗っている人が数人いる場合を考える。同じ電車に乗っていても、各利用者に対応する描画データ134の乗車時間や降車時間等はバラバラである。このため、各利用者に対応するシンボルのある時間の描画座標を予測した場合、これらの利用者を一つの塊として認識することが可能である。図17に、対応する例を示す。図17は、3人の利用者(データ400)が路線402の各駅401をそれぞれバラバラに利用した例を示している。なお、データ400のうち、濃い網掛けで示した部分は、元データ131で記録された入場時間と出場時間であり、薄い網掛けで示した部分は元データ131から拡張的に計算された通過時間である。
 ここで、11時10分という再生時間が指定されたとする(ステップ403)。また、3つの描画データ134が、例えば1分刻みで用意されたデータリストに登録されているものとする。この場合、3つのシンボルとも、アニメデータ再生部116によりJ駅とK駅の間に描画される(ステップ404)。この描画位置が塊として分析した情報付与部117は、これら3つのシンボルに対応する利用者はおそらく同じ電車に乗った人であると予測する(ステップ405)。そこで、情報付与部117は、この塊に対し、「特急○○ ××号」に乗った人、という新しい付与データ136を発生して付与し、その情報をコンパクトデータ蓄積部102や外部データ蓄積部105に追加する。
 この付与データ136を用いれば、画面表示121におけるアニメーション表示の際に、シンボルの表示色を付与データ136の内容に応じて変更することが可能になる。例えば図15の例であれば、急行電車に乗った人のシンボルと、各駅電車に乗った人のシンボルとを画面上で区別して描画することができる。
(h)データ間の関係
 図18に、各データ間の変化の様子を示す。すなわち、元データ131、コンパクトデータ132、アニメデータ133(アニメデータ蓄積部103内)、アニメデータ133(アニメ104内)、描画データ134が、それぞれどのように変化するかを示す。なお、コンパクトデータ132からアニメデータ133を生成するステップでは、データ変換と同時に絞り込みも実行され、コンパクトデータ132の一部だけがアニメ104に格納される。
 また、図18に示すように、駅名が実名であるのは、元データ131と描画データ134だけであり、その他のデータではIDだけで扱われている。これにより、データ量の削減を実現している。また、描画に必要な座標が現れるのは、描画データだけであることも分かる。また、経路情報は、アニメデータ133の段階から追加されることが分かる。
(1-3)まとめ
 形態例に係るシステムを用いれば、統計処理や解析結果等の複雑な前処理の実行を無くすことができる。従って、非常に高性能なサーバやワークステーション等が不要となる。しかも、前処理を必要としないので、ユーザが任意に指定した駅間やエリアについての任意の時間における利用者の動きをアニメーション形式でリアルタイムに表示することができる。
 また、前処理が不要となることで、アニメーションとして表示される描画データ134の段階でも、元データ131の情報が可能な限り保持される。また、元データ131についても、鉄道利用者が改札を通過するタイミングで自動的に収集される。従って、ユーザの任意性によって収集される場合と異なり、データの連続性が失われずに済む。これらより、最終的にユーザに提示される可視化データには、従来技術に比して格段に多くの情報が含まれる。その分、自由な発想で情報を解析、分析することができる。また、情報の収集は、基本的に改札の入退場時だけであり、GPS情報のように連続的に全ての行動を収集するわけではないのでデータ量が少なく済む。また、同時に利用者の時間的に連続した行動を全て収集しないので、利用者個人のプライバシーに対する配慮も可能である。
 また、形態例に係るシステムでは、処理を多ステップに分け、処理部の挙動に合わせたデータ形式に逐次変換する処理と絞り込む処理とを実行する。これにより、データの格納に必要なデータサイズを減らすことができ、ハードウェアに必要な記憶装置の容量を減らすことができる。この結果、従来以上に大量のデータを扱うことが可能になる。
 また、形態例に係るシステムでは、別のデータベースを参照する仕組みを導入して、各処理の必要性に応じてデータサイズを自由に可変できるようにする。また、形態例に係るシステムでは、データ形式だけでなく、データを格納する方式も各処理で変更し、それぞれの処理に適合した格納をする。これにより、記憶装置との間で読み書きされるデータ量を各処理に最適化することができる。また、データ量が最適化されることにより、ユーザが操作入力によって指定した条件を満たすアニメーションをリアルタイムで表示することができる。このため、ユーザの作業性が格段に向上し、自由な発想による元データ131の検証が可能になる。
 また、形態例に係るシステムでは、可視化によって生まれた情報(描画データ)を付与データ136として、コンパクトデータ132や外部データ135に反映する仕組みを採用する。例えば座標情報や色情報等を用いて特徴情報(ユーザや物体における属性や内情等)を抽出する仕組みを採用する。これにより、本来未知であった特徴を元データ131に新たに追加した状態で解析動作を実行でき、データの価値を向上させることができる。
(2)形態例2
 この形態例では、高速道路の運営事業者がゲートを通過した車両から収集する大量の元データ131を可視化して表示するシステムについて説明する。なお、収集される具体的なデータ構造を除き、基本的なシステムの構造やデータ処理の流れは形態例1と同じである。
 図19に、高速道路500上を車両が移動した場合について説明する。高速道路の場合は、入口502と出口503が、形態例1における乗車駅と降車駅に対応する。更に、高速道路500の場合、料金所504、505や料金徴収システムにおいて料金を領収した記録が追加的に蓄積される。これらの追加情報は、形態例1における通過駅の情報に相当するが、通過点の時間が確定する点で形態例1と異なる。勿論、これらのデータは、利用者毎にログデータとしてサーバに蓄積する。また、この形態例の場合、入口と、出口と、料金所の座標データを外部データ蓄積部105として用意しておく。
 この形態例の場合、コンパクトデータ生成部111は、この外部データ蓄積部105を使用して、元データ131をコンパクトデータ132に変換する処理を実行する。一方、アニメデータ再生部116は、外部データ蓄積部105を使用して、アニメデータ133を描画データ134に変換する処理を実行する。従って、座標データとIDデータとを自由に置換できる分、システムに必要な記憶装置の記憶容量を少なくすることができる。また例えば、外部データ135には、高速道路500のネットワーク情報、渋滞情報、速度制限情報、交通規制情報等を格納しておく。これらの情報を外部データ135として参照することにより、描画データ134を作成する際の現在位置(再生位置)をある程度予測することが可能になる。
 結果的に、形態例に係るシステムを用いれば、ある時間において車両が高速道路上のどの場所にいたかを予測することが可能になる。また、形態例1の場合と同様、情報付与部117において、描画データ134が有する特徴情報(例えば空間平面上の塊)を検出し、付与データ136としてコンパクトデータ132や外部データ蓄積部105に反映させることができる。これにより、渋滞や事故発生時に人々が迂回する経路や時間の予測が可能となり、バイパスの設計や休憩所(サービスエリア)の新規設置などの計画時に利用することができる。これにより、設計作業を効率化できる。
(3)形態例3
 この形態例では、美術館や博物館等の運営事業者が入出力ゲートから収集する大量の元データ131を可視化して表示するシステムについて説明する。なお、収集される具体的なデータ構造を除き、基本的なシステムの構造は形態例1と同じである。
 図20に、展示エリア600内を入場者が移動した場合について説明する。展示エリア600も、鉄道路線や高速道路の場合と同様、入口602と出口603が存在する。すなわち、チケットを購入した入場者は、入口602から入場し、出口603から退場する。この形態例では、入退出時の時刻を記録した大量のログデータを使用する。単一の美術館の場合には順路に沿った経路601が決まっている場合が多く、アニメデータ生成部113によるデータの拡張にも、形態例1及び2と同様の手法を適用することができる。従って、この形態例の場合にも、ユーザが任意に指定した経路及び特定の時間における入場者の位置を予測してアニメーション表示することができる。
 これにより、美術館の時間帯別、場所別の混雑状況等を推定することが可能となる。また、この推定情報は、ユーザの入出場制限に利用でき、混雑緩和の施策を計画できる。また、経路の途中にゲートを複数設けることで、より正確な位置や経路の予測が可能となる。また、描画データ134を解析することにより、例えば特定の美術品や絵画に注目しているユーザの塊を抽出することもできる。すなわち、「特定の作家の作品に興味を持つ人」、「○○時代の作品に興味を持つ人」といった意味を付け、その情報を情報付与部117に付与することができる。このように、描画データ134を解析して特徴を抽出することができれば、特定の入場者層の趣向にあった広告を提示する等のサービスを提供することが可能になる。
 さらに、美術館や博物館は、複数の建物が1つの敷地内に密集して立地している場合がある。このような場合、利用者も、1つの展示エリアだけでなく、複数の建物(例えば美術館と博物館)を順番に立ち寄る場合も考えられる。このような敷地構成の場合には、特定の建物(例えば美術館)内の移動だけではなく、移動経路を複数の建物間の移動経路や位置にまで拡張して、利用者の移動状況を予測することができる。
 図21に、このような敷地構成の例を示す。図21は、A美術館604、B博物館605、C科学館606が同一の敷地内に隣接して存在している場合の例である。これら3つの展示エリアに同じ入退館システムを採用することにより、一元化されたログデータを収集することが可能となる。これにより、ジャンルの違う美術館や博物館でユーザがどのように移動したかを可視化することができる。また、この形態例の場合にも、描画データ134を対象として利用者の塊等を抽出すれば、「日本絵画好き」、「西洋絵画好き」、「彫刻好き」といった意味情報を抽出することができる。この情報を付与データ136として、コンパクトデータ132や外部データ蓄積部105に追加的に格納すれば、広告戦略や売店での推薦品の選定等に利用することができる。
 例えばある利用者が、A美術館604に10時に入場して12時に退場し、B博物館605に13時に入場して14時に退場するといった場合に、この利用者がA美術館604の方にゆっくり滞在していた様子をアニメーション等で可視化することができる。また、形態例1と同様の手法を適用して、利用者の各再生時間における移動位置を推定してアニメーション形式で再生することにより、団体客や旅行客などの塊を容易に見つけ出すことも可能となる。従って、情報付与部117によって、この塊の意味を見出すことも可能となる。
(4)他の形態例
 前述した形態例の場合には、時空間データに入場と退場の意味づけがされている場合について説明した。しかし、時空間データに入退場情報が付いていない場合にも、時間の前後関係や移動に要する時間などから時空間データに入場(又は起点)と退場(又は終点)の意味付けを付すことにより、前述した形態例と同様の処理を適用することができる。例えばPOSシステムや自販機等の購買記録等に適用することができる。これにより、時間的にも空間的にも離散的にしか収集されないデータに基づいて、市街地における利用者の行動経路を推測することが可能になる。また、時間的にも空間的にも離散的にしか収集されないデータによる行動経路の予測機能を前述した形態例と組み合わせて使用すれば、より広範囲にわたる利用者の行動経路を推測することが可能になる。
 また、前述の形態例の場合には、発明に係る大量データ可視化システムの適用例として鉄道、高速道路、展示エリアを例示したが、勿論、適用可能なシステムはこれらに限らない。例えば工場、オフィス、遊園地などのように入退場データがゲートより自動的に収集されるシステムに広く応用することができる。
 また、前述の形態例の場合には、座標データを2次元座標系(経度,緯度)で管理する例について説明したが、3次元座標系(経度,緯度,高度)によって管理することもできる。この場合、シンボルの移動を3次元的にアニメーション表示することができる。
 100…データ蓄積部、101…元データ蓄積部、102…コンパクトデータ蓄積部、103…アニメデータ蓄積部、104…再生待ちアニメデータ蓄積部、105…外部データ蓄積部、110…処理部、111…コンパクトデータ生成部、112…再生データ選択部、113…アニメデータ生成部、114…アニメデータ振り分け部、115…再生待ちデータ生成部、116…アニメデータ再生部、117…情報付与部、120…画面表示部、121…画面表示、122…再生時間選択画面、123…再生データ選択画面、130…データ、131…元データ、132…コンパクトデータ、133…アニメデータ、134…描画データ、135…外部データ、136…付与データ。

Claims (9)

  1.  検出された利用者の識別情報と、利用者の入場を検出した時刻と、利用者の入場を検出した端末装置の座標情報と、利用者の退場を検出した時刻と、利用者の退場を検出した端末装置の座標情報とを少なくとも有する元データの集合を格納する第1の記憶装置と、
     前記端末装置の座標情報と位置識別コードとを対応付けた外部データを格納する第2の記憶装置と、
     前記第1の記憶装置から読み出した元データの集合を処理対象とし、各元データの座標情報を前記位置識別コードで置換したコンパクトデータに変換するコンパクトデータ生成部と、
     前記コンパクトデータの集合を処理対象とし、選択画面を通じてユーザより指定入力された経路上に関連付けられた位置識別コードを有するコンパクトデータだけを選択する再生データ選択部と、
     選択された前記コンパクトデータの集合を処理対象とし、前記コンパクトデータのそれぞれに推定経路の情報を付加してアニメデータを生成するアニメデータ生成部と、
     前記アニメデータの集合を処理対象とし、各アニメデータを、時間軸上に所定の時間幅で設定されたデータリストのいずれか又は複数に登録するアニメデータ振り分け部と、
     指定入力された任意の再生時間に対応するデータリストから対応するアニメデータを読み出し、それぞれに対応するシンボルを前記外部データから読み出される座標情報又は前記推定経路の情報に基づいて予測した位置に表示するアニメデータ再生部と
     を有することを特徴とする大量データ可視化システム。
  2.  前記アニメデータ再生部は、前記推定経路上に存在する端末装置の座標情報と、前記利用者の入場を検出した時刻と、前記利用者の退場を検出した時刻とに基づいて、前記再生時間に対応する位置を算出する
     ことを特徴とする請求項1に記載の大量データ可視化システム。
  3.  各再生時間における各シンボルの表示位置の分布に基づいて利用者を分類し、当該分類結果を付与データとして前記コンパクトデータ又は前記外部データに付加する
     ことを特徴とする請求項2に記載の大量データ可視化システム。
  4.  各シンボルの移動エリアに基づいて利用者を分類し、当該分類結果を付与データとして前記コンパクトデータに付加する
     ことを特徴とする請求項2に記載の大量データ可視化システム。
  5.  検出された利用者の識別情報と、利用者の入場を検出した時刻と、利用者の入場を検出した端末装置の座標情報と、利用者の退場を検出した時刻と、利用者の退場を検出した端末装置の座標情報とを少なくとも有する元データの集合を処理対象とする大量データ可視化方法であって、
     前記端末装置の座標情報と位置識別コードとを対応付けた外部データに基づいて、前記元データのうち座標情報を前記位置識別コードで置換する処理と、
     前記置換処理によって生成されたコンパクトデータの集合のうち、選択画面を通じてユーザより指定入力された経路上に関連付けられた位置識別コードを有するコンパクトデータだけを選択する処理と、
     選択された前記コンパクトデータのそれぞれに推定経路の情報を付加してアニメデータを生成する処理と、
     前記アニメデータの集合を処理対象とし、各アニメデータを、時間軸上に所定の時間幅で設定されたデータリストのいずれか又は複数に登録する処理と、
     生成されたデータリストを記憶装置に格納する処理と、
     指定入力された任意の再生時間に対応するデータリストから対応するアニメデータを読み出し、それぞれに対応するシンボルを前記外部データから読み出される座標情報又は前記推定経路の情報に基づいて予測した位置に表示する処理と
     を有することを特徴とする大量データ可視化方法。
  6.  前記推定経路上に存在する端末装置の座標情報と、前記利用者の入場を検出した時刻と、前記利用者の退場を検出した時刻とに基づいて、前記再生時間に対応する位置を算出する
     ことを特徴とする請求項5に記載の大量データ可視化方法。
  7.  各再生時間における各シンボルの表示位置の分布に基づいて利用者を分類し、当該分類結果を付与データとして前記コンパクトデータ又は前記外部データに付加する
     ことを特徴とする請求項6に記載の大量データ可視化方法。
  8.  各シンボルの移動エリアに基づいて利用者を分類し、当該分類結果を付与データとして前記コンパクトデータ又は前記外部データに付加する
     ことを特徴とする請求項7に記載の大量データ可視化方法。
  9.  検出された利用者の識別情報と、利用者を検出した時刻と、利用者を検出した端末装置の座標情報とを少なくとも有する元データの集合を格納する第1の記憶装置と、
     前記端末装置の座標情報と位置識別コードとを対応付けた外部データを格納する第2の記憶装置と、
     前記第1の記憶装置から読み出した元データの集合を処理対象とし、各元データの座標情報を前記位置識別コードで置換したコンパクトデータに変換するコンパクトデータ生成部と、
     前記利用者を検出した時刻に基づいて前記利用者が移動した経路を推定し、前記元データのそれぞれに推定経路の情報を付加してアニメデータを生成するアニメデータ生成部と、
     前記アニメデータの集合を処理対象とし、各アニメデータを、時間軸上に所定の時間幅で設定されたデータリストのいずれか又は複数に登録するアニメデータ振り分け部と、
     指定入力された任意の再生時間に対応するデータリストから対応するアニメデータを読み出し、それぞれに対応するシンボルを前記外部データから読み出される座標情報又は前記推定経路の情報に基づいて予測した位置に表示するアニメデータ再生部と
     を有することを特徴とする大量データ可視化システム。
PCT/JP2010/053603 2009-04-08 2010-03-05 大量データ可視化システム及び大量データ可視化方法 WO2010116827A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011508282A JPWO2010116827A1 (ja) 2009-04-08 2010-03-05 大量データ可視化システム及び大量データ可視化方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009094266 2009-04-08
JP2009-094266 2009-04-08

Publications (1)

Publication Number Publication Date
WO2010116827A1 true WO2010116827A1 (ja) 2010-10-14

Family

ID=42936115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/053603 WO2010116827A1 (ja) 2009-04-08 2010-03-05 大量データ可視化システム及び大量データ可視化方法

Country Status (2)

Country Link
JP (1) JPWO2010116827A1 (ja)
WO (1) WO2010116827A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191541A (ja) * 2013-03-27 2014-10-06 Nippon Telegraph & Telephone West Corp 情報表示装置、情報格納装置及び情報表示方法
CN104270437A (zh) * 2014-09-25 2015-01-07 中国科学院大学 分布式混合架构的海量数据处理和可视化系统及方法
CN106844171A (zh) * 2016-12-27 2017-06-13 浪潮软件集团有限公司 一种海量运维的实现方法
JP2018106640A (ja) * 2016-12-28 2018-07-05 株式会社日立ソリューションズ 特徴分析装置および特徴分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149095A (ja) * 2003-11-14 2005-06-09 New Industry Research Organization 利用交通機関の推定方法及び利用交通機関推定プログラム
JP2008112221A (ja) * 2006-10-27 2008-05-15 Fujitsu Ltd 交通量調査プログラム及び交通量調査方法
JP2008222086A (ja) * 2007-03-14 2008-09-25 Nec Corp 駅名通知システム,ユーザ携帯端末,駅名通知方法およびプログラム
JP2008299371A (ja) * 2007-05-29 2008-12-11 Mitsubishi Research Institute Inc 移動履歴調査システム、サーバ及びそのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149095A (ja) * 2003-11-14 2005-06-09 New Industry Research Organization 利用交通機関の推定方法及び利用交通機関推定プログラム
JP2008112221A (ja) * 2006-10-27 2008-05-15 Fujitsu Ltd 交通量調査プログラム及び交通量調査方法
JP2008222086A (ja) * 2007-03-14 2008-09-25 Nec Corp 駅名通知システム,ユーザ携帯端末,駅名通知方法およびプログラム
JP2008299371A (ja) * 2007-05-29 2008-12-11 Mitsubishi Research Institute Inc 移動履歴調査システム、サーバ及びそのプログラム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HIROYA YOSHIDA ET AL.: "ETC Data o Riyo Shita Kosoku Doro no Kotstu Ryo Bunseki ni Kansuru Kiso Kenkyu", JOURNAL OF APPLIED COMPUTING IN CIVIL ENGINEERING, vol. 15, 26 October 2006 (2006-10-26), pages 119 - 126 *
MIYAKO BABA ET AL.: "GA o Mochiita Keiro Saitekika ni yoru Koiki Kotsu Ryu Simulator-jo Deno Kotsu Jokyo Saigen Shuho", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 43, no. 12, 15 December 2002 (2002-12-15), pages 3794 - 3800 *
SHUICHI AKAHOSHI: "Jido Kaisatsu Ki Data o Mochiita Shosai na Ryokaku Ryudo no Suitei", JREA, vol. 49, no. 10, 1 October 2006 (2006-10-01), pages 31950 - 31952 *
SHUICHI AKAHOSHI: "Jido Kaisatsuki Data o Katsuyo Shita Ryokaku Ryudo Suitei Shuho", RTRI REPORT, vol. 20, no. 2, 13 February 2006 (2006-02-13), pages 23 - 28 *
YOSHIHISA YAMASHITA ET AL.: "Jikokuhyo o Toriireta Ressha Betsu Haibun Kotsu Ryo Suikei System no Kochiku", PROCEEDINGS OF INFRASTRUCTURE PLANNING, vol. 28, November 2003 (2003-11-01) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191541A (ja) * 2013-03-27 2014-10-06 Nippon Telegraph & Telephone West Corp 情報表示装置、情報格納装置及び情報表示方法
CN104270437A (zh) * 2014-09-25 2015-01-07 中国科学院大学 分布式混合架构的海量数据处理和可视化系统及方法
CN104270437B (zh) * 2014-09-25 2017-08-25 中国科学院大学 分布式混合架构的海量数据处理和可视化系统及方法
CN106844171A (zh) * 2016-12-27 2017-06-13 浪潮软件集团有限公司 一种海量运维的实现方法
JP2018106640A (ja) * 2016-12-28 2018-07-05 株式会社日立ソリューションズ 特徴分析装置および特徴分析方法

Also Published As

Publication number Publication date
JPWO2010116827A1 (ja) 2012-10-18

Similar Documents

Publication Publication Date Title
Zhou Understanding spatiotemporal patterns of biking behavior by analyzing massive bike sharing data in Chicago
JP5214810B2 (ja) 位置情報分析装置および位置情報分析方法
Chan et al. A station-level ridership model for the metro network in Montreal, Quebec
CN110442662B (zh) 一种确定用户属性信息的方法以及信息推送方法
Van Oort et al. Short-term prediction of ridership on public transport with smart card data
Tang et al. A network Kernel Density Estimation for linear features in space–time analysis of big trace data
CN108053240B (zh) 生成车载广告投放公交线路方案的方法及装置
JP2019174876A (ja) 人流予測装置
JP5543849B2 (ja) サーバ及びコンピュータプログラム
WO2010116827A1 (ja) 大量データ可視化システム及び大量データ可視化方法
Chen et al. The impact of rainfall on the temporal and spatial distribution of taxi passengers
Yin et al. Understanding transportation accessibility of metropolitan chicago through interactive visualization
Zhang et al. Impacts of urban built environment on empty taxi trips using limited geolocation data
Li et al. Using smart card data trimmed by train schedule to analyze metro passenger route choice with synchronous clustering
JP2016030473A (ja) 交通分析システム、交通分析プログラムおよび交通分析方法
Liu et al. Short-term online taxi-hailing demand prediction based on the multimode traffic data in metro station areas
JP7312689B2 (ja) エリア分析システムおよびその方法
Sun et al. Mobile technology and studies on transport behavior: A literature analysis, integrated research model, and future research agenda
JP5823332B2 (ja) 個人行動嗜好分析システムおよび個人行動嗜好分析方法
Yuan et al. Discovering functional zones in a city using human movements and points of interest
Saintika et al. Readiness of Operating Bus Rapid Transit (BRT) Purwokerto-Purbalingga towards Smart City Concept
JP2000322402A (ja) 人の流れ分析方法
Liu et al. Effects of buffer size on associations between the built environment and metro ridership: A machine learning-based sensitive analysis
Kovavisaruch et al. Museum Layout Evaluation based on Visitor Statistical History
Salim Probing streets and the built environment with ambient and community sensing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10761529

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011508282

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10761529

Country of ref document: EP

Kind code of ref document: A1