WO2022024689A1 - 誘導システム、誘導方法及び計算機 - Google Patents

誘導システム、誘導方法及び計算機 Download PDF

Info

Publication number
WO2022024689A1
WO2022024689A1 PCT/JP2021/025516 JP2021025516W WO2022024689A1 WO 2022024689 A1 WO2022024689 A1 WO 2022024689A1 JP 2021025516 W JP2021025516 W JP 2021025516W WO 2022024689 A1 WO2022024689 A1 WO 2022024689A1
Authority
WO
WIPO (PCT)
Prior art keywords
guidance
flow line
group
information
line data
Prior art date
Application number
PCT/JP2021/025516
Other languages
English (en)
French (fr)
Inventor
佑 北野
賢志 鍬本
彰規 淺原
Original Assignee
株式会社日立情報通信エンジニアリング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立情報通信エンジニアリング filed Critical 株式会社日立情報通信エンジニアリング
Publication of WO2022024689A1 publication Critical patent/WO2022024689A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled

Definitions

  • the present invention relates to a computer system that guides a moving object such as a person or a vehicle.
  • the administrator can grasp the current usage status of passengers.
  • the manager is taking measures such as instructing the staff at the site to guide the flow of people.
  • Patent Document 1 As a prior art related to device control for inducing a human flow, a technique as shown in Patent Document 1 is known. Further, as a prior art for guiding a vehicle to a parking lot, a technique as shown in Patent Document 2 is known.
  • Patent Document 1 discloses a technique for easily changing the setting of a control rule when performing device control from measured flow line data based on the control rule.
  • Patent Document 2 discloses a technique of predicting traffic congestion from the estimated time of arrival of each vehicle in the parking lot and transmitting guidance information regarding the entrance gate to the relevant vehicle.
  • the transit time of the inspection table and window varies depending on the attributes of the person, even if the person is guided to the line with the smallest number of people waiting, the waiting time is not always shortened.
  • a guidance device such as digital signage, it is difficult to give guidance instructions to each person.
  • the present invention has been made in view of the above problems, and an object thereof is to efficiently guide the flow of people.
  • the present invention is a guidance system in which a computer having a processor and a memory processes a flow line data of a moving body, based on a flow line data extraction unit that extracts the flow line data of the moving body and the flow line data. , An arrival time estimation unit that estimates the time when the moving object arrives at the destination, and a group estimation unit that calculates a group composed of at least one or more of the moving objects based on the estimated arrival time. Each of the groups has a guidance information calculation unit for calculating guidance information of the moving body.
  • the present invention it is possible to efficiently guide the flow of people. As a result, the queue and congestion in the facility can be alleviated.
  • the present invention relates to a human flow guidance system that guides a moving person. It should be noted that not only a person but also a moving object such as a ship, a vehicle, or an aircraft may be guided by the personal flow guidance system. In this embodiment, the explanation will be focused on people.
  • the human flow guidance system of this embodiment guides people such as passengers who are moving in a facility such as an airport to where to go by using a guidance device installed in the facility. It is a system to do.
  • guidance information such as which line should be lined up to shorten the waiting time is displayed on a guidance device such as digital signage.
  • guidance information is calculated from human flow line data (time-series position information) measured using sensors such as laser radar and cameras.
  • the transit time of the inspection table or window at the end of the matrix differs depending on the attributes of the people who make up the matrix, the attribute information of the people who are moving or who are in line is estimated from the flow line data, and the queue is waiting.
  • Guidance information is calculated by using not only the number of people but also the attribute information.
  • the guidance information may not be information such as which place to go to, but information of a kind that changes a person's behavior. For example, it may be an instruction to induce an operation with a smartphone or the like for passing through an electronic gate, or it may be an instruction not to go further.
  • FIG. 1 is a block diagram showing a basic configuration of a human flow guidance system.
  • the human flow guidance system (computer) 10 of the present embodiment receives measurement data from the human flow measurement system 11, and uses the flow line data extracted from the measurement data to provide a human flow guidance device 12 or the like to which each person on the move heads.
  • a function to estimate the arrival time to the destination a function to generate group information by grouping each person from the estimated arrival time, the location of the destination, etc., and a function to estimate each person's attribute information from the flow line data.
  • the function of calculating the guidance information from the group information and the attribute information the calculated guidance information is transmitted to the human flow guidance device 12 and displayed to each person to be guided.
  • the human flow guidance system 10 includes a flow line data extraction unit 101, a matrix recognition unit 102, an attribute information estimation unit 103, a group estimation unit 104, a guidance information calculation unit 105, and a matrix DB ( DataBase) 106, a group DB 107, a flow line DB 108, a map DB 109, an attribute DB 110, and a determination rule DB 111.
  • a matrix DB DataBase
  • the flow line data extraction unit 101 extracts the flow line data from the data measured by the flow line measurement system 11 and stores it in the flow line DB 108.
  • the data measured by the human flow measurement system 11 may be moving image data in the guidance target region or laser radar data.
  • the flow line data extraction unit 101 extracts the flow line data from the moving image data
  • the person may be recognized by a well-known or known image processing technique and the coordinates of the person may be extracted.
  • the flow line data extraction unit 101 also extracts a moving object whose distance changes from the laser radar data as a person by using a well-known or known technique, and uses it as coordinate information. It may be converted.
  • the human flow guidance system 10 can monitor a plurality of guidance target regions to guide people. Further, the human flow guidance system 10, the human flow measurement system 11, and the human flow guidance device 12 are connected by a network (not shown).
  • the matrix recognition unit 102 receives the flow line data stored in the flow line DB 108 and the layout data stored in the map DB 109, performs a matrix determination on the flow line data, and stores the determination result in the matrix DB 106. including. The specific processing of the matrix determination will be described later.
  • the attribute information estimation unit 103 receives the flow line data stored in the flow line DB 108, the layout data stored in the map DB 109, and the rule data stored in the determination rule DB 111, and estimates the attributes of each person. Then, the estimated attribute information is stored in the attribute DB 110.
  • the attribute information estimation unit 103 includes a feature amount calculation unit 1031 and an attribute determination unit 1032. The specific processing of each part will be described later.
  • the group estimation unit 104 receives the flow line data stored in the flow line DB 108 and the layout data stored in the map DB 109, estimates a group for each person who is moving, and stores the group in the group DB 107. do.
  • the group estimation unit 104 includes a movement determination unit 1041, a destination estimation unit 1042, an arrival time estimation unit 1043, and a clustering unit 1044. The specific processing of each part will be described later.
  • the guidance information calculation unit 105 receives the matrix data stored in the matrix DB 106, the group data stored in the group DB 107, and the attribute data stored in the attribute DB 110, and calculates the guidance information for each group. It is transmitted to the human flow guidance device 12.
  • the human flow guidance device 12 is composed of a digital signage or the like having a display device, outputs guidance information received from the human flow guidance system 10 to a display unit such as a display, and presents guidance information to nearby people.
  • the guidance information calculation unit 105 includes an attribute ratio calculation unit 1051, an index calculation unit 1052, an index optimization unit 1053, and a scheduling unit 1054. The specific processing of each part will be described later.
  • the matrix DB 106, the group DB 107, the flow line DB 108, the map DB 109, the attribute DB 110, and the data stored in the determination rule DB 111 will be described later.
  • the human flow guidance system 10 extracts the flow line data of each person from the measurement unit that measures the position information of the person flow and the position information of the person flow, and calculates the estimated arrival time when each person arrives at the destination. , It can be composed of a calculation unit that generates a group of people based on an estimated arrival time and calculates guidance information for each group, and a guidance unit that displays guidance information.
  • FIG. 2 is a flowchart showing the processing performed by the human flow guidance system 10. The entire process will be described below.
  • Step 201 represents the start of processing of the human flow guidance system.
  • Step 202 represents a process performed by the flow line data extraction unit 101.
  • the flow line data extraction unit 101 converts the measurement data received from the flow line measurement system 11 into the flow line data and stores it in the flow line DB 108.
  • Step 203 represents the processing performed by the matrix recognition unit 102.
  • the matrix recognition unit 102 uses the flow line data received from the flow line DB 108 and the layout data received from the map DB 109 to perform a matrix determination to detect a place where people are lined up. After that, the determination result is stored in the matrix DB 106.
  • Step 204 represents the processing performed by the attribute information estimation unit 103.
  • the attribute information estimation unit 103 estimates human attribute information using the flow line data received from the flow line DB 108, the layout data received from the map DB 109, and the rule data received from the determination rule DB 111. After that, the estimation result is stored in the attribute DB 110.
  • Step 205 represents the process performed by the group estimation unit 104.
  • the group estimation unit 104 uses the flow line data received from the flow line DB 108 and the layout data received from the map DB 109 to group people who are heading for the matrix, and stores the group information in the group DB 107.
  • Step 206 represents the process performed by the guidance information calculation unit 105.
  • the guidance information calculation unit 105 calculates guidance information using each data received from the matrix DB 106, the attribute DB 110, and the group DB 107 in which the data is stored in steps 203 to 205. After that, the calculated guidance information is transmitted to the human flow guidance device 12.
  • Step 207 represents the end of processing of the human flow guidance system.
  • steps 201 to 207 are repeated at regular intervals. For example, these processes may be repeated every second. Further, regarding steps 203 to 206, the processing may be skipped periodically. For example, step 202 may be performed once per second, and steps 203 to 206 may be performed once every 10 seconds.
  • FIGS. 3A to 3C are examples of data structures of the flow line DB 108 and the map DB 109.
  • the flow line data acquired by the flow measurement system 11 is stored in the flow line DB 108, and the layout data group prepared in advance is stored in the map DB 109.
  • FIG. 3A is a diagram showing an example of the flow line table 301 of the flow line DB 108.
  • the flow line table 301 is a table for storing the flow line data.
  • the flow line table 301 is stored in the form of sampling the coordinates of the flow line data for each person, at regular intervals, for example, every second.
  • the flow line table 301 includes START_TIME3011, END_TIME3012, PID3013, ORIENT3014, ACT3015, and WKT3016 in one record.
  • START_TIME 3011 and END_TIME 3012 represent the start time and end time when sampling the flow line data
  • PID 3013 represents a person's ID (identifier)
  • WKT3016 represents the geometry information (flow line data) related to the line string of the flow line (time-series position information) when the person with the corresponding PID 3013 moves between START_TIME 3011 and END_TIME 3012.
  • the coordinate system related to this geometry information may be well-known or known, and may be, for example, a plane rectangular coordinate system.
  • ORIENT 3014 represents information in which the direction in which the person of PID 3013 is facing in END_TIME 3012 is represented by an angle (or direction).
  • this angle information may store the result of detecting the direction of the 3D point cloud data using a well-known or known technique such as Pose Estimation.
  • Pose Estimation When a person is measured using a camera, the result of orientation detection using a well-known or known image processing technique may be stored.
  • the result of estimating the direction of a person from the flow line data may be stored.
  • the difference vector of the moved coordinates from START_TIME 3011 to END_TIME 3012 of the person with PID 3013 may be calculated and the result of the direction detection may be stored.
  • ACT3015 represents what kind of action the person with the corresponding PID3013 took between START_TIME3011 and END_TIME3012. For example, it represents information such as walking, running, standing still, crouching, sitting, and so on. Further, information on these combinations may be stored.
  • the ACT 3015 may store the results obtained by using a well-known or known technique such as Pose Estimation for the 3D point cloud data.
  • the results obtained by using a well-known or known image processing technique may be stored.
  • the result obtained by analyzing the flow line data may be stored.
  • it may be obtained by applying a machine learning method corresponding to series data such as Hidden Markov Model or Long Short Term Memory to the flow line data.
  • the map DB 109 stores a wall table 302 representing an area (obstacle) such as a wall that people cannot pass through, and a checkpoint table 303 regarding checkpoints in the facility.
  • FIG. 3B is a diagram showing an example of the wall table 302.
  • FIG. 3C is a diagram showing an example of the checkpoint table 303.
  • the checkpoint indicates the stop-by place when a person moves in the guidance target area and the passing place to which some attribute is added.
  • a checkpoint corresponds to information such as an entrance / exit, a line, digital signage, a conveyor belt for receiving luggage, and an inspection table.
  • the wall table 302 stores WID3021 which is an ID related to an object such as a wall, KIND3022 which represents the type of the object, and WKT3023 which represents the position information and the shape information of the object in one record.
  • WKT3023 expresses the coordinates representing the shape of an object as geometry in the form of polygons or line strings. As with WKT3016, the coordinate system of WKT3023 may be arbitrary.
  • the checkpoint table 303 includes CID3031 representing the checkpoint ID, KID3032 representing the ID related to the checkpoint type, NAME3033 representing the checkpoint name, and WKT3034 representing the checkpoint position information and shape information (geometry information). Is stored in one record. As with WKT3016, the coordinate system of WKT3034 may be arbitrary.
  • 4A to 4E are diagrams showing an example of the data structure of the matrix DB 106, the attribute DB 110, the determination rule DB 111, and the group DB 107.
  • 4A shows an example of the matrix table 401
  • FIG. 4B shows an example of the attribute table 402
  • FIG. 4C shows an example of the attribute master table 403
  • FIG. 4D shows an example of the determination rule table 404.
  • FIG. 4E shows an example of the group table 405.
  • the matrix DB 106 stores the matrix data determined by the matrix recognition unit 102
  • the attribute DB 110 stores the attribute information estimated for each person (PID 3013) by the attribute information estimation unit 103 and the attributes prepared in advance.
  • Information representing details is stored, information about a determination rule prepared in advance is stored in the determination rule DB 111, and group information estimated by the group estimation unit 104 is stored in the group DB 107.
  • the matrix DB 106 will be described.
  • the matrix DB 106 stores a matrix table 401 that stores which person was lined up in what order in each matrix formed in the induction target region.
  • the matrix table 401 of FIG. 4A includes START_TIME4011 and END_TIME4012 indicating start and end times for the corresponding matrix states, CID4013 of the matrix in which the position where the matrix is formed is specified by the checkpoint identifier, and the corresponding matrix.
  • PID_LIST4014 which is an ID list in which the PID3013s of the people in a line are arranged in the order of waiting for the service, is stored in one record.
  • the CID 4013 corresponds to the CID 3031 included in the checkpoint table 303, and only the CID 3031 of the record in which the KID 3032 of the checkpoint table 303 corresponds to the matrix is stored in the matrix table 401.
  • the attribute DB 110 will be described.
  • the attribute table 402 estimated for each person by the attribute information estimation unit 103 and the attribute master table 403 prepared in advance are stored.
  • the PID 4021 and the AID4022 which is the ID of the attribute of the person corresponding to the PID 4021 are stored in one record.
  • the attribute master table 403 of FIG. 4C stores the AID 4031 representing the attribute ID and the DESCPRIPTION 4032 describing the description thereof in one record.
  • the judgment rule DB 111 will be described.
  • the determination rule DB 111 of FIG. 4D stores a determination rule table 404 prepared in advance.
  • the determination rule table 404 stores AID4041 representing the attribute ID and CONDITION4042, which is a condition for extracting the corresponding attribute, in one record.
  • the CONDITION 4042 stores the determination rule, and stores the SQL (Structured Query Language) condition when determining the attribute of a person with respect to the flow line table 301.
  • the group DB 107 will be described.
  • the group DB 107 of FIG. 4E stores the group table 405.
  • the group table 405 includes GID4051, which represents the ID of the group, ARRIVAL_START_TIME4052, which is the time when the people of the corresponding group start arriving at the destination, ARRIVAL_END_TIME4053, which is the time when the arrival ends, and CID4054, which is the ID of the destination.
  • PID_LIST4055 which is an ID list of people belonging to the corresponding group, is stored in one record. At this time, PID_LIST4055 is sorted and stored in the order of the person arriving at the destination.
  • FIG. 5 is a flowchart showing an example of the processing performed by the matrix recognition unit 102.
  • the flow line data of the flow line table 301 stored in the flow line DB 108, checkpoints related to the matrix stored in the map DB 109, and wall layout data are used. Determine which person was lined up at what time, in which procession, and in what order.
  • the flowcharts of steps 501 to 505 are performed at regular time intervals.
  • step 501 the matrix recognition unit 102 starts processing.
  • step 502 the matrix recognition unit 102 extracts the person who is lined up at the checkpoint of each matrix. At this time, from WKT3034 indicating the head of the matrix, a person who is within a certain distance from the checkpoint and is in the nearest neighborhood and whose moving speed is a certain value or less is extracted as the head of the matrix.
  • step 503 the matrix recognition unit 102 extracts the second and subsequent people at the checkpoint of each matrix. At this time, the matrix recognition unit 102 extracts from the persons extracted in the immediately preceding step the persons who are within a certain distance and are in the nearest neighbor and whose moving speed is a certain value or less as the next person in line.
  • the matrix recognition unit 102 is a person who does not intersect with any of WKT3023 of another wall layout and WKT3034 of other checkpoints when connecting the position information of the people extracted in the previous step and this step with a line segment. To extract.
  • the matrix recognition unit 102 connects the person in the immediately preceding step and the person to be searched by a line segment when the moving speed becomes a certain value or less within a certain distance from the person extracted in the immediately preceding step. At that time, it is determined whether or not there is a person who does not intersect with WKT3023 of another wall layout or WKT3034 of another checkpoint.
  • the matrix recognition unit 102 determines that the end condition is satisfied and proceeds to step 505. If the end condition is not satisfied, the process returns to step 503 and the above process is repeated. In step 505, the matrix recognition unit 102 ends the process.
  • each person's orientation may be used for this matrix recognition process. For example, when extracting the people who line up at the beginning of the matrix, only the people who are facing the checkpoint of the matrix among the people who satisfy the determination condition in step 502 may be extracted, and the second and subsequent people may be extracted. When extracting the people in line, only the people who are facing the person extracted in the immediately preceding step may be extracted from the people who satisfy the determination condition of step 503.
  • FIG. 6 is an explanatory diagram of the processing performed by the attribute information estimation unit 103.
  • the attribute information estimation unit 103 estimates the attribute information of each person from the flow line data stored in the flow line DB 108, the layout data stored in the map DB 109, and the judgment rule stored in the judgment rule DB 111, and attributes the attributes. Store in DB 110. In order to realize the above, the details will be described below.
  • the screen 601 is a diagram that visualizes the data of the flow line DB 108 and the map DB 109.
  • the flow line data 602 is an example of the flow line data stored in the flow line DB 108. From these data and the rule stored in the determination rule DB 111, the feature amount calculation unit 1031 calculates the feature amount necessary for estimating the attribute.
  • the illustrated table 603 is an example of the feature amount calculated by the feature amount calculation unit 1031.
  • the predetermined region may use a predefined geometry or may be determined from the distribution of the flow line data 602.
  • the attribute determination unit 1032 determines the intersection of the predetermined area and the flow line data 602, extracts the flow line data 602 included in each area, and the feature amount calculation unit 1031 calculates the statistical value of the feature amount for each person. calculate. At this time, as the statistical value of the feature amount, the moving speed and position of each person, the average value and variance of the acceleration, the median value, the number of records of the flow line data 602 included in each region, and the like may be used.
  • Column 605 is a preset statistical value for each area.
  • the statistical value for each action is calculated for each value of ACT 3015 stored in the flow line table 301.
  • the types of statistics are the same as the statistics for each region.
  • Column 606 stores statistics for each action.
  • the feature amount statistical value (604) for each area calculated by the feature amount calculation unit 1031 of the attribute determination unit 1032 is obtained by dividing the guidance target area into a plurality of small areas and statistically indicating the area through which the flow line data 602 has passed. The value can be calculated.
  • the statistical value for each judgment rule is calculated for the conductor data that satisfies the condition of CONDITION4042 stored in the judgment rule table 404.
  • the type of statistical value is calculated by the same method as the statistical value for each area.
  • Column 607 is an example of statistical values for each judgment rule.
  • the statistical values of the feature amount are calculated for each area, each action, and each judgment rule, but the conditions for calculating these statistical values may be plural. For example, statistical values for taking a certain action within a certain area may be calculated.
  • the attribute information estimation unit 103 estimates the attribute for each person using the feature amount and stores it in the attribute DB 110.
  • the attribute determination unit 1032 may estimate the attribute by performing threshold processing on the feature amount, or may apply machine learning such as Support Vector Machine, Logistic Regression, Gradient Boosting, Deep Learning, etc. to attribute information. May be estimated.
  • machine learning such as Support Vector Machine, Logistic Regression, Gradient Boosting, Deep Learning, etc.
  • the attribute information estimation unit 103 can estimate the attribute (AID4031) set in the attribute master table 403 for each person from the statistical value of the feature amount calculated from the flow line data 602.
  • FIG. 7 is a flowchart showing an example of the processing performed by the group estimation unit 104.
  • the group estimation unit 104 generates a group of moving people from the flow line data stored in the flow line DB 108 and the layout data stored in the map DB 109, and stores the group in the group DB 107.
  • the flowcharts of steps 701 to 706 are performed at regular time intervals.
  • step 701 the group estimation unit 104 starts processing.
  • step 702 the group estimation unit 104 extracts a person heading for the matrix from the flow line data of the flow line table 301.
  • the group estimation unit 104 performs an extraction process of a person heading for the matrix by using the movement vector of the flow line data. This process is performed by the movement determination unit 1041.
  • step 703 the group estimation unit 104 predicts the route to the matrix of each person for the person extracted in step 702 by simulation.
  • step 704 the group estimation unit 104 extracts the human flow guidance device 12 that each person stops on the way from the route predicted in step 703 as the destination, and sets the time to stop at the extracted human flow guidance device 12 as the arrival time. presume.
  • step 705 the group estimation unit 104 uses the destination and arrival time information estimated in step 704 to select a group of people heading for the same guidance device 12 based on the distribution of the number of people for each arrival time. Generate. This process is performed by the clustering unit 1044.
  • step 706 the group estimation unit 104 ends the process.
  • FIG. 8 is an explanatory diagram of processing performed by the movement determination unit 1041, the destination estimation unit 1042, and the arrival time estimation unit 1043.
  • the screen 801 drawn on the monitor is a screen displaying the status of the guidance target area at a certain time of the flow line data stored in the flow line DB 108 and the layout data stored in the map DB 109.
  • the area 802, the area 805, and the area 810 are diagrams in which the geometry information (WKT3034) of the checkpoint table 303 stored in the map DB 109 is drawn on the map of the guidance target area.
  • Areas 802-1 to 802-4 in the figure indicate a belt conveyor which is a baggage receiving place
  • 12-1 to 12-3 indicate a human flow guidance device
  • area 810 indicates an inspection table ahead of a line.
  • the human flow guidance device is not individually specified, the reference numeral “12” is used, omitting the “ ⁇ ” and subsequent devices. The same applies to the signs of other components.
  • the line segment 809 is a diagram in which the geometry information of the checkpoints related to the matrix stored in the map DB 109 is drawn on the map.
  • the person 803, the person 804, the person 807, and the person 808 are drawn by drawing the flow line data stored in the flow line DB 108.
  • Person 803 indicates a person who is not heading for the procession
  • person 804 indicates a person who is heading for the procession 812-1
  • person 807 indicates a person who is lined up in the procession 812-1
  • person 808 indicates a person who is in the procession 812-1.
  • the person who has finished lining up and is receiving the service is shown, and in the example shown in the figure, the person is being inspected at the inspection table.
  • Regions 806-2 to 806-3 are regions indicating the vicinity (within a predetermined distance) of the human flow guidance devices 12-2 and 12-3.
  • Path 811 is a predicted path for a person heading for matrix 812-5.
  • the movement determination unit 1041 extracts the person 804 heading for the matrix 812-1. At this time, the movement determination unit 1041 determines a person heading for the matrix 812 from the movement vector of each flow line data.
  • the movement vector is WKT3016 stored in the flow line table 301.
  • the movement determination unit 1041 is a PID (4014) in which the length of the movement vector is longer than a certain value and has never existed in the matrix table 401 of the matrix DB 106, and the inspection table (810) is in the direction of the movement vector. Extract the flow line data as if there is.
  • the route 811 to the matrix 812 or the inspection table (810) which is expected to go in the future, is predicted by the flow line simulation or the like.
  • a well-known or known simulation method based on a physical model such as Social Force Model may be used. Further, a simulation may be performed by applying a movement model of a person learned by machine learning such as Support Vector Regression, Deep Learning, and Gradient Boosting.
  • the current velocity vector, the distance to surrounding obstacles in various directions, and the grid centered on you are extracted, the features related to the grid are calculated, and the velocity vector one step ahead is predicted.
  • the destination estimation unit 1042 estimates which destination to stop at, that is, which area 806 to stop at the human flow guidance device 12, by using the prediction route obtained above.
  • the destination estimation unit 1042 determines the destination by determining the intersection of the route 811 and the region 806.
  • the destination estimation unit 1042 defines a region 806 indicating a neighboring region for each guidance device 12, extracts a region 806 that first intersects the route 811, and estimates the corresponding guidance device 12 as the destination. At this time, when the intersecting region 806 does not exist, the destination estimation unit 1042 calculates the route 811 and the region 806 closest to each other, and does the same.
  • the arrival time estimation unit 1043 estimates the arrival time using the information of the destination and the route 811 obtained by the destination estimation unit 1042. Specifically, the arrival time estimation unit 1043 estimates the timing at which a person first enters the area 806 on the simulation as the arrival time. When the region 806 and the route 811 do not intersect, the arrival time estimation unit 1043 estimates the timing at which the distances are closest as the arrival time to the human flow guidance device 12.
  • the arrival time estimation unit 1043 of the group estimation unit 104 can estimate the time of arrival or approach to the human flow guidance device 12 on the way to the inspection table (area 810) after receiving the luggage in the area 802. can.
  • FIG. 9 is an explanatory diagram of the processing performed by the clustering unit 1044.
  • the clustering unit 1044 estimates the group information using the arrival information of the moving person acquired by the movement determination unit 1041, the destination estimation unit 1042, and the arrival time estimation unit 1043, and stores the group information in the group DB 107.
  • Table 901 is the arrival information of the moving person acquired by the movement determination unit 1041, the destination estimation unit 1042, and the arrival time estimation unit 1043.
  • the arrival time 912 estimated as PID 911 and the ID 913 of the human flow guidance device 12 estimated as the destination are stored in one record.
  • the clustering unit 1044 From this information, the clustering unit 1044 generates a series graph 902 of the number of people arriving at each guidance device at each time.
  • Section 905 represents the section of each group when the people arriving at the human flow guidance device 12-1 (human flow guidance device # 0 in the figure) are grouped.
  • the peaks of this series graph 902 are clustered by a known machine learning method or the like to generate an interval 905.
  • a method such as Gaussian Mixture Model or k-means clustering may be used, or a group boundary is simply defined where the cumulative value of the series graph 902 exceeds a certain threshold value. Clustering may be performed.
  • the clustering unit 1044 performs clustering and acquires information on the time of each group. Specifically, the time 903, which is the time when the people in the group start to arrive, and the time 904, which is the time when the arrival ends, are acquired.
  • the clustering unit 1044 assigns an ID to the acquired group, and stores the ID and a list (PID_LIST4055) of the IDs of the persons who enter the time 903, the time 904, and the section 905 in the group DB 107.
  • FIG. 10 is a flowchart showing an example of processing performed by the guidance information calculation unit 105.
  • the guidance information calculation unit 105 receives the matrix data stored in the matrix DB 106, the group data stored in the group DB 107, and the attribute data stored in the attribute DB 110, and calculates the guidance information for each group. It is transmitted to the human flow guidance device 12. Specific processing will be described below. It should be noted that these processing flows are performed at regular time intervals.
  • step 1001 the guidance information calculation unit 105 starts processing.
  • step 1002 the guidance information calculation unit 105 uses the information of the attribute table 402 stored in the attribute DB 110, the group table 405 stored in the group DB 107, and the matrix table 401 stored in the matrix DB 106 to obtain the attribute (AID4022). Calculate the ratio.
  • the guidance information calculation unit 105 calculates the ratio of the attribute for each GID4051 for the group, and estimates the ratio of the attribute (AID4022) for each CID4013 for the matrix. This process is performed by the attribute ratio calculation unit 1051 of the guidance information calculation unit 105.
  • the guidance information calculation unit 105 estimates an index regarding the waiting time of each matrix using the information of the attribute ratio calculated in step 1002. At this time, assuming that the number of people in the matrix is n and the ratio of the attribute i is r_i, for example, the value obtained by multiplying the weighted sum of the ratio r_i by n may be estimated as the waiting time.
  • the guidance information calculation unit 105 may estimate the waiting time from the model obtained by machine learning. Similarly, for each group, the index related to waiting time is estimated. This process is performed by the index calculation unit 1052 of the guidance information calculation unit 105.
  • the guidance information calculation unit 105 determines the matrix 812, which is the guidance destination, for each group based on the waiting time for each group and each matrix calculated in step 1003 and the arrival timing information of each group. do. At this time, the guidance information calculation unit 105 may allocate each group to the matrix so that the total waiting time of each matrix 812 is equal, and there are many people in the group who have a high usage rate of the digitized gate. In some cases, it may be assigned to the matrix 812 of the digitized gate. Alternatively, the facility manager may manually assign it. This processing is performed by the index optimization unit 1053 of the guidance information calculation unit 105.
  • step 1005 the guidance information calculation unit 105 determines the time and time for displaying the guidance information. Each guidance information is set to be displayed from the time 903 to the time 905 when the person in the guidance target group arrives at the guidance device 12.
  • the guidance information calculation unit 105 displays guidance information from the time when the person who first arrives at the guidance device 12 arrives at a place within a certain distance from the guidance device 12 before arriving at the guidance device 12. You may.
  • the guidance information may be displayed when a certain percentage or more of the people in the guidance target group are within a certain distance from the human flow guidance device 12. This process is performed by the scheduling unit 1054 of the guidance information calculation unit 105.
  • step 1006 the guidance information calculation unit 105 ends the process.
  • the guidance information calculation unit 105 can determine the guidance destination matrix 812 for each group to be guided, and set the guidance device 12 for outputting the guidance information and the timing for displaying the guidance information.
  • FIG. 11 is an explanatory diagram of the interface displayed on the human flow guidance device 12.
  • the human flow guidance system 10 guides the human flow by displaying the guidance information on the screen of the human flow guidance device 12.
  • the screen 1101 represents the entire screen of the human flow guidance device 12.
  • the screen 1102 is a screen for displaying the current flow line data stored in the flow line DB 108 and the layout data stored in the map DB 109. In the illustrated example, the guidance target area is displayed.
  • Legend 1103 is a legend that represents group information of people. Based on the group information stored in the group DB 107, the case information regarding the color, marker, etc. of the group information to which the currently displayed person of PID 3013 belongs is displayed. Based on this legend 1103, the flow line data of a person is displayed on the screen 1102. In the legend 1103, the group that is the current guidance target may be highlighted in bold letters or underlined characters.
  • the guidance display 1104 displays information (guidance information) of the guidance destination regarding the group that is the current guidance target. Specifically, it is necessary that the ID of the group to be guided and the ID of the inspection table where the matrix to be guided is lined up are displayed. Here, information such as the waiting time calculated by the index calculation unit 1052 may also be displayed.
  • Transit information 1105 displays information related to transit from the airport to other means of transportation.
  • the transfer information 1105 may display not only the type of transportation, its destination, and the departure time, but also vacant seat information and the like.
  • Time 1106 represents the current date and time.
  • the panel 1107 is a panel that the user of the facility pushes when calling a manager, a guard, or the like. It may be a touch panel or a button that can be pressed.
  • the person 1108 displayed on the screen 1102 is the flow line data stored in the flow line DB 108.
  • the formats such as colors and markers may be displayed differently depending on the group.
  • the person approaching the person flow guidance device 12 on which the screen 1101 is displayed may be highlighted by enlarging the marker or the like.
  • the human flow guidance device 12 is a guidance device on which the screen 1101 is displayed. In order to distinguish the other human flow guidance device 12, the frame may be thickened or highlighted.
  • the inspection table 1110 is a guidance destination inspection table that guides the person 1108 with the human flow guidance device 12. In order to distinguish it from other inspection tables, it may be highlighted as before.
  • the guidance destination can be notified to the person 1108 traveling on the predicted route.
  • FIG. 12 is an explanatory diagram of an interface displayed on the management screen of the human flow guidance system 10 used by the facility manager. On this screen, what attributes are distributed and how, the number of people waiting for the queue in the future and how the waiting time is expected to change are displayed, which leads to the decision making of the administrator. To be able to.
  • Screen 1201 represents the entire management screen.
  • the screen 1202 is a screen for displaying the flow line data stored in the flow line DB 108 and the layout data stored in the map DB 109.
  • the flow line data may be displayed by changing the color or marker for each attribute information stored in the attribute DB 110.
  • Screen 1203 is a screen showing information on the attribute ratio of people in the procession lined up in front of each inspection table.
  • the combo box 12031 is an inspection table currently displayed, and the pie chart 12032 is a graph displaying information on the attribute ratio.
  • the screen 1204 is a list of specific actors recorded by the administrator based on the flow line data stored in the flow line DB 108 and the attribute data stored in the attribute DB 110.
  • the table 12041 is a table that summarizes the list of specific actors, and may include a person's ID and attributes, a memo added by the administrator, a highlighting flag, and the like.
  • the specific action person list may be able to select, add, delete, and update the target flow line data on the screen 1202.
  • Button 12042 is an add button for a specific actor
  • button 12043 is a delete button
  • button 12044 is an update button.
  • Screen 1205 is a screen displaying the predicted value of the number of people waiting in the queue in the future.
  • the combo box 12051 is an inspection table currently displayed, and the line graph 12052 is a graph displaying the waiting number predicted value as series data. This data is similar to the series graph 902 shown in FIG.
  • Screen 1206 is a screen displaying the predicted value of the waiting time of the future matrix.
  • the combo box 12061 is an inspection table currently displayed, and the line graph 12062 is a graph in which the waiting time prediction value is displayed as series data. This data is the waiting time calculated by the index calculation unit 1052.
  • Screen 1207 is a screen showing a table of arrival status of aircraft.
  • the screen 1207 may include information such as a flight number, a place of departure, an arrival time, and whether or not the cargo has arrived at the conveyor belt.
  • Time 1208 represents the current date and time.
  • FIG. 13 shows the hardware configuration of each device constituting the human flow measurement system 11 and the human flow guidance system 10.
  • the person flow measurement system 11 is composed of one or more of the laser measurement system 1301, the camera system 1302, and the terminal positioning system 1303.
  • the person flow guidance system 10 and the person flow measurement system 11 are connected to each other via the network 5.
  • the laser measurement system 1301 includes a laser oscillator 13011 that oscillates laser light, a laser receiver 13012 that reads the reflected light of the laser, and a distance from the laser oscillation, the time required for receiving light, and the like to the objects around the laser measurement system 1301. Is composed of a calculation device 13013 that calculates and converts it into point group data.
  • the camera system 1302 is a system including a well-known camera, and it is possible to acquire visible light as an image by an image sensor 13021, detect a person from the image by a well-known or known method, and estimate its position. It is a device that can be used.
  • the terminal positioning system 1303 includes a processor 13031 having arithmetic performance, a DRAM 13032 which is a volatile temporary storage area capable of reading and writing at high speed, and a storage device 13033 which is a permanent storage area using an HDD, a flash memory, or the like.
  • An input device 13034 that accepts human operations, a monitor 13035 for presenting the current status of the terminal, a wireless communication board 13036 that is a network interface card for wireless communication, and a GPS for specifying the position of the terminal.
  • the processor 13031 executes the program recorded in the storage area including the receiver 13037, it estimates its own position using the GPS receiver 13037 or the like and distributes it via the NIC 13046.
  • the terminal positioning system 1303 can be mounted on a moving body such as a vehicle and connected to the human flow guidance system 10 to guide the moving body.
  • the human flow guidance system 10 includes a processor 13041 having computational performance, a DRAM 13042 which is a volatile temporary storage area capable of high-speed reading and writing, a storage device 13043 which is a permanent storage area using an HDD, a flash memory, or the like. It is a computer having an input device 13044 that accepts human operations, a monitor 13045 for presenting information, and a network interface card NIC13046 for communicating.
  • a processor 13041 having computational performance
  • DRAM 13042 which is a volatile temporary storage area capable of high-speed reading and writing
  • a storage device 13043 which is a permanent storage area using an HDD, a flash memory, or the like.
  • It is a computer having an input device 13044 that accepts human operations, a monitor 13045 for presenting information, and a network interface card NIC13046 for communicating.
  • the flow line data extraction unit 101 By the processor 13041 executing the program recorded in the storage area, the flow line data extraction unit 101, the matrix recognition unit 102, the attribute information estimation unit 103, the group estimation unit 104, and the guidance information calculation unit 105 can be realized. Further, the matrix DB 106, the group DB 107, the flow line DB 108, the map DB 109, the attribute DB 110, and the determination rule DB 111 can be realized by storing them in the storage device 13043.
  • the screen 1201 shown in FIG. 12 can be output to the monitor 13045 of the human flow guidance system 10.
  • the human flow guidance system 10 has a plurality of destinations (human flow guidance device 12) is shown, but the present invention is not limited to this, and when the destination is a single destination, the destination is reached. People can be grouped based on the estimated arrival time of.
  • the human flow guidance system 10 of the above embodiment can be configured as follows.
  • a computer having a processor (13041) and a memory (DRAM13042) is a guidance system that processes flow line data (WKT3016) of a moving body (person 804), and operates for each moving body.
  • a movement line data extraction unit (101) that extracts line data (3016), and an arrival time estimation unit (1043) that estimates the time when the moving object arrives at a destination based on the movement line data (3016).
  • a group estimation unit (104) that calculates a group (GID4051) composed of at least one or more of the moving bodies based on the estimated arrival time, and guidance of the moving body for each of the groups (4051).
  • a guidance system comprising a guidance information calculation unit (105) for calculating information (guidance display 1104).
  • the human flow guidance system 10 can efficiently guide the human flow based on the flow line data of the human flow. As a result, the queue and congestion in the facility can be alleviated.
  • the arrival time estimation unit (1043) is a guidance system for estimating the time when the moving object arrives at the estimated destination.
  • the human flow guidance system 10 can efficiently display guidance information by estimating the time when the moving object arrives at the estimated destination.
  • the guidance system according to (1) above further comprising an attribute information estimation unit (103) that estimates attribute information (4022) for each moving object from the movement line data (3016).
  • the guidance system is characterized in that the guidance information calculation unit (105) calculates the guidance information (1104) using the ratio of the attribute information (4022) calculated for each group (4051).
  • the passage time of the inspection table or the window at the end of the matrix differs depending on the attributes of the people who compose the matrix, the attributes of the people who are moving or who are in line from the flow line data.
  • the attribute information estimation unit (103) determines in advance for each region for guiding the moving body and for each behavior of the moving body (ACT3015).
  • the human flow guidance system 10 can estimate the attribute (AID4031) set in the attribute master table 403 for each person from the statistical value of the feature amount calculated from the flow line data 602.
  • the guidance system according to (1) above further comprising a guidance device (human flow guidance device 12) connected to the computer (10) and displaying the guidance information (1104), and said guidance.
  • the information (1104) calculation unit (105) guides the guidance information (1104) when the moving body assigned to the group (4051) is present within a certain distance from the guidance device.
  • the human flow guidance system 10 guides the people assigned to the group to the human flow guidance device 12 when a ratio of people equal to or more than the threshold value is present within a certain threshold distance from the human flow guidance device 12. By displaying the information, it is possible to notify the guidance destination to the guidance target group.
  • the guidance system according to (2) above further comprising a plurality of guidance devices (12) connected to the computer (10) and displaying the guidance information (1104), and the destination.
  • the estimation unit (1043) estimates one of the plurality of guidance devices (12) (human flow guidance device (12) 12) as the destination to which the moving body heads, and the guidance information calculation unit (105) determines.
  • the guidance information (1104) is transmitted to the guidance device (12).
  • Guidance system characterized by displaying.
  • the human flow guidance system 10 has a certain threshold value from the human flow guidance device 12 in which the group is estimated to have a ratio of people assigned to the group equal to or higher than the threshold value among the plurality of human flow guidance devices 12.
  • the guidance destination can be notified to the guidance target group.
  • the present invention is not limited to the above-described embodiment, but includes various modifications.
  • the above-described embodiment is described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described.
  • any of addition, deletion, or replacement of other configurations can be applied alone or in combination.
  • each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations and functions may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • SSD Solid State Drive
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

プロセッサとメモリを有する計算機が移動体の動線データを処理する誘導システムであって、前記移動体ごとに時系列の位置情報を取得して前記移動体の動線データを抽出する動線データ抽出部と、前記動線データに基づいて、前記移動体が目的地に到着する時刻を推定する到着時刻推定部と、前記推定された到着時刻に基づいて、少なくとも1つ以上の前記移動体から構成されるグループを算出するグループ推定部と、前記グループごとに前記移動体の誘導情報を算出する誘導情報算出部と、を有する。

Description

誘導システム、誘導方法及び計算機 参照による取り込み
 本出願は、令和2年(2020年)7月31日に出願された日本出願である特願2020-130176の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、人や車両などの移動体を誘導する計算機システムに関するものである。
 空港や駅などの公共施設では、保安検査場や税関検査場や窓口の行列の混雑を緩和するため、検査台や窓口の数を適宜変更したり、旅客を適切な場所へ誘導する等、現場でのオペレーションを改善することが求められている。
 これに対し、レーザーレーダやカメラ等を用いて動線データを取得することにより、現状の旅客の利用状況等を管理者が把握することができる。管理者は現場の係員に対して、人流の誘導などを指示する、等の対応がとられている。
 人流の誘導を行うための機器制御に関する先行技術として、特許文献1に示すような技術が知られている。また車両を駐車場へ誘導するための先行技術として、特許文献2に示すような技術が知られている。
 特許文献1では、制御ルールに基づき、計測された動線データから機器制御を実施する際、制御ルールの設定変更を容易に行う技術について開示されている。
 特許文献2では、各車両の駐車場到着予定時刻から渋滞予測を行い、入場ゲートに関する案内情報を、該当車両に送信する技術について開示されている。
特開2019-186667号公報 特開2015-064719号公報
 検査台や窓口などの通過時間は人の属性によって異なるため、待ち人数が一番少ない行列に人を誘導しても、必ず待ち時間が短くなるわけではない。またデジタルサイネージなどの誘導装置を用いて誘導する場合、一人ひとりに誘導の指示を出すのが困難である。
 そこで本発明は、上記問題点に鑑みてなされたもので、効率よく人流の誘導を行うことを目的とする。
 本発明は、プロセッサとメモリを有する計算機が移動体の動線データを処理する誘導システムであって、前記移動体の動線データを抽出する動線データ抽出部と、前記動線データに基づいて、前記移動体が目的地に到着する時刻を推定する到着時刻推定部と、前記推定された到着時刻に基づいて、少なくとも1つ以上の前記移動体から構成されるグループを算出するグループ推定部と、前記グループごとに前記移動体の誘導情報を算出する誘導情報算出部と、を有する。
 本発明によると、効率的に人流の誘導を行うことができる。それにより、施設内における行列や混雑を緩和させることができる。
 本明細書において開示される主題の、少なくとも一つの実施の詳細は、添付されている図面と以下の記述の中で述べられる。開示される主題のその他の特徴、態様、効果は、以下の開示、図面、請求項により明らかにされる。
本発明の実施例の人流誘導システムの基本構成を表すブロック図である。 本発明の実施例の人流誘導システムで行われる処理を表すフローチャートである。 本発明の実施例の動線DBの動線テーブルのデータ構造の一例を示す図である。 本発明の実施例の地図DBの壁テーブルのデータ構造の一例を示す図である。 本発明の実施例の地図DBのチェックポイントテーブルのデータ構造の一例を示す図である。 本発明の実施例の行列DBの行列テーブルのデータ構造の一例を示す図である。 本発明の実施例の属性DBの属性テーブルのデータ構造の一例を示す図である。 本発明の実施例の属性DBの属性マスタテーブルのデータ構造の一例を示す図である。 本発明の実施例の判定ルールDBの判定ルールテーブルのデータ構造の一例を示す図である。 本発明の実施例のグループDBのグループテーブルのデータ構造の一例を示す図である。 本発明の実施例の行列認識部で行われる処理のフローチャートである。 本発明の実施例の属性情報推定部で行われる処理の説明図である。 本発明の実施例のグループ推定部で行われる処理のフローチャートである。 本発明の実施例の移動判定部、目的地推定部、到着時刻推定部で行われる処理の説明図である。 本発明の実施例のクラスタリング部で行われる処理の説明図である。 本発明の実施例の誘導情報算出部で行われる処理のフローチャートである。 本発明の実施例の人流誘導装置に表示するインタフェースの説明図である。 本発明の実施例の施設管理者の管理画面に表示するインタフェースの説明図である。 本発明の実施例の人流誘導システムと人流計測システムのハードウェア構成図である。
 本発明は移動中の人を誘導する人流誘導システムに関するものである。なお本人流誘導システムで誘導するのは人だけでなく、船舶や車両、航空機などの移動体であってもよい。本実施例では、人に焦点をあてて説明を行う。
 本実施例の人流誘導システムは、空港等の施設内で、移動している旅客等の人に対して、施設内に設置された誘導装置を用いることで、どこの場所へ向かえばよいか誘導するシステムである。
 例えば、空港内に複数の検査場が存在しており、それぞれに行列ができている場合、デジタルサイネージなどの誘導装置に、どの行列に並べば待ち時間が短くなるか等の誘導情報を表示することで、人流誘導を行う。
 この際、レーザーレーダやカメラ等のセンサを用いて計測された人の動線データ(時系列的な位置情報)から誘導情報を算出する。しかし、行列の先の検査台や窓口の通過時間は行列を構成する人の属性によって異なるため、動線データから移動中の人や行列に並んでいる人の属性情報を推定し、行列の待ち人数だけでなく、その属性情報も用いることで、誘導情報を算出する。
 なお、この際、誘導情報として、どの場所へ向かえばよいか等の情報ではなく、人の行動を変化させる類の情報であってもよい。例えば、電子化ゲート通過のため、スマートフォンなどでの操作を誘発するような指示であってもよいし、この先には向かわないように指示する等の内容であってもよい。
 以下、本発明の実施例を、図面を参照して詳細に説明する。図1は、人流誘導システムの基本構成を表すブロック図である。
 本実施例の人流誘導システム(計算機)10は、人流計測システム11から計測データを受信し、計測データから抽出された動線データを用いて、移動中の各人が向かう人流誘導装置12等の目的地への到着時刻を推定する機能と、その推定到着時刻や目的地の場所等から各人をグルーピングしてグループ情報を生成する機能と、動線データから各人の属性情報を推定する機能と、グループ情報と属性情報から誘導情報を算出する機能と、を含み、算出された誘導情報は、人流誘導装置12に送信され、誘導対象の各人に対して表示される。
 上記機能を実現するために、人流誘導システム10は動線データ抽出部101と、行列認識部102と、属性情報推定部103と、グループ推定部104と、誘導情報算出部105と、行列DB(DataBase)106と、グループDB107と、動線DB108と、地図DB109と、属性DB110と、判定ルールDB111と、を含む。
 動線データ抽出部101は、人流計測システム11にて計測されたデータから、動線データを抽出し、動線DB108に格納する。この際、人流計測システム11にて計測されるデータは、誘導対象領域の動画データでもよいし、レーザーレーダデータでもよい。
 動線データ抽出部101が、動画データから動線データを抽出する際は、周知又は公知の画像処理技術により人を認識し、人の座標を抽出してもよい。レーザーレーダデータから動線データを抽出する際は、また、動線データ抽出部101は、周知又は公知の技術を用いてレーザーレーダデータから距離が変化する移動体を人として抽出し、座標情報に変換してもよい。
 なお、本実施例では、人々を誘導する誘導対象領域としてひとつの領域の例を示すが、人流誘導システム10は複数の誘導対象領域を監視して人を誘導することができる。また、人流誘導システム10と人流計測システム11及び人流誘導装置12は、図示しないネットワークによって接続されている。
 行列認識部102は、動線DB108に格納された動線データと、地図DB109に格納されたレイアウトデータと、を受信し、動線データに対する行列判定を行い、判定結果を行列DB106に格納する機能を含む。行列判定の具体的な処理については後述する。
 属性情報推定部103は、動線DB108に格納された動線データと、地図DB109に格納されたレイアウトデータと、判定ルールDB111に格納されたルールデータと、を受信し、各人の属性を推定し、属性DB110に推定した属性情報を格納する。上記機能を実現するために、属性情報推定部103は、特徴量算出部1031と、属性判定部1032と、を含む。各部の具体的な処理については後述する。
 グループ推定部104は、動線DB108に格納された動線データと、地図DB109に格納されたレイアウトデータと、を受信し、各人から移動中の人に関して、グループを推定し、グループDB107に格納する。
 上記機能を実現するために、グループ推定部104は、移動判定部1041、目的地推定部1042、到着時刻推定部1043、クラスタリング部1044と、を含む。各部の具体的な処理については後述する。
 誘導情報算出部105は、行列DB106に格納された行列データと、グループDB107に格納されたグループデータと、属性DB110に格納された属性データと、を受信し、グループごとに誘導情報を算出し、人流誘導装置12に送信する。
 人流誘導装置12は表示装置を有するデジタルサイネージなどで構成され、人流誘導システム10から受信した誘導情報をディスプレイ等の表示部に出力し、近傍の人へ誘導情報を提示する。
 上記機能を実現するために、誘導情報算出部105は、属性比率算出部1051、指標算出部1052、指標最適化部1053、スケジューリング部1054と、を含む。各部の具体的な処理については後述する。
 行列DB106と、グループDB107と、動線DB108と、地図DB109と、属性DB110と、判定ルールDB111に格納されるデータについては後述する。
 なお、人流誘導システム10は、人流の位置情報を計測する計測部と、人流の位置情報から各人の動線データを抽出して、各人が目的地に到着する推定到着時刻を算出して、推定到着時刻に基づいて人のグループを生成し、グループごとに誘導情報を算出する演算部と、誘導情報を表示する誘導部で構成することができる。
 図2は、人流誘導システム10にて行われる処理を表すフローチャートである。以下に全体の処理について説明する。
 ステップ201は、人流誘導システムの処理開始を表す。ステップ202は、動線データ抽出部101にて行われる処理を表す。動線データ抽出部101は、人流計測システム11から受信した計測データを動線データに変換し、動線DB108に格納する。
 ステップ203は、行列認識部102にて行われる処理を表す。行列認識部102は、動線DB108から受信した動線データと、地図DB109から受信したレイアウトデータを用いて、人が並んでいる箇所を検出する行列判定を行う。その後、判定結果を行列DB106に格納する。
 ステップ204は、属性情報推定部103にて行われる処理を表す。属性情報推定部103は、動線DB108から受信した動線データと、地図DB109から受信したレイアウトデータと、判定ルールDB111から受信したルールデータを用いて、人の属性情報を推定する。その後、推定結果を属性DB110に格納する。
 ステップ205は、グループ推定部104にて行われる処理を表す。グループ推定部104は、動線DB108から受信した動線データと、地図DB109から受信したレイアウトデータを用いて、行列に向かっている人をグルーピングし、そのグループ情報をグループDB107に格納する。
 なおこれらのステップ203~205は、順序を変えて実施されてもよい。
 ステップ206は、誘導情報算出部105にて行われる処理を表す。誘導情報算出部105は、ステップ203~205によってデータを格納された行列DB106、属性DB110、グループDB107から受信した各データを用いて、誘導情報を算出する。その後、算出した誘導情報を人流誘導装置12に送信する。
 ステップ207は、人流誘導システムの処理終了を表す。
 なおステップ201~207は一定の時間ごとに繰り返される。例えば1秒ごとにこれらの処理が繰り返されてもよい。またステップ203~206に関しては、定期的に処理をスキップしてもよい。例えば、ステップ202は1秒に1回行われ、ステップ203~206は10秒に1回行われてもよい。
 図3A~図3Cは、動線DB108と地図DB109のデータ構造例である。動線DB108には人流計測システム11によって取得された動線データが格納され、地図DB109には事前に準備されたレイアウトデータ群が格納される。
 まずは動線DB108について説明する。図3Aは、動線DB108の動線テーブル301の一例を示す図である。動線テーブル301は、動線データを格納するテーブルである。動線テーブル301には、人ごとに、また一定の時間ごとに、例えば1秒ごとに、動線データの座標をサンプリングしたような形で格納される。
 動線テーブル301は、START_TIME3011と、END_TIME3012と、PID3013と、ORIENT3014と、ACT3015と、WKT3016を一つのレコードに含む。
 START_TIME3011と、END_TIME3012は動線データをサンプリングする際の開始時間と終了時間を表し、PID3013は人のID(識別子)を表す。WKT3016は対応するPID3013の人が、START_TIME3011からEND_TIME3012までの間に動いた際の動線(時系列的な位置情報)のラインストリングに関するジオメトリ情報(動線データ)を表す。なおこのジオメトリ情報に関する座標系は周知又は公知のものでよく、例えば平面直角座標系などでもよい。
 ORIENT3014は、END_TIME3012においてPID3013の人が向いている方向を角度(又は方位)で表した情報を表す。この角度情報は、レーザーレーダを用いて人を計測した場合は、3D点群データに対し、Pose Estimation等の周知又は公知の技術を使って向きを検出した結果を格納してもよい。カメラを用いて人を計測した場合は、周知又は公知の画像処理技術を用いて向きを検出した結果を格納してもよい。
 あるいは、動線データから人の向き推定を行った結果を格納してもよい。動線データから向き推定を行う場合、PID3013の人のSTART_TIME3011からEND_TIME3012にかけての動いた座標の差分ベクトルを算出して向き検出を行った結果を格納してもよい。
 ACT3015は、対応するPID3013の人がSTART_TIME3011からEND_TIME3012までの間にどういう行動をとっていたかを表す。例えば、歩いている、走っている、立ち止まっている、しゃがんでいる、座っている、などの情報を表す。またこれらの組み合わせの情報が格納されていてもよい。
 ACT3015は、レーザーレーダを用いて計測した場合は、3D点群データに対し、Pose Estimation等の周知又は公知技術を使って得られた結果を格納してもよい。
 カメラを用いて計測した場合は、周知又は公知の画像処理技術を用いて得られた結果を格納してもよい。又は動線データを分析することで得られた結果を格納してもよい。例えば、動線データに対してHidden Markov ModelやLong Short Term Memory等、系列データに対応した機械学習の手法を適用することで得られてもよい。
 次に、地図DB109について説明する。地図DB109には、人が通行不可である壁などの領域(障害物)を表す壁テーブル302と、施設内のチェックポイントに関するチェックポイントテーブル303が格納される。図3Bは、壁テーブル302の一例を示す図である。また、図3Cは、チェックポイントテーブル303の一例を示す図である。
 チェックポイントは、誘導対象領域内で人が移動する際の立ち寄り場所や、何らかの属性が付加された通過場所を示す。例えば、誘導対象領域として空港施設の到着ロビーなどを考える場合、チェックポイントは出入口や行列、デジタルサイネージや、荷物の受け取りのベルトコンベアや検査台等の情報に相当する。
 壁テーブル302は、壁等のオブジェクトに関するIDであるWID3021と、オブジェクトの種別を表すKIND3022と、オブジェクトの位置情報や形状情報を表すWKT3023を一つのレコードに格納する。
 WKT3023は、オブジェクトの形状を表す座標を、ポリゴンやラインストリングといった形のジオメトリとして表したものである。WKT3016と同様に、WKT3023の座標系は任意のものでよい。
 チェックポイントテーブル303は、チェックポイントのIDを表すCID3031と、チェックポイントの種類に関するIDを表すKID3032と、チェックポイントの名前を表すNAME3033と、チェックポイントの位置情報や形状情報(ジオメトリ情報)を表すWKT3034を一つのレコードに格納する。WKT3016と同様に、WKT3034の座標系は任意のものでよい。
 図4A~図4Eは、行列DB106と属性DB110と判定ルールDB111とグループDB107のデータ構造の一例を示す図である。図4Aは、行列テーブル401の一例を示し、図4Bは、属性テーブル402の一例を示し、図4Cは、属性マスタテーブル403の一例を示し、図4Dは、判定ルールテーブル404の一例を示し、図4Eは、グループテーブル405の一例を示す。
 行列DB106には、行列認識部102にて判定された行列データが格納され、属性DB110は属性情報推定部103にて人(PID3013)ごとに推定された属性情報や、事前に準備された属性の詳細を表す情報が格納され、判定ルールDB111には事前に準備された判定ルールに関する情報が格納され、グループDB107にはグループ推定部104にて推定されたグループ情報が格納される。
 行列DB106について説明する。行列DB106は、誘導対象領域内で形成された各行列にどの人がどの順番で並んでいたかを格納する行列テーブル401を格納する。
 図4Aの行列テーブル401は、対応する行列の状態についての開始及び終了時刻を表すSTART_TIME4011及びEND_TIME4012と、当該行列が形成された位置をチェックポイントの識別子で指定する行列のCID4013と、対応する行列に並んでいる人のPID3013をサービス待ちの順番通りに並べたIDリストであるPID_LIST4014を一つのレコードに格納する。
 ここでCID4013は、チェックポイントテーブル303に含まれるCID3031と対応しており、チェックポイントテーブル303のKID3032が行列に対応するレコードのCID3031のみが行列テーブル401に格納される。
 属性DB110について説明する。属性情報推定部103にて人ごとに推定された属性テーブル402や事前に準備された属性マスタテーブル403が格納される。図4Bの属性テーブル402は、PID4021と、そのPID4021に対応する人の属性のIDであるAID4022が一つのレコードに格納される。
 本実施例において、属性情報がまだ付与されていない場合や、推定しても属性IDを割り当てられなかった場合は、AID4022に「-1」や「NULL」などを格納してもよい。図4Cの属性マスタテーブル403は、属性IDを表すAID4031と、その説明を記述したDESCRIPTION4032を一つのレコードに格納する。
 判定ルールDB111について説明する。図4Dの判定ルールDB111は事前に準備された判定ルールテーブル404を格納する。判定ルールテーブル404は、属性IDを表すAID4041と、対応する属性を抽出する条件であるCONDITION4042を一つのレコードに格納する。CONDITION4042は判定ルールが格納されており、動線テーブル301に対して人の属性を判定する際のSQL(Structured Query Language)の条件を格納する。
 グループDB107について説明する。図4EのグループDB107は、グループテーブル405を格納する。
 グループテーブル405は、グループのIDを表すGID4051と、対応するグループの人たちが目的地に到着し始める時刻であるARRIVAL_START_TIME4052と、到着が終了する時刻であるARRIVAL_END_TIME4053と、目的地のIDであるCID4054と、対応するグループに所属する人のIDリストであるPID_LIST4055を一つのレコードに格納する。この際、PID_LIST4055は目的地に到着する人の順番にソートされて格納される。
 図5は、行列認識部102で行われる処理の一例を示すフローチャートである。行列認識部102では、動線DB108に格納された動線テーブル301の動線データと、地図DB109に格納された行列に関するチェックポイントや壁のレイアウトデータ(壁テーブル302、チェックポイントテーブル303)から、どの人が、いつ、どの行列にて、何番目に並んでいたか、を判定する。なおステップ501~505のフローチャートは一定時間ごとに行われる。
 ステップ501は、行列認識部102が処理を開始する。ステップ502は、行列認識部102が、各行列のチェックポイントにて先頭に並ぶ人を抽出する。この際、行列の先頭を示すWKT3034から、当該チェックポイントから一定の距離以内、かつ最近傍にいる人で移動速度が一定値以下となる人を行列の先頭として抽出する。
 ステップ503は、行列認識部102が、各行列のチェックポイントにて2番目以降に並ぶ人を抽出する。この際、行列認識部102は直前のステップにて抽出した人から、一定の距離以内かつ最近傍にいる人で移動速度が一定値以下の人を、次に並んでいる人として抽出する。
 行列認識部102は、直前のステップと本ステップで抽出された人達の位置情報を線分で結んだ際に、他の壁レイアウトのWKT3023やその他のチェックポイントのWKT3034のいずれとも交差しないような人を抽出する。
 ステップ504は、行列認識部102が、直前のステップで抽出した人から、一定の距離以内で、移動速度が一定値以下となり、直前のステップの人とその探索対象の人を線分で結んだ際に、他の壁レイアウトのWKT3023やその他のチェックポイントのWKT3034のいずれとも交差しない人がいるか否かの判定を行う。
 行列認識部102は、上記判定で該当する人がいない場合は終了条件を満たすとし、ステップ505に進む。終了条件を満たさない場合はステップ503に戻って上記処理を繰り返す。ステップ505は、行列認識部102が処理を終了する。
 なおこの行列認識処理に、各人の向き(ORIENT3014)の情報を用いてもよい。例えば、行列の先頭に並ぶ人を抽出する際に、ステップ502の判定条件を満たす人の中で、行列のチェックポイントの方へ向いている人のみを抽出してもよいし、2番目以降に並ぶ人を抽出する際に、ステップ503の判定条件を満たす人の中で、直前ステップで抽出された人の方を向いている人のみを抽出してもよい。
 図6は、属性情報推定部103で行われる処理の説明図である。属性情報推定部103では、動線DB108に格納された動線データと、地図DB109に格納されたレイアウトデータと、判定ルールDB111に格納された判定ルールから、各人の属性情報を推定し、属性DB110に格納する。上記を実現するために、以下に詳細を説明する。
 画面601は動線DB108や地図DB109のデータを可視化している図である。動線データ602は、動線DB108に格納されている動線データの例である。これらのデータと判定ルールDB111に格納されたルールから、特徴量算出部1031が属性の推定に必要な特徴量算出を行う。
 図示のテーブル603は、特徴量算出部1031で算出された特徴量の例である。特徴量算出の際、所定の領域ごと、行動ごと、判定ルールごとのいずれか1つ以上に関する動線データの統計値をPID604(=PID3013)ごとに特徴量として算出する。ここで所定の領域は事前に定義されたジオメトリを用いてもよいし、動線データ602の分布から決定してもよい。
 属性判定部1032は、所定の領域と動線データ602との交差判定を行い、各領域内に含まれる動線データ602を抽出し、特徴量算出部1031が特徴量の統計値を人ごとに算出する。この際、特徴量の統計値として、各人の移動速度や位置、加速度の平均値や分散、中央値、また各領域内に含まれる動線データ602のレコード数などを用いてもよい。
 カラム605は予め設定した領域ごとの統計値である。行動ごとの統計値は、動線テーブル301に格納されたACT3015の値ごとに算出する。統計値の種類は領域ごとの統計値と同様である。カラム606は行動ごとの統計値が格納される。
 なお、属性判定部1032の特徴量算出部1031が算出する領域ごとの特徴量の統計値(604)は、誘導対象領域を複数の小領域に分割し、動線データ602が通過した領域について統計値を算出することができる。
 判定ルールごとの統計値は、判定ルールテーブル404に格納されたCONDITION4042の条件を満たす導線データに関して統計値を算出する。統計値の種類は領域ごとの統計値と同様の方法で算出する。
 カラム607は判定ルールごとの統計値の例である。なお、本実施例では領域ごと、行動ごと、判定ルールごとに特徴量の統計値を算出しているが、これらの統計値を算出する条件を複数にしてもよい。例えば、ある領域内かつある行動をとるときの統計値なども算出してもよい。属性情報推定部103は、特徴量を算出した後、その特徴量を用いて人ごとの属性を推定し、属性DB110に格納する。
 この際、属性判定部1032は、特徴量に関して閾値処理を行うことで属性を推定してもよいし、Support Vector MachineやLogistic Regression、Gradient Boosting、Deep Learningなどの機械学習を適用することで属性情報を推定してもよい。
 上記処理により、属性情報推定部103は、動線データ602から算出した特徴量の統計値から、属性マスタテーブル403で設定された属性(AID4031)を各人ごとに推定することができる。
 図7は、グループ推定部104で行われる処理の一例を示すフローチャートである。グループ推定部104では、動線DB108に格納された動線データと、地図DB109に格納されたレイアウトデータから、移動している人のグループを生成して、グループDB107に格納する。なおステップ701~706のフローチャートは一定時間ごとに行われる。
 ステップ701は、グループ推定部104が処理を開始する。ステップ702では、グループ推定部104が動線テーブル301の動線データから行列に向かっている人を抽出する。この際、グループ推定部104は、動線データの移動ベクトルを用いて、行列に向かう人の抽出処理を行う。この処理は移動判定部1041にて行われる。
 ステップ703では、グループ推定部104が、上記ステップ702にて抽出した人に対して、各人が行列に至るまでの経路をシミュレーションにより予測する。ステップ704では、グループ推定部104が、上記ステップ703にて予測した経路から各人が途中で立ち寄る人流誘導装置12を目的地として抽出し、抽出された人流誘導装置12へ立ち寄る時間を到着時刻として推定する。これらの処理は、目的地推定部1042と到着時刻推定部1043にて行われる。
 ステップ705では、グループ推定部104が、上記ステップ704にて推定した目的地と到着時刻の情報を用いて、到着時刻ごとの人数の分布に基づいて同一の人流誘導装置12に向かう人々のグループを生成する。この処理はクラスタリング部1044にて行われる。
 なお、ステップ702~705の具体的な処理は後述する。ステップ706は、グループ推定部104が処理を終了する。
 図8は、移動判定部1041と目的地推定部1042と到着時刻推定部1043にて行われる処理の説明図である。
 モニタに描画された画面801は動線DB108に格納された動線データと、地図DB109に格納されたレイアウトデータの、ある時刻の誘導対象領域の状況を表示した画面である。領域802と、領域805、領域810は地図DB109に格納されたチェックポイントテーブル303のジオメトリ情報(WKT3034)を誘導対象領域の地図に描画した図である。
 図中領域802-1~802-4は荷物受け取り場所であるベルトコンベアを示し、12-1~12-3は人流誘導装置を示し、領域810は行列の先の検査台を表す。なお、人流誘導装置を個々に特定しない場合には、「-」以降を省略した符号「12」を用いる。他の構成要素の符号についても同様である。
 線分809は、地図DB109に格納された行列に関するチェックポイントのジオメトリ情報を地図に描画した図である。人803、人804、人807、人808は動線DB108に格納された動線データを描画したものである。
 人803は行列に向かっていない人を示し、人804は行列812-1に向かっている人を示し、人807は行列812-1に並んでいる人を示し、人808は行列812-1に並び終わってサービスを受けている人を示し、図示の例では検査台にて検査を受けている人である。
 領域806-2~806-3は、人流誘導装置12-2、12-3の近傍(所定の距離内)を示す領域である。経路811は、行列812-5に向かっている人の予測経路である。
 移動判定部1041では、行列812-1に向かっている人804を抽出する。この際、移動判定部1041は、各動線データの移動ベクトルから行列812へ向かう人を判別する。ここで移動ベクトルは、動線テーブル301に格納されているWKT3016のことである。
 移動判定部1041は、移動ベクトルの長さが一定以上あり、行列DB106の行列テーブル401に一回も存在していないPID(4014)であり、移動ベクトルの向いている方向に検査台(810)が存在しているような動線データを抽出する。
 その後、移動判定部1041にて抽出された人804に関して、動線シミュレーション等により、今後向かうと思われる行列812、もしくは検査台(810)に至るまでの経路811を予測する。
 この際、動線シミュレーションの方法として、Social Force Model等のような物理モデルに基づく周知又は公知のシミュレーション手法を用いてもよい。またSupport Vector RegressionやDeep Learning、Gradient Boosting等の機械学習で学習した人の移動モデルを適用して、シミュレーションを行ってもよい。
 機械学習を用いる場合、現在の速度ベクトル、様々な方向に関する周囲の障害物との距離、自分を中心とするグリッドを抽出し、グリッドに関する特徴量を算出して、1ステップ先の速度ベクトルを予測するような移動モデルを学習し、逐次的に速度を予測することで動線シミュレーションを行ってもよい。
 目的地推定部1042では、上記で得られた予測経路を用いることで、どの目的地に立ち寄るか、すなわちどの領域806の人流誘導装置12に立ち寄るかを推定する。ここで、目的地推定部1042は、経路811と領域806の交差判定を行うことで、目的地を決定する。
 目的地推定部1042は、各人流誘導装置12に関して近傍領域を示す領域806を定義し、経路811と最初に交差する領域806を抽出し、対応する人流誘導装置12を目的地として推定する。この際、目的地推定部1042は、交差する領域806が存在しない場合、経路811と領域806が最も近いものを算出し、同様のことを行う。
 到着時刻推定部1043では、目的地推定部1042で得られた目的地と経路811の情報を用いて、到着時刻を推定する。具体的には、到着時刻推定部1043がシミュレーション上で人が領域806の中に最初に入るタイミングを到着時刻として推定する。領域806と経路811が交差しない場合は、到着時刻推定部1043は、それらの距離が最も近くなるタイミングを人流誘導装置12への到着時刻として推定する。
 上記処理によって、グループ推定部104の到着時刻推定部1043は、領域802で荷物を受け取ってから、検査台(領域810)へ向かう途中で人流誘導装置12に到着又は接近する時刻を推定することができる。
 図9は、クラスタリング部1044にて行われる処理の説明図である。クラスタリング部1044では、移動判定部1041と目的地推定部1042、到着時刻推定部1043にて取得された移動中の人の到着情報を用いて、グループ情報を推定し、グループDB107に格納する。
 テーブル901は、移動判定部1041と目的地推定部1042、到着時刻推定部1043にて取得された移動中の人の到着情報である。このテーブル901にはPID911と推定された到着時刻912と、目的地として推定された人流誘導装置12のID913が一つのレコードに格納されている。クラスタリング部1044は、これらの情報から各時刻における各誘導装置に到着する人数の系列グラフ902を生成する。
 系列グラフ902からどのタイミングで何人ぐらいの人が各人流誘導装置12-1~12-3に到着するかを知ることができる。この系列データをクラスタリングすることでグループ情報を取得する。
 区間905は、人流誘導装置12-1(図中人流誘導装置#0)に到着する人をグループ化した場合の各グループの区間を表す。この系列グラフ902の山を公知の機械学習手法などによりクラスタリングを行い、区間905を生成する。
 ここで機械学習を用いる場合、Gaussian Mixture Modelやk-meansクラスタリングなどの手法を用いてもよいし、シンプルに系列グラフ902の累積値が一定の閾値以上になるところで、グループの境界を定義し、クラスタリングを行ってもよい。
 クラスタリング部1044は、クラスタリングを行い、各グループの時刻に関する情報を取得する。具体的には、そのグループの人たちが到着し始める時刻である時刻903と、到着を終了する時刻である時刻904を取得する。
 最後に、クラスタリング部1044は、取得されたグループにIDを付与して、当該IDと、時刻903、時刻904、区間905に入る人のIDのリスト(PID_LIST4055)をグループDB107に格納する。
 図10は、誘導情報算出部105にて行われる処理の一例を示すフローチャートである。誘導情報算出部105は、行列DB106に格納された行列データと、グループDB107に格納されたグループデータと、属性DB110に格納された属性データと、を受信し、グループごとに誘導情報を算出し、人流誘導装置12に送信する。以下に具体的な処理について説明する。なおこれらの処理フローは一定時間ごとに行われる。
 ステップ1001は、誘導情報算出部105が処理を開始する。ステップ1002では、誘導情報算出部105が属性DB110に格納された属性テーブル402やグループDB107に格納されたグループテーブル405、行列DB106に格納された行列テーブル401の情報を用いて、属性(AID4022)の比率を算出する。
 誘導情報算出部105は、グループに関しては、GID4051ごとに属性の比率を算出し、行列に関しては、CID4013ごとに属性(AID4022)の比率を推定する。この処理は誘導情報算出部105の属性比率算出部1051にて行われる。
 ステップ1003では、誘導情報算出部105が上記ステップ1002にて算出された属性比率の情報を用いて、各行列の待ち時間に関する指標を推定する。この際、行列に並んでいる人数をnとし、属性iの比率をr_iとすると、例えば、比率r_iに関する重みづけ和にnをかけた値を待ち時間として推定してもよい。
 又はこれらのパラメータを特徴量として、誘導情報算出部105は機械学習によって得られたモデルから、待ち時間を推定してもよい。各グループに関しても同様に待ち時間に関する指標を推定する。この処理は誘導情報算出部105の指標算出部1052にて行われる。
 ステップ1004では、誘導情報算出部105が上記ステップ1003にて算出されたグループごと、行列ごとの待ち時間と、各グループの到着タイミングの情報に基づき、各グループに関して、誘導先である行列812を決定する。この際、誘導情報算出部105は、各行列812の総待ち時間が均等になるように各グループを行列に割り当ててもよいし、グループ内に電子化ゲートの使用率が高い属性の人が多い場合であれば、電子化ゲートの行列812の方に割り当ててもよい。もしくは施設の管理者が人手で割り当ててもよい。この処理は誘導情報算出部105の指標最適化部1053にて行われる。
 ステップ1005では、誘導情報算出部105が誘導情報を表示する時刻や時間に関する情報を決定する。各誘導情報は誘導対象のグループの人が人流誘導装置12へ到着する時刻903から時刻905のまでの間、表示を実施するように設定する。
 又は、誘導情報算出部105が最初に人流誘導装置12に到着する人が、人流誘導装置12に到着する前に、人流誘導装置12から一定の距離内に場所に来た時点から誘導情報を表示してもよい。
 もしくは誘導対象のグループの人のうち、一定以上の割合の人が、人流誘導装置12から一定の距離内にいる場合に誘導情報を表示してもよい。この処理は誘導情報算出部105のスケジューリング部1054にて行われる。
 ステップ1006では、誘導情報算出部105が処理を終了する。上記処理によって、誘導情報算出部105は、誘導先である行列812を誘導対象のグループごとに決定し、誘導情報を出力する人流誘導装置12と誘導情報を表示するタイミングを設定することができる。
 図11は、人流誘導装置12に表示するインタフェースの説明図である。人流誘導システム10は人流誘導装置12の画面に誘導情報を表示することで人流の誘導を行う。
 画面1101は、人流誘導装置12の画面全体を表す。画面1102は、動線DB108に格納されている現在の動線データや地図DB109に格納されているレイアウトデータを表示する画面である。図示の例では誘導対象領域を表示している。
 凡例1103は、人のグループ情報を表す凡例である。グループDB107に格納されたグループ情報に基づき、現在の表示されているPID3013の人が所属するグループ情報の色やマーカ等に関する判例情報を表示する。この凡例1103に基づき、画面1102に、人の動線データが表示される。なお、凡例1103にて、現在の誘導対象であるグループに関して、太文字や下線などの強調表示がされていてもよい。
 誘導表示1104は、現在の誘導対象であるグループに関する誘導先の情報(誘導情報)を表示したものである。具体的には誘導対象であるグループのIDと、誘導先である行列が並ぶ検査台のIDが表示されている必要がある。なおここで、指標算出部1052で算出された待ち時間の情報なども一緒に表示されていてもよい。
 乗り継ぎ情報1105は、空港から他の交通機関への乗り継ぎに関する情報を表示したものである。乗り継ぎ情報1105には交通機関の種類やその行き先、出発時刻だけでなく、空席情報なども表示してもよい。
 時刻1106は、現在の日時を表す。パネル1107は、施設の利用者が管理者や警備員などを呼ぶ際に押すパネルである。タッチパネルでもよいし、押下できるようなボタンでもよい。
 画面1102内に表示される人1108は、動線DB108に格納されている動線データである。凡例1103に従い、グループにより色やマーカ等の形式が異なって表示されていてもよい。ここで画面1101が表示されている人流誘導装置12に近づいている人に関して、マーカを大きくするなど強調して表示されていてもよい。
 人流誘導装置12は、画面1101が表示されている誘導装置である。他の人流誘導装置12区別するために、枠を太くするなど、強調して表示されていてもよい。
 検査台1110は、人流誘導装置12で人1108を誘導している誘導先の検査台である。他の検査台と区別するために、先ほどと同様に強調して表示されていてもよい。
 以上のように、誘導情報算出部105が算出したスケジュールで誘導情報を人流誘導装置12に出力することで、予測された経路を移動する人1108に対して誘導先を報知することができる。
 図12は、施設管理者が利用する人流誘導システム10の管理画面に表示するインタフェースの説明図である。この画面では、どのような属性の人がどのように分布しているか、今後の行列に関する待ち人数や待ち時間がどのように変化すると予測されるかなどを表示し、管理者の意思決定に繋げられるようにする。
 画面1201は、管理画面全体を表す。画面1202は、動線DB108に格納される動線データや、地図DB109に格納されるレイアウトデータを表示する画面である。ここで動線データに関しては、属性DB110に格納される属性情報ごとに色やマーカを変えて表示してもよい。
 画面1203は、各検査台の前に並ぶ行列内の人の属性比率に関する情報を示す画面である。コンボボックス12031は現在表示されている検査台であり、円グラフ12032は属性比率の情報を表示したグラフである。
 画面1204は、動線DB108に格納された動線データと属性DB110に格納された属性データをもとに、管理者が記録した特定行動者のリストである。テーブル12041は特定行動者リストを表にまとめたものであり、人のIDや属性、管理者が追記するメモ、強調表示のフラグなどを含んでいてもよい。
 特定行動者リストは画面1202で対象となる動線データを選択し、追加、削除、更新できるようにしてもよい。ボタン12042は特定行動者の追加ボタン、ボタン12043は削除ボタン、ボタン12044は更新ボタンである。
 画面1205は、今後の行列の待ち人数の予測値を表示した画面である。コンボボックス12051は、現在表示されている検査台であり、折れ線グラフ12052は待ち人数予測値を系列データとして表示したグラフである。このデータは図9に示した系列グラフ902と同様のものである。
 画面1206は、今後の行列の待ち時間の予測値を表示した画面である。コンボボックス12061は、現在表示されている検査台であり、折れ線グラフ12062は待ち時間予測値を系列データとして表示したグラフである。このデータは指標算出部1052にて算出された待ち時間である。
 画面1207は、航空機の到着状況の表を示す画面である。この画面1207には、便名や出発地、到着時刻、荷物がベルトコンベアに到着しているか、などの情報が含まれていてもよい。時刻1208は現在の日時を表す。
 図13は、人流計測システム11と人流誘導システム10を構成する各装置のハードウェア構成を示す。
 人流計測システム11は、レーザー計測システム1301、カメラシステム1302、端末測位システム1303のいずれか一つ以上の人流計測システム11から構成される。なお、人流誘導システム10と人流計測システム11は、ネットワーク5を介して相互に接続される。
 レーザー計測システム1301は、レーザー光を発振するレーザー発振器13011と、レーザーの反射光を読み取るレーザー受光器13012と、レーザーの発振、受光にかかった時間等からレーザー計測システム1301の周囲の物体までの距離を算出して点群データに変換する演算装置13013からなる。
 カメラシステム1302は、周知のカメラを含むシステムであり、イメージセンサ13021によって可視光を画像として取得して、周知又は公知の方法によりその画像の中から人を検知してその位置を推定することができる装置である。
 端末測位システム1303は、演算性能を有するプロセッサ13031と、高速に読み書きが可能な揮発性一時記憶領域であるDRAM13032と、HDDやフラッシュメモリなどを利用した永続的な記憶領域である記憶装置13033と、人の操作を受け付ける入力装置13034と、現在の端末の状況を提示するためのモニタ13035と、無線通信を行うためのネットワークインタフェースカードである無線通信ボード13036と、端末の位置を特定するためのGPS受信機13037を含んでおり、記憶領域に記録されたプログラムをプロセッサ13031が実行すると、GPS受信機13037等を用いて自己の位置を推定してNIC13046を経由して配信する。
 なお、端末測位システム1303は、車両等の移動体に搭載して、人流誘導システム10と接続することによって移動体の誘導を実現することができる。
 人流誘導システム10は、演算性能を有するプロセッサ13041と、高速に読み書きが可能な揮発性一時記憶領域であるDRAM13042と、HDDやフラッシュメモリなどを利用した永続的な記憶領域である記憶装置13043と、人の操作を受け付ける入力装置13044、情報を提示するためのモニタ13045と、通信を行うためのネットワークインタフェースカードNIC13046を有する計算機である。
 記憶領域に記録されたプログラムをプロセッサ13041が実行することによって、動線データ抽出部101、行列認識部102、属性情報推定部103、グループ推定部104、誘導情報算出部105を実現できる。また、行列DB106、グループDB107、動線DB108、地図DB109、属性DB110、判定ルールDB111は記憶装置13043に記憶することによって実現できる。
 なお、図12に示した画面1201は、人流誘導システム10のモニタ13045に出力することができる。
 上記実施例では、人流誘導システム10が複数の目的地(人流誘導装置12)を有する例を示したが、これに限定されるものではなく、目的地が単一の場合には、目的地への到着予測時間に基づいて人のグルーピングを行うことができる。
 <結び>
 以上のように、上記実施例の人流誘導システム10は、以下のような構成とすることができる。
 (1)プロセッサ(13041)とメモリ(DRAM13042)を有する計算機(人流誘導システム10)が移動体(人804)の動線データ(WKT3016)を処理する誘導システムであって、前記移動体毎に動線データ(3016)を抽出する動線データ抽出部(101)と、前記動線データ(3016)に基づいて、前記移動体が目的地に到着する時刻を推定する到着時刻推定部(1043)と、前記推定された到着時刻に基づいて、少なくとも1つ以上の前記移動体から構成されるグループ(GID4051)を算出するグループ推定部(104)と、前記グループ(4051)ごとに前記移動体の誘導情報(誘導表示1104)を算出する誘導情報算出部(105)と、を有することを特徴とする誘導システム。
 上記構成により、人流誘導システム10は、人流の動線データに基づいて、効率的に人流の誘導を行うことができる。それにより、施設内における行列や混雑を緩和させることができる。
 (2)上記(1)に記載の誘導システムであって、前記動線データ(3016)に基づいて、前記移動体が向かう目的地を推定する目的地推定部(1043)を、さらに有し、前記到着時刻推定部(1043)は、前記推定された目的地に前記移動体が到着する時刻を推定することを特徴とする誘導システム。
 上記構成により、人流誘導システム10は、推定された目的地に前記移動体が到着する時刻を推定することにより、誘導情報を効率よく表示することができる。
 (3)上記(1)に記載の誘導システムであって、前記動線データ(3016)から前記移動体ごとの属性情報(4022)を推定する属性情報推定部(103)を、さらに有し、前記誘導情報算出部(105)は、前記グループ(4051)ごとに算出した前記属性情報(4022)の比率を用いて前記誘導情報(1104)を算出することを特徴とする誘導システム。
 上記構成により、人流誘導システム10は、行列の先の検査台や窓口の通過時間は行列を構成する人の属性によって異なるため、動線データから移動中の人や行列に並んでいる人の属性情報を推定し、行列の待ち人数や待ち時間だけでなく、属性情報も用いることで、グループに適した誘導情報を算出することができる。
 (4)上記(3)に記載の誘導システムであって、前記属性情報推定部(103)は、前記移動体を誘導する領域ごと、前記移動体の行動(ACT3015)ごと、予め設定された判定ルール(4042)ごとのいずれか1つ以上に関する動線データ(3016)の統計値を算出し、算出した統計値から前記移動体の前記属性情報(4022)を推定することを特徴とする誘導システム。
 上記構成により、人流誘導システム10は、動線データ602から算出した特徴量の統計値から、属性マスタテーブル403で設定された属性(AID4031)を各人ごとに推定することができる。
 (5)上記(1)に記載の誘導システムであって、前記計算機(10)に接続されて前記誘導情報(1104)を表示する誘導装置(人流誘導装置12)を、さらに有し、前記誘導情報(1104)算出部(105)は、前記グループ(4051)に割り当てられた前記移動体が、前記誘導装置から一定の距離以内に存在している際に、前記誘導情報(1104)を前記誘導装置(12)に表示することを特徴とする誘導システム。
 上記構成により、人流誘導システム10は、グループに割り当てられた人のうち閾値以上の割合の人が、人流誘導装置12から一定の閾値以内の距離に存在している場合に人流誘導装置12に誘導情報を表示することで、誘導対象のグループに誘導先を報知することが可能となる。
 (6)上記(2)に記載の誘導システムであって、前記計算機(10)に接続されて前記誘導情報(1104)を表示する複数の誘導装置(12)を、さらに有し、前記目的地推定部(1043)は、前記移動体が向かう目的地として、前記複数の誘導装置(12)(人流誘導装置(12)12)のいずれかを推定し、前記誘導情報算出部(105)は、前記グループ(4051)に割り当てられた前記移動体が、前記推定された誘導装置(12)から一定の距離以内に存在している際に、前記誘導情報(1104)を前記誘導装置(12)に表示することを特徴とする誘導システム。
 上記構成により、人流誘導システム10は、グループに割り当てられた人のうち閾値以上の割合の人が、複数の人流誘導装置12のうち前記グループが向かうと推定された人流誘導装置12から一定の閾値以内の距離に存在している場合に当該人流誘導装置12に誘導情報を表示することで、誘導対象のグループに誘導先を報知することが可能となる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
 また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。

Claims (15)

  1.  プロセッサとメモリを有する計算機が移動体の動線データを処理する誘導システムであって、
     前記移動体の動線データを抽出する動線データ抽出部と、
     前記動線データに基づいて、前記移動体が目的地に到着する時刻を推定する到着時刻推定部と、
     前記推定された到着時刻に基づいて、少なくとも1つ以上の前記移動体から構成されるグループを算出するグループ推定部と、
     前記グループごとに前記移動体の誘導情報を算出する誘導情報算出部と、
    を有することを特徴とする誘導システム。
  2.  請求項1に記載の誘導システムであって、
     前記動線データに基づいて、前記移動体が向かう目的地を推定する目的地推定部を、さらに有し、
     前記到着時刻推定部は、
     前記推定された目的地に前記移動体が到着する時刻を推定することを特徴とする誘導システム。
  3.  請求項1に記載の誘導システムであって、
     前記動線データから前記移動体ごとの属性情報を推定する属性情報推定部を、さらに有し、
     前記誘導情報算出部は、
     前記グループごとに算出した前記属性情報の比率を用いて前記誘導情報を算出することを特徴とする誘導システム。
  4.  請求項3に記載の誘導システムであって、
     前記属性情報推定部は、
     前記移動体を誘導する領域ごと、前記移動体の行動ごと、予め設定された判定ルールごとのいずれか1つ以上に関する動線データの統計値を算出し、算出した統計値から前記移動体の前記属性情報を推定することを特徴とする誘導システム。
  5.  請求項1に記載の誘導システムであって、
     前記計算機に接続されて前記誘導情報を表示する誘導装置を、さらに有し、
     前記誘導情報算出部は、
     前記グループに割り当てられた前記移動体が、前記誘導装置から一定の距離以内に存在している際に、前記誘導装置に前記誘導情報を表示することを特徴とする誘導システム。
  6.  請求項2に記載の誘導システムであって、
     前記計算機に接続されて前記誘導情報を表示する複数の誘導装置を、さらに有し、
     前記目的地推定部は、
     前記移動体が向かう目的地として、前記複数の誘導装置のいずれかを推定し、
     前記誘導情報算出部は、
     前記グループに割り当てられた前記移動体が、前記推定された誘導装置から一定の距離以内に存在している際に、前記推定された誘導装置に前記誘導情報を表示することを特徴とする誘導システム。
  7.  プロセッサとメモリを有する計算機が移動体の動線データを処理する誘導方法であって、
      前記計算機が、前記移動体ごとの動線データを抽出する第1のステップと、
     前記計算機が、前記動線データに基づいて、前記移動体が目的地に到着する時刻を推定する第2のステップと、
     前記計算機が、前記推定された到着時刻に基づいて、少なくとも1つ以上の前記移動体から構成されるグループを算出する第3のステップと、
     前記計算機が、前記グループごとに前記移動体の誘導情報を算出する第4のステップと、
    を含むことを特徴とする誘導方法。
  8.  請求項7に記載の誘導方法であって、
     前記計算機が、前記動線データに基づいて、前記移動体が向かう目的地を推定する第5のステップを、さらに含み、
     前記第2のステップでは、
     前記推定された目的地に前記移動体が到着する時刻を推定することを特徴とする誘導方法。
  9.  請求項7に記載の誘導方法であって、
     前記計算機が、前記動線データから前記移動体ごとの属性情報を推定する第6のステップを、さらに含み、
     前記第4のステップでは、
     前記グループごとに算出した前記属性情報の比率を用いて前記誘導情報を算出することを特徴とする誘導方法。
  10.  請求項9に記載の誘導方法であって、
     前記第6のステップでは、
     前記移動体を誘導する領域ごと、前記移動体の行動ごと、予め設定された判定ルールごとのいずれか1つ以上に関する動線データの統計値を算出し、算出した統計値から前記移動体の前記属性情報を推定することを特徴とする誘導方法。
  11.  請求項7に記載の誘導方法であって、
     前記計算機が、当該計算機に接続された誘導装置に前記誘導情報を表示する第7のステップを、さらに含み、
     前記第4のステップは、
     前記グループに割り当てられた前記移動体のうち、前記誘導装置から一定の距離以内に存在している際に、前記誘導装置に前記誘導情報を表示することを特徴とする誘導方法。
  12.  請求項8に記載の誘導方法であって、
     前記計算機が、当該計算機に接続された誘導装置に前記誘導情報を表示する第7のステップを、さらに含み、
     前記第5のステップでは、
     前記移動体が向かう目的地として、前記複数の誘導装置のいずれかを推定し、
     前記第4のステップでは、
     前記グループに割り当てられた前記移動体のうち、前記推定された誘導装置から一定の距離以内に存在している際に、前記推定された誘導装置に前記誘導情報を表示することを特徴とする誘導方法。
  13.  プロセッサとメモリを有して移動体の動線データを処理する計算機であって、
     前記移動体ごとに前記移動体の動線データを抽出する動線データ抽出部と、
     前記動線データに基づいて、前記移動体が目的地に到着する時刻を推定する到着時刻推定部と、
     前記推定された到着時刻に基づいて、少なくとも1つ以上の前記移動体から構成されるグループを算出するグループ推定部と、
     前記グループごとに前記移動体の誘導情報を算出する誘導情報算出部と、
    を有することを特徴とする計算機。
  14.  請求項13に記載の計算機であって、
     前記動線データに基づいて、前記移動体が向かう目的地を推定する目的地推定部を、さらに有し、
     前記到着時刻推定部は、
     前記推定された目的地に前記移動体が到着する時刻を推定することを特徴とする計算機。
  15.  請求項13に記載の計算機であって、
     前記動線データから前記移動体ごとの属性情報を推定する属性情報推定部を、さらに有し、 前記誘導情報算出部は、
     前記グループごとに算出された前記属性情報の比率を用いて前記誘導情報を算出することを特徴とする計算機。
PCT/JP2021/025516 2020-07-31 2021-07-06 誘導システム、誘導方法及び計算機 WO2022024689A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020130176A JP2022026618A (ja) 2020-07-31 2020-07-31 誘導システム、誘導方法及び計算機
JP2020-130176 2020-07-31

Publications (1)

Publication Number Publication Date
WO2022024689A1 true WO2022024689A1 (ja) 2022-02-03

Family

ID=80037349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/025516 WO2022024689A1 (ja) 2020-07-31 2021-07-06 誘導システム、誘導方法及び計算機

Country Status (2)

Country Link
JP (1) JP2022026618A (ja)
WO (1) WO2022024689A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011112893A (ja) * 2009-11-27 2011-06-09 Seiko Epson Corp 画像形成装置
JP2016173783A (ja) * 2015-03-18 2016-09-29 株式会社日本総合研究所 サーバ装置、情報処理方法、およびプログラム
JP2017114670A (ja) * 2015-12-25 2017-06-29 フジテック株式会社 エレベータの群管理制御装置及び群管理システム、並びにエレベータシステム
JP2020077222A (ja) * 2018-11-08 2020-05-21 株式会社日立製作所 歩行者シミュレーション装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011112893A (ja) * 2009-11-27 2011-06-09 Seiko Epson Corp 画像形成装置
JP2016173783A (ja) * 2015-03-18 2016-09-29 株式会社日本総合研究所 サーバ装置、情報処理方法、およびプログラム
JP2017114670A (ja) * 2015-12-25 2017-06-29 フジテック株式会社 エレベータの群管理制御装置及び群管理システム、並びにエレベータシステム
JP2020077222A (ja) * 2018-11-08 2020-05-21 株式会社日立製作所 歩行者シミュレーション装置

Also Published As

Publication number Publication date
JP2022026618A (ja) 2022-02-10

Similar Documents

Publication Publication Date Title
KR101555450B1 (ko) 도착 정보 제공 방법 및 서버 및 디스플레이 장치
US8965672B2 (en) System and method for planning, disruption management, and optimization of networked, scheduled or on-demand air transport fleet trajectory operations
TWI794516B (zh) 透過空中交通管理電子系統的用於空中管理的訓練和/或輔助平台及方法
Saifutdinov et al. Digital twin as a decision support tool for airport traffic control
WO2016067369A1 (ja) 人流分析システムおよび人流分析方法
US20210125512A1 (en) Aircraft parking stand assignment prediction
WO2020158488A1 (ja) 移動経路予測システム、移動経路予測方法、コンピュータプログラム
KR101925937B1 (ko) 항공기 지상 이동 경로 추출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
Shirazi et al. A typical video-based framework for counting, behavior and safety analysis at intersections
Yıldız et al. A turnaround control system to automatically detect and monitor the time stamps of ground service actions in airports: A deep learning and computer vision based approach
JP6633981B2 (ja) 交通情報配信システムおよび交通情報配信方法
Jung et al. A data-driven air traffic sequencing model based on pairwise preference learning
US20230311965A1 (en) Train operation support system and train operation support method
JP2014169872A (ja) センサ統合装置及びセンサ統合方法
US10497269B2 (en) Integrated management for airport terminal airspace
WO2022024689A1 (ja) 誘導システム、誘導方法及び計算機
Khadilkar Analysis and modeling of airport surface operations
JP6269082B2 (ja) 情報処理装置
US11947037B2 (en) Apparatus and method for object motion analyses of lidar sensor data
US20230419761A1 (en) Moving body queue management system and moving body queue management method
Palacios et al. Neural network models to detect airplane near-collision situations
Kistler et al. Relationship between airport efficiency and surface traffic
Smith et al. A mathematical programming technique for matching time-stamped records in logistics and transportation systems
Khoury et al. Evaluation of general-purpose construction simulation and visualization tools for modeling and animating airside airport operations
JP2022006482A (ja) ナビゲーション装置、及びナビゲーション方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21850830

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21850830

Country of ref document: EP

Kind code of ref document: A1