WO2014203389A1 - センサ配置決定装置およびセンサ配置決定方法 - Google Patents

センサ配置決定装置およびセンサ配置決定方法 Download PDF

Info

Publication number
WO2014203389A1
WO2014203389A1 PCT/JP2013/067047 JP2013067047W WO2014203389A1 WO 2014203389 A1 WO2014203389 A1 WO 2014203389A1 JP 2013067047 W JP2013067047 W JP 2013067047W WO 2014203389 A1 WO2014203389 A1 WO 2014203389A1
Authority
WO
WIPO (PCT)
Prior art keywords
human flow
sensor
candidate
trajectory
estimation
Prior art date
Application number
PCT/JP2013/067047
Other languages
English (en)
French (fr)
Inventor
三好 雅則
加藤 学
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2015522451A priority Critical patent/JP6236448B2/ja
Priority to PCT/JP2013/067047 priority patent/WO2014203389A1/ja
Priority to US14/899,834 priority patent/US9955124B2/en
Publication of WO2014203389A1 publication Critical patent/WO2014203389A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Definitions

  • the present invention relates to a sensor arrangement determining apparatus and a sensor arrangement determining method for determining an arrangement position of a sensor such as a camera for measuring a human flow.
  • the need for human flow measurement is increasing due to sensors such as cameras. For example, in order to grasp the congestion in a station, human flow measurement is performed by a camera. In addition, there are cases where it is necessary to measure human flow in a department store or the like in order to mitigate congestion. At this time, the number of cameras to be installed is required to be a minimum necessary due to restrictions on equipment costs.
  • Patent Document 1 describes a method for automatically creating a camera arrangement that satisfies a customer request based on a customer request including a monitoring layout and supporting the determination of the camera arrangement.
  • Non-Patent Document 1 describes a method for reducing an estimation error of a human flow generated by simulation based on partial human flow measurement data.
  • Patent Document 1 focuses on camera functions such as motion detection and face detection as a customer request including a monitoring layout, and integrates cameras that require similar functions. It was not.
  • Non-Patent Document 1 is intended for human flow measurement, it is intended to reduce the estimation error of the human flow and is not intended to determine a camera position that can accurately measure the human flow.
  • the present invention is an invention for solving the above-described problems, and is a sensor placement determination capable of evaluating a sensor placement position from the viewpoint of human flow measurement accuracy and determining a sensor placement position suitable for human flow measurement. It is an object to provide a device and a sensor arrangement determination method.
  • the sensor placement determination device of the present invention actually uses a target area (for example, the target area 300) where a plurality of sensors (for example, the camera 314) for observing human flow are to be placed.
  • Storage means for example, the external storage device 15
  • human flow data for example, the record 62
  • an actual trajectory for example, the path 307
  • human flow simulation observation means for example, the human flow simulation observation unit 100
  • Trajectory candidates for example, trajectory candidates 702 and 7) about how a person passes through the target area with the observation information generated by the human flow simulation observation means as a constraint.
  • Estimate and generate the human flow estimation means for example, the human flow estimation unit 102
  • the number of observations for each candidate of the sensor arrangement position calculated based on the trajectory candidate generated by the human flow estimation means and the human flow data
  • An estimation error calculation unit (estimation error calculation unit 104) that calculates an estimation error when the human flow estimation unit estimates a trajectory candidate by comparing the number of observation positions for each candidate of the sensor arrangement position calculated based on A sensor position determination unit (for example, additional camera determination) that selects a candidate position as a sensor position and selects a position where the estimation error calculated by the estimation error calculation unit is small for a plurality of sensor layout position candidates. Part 106).
  • the sensor arrangement position can be evaluated from the viewpoint of the measurement accuracy of the human flow, and the arrangement position of the sensor suitable for the human flow measurement can be determined.
  • Embodiments according to the sensor arrangement determination device of the present invention will be described in detail with reference to the drawings.
  • a sensor capable of measuring human flow such as a line sensor or a laser scanner, may be used.
  • the sensor detects the passage of people and the direction of passage.
  • FIG. 1 is a diagram showing an overall configuration of a sensor arrangement determining apparatus according to the present invention.
  • the sensor arrangement determining apparatus 10 includes a human flow simulation observation unit 100 (human flow simulation observation means, see FIG. 5), a human flow estimation unit 102 (human flow estimation means, see FIGS. 6 and 7), an estimation error calculation unit 104 (estimation error calculation means). 8), and an additional camera determination unit 106 (sensor position determination means, see FIG. 10).
  • the human flow simulation observation unit 100 observes human flow true value data 108 observed at a virtual camera position (for example, an observation position by the camera 314 shown in FIG. 5) determined by the additional camera determination unit 106 described later.
  • Passage information that is, flow information (for example, flow information 502 shown in FIG. 5) is generated in a simulated manner.
  • the flow information is local information obtained when the human flow true value data 108, which is global information, is observed with a discretely arranged camera, and here, information on the number of people passing through the camera's field of view. It is. Details will be described later with reference to FIG.
  • the human flow true value data 108 means a data set including a plurality of human flow data (single movement trajectory) as a reference when evaluating an estimation error of the human flow.
  • Human flow data is represented by a set of trajectory points that represent the route that a person actually travels in a building or on the street.
  • the true value means a correct value actually measured.
  • the human flow data is a set of trajectory points tracking a person, and may be measured using, for example, a laser scanner.
  • a laser scanner is a device that acquires three-dimensional coordinate data of surrounding objects by using a time until an irradiated laser beam is reflected by the object and returns.
  • the human flow true value data 108 may be measured by detecting and tracking a person from a number of video camera images.
  • the human flow true value data 108 may be created manually.
  • human flow data may be created by human flow simulation. A method for acquiring human flow data will be described later with reference to FIGS.
  • the human flow estimation unit 102 generates human flow data that well satisfies the flow information generation conditions generated by the human flow simulation observation unit 100 by agent simulation described later.
  • the estimation error calculation unit 104 compares the human flow data estimated by the human flow estimation unit 102 with the human flow true value data 108 to calculate an estimation error.
  • the additional camera determination unit 106 arranges a new camera to be added to the camera group whose installation determined by the camera installation information is determined so that the estimation error of the human flow calculated by the estimation error calculation unit 104 is minimized.
  • the position (installation position) is determined, and the result is stored in the camera installation information 110.
  • FIG. 11 is a diagram illustrating a hardware configuration of the sensor arrangement determination device.
  • the sensor arrangement determination device 10 includes a display device 11, an input device 12, a central processing unit (CPU) 13, a communication control device 14, an external storage device 15 (storage means), a memory 16, and a bus 17 for connecting them. Is done.
  • the display device 11 is a display or the like, and displays an execution status, an execution result, and the like of processing performed by the sensor arrangement determination device 10.
  • the input device 12 is a device for inputting an instruction to a computer such as a keyboard and a mouse, and inputs an instruction for starting a program.
  • the central processing unit (CPU) 13 executes various programs stored in the memory.
  • the communication control device 14 exchanges various data and commands with other devices via a LAN (Local Area Network) 18.
  • the external storage device 15 stores various data for the sensor placement determination device 10 to execute processing.
  • the memory 16 holds various programs executed by the sensor arrangement determination device 10 and temporary data.
  • the memory 16 includes a human flow simulation observation unit 100, a human flow estimation unit 102, an estimation error calculation unit 104, an additional camera determination unit 106, and a human flow data measurement unit 120 for measuring human flow data included in the human flow true value data 108.
  • a processing program is stored.
  • the external storage device 15 stores human flow true value data 108 and camera installation information 110.
  • FIG. 2 is a diagram showing a processing flow of the entire apparatus of the sensor arrangement determination device. With reference to FIG. 1 and FIG. 2, the flow of processing of the sensor arrangement determination device 10 will be described. The processing flow is shown in a PAD (Problem-Analysis-Diagram) format.
  • PAD Problem-Analysis-Diagram
  • step S200 the human flow simulation observation unit 100 or the estimation error calculation unit 104 reads the human flow true value data 108 normally stored as a file on the memory 16 (see FIG. 11).
  • step S202 the additional camera determination unit 106 repeats the processing from step S204 to step S208 with respect to the assumed installation position of the virtual additional camera.
  • step S204 the human flow simulation observation unit 100 generates simulated flow information of a person that occurs when the human flow true value data 108 is observed at an assumed additional camera installation position.
  • step S206 the human flow estimation unit 102 estimates the human flow by generating human flow data that well satisfies the flow information generation conditions generated in step S204 by an agent simulation described later.
  • step S208 the estimation error calculation unit 104 compares the human flow data estimated in step S206 with the human flow true value data 108 to calculate the human flow estimation error.
  • step S210 the additional camera determination unit 106 selects a condition that minimizes the estimation error of the human flow calculated in step S208 from the various additional camera installation positions determined in step S202, and sets the additional camera installation position as the additional camera installation position. decide.
  • FIG. 3 is a diagram showing an example of use of the sensor arrangement determination device. With reference to FIG. 3, the usage form of the sensor arrangement
  • the target area 300 is an area to be processed by the sensor arrangement determination device 10, and is a sales floor such as a station premises, a department store, a supermarket, or the like.
  • the trajectory 307 is a trajectory in which one person enters from the entrance 302 and exits from the entrance 306.
  • a trajectory 308 is a trajectory in which one person enters from the entrance 302 and exits from the entrance 306.
  • a trajectory 309 is a trajectory in which one person enters from the entrance 302 and exits from the entrance 304.
  • the sensor arrangement determination device 10 determines the position of the camera where the estimation error is lowest when estimating human flow information generated in the entire target region 300 based on information measured by a small number of cameras. It becomes possible to do. For example, when there are cameras 310, 312, and 314 as candidate camera positions to be added, it is possible to evaluate and determine which camera is the best.
  • the human flow true value data 108 is preferably preliminarily investigated before the additional camera is examined in order to grasp the human flow in the target area 300 to be processed.
  • FIG. 12 is a diagram showing an example of a method for acquiring human flow data using a video camera.
  • a plurality of video cameras 40 are installed in the target area 300 so that a place where the video camera 40 cannot shoot, that is, a blind spot is not generated as much as possible.
  • the video camera 40 is not always installed, but is for acquiring human flow data, and is removed when the human flow data is acquired.
  • the human flow data measurement unit 120 tracks a moving person in the video by image processing in cooperation with a plurality of video cameras 40 connected to the network 18 (see FIG. 11). For example, when the person 41 moves along the locus 42, the plurality of video cameras 40 that capture the person 41 are linked to track the person 41 on the video.
  • the human flow data can be obtained from the image information. Become.
  • the person to be identified when using image processing, it is difficult to specify a person photographed by the video camera 40.
  • the person to be identified when the person to be identified is limited, it can be identified by using a method of collating customers based on video features as described in Japanese Patent Application Laid-Open No. 2000-200377, for example.
  • the features on the video of the person to be specified are stored in advance in a database, and the person with the best matching is specified by comparing with the features on the video of the person photographed when measuring the human flow data.
  • FIG. 13 is a diagram showing an example of human flow data obtained by a video camera.
  • An example of human flow data will be described with reference to FIG. Since the human flow data measurement unit 120 (see FIG. 11) continuously detects the position of the moving object at certain time intervals, when a person moves, a plurality of continuous points on the locus are measured. For example, when the person 41 moves along the trajectory 42, a point sequence that is an element of human flow data, that is, a point 50, a point 51, a point 52, a point 53, and a point 54 are measured.
  • the human flow data is approximately expressed by the plurality of point sequences.
  • a generally used method of expressing a free curve such as a method of increasing the measurement interval of the human flow data measuring unit 120 or a spline interpolation, may be employed.
  • FIG. 14 is a diagram showing an example of the data structure of human flow true value data.
  • the human flow true value data 108 is a table for storing a plurality of human flow data measured by the human flow data measuring unit 120. One measured human flow data is stored in each row or record of this table.
  • the record 62 shows an example in which human flow data for the locus 42 is stored. This record includes the human flow data ID, which is a unique number for identifying the measured human flow data, and the position information of the point sequence that is a set of points on the human flow data, together with the time information at which the point sequence is measured. .
  • FIG. 4 is a diagram showing the installation position of the additional camera.
  • the iterative process for the installation position of the additional camera shown in step S202 of FIG. 2 will be described.
  • the processing from step S204 to step S208 is repeated for the assumed installation position of the additional camera.
  • an assumed position of the additional camera an arbitrary place where a human flow occurs in the target area 300 can be assumed.
  • the candidate area For example, when a path portion having no branch is considered as one area, the areas A1 to A10 are targeted. The measurement flow is the same regardless of where the camera is placed within each area. This is because it can be considered that no generation or disappearance of human flow occurs in this region. Accordingly, if the candidate position of the camera is considered at an arbitrary position in each area, it is not necessary to consider the candidate position for other places in the area. Therefore, for every such region, one place such as the center of gravity is considered as a camera candidate position.
  • the candidate for the installation position of the additional camera may be specified directly on the screen by using the mouse of the input device 12 (see FIG. 11), for example, by the user of the sensor arrangement determination device 10.
  • FIG. 5 is a diagram illustrating an example of flow information generation of the human flow simulation observation unit.
  • the flow information generation shown in step S204 of FIG. 2 will be described with reference to FIG.
  • the human flow simulation observation unit 100 Based on the human flow true value data 108, the human flow simulation observation unit 100 generates, in a simulated manner, passage information of a person, that is, flow information, that occurs when observation is performed for the installation position of the additional camera in step S202.
  • the locus 309 is a locus that enters from the entrance 302 and exits from the entrance 304.
  • the human flow simulation observation unit 100 generates the flow information 502 as a result of measurement by a virtually installed camera 314.
  • the flow information 502 holds the number of people who pass through the field of view of the camera 314 for each predetermined time interval.
  • the human flow true value data 108 includes point sequence position information, which is a set of points on the human flow data, for each human flow data ID, together with time information obtained by measuring the point sequence. Yes. Therefore, the human flow simulation observation unit 100 can count the number of people passing every predetermined time passing through the visual field captured by the camera 314. Specifically, in the flow information 502, the number of people passing from the entrance / exit 302 side to the entrance / exit 304 side is 20 on the locus 309 from 8:00:00 to 8:10. Further, from 8:10 to 8:20, the number of people passing from the entrance / exit 302 side to the entrance / exit 304 side is 15 on the locus 309. In this way, the human flow simulation observation unit 100 can generate flow information that changes from moment to moment.
  • FIG. 6 is a diagram illustrating a process flow of the human flow estimation process of the human flow estimation unit.
  • the human flow estimation unit 102 generates human flow data that well satisfies the generation condition of the flow information 502 generated in step S204 by multi-agent simulation.
  • Multi-agent simulation is to analyze the social behavior that occurs when multiple agents (behaviors, in this case, people) who have given rules in advance execute each rule simultaneously and interact with each other. This is a simulation method.
  • a technique described in Non-Patent Document 1 may be used for estimating a human flow using multi-agent simulation. The outline of this method will be described below.
  • the human flow estimation unit 102 repeats the processing from step S602 to step S606 for the predetermined time of step S600.
  • the predetermined time is the collection time of the human flow true value data 108. For example, if the collection time of the human flow true value data 108 is 30 minutes and the data collection interval is 1/10 second, the process of step S600 is repeated for 30 minutes at intervals of 1/10 second.
  • step S602 the human flow estimation unit 102 generates an agent when there is a person who enters the target area 300 (see FIG. 3) in the human flow true value data 108 at the current simulation time.
  • the human flow estimation unit 102 generates a plurality of locus candidates for the agent using a pedestrian model.
  • the pedestrian model is a rule regarding agent movement.
  • a potential model that selects a route based on a travel cost to a destination may be used.
  • the potential model is a method that considers a potential surface of movement cost from an arbitrary point to a destination, and moves a person in a direction in which the gradient of the potential surface is large.
  • the movement cost the time required for movement can be considered.
  • the human flow estimation unit 102 uses this walking model, the human flow estimation unit 102 generates trajectory candidates for a plurality of entrances / exits of the target area 300 from the points that have entered the target area 300.
  • the human flow estimation unit 102 selects trajectory candidates according to the observation values by evaluating and weighting the data according to the data assimilation method and the observation values.
  • a data assimilation method a method using a particle filter described in Non-Patent Document 1 may be used.
  • the particle filter is a kind of Bayes filter. Based on Bayes' theorem, a Bayesian filter estimates a state by sequentially repeating a time update for predicting the state at the next time and an observation update for updating the predicted state using observation information obtained by a sensor. It is a technique. This estimated state is expressed by a probability density function.
  • the particle filter is a technique for obtaining an approximate solution of a probability density function by Monte Carlo approximation.
  • the human flow estimation unit 102 uses the particle filter to determine the same location (for example, in FIG. 5) based on the flow information generated by the additional camera obtained in step S204 (see FIG. 2) and the trajectory candidate (particle) generated in step S604.
  • the weight of the trajectory candidate is adjusted so that the flow information generated at the observation position by the camera 314 shown) is as close as possible.
  • the initial value W 0 (i) of the weight of the i-th trajectory candidate (particle) is set to 1 / n. If the flow information observed at time t was set to m t, i th particle weight W t (i) is by updating the formula (1), to obtain a weight W t + 1 at time t + 1 (i). By repeating this update, the weight of the trajectory candidate that satisfies the constraint condition of the flow information is obtained.
  • the result of weighting the target trajectory candidate so as to match the observed value is the estimated trajectory data.
  • a specific example will be described with reference to FIG.
  • FIG. 7 is a diagram illustrating an example of a locus candidate generation process. With reference to FIG. 7, a specific example of the locus candidate generation processing in step S604 of FIG. 6 will be described.
  • the human flow estimation unit 102 generates two trajectory candidates, a trajectory candidate 702 and a trajectory candidate 704, for the person 700 who enters from the entrance 302.
  • the trajectory candidate 702 is a trajectory having the entrance / exit 302 as a start point and the entrance / exit 306 as an end point.
  • the trajectory candidate 704 is a trajectory having the entrance / exit 302 as a start point and the entrance / exit 304 as an end point. As the end point, all doorways may be selected, or may be selected based on a predetermined probability.
  • the human flow estimation unit 102 determines a start point and an end point, and then generates a trajectory candidate from the start point to the end point by simulation using the above-described potential model. As shown in the table 706, 0.5, which is the reciprocal of the trajectory candidate number 2, is set in the generated trajectory candidate as shown in the table 706.
  • the weight of the trajectory candidate 702 is 0.9 and the weight of the trajectory candidate 704 is 0.1. That is, it is estimated that the person 700 flows as 0.9 person for the locus candidate 704 and 0.1 person for the locus candidate 702.
  • the trajectories of the trajectory candidates 702 and 704 shown in FIG. 7 are obtained by the human flow estimation unit 102 when estimating the movement path from one person entering the target area 300 to exiting by simulation as described above. It is a movement route to generate as.
  • the trajectories 307, 308, and 309 shown in FIG. 5 are movement paths along which the person has actually moved. Note that the trajectories 307, 308, and 309 are actual trajectories with respect to the estimated trajectory candidates 702 and 704.
  • FIG. 8 is a diagram illustrating an evaluation processing flow of the human flow estimation error of the estimation error calculation unit.
  • the estimation error calculation unit 104 calculates an estimation error by comparing the trajectory data estimated in step S206 with the trajectory of the human flow true value data 108.
  • step S800 the estimation error calculation unit 104 repeats the process of step S802 for all human flow data IDs (see FIG. 14) included in the human flow true value data 108.
  • step S802 the passing number of people for each grid is calculated with respect to the trajectory represented in the point cloud for each human flow data ID to be processed. With reference to FIG. 9, a specific example of the number of passing people for each grid will be described.
  • FIG. 9 is a diagram showing an example of the process of counting the number of passing people for each grid.
  • the specific example of the calculation process of the passing number for every grid shown to step S802 of FIG. 8 and step S806 is demonstrated.
  • the target area 300 is divided into grids with a predetermined number of divisions so that each grid can hold information on the number of people passing through.
  • the number of people passing through the grid 902 is increased by 1, for example.
  • step S ⁇ b> 802 the estimation error calculation unit 104 calculates the cumulative number of trajectories that pass through each grid when the target region 300 is divided into several grids.
  • step S804 the estimation error calculation unit 104 repeats the process of step S806 for all the trajectory data estimated in step S206.
  • step S806 the estimation error calculation unit 104 calculates the number of passing people for each grid for the trajectory data to be processed, as in step S802.
  • step S808 an error is calculated by comparing, for each grid, the number of people who have passed the human flow true value data 108 and the number of people who have passed the trajectory data estimated in step S206.
  • the root mean square error is used as the error.
  • This root mean square error RMSE is expressed by equation (2).
  • n is the number of grids
  • r i is the number of people passing the human flow true value data 108 for the i-th grid
  • e i is the number of people passing the estimated trajectory data for the i-th grid.
  • FIG. 10 is a diagram illustrating an example of a process for determining the installation position of the additional camera in the target area.
  • the numerical value shown at the lower right of the candidate area (area A1 to area A10) of the installation position of the additional camera is the root mean square error RMSE calculated in step S208.
  • the error E1 when the camera is added to the area A1 corresponding to the camera 310 is 980.
  • the error E2 when a camera is added to the area A2 is 500.
  • the additional camera determination unit 106 compares the errors calculated for all the regions to determine a region with the smallest error, and the display device 11 (see FIG. 11) shows the region shown in FIG. The determined sensor placement position is displayed on the target area 300.
  • the error E10 of the area A10 is the smallest 400. Therefore, the camera 314 corresponding to this area A10 can be determined as the installation position of the additional camera. Note that, for example, when one camera is newly added on the premise that two cameras are already installed in the target area 300, the same determination can be made.
  • the sensor arrangement determining apparatus 10 stores, in a target area 300 where a sensor for measuring a human flow (for example, a camera 314) is to be arranged, human flow data that is an actual trajectory of a person is stored (for example, , An external storage device 15) and a human flow simulation observation unit (for example, a human flow simulation observation unit) that generates passage information of a person in the region observed by the sensor based on the human flow data in the candidate positions of the sensors in the target region 300. 100), a human flow estimation means (for example, a human flow estimation unit 102) that generates a trajectory candidate of how a person passes through the target area using the passage information as a constraint condition, and a region that the sensor observes.
  • a human flow estimation means for example, a human flow estimation unit 102 that generates a trajectory candidate of how a person passes through the target area using the passage information as a constraint condition, and a region that the sensor observes.
  • An estimation error calculating means (for example, an estimation error calculating unit 104) that calculates an estimation error of a human flow between the number of passing trajectory candidates and the number of passing actual trajectories; The position estimation error of the flow is reduced, the sensor position determination means for determining a position of the sensor (e.g., additional camera determining unit 106) comprises a, a.
  • the sensor arrangement determination device 10 of the present embodiment can quantitatively evaluate whether the camera arrangement position (installation position) is good or bad from the viewpoint of human flow measurement. This makes it possible to determine an optimal arrangement position when measuring a human flow with a small number of cameras.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 センサ配置決定装置は、センサを配置する予定の対象領域を、人物の実軌跡である人流データが記憶される外部記憶装置(15)と、対象領域におけるセンサの配置位置の候補において、人流データに基づいて、センサが観測する領域の人物の通過情報を生成する人流模擬観測部(100)と、通過情報を制約条件として、人物が対象領域内をどのように通過するかの軌跡候補を生成する人流推定部(102)と、センサが観測する領域を通過する、軌跡候補の通過人数と、実軌跡の通過人数との人流の推定誤差を算出する推定誤差算出部(104)と、算出された人流の推定誤差が小さくなる位置を、センサの配置位置として決定する追加カメラ決定部(106)と、を備える。

Description

センサ配置決定装置およびセンサ配置決定方法
 本発明は、人流を計測するためのカメラなどのセンサの配置位置を決定するセンサ配置決定装置およびセンサ配置決定方法に関する。
 カメラなどのセンサによって、人流測定の必要性が高まっている。例えば、駅構内の混雑などを把握するためには、カメラによる人流計測が行われている。また、百貨店などの売り場などでも混雑度の緩和対策のために、人流測定が必要となる場合がある。このとき、設置するカメラ台数には、設備費の制約により必要最小限になるように求められる。
 特許文献1では、監視レイアウトを含む顧客要求に基づいて、顧客要求を満たすカメラ配置を自動的に作成し、カメラ配置の決定を支援する方法が記載されている。
 また、非特許文献1では、部分的な人流の計測データに基づいて、シミュレーションによって生成する人流の推定誤差を小さくする方法が記載されている。
特開2012-10210号公報
データ同化手法を用いた鉄道駅構内における人の流れの推定手法に関する研究(東京大学修士論文、2011年)
 特許文献1の技術は、監視レイアウトを含む顧客要求として、動き検知・顔検知などのカメラの機能に着目し、類似機能が要求されるカメラを統合するものであるが、人流を対象とするものでなかった。
 また、非特許文献1の技術は、人流計測を目的としているが、人流の推定誤差を小さくするものであり、人流を精度良く計測できるカメラ位置を決定することを目的とするものでなかった。
 本発明は、前記の課題を解決するための発明であって、人流の計測精度の観点でセンサの配置位置を評価し、人流計測に適したセンサの配置位置を決定することができるセンサ配置決定装置およびセンサ配置決定方法を提供することを目的とする。
 前記目的を達成するため、本発明のセンサ配置決定装置は、人流を観測する複数のセンサ(例えば、カメラ314)を配置する予定の対象領域(例えば、対象領域300)について、当該対象領域を実際に人物が通過する際の実軌跡(例えば、軌跡307)である人流データ(例えば、レコード62)が記憶される記憶手段(例えば、外部記憶装置15)と、対象領域における複数のセンサの配置位置の候補において、人流データに基づいて、複数のセンサが配置された場合に、各センサが観測する人物の観測情報を模擬的に生成する人流模擬観測手段(例えば、人流模擬観測部100)と、人流模擬観測手段が生成する観測情報を制約条件として、人物が対象領域内をどのように通過するかという軌跡候補(例えば、軌跡候補702,704)を推定して生成する人流推定手段(例えば、人流推定部102)と、人流推定手段が生成した軌跡候補に基づいて算出されるセンサの配置位置の候補ごとの観測人数と、人流データに基づいて算出されるセンサの配置位置の候補ごとの観測人数とを対比して、人流推定手段が軌跡候補を推定する際の推定誤差を算出する推定誤差算出手段(推定誤差算出部104)と、複数のセンサの配置位置の候補に対し、推定誤差算出手段が算出する推定誤差が小さくなる位置をセンサの配置位置として候補を選択し、配置位置を決定するセンサ位置決定手段(例えば、追加カメラ決定部106)と、を備えることを特徴とする。
 本発明によれば、人流の計測精度の観点でセンサの配置位置を評価し、人流計測に適したセンサの配置位置を決定することができる。
本発明のセンサ配置決定装置の全体構成を示す図である。 センサ配置決定装置の装置全体の処理フローを示す図である。 センサ配置決定装置の利用例を示す図である。 追加カメラの設置位置を示す図である。 人流模擬観測部のフロー情報生成の一例を示す図である。 人流推定部の人流推定処理の処理フローを示す図である。 軌跡候補の生成処理の一例を示す図である。 推定誤差算出部の人流推定誤差の評価処理フローを示す図である。 グリッド毎の通過人数のカウント処理の一例を示す図である。 対象領域に追加カメラの設置位置の決定処理の一例を示す図である。 センサ配置決定装置のハードウェア構成を示す図である。 ビデオカメラを利用した人流データの取得方法の例を示す図である。 ビデオカメラによって得られた人流データの例を示す図である。 人流真値データのデータ構造の例を示す図である。
 本発明のセンサ配置決定装置に係る実施形態ついて、図面を参照して詳細に説明する。なお、本実施形態では、人流を計測するセンサとして、カメラを用いる例を説明する。これ以外にも人流を測定することが可能なセンサ、例えばラインセンサ、レーザスキャナなどを用いても構わない。なお、センサは、人の通過および通過方向を検知する。
 図1は、本発明のセンサ配置決定装置の全体構成を示す図である。図1を参照して、センサ配置決定装置10の機能構成を説明する。センサ配置決定装置10は、人流模擬観測部100(人流模擬観測手段、図5参照)、人流推定部102(人流推定手段、図6、図7参照)、推定誤差算出部104(推定誤差算出手段、図8参照)、追加カメラ決定部106(センサ位置決定手段、図10参照)で構成される。
 人流模擬観測部100は、後述する追加カメラ決定部106が定める仮想的なカメラ位置(例えば、図5に示すカメラ314による観測位置)において、人流真値データ108を観測した場合に発生する人物の通過情報、すなわちフロー情報(例えば、図5に示すフロー情報502)を模擬的に生成する。
 フロー情報とは、大域的な情報である人流真値データ108を離散的に配置したカメラで観測した場合に得られる局所的な情報であり、ここでは、カメラの視野内を通過する人数の情報である。詳細については、図5を参照して後記する。
 ここで、人流真値データ108は、人流の推定誤差を評価する際の基準となる人流データ(一本の移動軌跡)が複数含まれるデータセットを意味する。人流データは、実際にひとりの人物が建物内や街頭を移動した経路を表す軌跡の点の集合で表される。なお、真値とは、実際に計測した正しい値ということを意味する。
 人流データは、前記したように、人物を追跡した軌跡の点の集合であり、例えば、レーザスキャナを用いて計測すればよい。レーザスキャナとは、照射されたレーザが物体に反射して戻ってくるまでの時間を利用して、周辺の物体の三次元座標データを取得する装置である。これ以外にも、多数のビデオカメラの映像から人物を検出し追跡することで人流真値データ108を計測してもよい。また、人手によって人流真値データ108を作成してもよい。さらに、人流シミュレーションにより人流データを作成してもよい。なお、人流データの取得方法については、図12~図14を参照して後記する。
 人流推定部102は、人流模擬観測部100が生成したフロー情報の発生条件を良く満たす人流データを、後述するエージェントシミュレーションにより生成する。
 推定誤差算出部104は、人流推定部102が推定した人流データと、人流真値データ108を比較して推定誤差を算出する。
 追加カメラ決定部106は、推定誤差算出部104が算出した人流の推定誤差が最小となるように、カメラ設置情報で定まる設置が決定しているカメラ群に対して、新たに追加するカメラの配置位置(設置位置)を決定し、結果をカメラ設置情報110に格納する。
 図11は、センサ配置決定装置のハードウェア構成を示す図である。センサ配置決定装置10は、表示装置11、入力装置12、中央演算処理装置(CPU)13、通信制御装置14、外部記憶装置15(記憶手段)、メモリ16、およびこれらを接続するバス17から構成される。表示装置11は、ディスプレイなどであり、センサ配置決定装置10による処理の実行状況や実行結果などを表示する。入力装置12は、キーボードやマウスなどのコンピュータに指示を入力するための装置であり、プログラム起動などの指示を入力する。中央演算処理装置(CPU)13は、メモリに格納される各種プログラムを実行する。通信制御装置14は、LAN(Local Area Network)18を介して、他の装置と各種データやコマンドを交換する。外部記憶装置15は、センサ配置決定装置10が処理を実行するための各種データを保存する。メモリ16は、センサ配置決定装置10が処理を実行する各種プログラムおよび一時的なデータを保持する。
 メモリ16には、人流模擬観測部100、人流推定部102、推定誤差算出部104、追加カメラ決定部106、および人流真値データ108に含まれる人流データを計測するための人流データ計測部120の処理プログラムが格納される。外部記憶装置15には、人流真値データ108、カメラ設置情報110が格納される。
 図2は、センサ配置決定装置の装置全体の処理フローを示す図である。図1および図2を参照してセンサ配置決定装置10の処理の流れを説明する。なお、処理フローはPAD(Problem Analysis Diagram)形式で示している。
 ステップS200では、人流模擬観測部100または推定誤差算出部104が、通常はファイルとして保存してある人流真値データ108をメモリ16(図11参照)上に読み込む。
 ステップS202では、追加カメラ決定部106が、ステップS204からステップS208までの処理を、想定される仮想的な追加カメラの設置位置に対して繰り返す。
 ステップS204では、人流模擬観測部100が、想定される追加カメラの設置位置において人流真値データ108を観測した場合に発生する人物のフロー情報を模擬的に生成する。
 ステップS206では、人流推定部102が、ステップS204で生成したフロー情報の発生条件を良く満たす人流データを、後述するエージェントシミュレーションにより生成することで、人流を推定する。
 ステップS208では、推定誤差算出部104が、ステップS206で推定した人流データと、人流真値データ108を比較することで、人流の推定誤差を算出する。
 ステップS210では、追加カメラ決定部106が、ステップS202で定まる様々な追加カメラの設置位置の中で、ステップS208で算出した人流の推定誤差が最小となる条件を選択し、追加カメラの設置位置として決定する。
 図3は、センサ配置決定装置の利用例を示す図である。図3を参照して、センサ配置決定装置10の利用形態について説明する。対象領域300は、センサ配置決定装置10の処理の対象となる領域であり、例えば、駅構内、百貨店、スーパーマーケットなどの売り場である。対象領域300には、3つの出入り口302、304、306が存在し、人物が、この出入り口のいずれかから入り、領域内の通路を通過した後、出入り口のいずれかから出ていく。この領域に入ってから出ていくまでの軌跡が、ひとりの人物の人流データとなる。
 例えば、軌跡307は、ひとりの人物が出入り口302から入り、出入り口306から出ていく軌跡である。軌跡308は、ひとりの人物が出入り口302から入り、出入り口306から出ていく軌跡である。軌跡309は、ひとりの人物が出入り口302から入り、出入り口304から出ていく軌跡である。
 本実施形態のセンサ配置決定装置10は、対象領域300全体に発生する人流情報を、少ないカメラで計測した情報に基づいて推定する場合に、推定誤差が最も低くなる位置を追加するカメラ位置として決定することが可能となる。例えば、追加するカメラ位置の候補として、カメラ310,312,314がある場合に、どのカメラが最もよいのかを評価し決定することができる。
 まず、先に説明した図2のステップS200における、人流真値データ読込みに必要な人流真値データ108の作成方法について、図12から図14を参照して説明する。人流真値データ108は、処理の対象となる対象領域300の人流を把握するため、追加カメラの検討前に事前調査することが好ましい。
 図12は、ビデオカメラを利用した人流データの取得方法の例を示す図である。まず、対象領域300内に、ビデオカメラ40で撮影できない場所、すなわち死角ができるだけ生じないように、複数のビデオカメラ40を設置する。なお、ビデオカメラ40は、常時設置するものでなく、人流データを取得するためのものであり、人流データが取得できた場合、撤去するものである。
 そして、人流データ計測部120(図11参照)は、ネットワーク18(図11参照)に接続された複数のビデオカメラ40を連携させて、映像中の移動する人物を画像処理によって追跡する。例えば、人物41が軌跡42に沿って移動した場合、人物41を撮影する複数のビデオカメラ40を連携して、映像上で人物41を追跡する。ここで、ビデオカメラ40で撮影した物体の映像上の位置から、その人物41の対象領域300内での実際の位置が特定できるようにしておけば、映像情報から人流データを求めることが可能になる。
 なお、一般に画像処理を利用する場合は、ビデオカメラ40で撮影した人物を特定することは難しい。しかし、特定すべき人物が限定されている場合は、例えば、特開2000-200357に記載されているような映像上の特徴によって顧客を照合する方法を利用して、特定することもできる。この方法では、特定すべき人物の映像上の特徴をデータベースにあらかじめ格納しておき、人流データの計測時に撮影した人物の映像上の特徴と照合して、最も特徴が一致する人物を特定する。
 図13は、ビデオカメラによって得られた人流データの例を示す図である。図13を参照して、人流データの一例を説明する。人流データ計測部120(図11参照)は、ある時間間隔で移動物体の位置を連続的に検出するので、人物が移動した場合には、その軌跡上の連続した複数の点が測定される。例えば、人物41が軌跡42に沿って移動した場合には、人流データの要素となる点列、すなわち点50、点51、点52、点53、点54が測定される。ここでは、これら複数の点列で、人流データを近似的に表現することにする。近似の精度を上げるには、人流データ計測部120の計測間隔を密にする方法、スプライン補間などの一般的に用いられる自由曲線の表現方法を採用すればよい。
 図14は、人流真値データのデータ構造の例を示す図である。人流真値データ108は、人流データ計測部120で計測した複数の人流データを格納するテーブルである。このテーブルの各行すなわちレコードに、計測した一つの人流データを格納する。レコード62は、軌跡42に対する人流データを格納している例を示している。このレコードには、計測した人流データを特定するためのユニークな番号である人流データID、人流データ上の点の集合である点列の位置情報が点列を計測した時刻情報とともに含まれている。
 図4は、追加カメラの設置位置を示す図である。図4を参照して、図2のステップS202に示した追加カメラの設置位置に対する繰り返し処理について説明する。ここでは、ステップS204からステップS208までの処理を想定される追加カメラの設置位置に対して繰り返す。想定される追加カメラの位置としては、対象領域300内で人流が発生する任意の場所を想定することができる。
 しかしながら、この場合、繰り返し処理が多くなるため、処理時間が長くなるという問題がある。そこで、処理時間を短縮するために、候補領域を限定することを考える。例えば、領域として、分岐が存在しない通路部を一つの領域と考えた場合、領域A1~A10が対象となる。各領域内であれば、どこにカメラを置いても計測するフローは同じである。これは、この領域内では、人流の生成も消失も発生しないと考えることができるためである。したがって、各領域内の任意の一箇所にカメラの候補位置を考えれば、その領域内の他の場所については候補位置を考える必要はない。したがって、このようなすべての領域毎に、重心などの一箇所をカメラの候補位置として考えることとする。なお、追加カメラの設置位置の候補については、例えば、センサ配置決定装置10の使用者が入力装置12(図11参照)のマウスなどを用いて直接画面上で指定できるようにしてもよい。
<人流模擬観測部>
 図5は、人流模擬観測部のフロー情報生成の一例を示す図である。図5を参照して、図2のステップS204に示したフロー情報生成について説明する。人流模擬観測部100は、人流真値データ108に基づいて、ステップS202での追加カメラの設置位置に対して、観測した場合に発生する人物の通過情報、すなわちフロー情報を模擬的に生成する。
 ここで、軌跡309は、出入り口302から入り、出入り口304に出る軌跡である。人流模擬観測部100は、例えば、仮想的に設置したカメラ314で計測した結果として、フロー情報502を生成する。フロー情報502には、所定の時刻区間毎にカメラ314の視野を通過する人数が保持される。
 人流真値データ108(図14参照)には、既に説明したように、人流データID毎に人流データ上の点の集合である点列の位置情報が点列を計測した時刻情報とともに含まれている。よって、人流模擬観測部100は、カメラ314が撮影する視野内を通過する所定時間ごとに通過する人数をカウントすることができる。具体的には、フロー情報502において、8時0分から8時10分には、軌跡309上、出入り口302側から出入り口304側に通過する人数は20人となる。また、8時10分から8時20分には、軌跡309上、出入り口302側から出入り口304側に通過する人数は15人となる。人流模擬観測部100は、このように、時々刻々と変化するフロー情報を生成することができる。
<人流推定部>
 図6は、人流推定部の人流推定処理の処理フローを示す図である。図6を参照して、図2のステップS206に示した人流の推定処理について説明する。人流推定部102は、ステップS204で生成したフロー情報502の発生条件を良く満たす人流データを、マルチエージェントシミュレーションにより生成する。
 マルチエージェントシミュレーションとは、予めルールを与えた複数のエージェント(行動主体、ここでは人物)に同時進行的に各々のルールを実行させ、それらが相互作用することで現れる社会的なふるまいを分析するためのシミュレーション手法である。マルチエージェントシミュレーションを用いた人流の推定には、非特許文献1に記載されている手法を用いればよい。以下、この手法の概要を説明する。
 人流推定部102は、ステップS600の所定の時間に対して、ステップS602からからステップS606までの処理を繰り返す。所定の時間とは、人流真値データ108の収集時間のことである。例えば、人流真値データ108の収集時間が30分、データの収集間隔が1/10秒の場合には、ステップS600の処理を30分間、1/10秒の時間刻みで繰り返す。
 ステップS602において、人流推定部102は、現在のシミュレーション時刻において、人流真値データ108中に対象領域300(図3参照)に入る人物が存在する場合に、エージェントを生成する。
 ステップS604において、人流推定部102は、エージェントに対して、歩行者モデルを用いて複数の軌跡候補を生成する。歩行者モデルとは、エージェントの移動に関するルールである。このルールとしては、例えば、目的地までの移動コストに基づき経路を選択するポテンシャルモデルを用いればよい。ポテンシャルモデルは、任意の点から目的地までの移動コストのポテンシャル面を考え、そのポテンシャル面の勾配の大きな方向に人物を移動させる手法である。ここで、移動コストとしては、移動に要する時間などを考えることができる。人流推定部102は、この歩行モデルを用いて、対象領域300に入った地点から、対象領域300の複数の出入り口に対して軌跡候補を生成する。
 ステップS606では、人流推定部102は、データ同化手法と観測値によって評価し重み付けすることにより、観測値に即した軌跡候補の選択を行う。データ同化手法には、非特許文献1に記載されているパーティクルフィルタを用いた手法を使えばよい。パーティクルフィルタはベイズフィルタの一種である。ベイズフィルタとは,ベイズの定理に基づいて、次の時刻の状態を予測する時間更新と、その予測状態をセンサで得た観測情報を用いて更新する観測更新を逐次繰り返すことで状態を推定する手法である。この推定された状態は、確率密度関数で表現される。また、パーティクルフィルタは、モンテカルロ近似により確率密度関数の近似解を求める手法である。
 人流推定部102は、パーティクルフィルタを用いて、ステップS204(図2参照)で求めた追加カメラで発生するフロー情報と、ステップS604で生成した軌跡候補(パーティクル)によって同じ場所(例えば、図5に示すカメラ314による観測位置)で発生するフロー情報ができるだけ近くなるように、軌跡候補の重みを調整する。
 次に、この軌跡候補(パーティクル)の重みの調整処理の手順を説明する。まず、ステップS602で生成されたエージェント対し複数の軌跡候補(パーティクル)を与える場合、それぞれの軌跡候補の重みを調整する。
 軌跡候補の数をnとした場合、i番目の軌跡候補(パーティクル)の重みの初期値W(i)を1/nとする。時刻tにて観測されるフロー情報をmとした場合、i番目のパーティクルの重みW(i)を式(1)で更新することで、時刻t+1の重みWt+1(i)を得る。この更新を繰り返すことで、フロー情報の制約条件を満たす軌跡候補の重みが得られる。
Figure JPOXMLDOC01-appb-M000001
 対象とする軌跡候補に対して観測値にあうように重み付けした結果が、推定した軌跡データとなる。図7を参照して具体例を説明する。
 図7は、軌跡候補の生成処理の一例を示す図である。図7を参照して、図6のステップS604の軌跡候補の生成処理の具体例について説明する。人流推定部102は、出入り口302から入ってきた人物700に対して、軌跡候補702と軌跡候補704との二つの軌跡候補を生成している。
 軌跡候補702は、出入り口302を始点とし、出入り口306を終点とする軌跡である。また、軌跡候補704は、出入り口302を始点とし、出入り口304を終点とする軌跡である。終点として、すべての出入り口を選択してもよいし、予め定めた確率に基づいて選択してもよい。人流推定部102は、始点と終点を決定してから、前述したポテンシャルモデルを用いたシミュレーションにより始点から終点までの軌跡候補を生成する。生成した軌跡候補には、テーブル706に示すように、重みの初期値として軌跡候補数2の逆数である0.5を設定する。そして、繰り返し計算後は、例えば、軌跡候補702の重みが0.9、軌跡候補704の重みは0.1となる。すなわち、人物700は、軌跡候補704に対し0.9人分、軌跡候補702に対し0.1人分として流れることを推定している。
 なお、図7に示す軌跡候補702,704の軌跡は、前述したように、ひとりの人物が対象領域300に入ってから出るまでの移動経路をシミュレーションによって推定する際に、人流推定部102が候補として生成する移動経路である。これに対し、図5に示した軌跡307,308,309は、実際に人物が移動した移動経路である。なお、軌跡307,308,309は、推定された軌跡候補702,704に対して、実軌跡となる。
<推定誤差算出部>
 図8は、推定誤差算出部の人流推定誤差の評価処理フローを示す図である。図8を参照して、図2のステップS208に示した人流推定誤差の評価処理について説明する。推定誤差算出部104は、ステップS206で推定した軌跡データと、人流真値データ108の人流データの軌跡とを比較して推定誤差を算出する。
 ステップS800において、推定誤差算出部104は、人流真値データ108に含まれるすべての人流データID(図14参照)に対しステップS802の処理を繰り返す。ステップS802では、処理の対象となっている人流データID毎に点群に表される軌跡に対して、グリッド毎の通過人数を算出する。図9を参照して、グリッド毎の通過人数の具体例について説明する。
 図9は、グリッド毎の通過人数のカウント処理の一例を示す図である。図9を参照して、図8のステップS802、ステップS806に示すグリッド毎の通過人数の算出処理の具体例について説明する。まず、対象領域300を予め定めた分割数でグリッド状分割し、各グリッドが通過人数の情報を保持できるようする。そして、処理の対象となる軌跡900がある場合、例えばグリッド902の通過人数を1だけ増加させる。処理対象となる全ての軌跡に対して同様に処理することで、最終的なグリッド毎の通過人数の算出結果を得ることができる。
 図8に戻り、ステップS802において、推定誤差算出部104は、対象領域300をいくつかのグリッドに分割した場合に、各グリッドを通過する軌跡の累積数を算出する。
 ステップS804において、推定誤差算出部104は、ステップS206で推定したすべての軌跡データに対してステップS806の処理を繰り返す。ステップS806では、推定誤差算出部104は、ステップS802と同様に、処理の対象となっている軌跡データに対して、グリッド毎の通過人数を算出する。
 ステップS808では、人流真値データ108に対する通過人数と、ステップS206で推定した軌跡データに対する人数をグリッド毎に比較することで誤差を算出する。ここでは、誤差として二乗平均平方根誤差を用いる。この二乗平均平方根誤差RMSEは、式(2)で表現される。ここで、nはグリッドの数、rはi番目のグリッドに対する人流真値データ108の通過人数、eはi番目のグリッドに対する推定した軌跡データの通過人数である。
Figure JPOXMLDOC01-appb-M000002
<追加カメラ決定部>
 図10は、対象領域に追加カメラの設置位置の決定処理の一例を示す図である。図10を参照して、対象領域300に、図2のステップS210に示した追加カメラの設置位置の決定処理の具体例を、対象領域300に初めてカメラを追加する場合について説明する。追加カメラの設置位置の候補領域(領域A1~領域A10)の右下に示した数値は、ステップS208で算出した二乗平均平方根誤差RMSEである。
 例えば、カメラ310に対応する領域A1にカメラを追加した場合の誤差E1は980である。同様に、領域A2にカメラを追加した場合の誤差E2は500である。ステップS210では、追加カメラ決定部106は、すべての領域に対して算出された誤差を比較して、最も誤差が少なくなる領域を決定し、表示装置11(図11参照)に、図10に示す対象領域300上に決定されたセンサの配置位置を表示する。
 図10の場合では、領域A10の誤差E10が400と最も小さい。したがって、この領域A10に対応するカメラ314を追加カメラの設置位置として決定することができる。なお、対象領域300に、すでに例えば、2台のカメラが設置されている前提で、新しく1台のカメラを追加する場合においても同様に決定することができる。
 本実施形態のセンサ配置決定装置10は、人流を計測するためのセンサ(例えば、カメラ314)を配置する予定の対象領域300を、人物の実軌跡である人流データが記憶される記憶手段(例えば、外部記憶装置15)と、対象領域300におけるセンサの配置位置の候補において、人流データに基づいて、センサが観測する領域の人物の通過情報を生成する人流模擬観測手段(例えば、人流模擬観測部100)と、通過情報を制約条件として、人物が対象領域内をどのように通過するかの軌跡候補を生成する人流推定手段(例えば、人流推定部102)と、センサが観測する領域を通過する、軌跡候補の通過人数と、実軌跡の通過人数との人流の推定誤差を算出する推定誤差算出手段(例えば、推定誤差算出部104)と、算出された人流の推定誤差が小さくなる位置を、センサの配置位置として決定するセンサ位置決定手段(例えば、追加カメラ決定部106)と、を備える。
 本実施形態のセンサ配置決定装置10は、人流計測の観点でカメラの配置位置(設置位置)の良し悪しを定量的に評価できる。これによって、少ないカメラで人流を計測する場合に最適な配置位置を決定することが可能になる。
 10  センサ配置決定装置
 11  表示装置
 12  入力装置
 13  中央演算処理装置(CPU)
 14  通信制御装置
 15  外部記憶装置(記憶手段)
 16  メモリ
 40  ビデオカメラ
 41  人物
 62  レコード
 100  人流模擬観測部(人流模擬観測手段)
 102  人流推定部(人流推定手段)
 104  推定誤差算出部(推定誤差算出手段)
 106  追加カメラ決定部(センサ位置決定手段)
 108  人流真値データ
 110  カメラ設置情報
 120  人流データ計測部
 302,304,306  出入り口
 310,312,314  カメラ
 307,308,309  軌跡(実軌跡)
 502  フロー情報(通過情報)
 702,704  軌跡候補
 706  テーブル
 902  グリッド
 RMSE  二乗平均平方根誤差

Claims (8)

  1.  人流を観測する複数のセンサを配置する予定の対象領域について、当該対象領域を実際に人物が通過する際の実軌跡である人流データが記憶される記憶手段と、
     前記対象領域における前記複数のセンサの配置位置の候補において、前記人流データに基づいて、前記複数のセンサが配置された場合に、各センサが観測する人物の観測情報を模擬的に生成する人流模擬観測手段と、
     前記人流模擬観測手段が生成する前記観測情報を制約条件として、人物が前記対象領域内をどのように通過するかという軌跡候補を推定して生成する人流推定手段と、
     前記人流推定手段が生成した前記軌跡候補に基づいて算出されるセンサの配置位置の候補ごとの観測人数と、前記人流データに基づいて算出されるセンサの配置位置の候補ごとの観測人数とを対比して、前記人流推定手段が前記軌跡候補を推定する際の推定誤差を算出する推定誤差算出手段と、
     前記複数のセンサの配置位置の候補に対し、前記推定誤差算出手段が算出する推定誤差が小さくなる位置を前記センサの配置位置として前記候補を選択し、配置位置を決定するセンサ位置決定手段と、を備える
     ことを特徴とするセンサ配置決定装置。
  2.  前記人流推定手段は、マルチエージェントシミュレーションによって軌跡候補を生成する
     ことを特徴とする請求項1に記載のセンサ配置決定装置。
  3.  前記人流推定手段は、前記各センサが観測する人物の観測情報である観測値によって前記軌跡候補をデータ同化手法で重み付けすることにより、前記観測値に即した軌跡候補を生成する
     ことを特徴とする請求項2に記載のセンサ配置決定装置。
  4.  前記推定誤差算出手段は、前記対象領域のセンサの配置位置の候補の領域毎に観測人数を算出し、その領域毎の人数の二乗平均平方根誤差を推定誤差として用いる
     ことを特徴とする請求項3に記載のセンサ配置決定装置。
  5.  前記センサは、カメラ、ラインセンサ、レーザスキャナの少なくともひとつである
     ことを特徴とする請求項1に記載のセンサ配置決定装置。
  6.  前記センサ配置決定手段は、分岐が存在しない通路部毎に前記センサの配置位置の候補を選択する
     ことを特徴とする請求項1から請求項5のいずれか1項に記載のセンサ配置決定装置。
  7.  前記センサ配置決定手段は、表示装置に、前記対象領域および前記決定された前記センサの配置位置を表示する
     ことを特徴とする請求項1から請求項5のいずれか1項に記載のセンサ配置決定装置。
  8.  人流を計測する複数のセンサを配置する予定の対象領域について、当該対象領域を実際に人物が通過する際の実軌跡である人流データが記憶される記憶手段と、人流模擬観測手段と、人流推定手段と、推定誤差算出手段と、センサ位置決定手段とを備えるセンサ配置決定装置を用いて、前記対象領域にセンサを追加する際のセンサ配置決定方法であって、
     前記人流模擬観測手段は、前記対象領域における前記複数のセンサの配置位置の候補において、前記人流データに基づいて、前記複数のセンサが配置された場合に、各センサが観測する人物の観測情報を模擬的に生成し、
     前記人流推定手段は、前記人流模擬観測手段が生成する前記観測情報を制約条件として、人物が前記対象領域内をどのように通過するかという軌跡候補を推定して生成し、
     前記推定誤差算出手段は、前記人流推定手段が生成した前記軌跡候補に基づいて算出されるセンサの配置位置の候補ごとの観測人数と、前記人流データに基づいて算出されるセンサの配置位置の候補ごとの観測人数とを対比して、前記人流推定手段が前記軌跡候補を推定する際の推定誤差を算出し、
     前記センサ位置決定手段は、前記複数のセンサの配置位置の候補に対し、前記推定誤差算出手段が算出する推定誤差が小さくなる位置を前記センサの配置位置として前記候補を選択し、配置位置を決定する
     ことを特徴とするセンサ配置決定方法。
PCT/JP2013/067047 2013-06-21 2013-06-21 センサ配置決定装置およびセンサ配置決定方法 WO2014203389A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015522451A JP6236448B2 (ja) 2013-06-21 2013-06-21 センサ配置決定装置およびセンサ配置決定方法
PCT/JP2013/067047 WO2014203389A1 (ja) 2013-06-21 2013-06-21 センサ配置決定装置およびセンサ配置決定方法
US14/899,834 US9955124B2 (en) 2013-06-21 2013-06-21 Sensor placement determination device and sensor placement determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/067047 WO2014203389A1 (ja) 2013-06-21 2013-06-21 センサ配置決定装置およびセンサ配置決定方法

Publications (1)

Publication Number Publication Date
WO2014203389A1 true WO2014203389A1 (ja) 2014-12-24

Family

ID=52104151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/067047 WO2014203389A1 (ja) 2013-06-21 2013-06-21 センサ配置決定装置およびセンサ配置決定方法

Country Status (3)

Country Link
US (1) US9955124B2 (ja)
JP (1) JP6236448B2 (ja)
WO (1) WO2014203389A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049954A (ja) * 2015-09-04 2017-03-09 国立大学法人 東京大学 推定装置、推定方法及びプログラム
WO2019087729A1 (ja) * 2017-10-30 2019-05-09 株式会社日立製作所 ビル内人流推定システムおよび推定方法
WO2019186890A1 (ja) * 2018-03-29 2019-10-03 日本電気株式会社 映像監視装置、その制御方法、及び、コンピュータ可読媒体
WO2019186889A1 (ja) * 2018-03-29 2019-10-03 日本電気株式会社 カメラ配置適性度評価装置、その制御方法、最適カメラ配置算出装置、及び、コンピュータ可読媒体
JP2022166067A (ja) * 2015-01-14 2022-11-01 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP7417476B2 (ja) 2020-06-12 2024-01-18 公益財団法人鉄道総合技術研究所 配置計画作成支援システム及び配置計画作成支援方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6176335B2 (ja) * 2013-12-02 2017-08-09 富士通株式会社 通信網制御方法、通信網制御プログラム、およびシステム
DE102014010937A1 (de) * 2014-07-28 2016-01-28 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Bestimmen einer Position und/oder Ausrichtung eines Sensors
JP5915960B1 (ja) * 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US20160343099A1 (en) * 2015-05-22 2016-11-24 International Business Machines Corporation Automated traffic sensor placement planning
JP6558579B2 (ja) 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
EP3437957B1 (en) * 2016-03-29 2021-12-01 Mitsubishi Electric Corporation Train traffic control system and train traffic control method
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
US10565786B1 (en) 2016-06-30 2020-02-18 Google Llc Sensor placement interface
US10216983B2 (en) * 2016-12-06 2019-02-26 General Electric Company Techniques for assessing group level cognitive states
US10445565B2 (en) * 2016-12-06 2019-10-15 General Electric Company Crowd analytics via one shot learning
JP6905888B2 (ja) * 2017-07-25 2021-07-21 日本電信電話株式会社 流量予測装置、方法、及びプログラム
EP3841440B1 (en) * 2018-10-25 2023-05-24 Siemens Aktiengesellschaft A method for computer-implemented determination of sensor positions in a simulated process of an automation system
CN111324945B (zh) * 2020-01-20 2023-09-26 阿波罗智能技术(北京)有限公司 传感器方案确定方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264706A (ja) * 2006-03-27 2007-10-11 Yokogawa Electric Corp 画像処理装置、監視カメラ及び画像監視システム
JP2011195290A (ja) * 2010-03-19 2011-10-06 Toshiba Elevator Co Ltd エスカレータ監視装置
JP2012010210A (ja) * 2010-06-28 2012-01-12 Hitachi Ltd カメラ配置決定支援装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1561640A (zh) * 2001-09-27 2005-01-05 皇家飞利浦电子股份有限公司 用于基本计算机的视觉监视的最佳多摄像机设置
JP3915805B2 (ja) * 2004-08-31 2007-05-16 住友電気工業株式会社 駐車場におけるカメラ設置条件の自動決定方法及び装置
US8013731B2 (en) * 2007-07-03 2011-09-06 3M Innovative Properties Company Apparatus and method for processing data collected via wireless network sensors
JP5190970B2 (ja) * 2009-10-13 2013-04-24 国立大学法人 鹿児島大学 監視カメラ配置位置評価装置
US8706458B2 (en) * 2011-10-05 2014-04-22 International Business Machines Corporation Traffic sensor management

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264706A (ja) * 2006-03-27 2007-10-11 Yokogawa Electric Corp 画像処理装置、監視カメラ及び画像監視システム
JP2011195290A (ja) * 2010-03-19 2011-10-06 Toshiba Elevator Co Ltd エスカレータ監視装置
JP2012010210A (ja) * 2010-06-28 2012-01-12 Hitachi Ltd カメラ配置決定支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOSHIKAZU NAKAMURA: "Fundamental Study on Data Assimilation to Estimate People Flow in a Railway Station", DEPARTMENT OF SOCIO-CULTURAL ENVIRONMENTAL STUDIES, GRADUATE SCHOOL OF FRONTIER SCIENCES, 24 March 2011 (2011-03-24), THE UNIVERSITY OF TOKYO SHUSHI RONBUN, pages 5 - 42 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428213B2 (ja) 2015-01-14 2024-02-06 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2022166067A (ja) * 2015-01-14 2022-11-01 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2017049954A (ja) * 2015-09-04 2017-03-09 国立大学法人 東京大学 推定装置、推定方法及びプログラム
JP7029930B2 (ja) 2017-10-30 2022-03-04 株式会社日立製作所 ビル内人流推定システムおよび推定方法
WO2019087729A1 (ja) * 2017-10-30 2019-05-09 株式会社日立製作所 ビル内人流推定システムおよび推定方法
JP2019081626A (ja) * 2017-10-30 2019-05-30 株式会社日立製作所 ビル内人流推定システムおよび推定方法
CN111225867A (zh) * 2017-10-30 2020-06-02 株式会社日立制作所 大楼内人流推算系统和推算方法
US11623842B2 (en) 2017-10-30 2023-04-11 Hitachi, Ltd. Building human flow estimation system and estimation method
CN111225867B (zh) * 2017-10-30 2021-06-01 株式会社日立制作所 大楼内人流推算系统和推算方法
EP3705439A4 (en) * 2017-10-30 2021-08-18 Hitachi, Ltd. SYSTEM AND METHOD FOR PREDICTING HUMAN FLOWS INSIDE A BUILDING
WO2019186889A1 (ja) * 2018-03-29 2019-10-03 日本電気株式会社 カメラ配置適性度評価装置、その制御方法、最適カメラ配置算出装置、及び、コンピュータ可読媒体
US11227376B2 (en) 2018-03-29 2022-01-18 Nec Corporation Camera layout suitability evaluation apparatus, control method thereof, optimum camera layout calculation apparatus, and computer readable medium
US11381782B2 (en) 2018-03-29 2022-07-05 Nec Corporation Video monitoring apparatus, control method thereof, and computer readable medium
JPWO2019186889A1 (ja) * 2018-03-29 2021-03-11 日本電気株式会社 カメラ配置適性度評価装置、その制御方法、最適カメラ配置算出装置、及び、プログラム
JPWO2019186890A1 (ja) * 2018-03-29 2021-02-12 日本電気株式会社 映像監視装置、その制御方法、及び、プログラム
WO2019186890A1 (ja) * 2018-03-29 2019-10-03 日本電気株式会社 映像監視装置、その制御方法、及び、コンピュータ可読媒体
US11924585B2 (en) 2018-03-29 2024-03-05 Nec Corporation Video monitoring apparatus, control method thereof, and computer readable medium
JP7417476B2 (ja) 2020-06-12 2024-01-18 公益財団法人鉄道総合技術研究所 配置計画作成支援システム及び配置計画作成支援方法

Also Published As

Publication number Publication date
US20160142679A1 (en) 2016-05-19
US9955124B2 (en) 2018-04-24
JPWO2014203389A1 (ja) 2017-02-23
JP6236448B2 (ja) 2017-11-22

Similar Documents

Publication Publication Date Title
JP6236448B2 (ja) センサ配置決定装置およびセンサ配置決定方法
Asadzadeh et al. Sensor-based safety management
Rao et al. Origin-destination pattern estimation based on trajectory reconstruction using automatic license plate recognition data
US10810442B2 (en) People flow estimation device, people flow estimation method, and recording medium
JP2024041997A (ja) 情報処理装置、情報処理方法およびプログラム
US20120020518A1 (en) Person tracking device and person tracking program
JP6120404B2 (ja) 移動体行動分析・予測装置
Hassannayebi et al. A hybrid simulation model of passenger emergency evacuation under disruption scenarios: A case study of a large transfer railway station
Dridi Tracking individual targets in high density crowd scenes analysis of a video recording in hajj 2009
Papaioannou et al. Tracking people in highly dynamic industrial environments
WO2012111138A1 (ja) 歩行者移動情報検出装置
JP2019012494A (ja) 人流推定装置及び人流推定システム並びに人流測定方法
JP2020095292A (ja) 混雑予測システムおよび歩行者シミュレーション装置
Ronchi et al. A probabilistic approach for the analysis of evacuation movement data
Voloshin et al. Optimization-based calibration for micro-level agent-based simulation of pedestrian behavior in public spaces
Krbálek et al. Pedestrian headways—Reflection of territorial social forces
JP2010139325A (ja) 位置推定装置及び位置推定方法
JP6813527B2 (ja) 推定装置、推定方法及びプログラム
Stisen et al. Task phase recognition for highly mobile workers in large building complexes
JP2008134939A (ja) 動体追跡装置,動体追跡方法,その方法を記述した動体追跡プログラム及びそのプログラムを格納した記録媒体
WO2019187288A1 (ja) 情報処理装置、データ生成方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
Saunier et al. Comparing data from mobile and static traffic sensors for travel time assessment
Abdelwahab et al. Measuring “nigiwai” from pedestrian movement
Mishalani et al. Evaluating real-time origin-destination flow estimation using remote sensing-based surveillance data
Ettehadieh Systematic parameter optimization and application of automated tracking in pedestrian-dominant situations

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13887464

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015522451

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14899834

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13887464

Country of ref document: EP

Kind code of ref document: A1