JP2005346617A - Passer-by behavior analysis system - Google Patents

Passer-by behavior analysis system Download PDF

Info

Publication number
JP2005346617A
JP2005346617A JP2004168388A JP2004168388A JP2005346617A JP 2005346617 A JP2005346617 A JP 2005346617A JP 2004168388 A JP2004168388 A JP 2004168388A JP 2004168388 A JP2004168388 A JP 2004168388A JP 2005346617 A JP2005346617 A JP 2005346617A
Authority
JP
Japan
Prior art keywords
passer
space
position coordinates
passerby
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004168388A
Other languages
Japanese (ja)
Other versions
JP4493415B2 (en
Inventor
Keiji Sakamoto
圭司 坂本
Naotake Suzukawa
尚毅 鈴川
Ryosuke Shibazaki
亮介 柴崎
卉菁 ▲趙▼
Kisei Cho
Katsuyuki Nakamura
克行 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
JR East Consultants Co
East Japan Railway Co
Original Assignee
University of Tokyo NUC
JR East Consultants Co
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, JR East Consultants Co, East Japan Railway Co filed Critical University of Tokyo NUC
Priority to JP2004168388A priority Critical patent/JP4493415B2/en
Publication of JP2005346617A publication Critical patent/JP2005346617A/en
Application granted granted Critical
Publication of JP4493415B2 publication Critical patent/JP4493415B2/en
Anticipated expiration legal-status Critical
Active legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system capable of accurately analyzing behaviors of passers-by. <P>SOLUTION: A passer-by behavior analysis system for analyzing behaviors of passers-by within a prescribed space is provided with; a location detection means for obtaining respective location coordinates of passers-by passing the space; a tracking processing means for tracking a location of one passer-by to obtain the temporal change of the location coordinate of the passer-by; a storage means for storing data of temporal changes of location coordinates within a prescribed time per passer-by; a means for obtaining a track of each passer-by within the space from temporal change data of location coordinates stored in the storage means; and a display means for displaying tracks of all passers-by who have passed the prescribed space within the prescribed time. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、鉄道の駅などにおいて、通行人が移動、滞在する空間における通行人の行動を解析する通行人行動解析システムに関する。   The present invention relates to a passer-behavior analysis system that analyzes a passer-by behavior in a space where a passer-by moves and stays at a railway station or the like.

駅を利用する旅客がスムーズに流れ移動できることが駅における快適性の重要な要件となっているが、乗降客や乗換客などが複雑に入り組み、案内標識や出入り口を確認するための立ち止まりや売店での買い物、待ち合わせによる滞留など、スムースな流れを阻害する要素が多数存在する。これにより旅客同士の衝突や混雑による歩行速度の低下などの問題が発生する。
駅環境の快適性を向上させる改良工事等を検討するための基礎情報収集として実施されてきた従来の旅客流動調査は、断面での通過人数を把握することが主であり、人手による調査が主流であったため、駅構内を面的移動する旅客の速度や方向、密度を総合的に解析するのは困難であった。
Passengers using the station can flow and move smoothly is an important requirement for the comfort of the station, but passengers and transfer passengers are complicated, stoppages and shops to check the signs and entrances and exits There are many factors that impede the smooth flow, such as shopping at the store and staying at the meeting. This causes problems such as a decrease in walking speed due to passenger collisions and congestion.
Conventional passenger flow surveys, which have been conducted as basic information collection for studying improvement works that improve the comfort of the station environment, are mainly to grasp the number of people passing through the section, and manual surveys are the mainstream. Therefore, it was difficult to comprehensively analyze the speed, direction, and density of passengers moving across the station.

このような問題を解決するために、道路の交差点に可視画像のカメラを設置し、このカメラにより、横断歩道を含む所定範囲の監視領域内の画像を撮像して、道路の交差点における歩行者の状況や人数を調べることにより、車両用信号および歩行者用信号の制御をより効率的に行なえ、結果として歩行者の安全を向上させることができる技術が知られている(例えば、特許文献1参照)。
特開平11−275562号公報
In order to solve such a problem, a camera of a visible image is installed at a road intersection, and the camera captures an image in a monitoring area of a predetermined range including a pedestrian crossing. By examining the situation and the number of people, a technique is known that can more efficiently control the signal for the vehicle and the signal for the pedestrian, and as a result, improve the safety of the pedestrian (see, for example, Patent Document 1). ).
JP 11-275562 A

しかしながら、特許文献1に示す装置は、可視のビデオ画像を使用しているため、通行人が交錯する時などに追跡処理が困難になる場合があり、通行人の正確な位置の追跡処理を行うのが困難であるという問題がある。また、この問題を避けるためカメラの設置位置や設置角度が大きく制約され、撮像範囲が狭くなるとともに、多数の通行人がある場合は計算処理負荷が大きくなってしまうという問題もある。   However, since the device disclosed in Patent Document 1 uses a visible video image, tracking processing may be difficult when passers-by interlaces, and the accurate position tracking processing of passers-by is performed. There is a problem that it is difficult. In addition, in order to avoid this problem, the installation position and the installation angle of the camera are greatly restricted, the imaging range becomes narrow, and there are problems that the calculation processing load increases when there are many passersby.

本発明は、このような事情に鑑みてなされたもので、距離画像を用いて正確に通行人の行動を解析することができる通行人行動解析システムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a passer-by behavior analysis system that can accurately analyze a passer-by behavior using a distance image.

請求項1に記載の発明は、所定の空間内における通行人の行動を解析する通行人行動解析システムであって、距離画像を取得する複数の距離画像取得手段と、前記複数の距離画像取得手段の距離画像取得タイミングを同期させる同期手段と、前記距離画像取得手段がそれぞれ取得した複数の距離画像の座標系を1つの座標系に統合する座標系統合手段と、座標系を統合した前記距離画像から前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する第1の記憶手段と、前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内を小さく分割した領域毎に存在する通行人の人数から前記領域毎の密度を求める密度算出手段と、前記密度の値と距離画像取得手段の台数が予め関係付けられて記憶された第2の記憶手段と、前記第1の記憶手段に記憶されている所定時間内の位置座標の時間的変化のデータに基づいて、通行人の行動を解析する行動解析手段とを備え、前記座標系統合手段は、前記密度算出手段により得られた密度の値に関係つけられている距離画像取得手段の台数を前記第2の記憶手段から読み出し、読み出した台数の距離画像取得手段を使用して得られた距離画像の座標系を統合することを特徴とする。   The invention according to claim 1 is a passerby behavior analysis system for analyzing a passerby's behavior in a predetermined space, wherein a plurality of distance image acquisition means for acquiring a distance image, and the plurality of distance image acquisition means Synchronization means for synchronizing the distance image acquisition timing, coordinate system integration means for integrating the coordinate systems of the plurality of distance images respectively acquired by the distance image acquisition means into one coordinate system, and the distance image obtained by integrating the coordinate systems Position detecting means for determining the position coordinates of each passerby who passes through the space, tracking processing means for tracking the position of the same passerby and determining temporal changes in the position coordinates of each passer, and a predetermined time A first storage means for storing data of temporal changes in position coordinates for each passer-by, and a time change data of position coordinates stored in the storage means in the space Density calculating means for obtaining the density of each area from the number of passersby present in each of the divided areas, and second storage means in which the density value and the number of distance image acquiring means are stored in association with each other in advance. And behavior analysis means for analyzing the behavior of a passer-by based on data of temporal changes in position coordinates within a predetermined time stored in the first storage means, and the coordinate system integration means The number of distance image acquisition means related to the density value obtained by the density calculation means is read from the second storage means, and the distance image obtained by using the read number of distance image acquisition means It is characterized by integrating the coordinate system.

請求項2に記載の発明は、所定の空間内における通行人の行動を解析する通行人行動解析システムであって、前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内の各通行人それぞれの通行軌跡を求める手段と、所定空間の所定時間内に通行した通行人全ての通行軌跡を表示する表示手段とを備えたことを特徴とする。   The invention according to claim 2 is a passer-by behavior analysis system that analyzes the behavior of passers-by in a predetermined space, and is the same as the position detecting means for obtaining the position coordinates of each passer-by passing through the space. Tracking processing means for tracking the position of each passerby to obtain a temporal change in the position coordinates of each passer, and storage means for storing the data of the temporal change in the position coordinates within a predetermined time for each passerby; , Means for obtaining the trajectory of each passerby in the space from the temporal change data of the position coordinates stored in the storage means, and displaying the trajectories of all passers-by who pass within the predetermined time in the predetermined space And display means.

請求項3に記載の発明は、所定の空間内における通行人の行動を解析する通行人行動解析システムであって、前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内の各通行人それぞれの通行速度を求める手段と、所定空間の所定時間内に通行した通行人全ての通行速度分布を表示する表示手段とを備えたことを特徴とする。   The invention described in claim 3 is a passer-by behavior analysis system for analyzing the behavior of passers-by in a predetermined space, and is the same as the position detection means for obtaining the position coordinates of each passer-by passing through the space. Tracking processing means for tracking the position of each passerby to obtain a temporal change in the position coordinates of each passer, and storage means for storing the data of the temporal change in the position coordinates within a predetermined time for each passerby; , Means for determining the passing speed of each passerby in the space from the temporal change data of the position coordinates stored in the storage means, and the pass speed distribution of all passersby passing within a predetermined time in the predetermined space. And display means for displaying.

請求項4に記載の発明は、所定の空間内における通行人の行動を解析する通行人行動解析システムであって、前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内の各通行人それぞれの通行軌跡を求める手段と、前記通行軌跡から前記空間内の各通行人同士の接近相対距離及び進行方向ベクトルがなす交差角を求める手段と、所定空間の所定時間内における前記接近距離及び前記交差角が所定のしきい値の範囲内の状態が発生した位置を表示する表示手段とを備えたことを特徴とする。   The invention described in claim 4 is a passer-by behavior analysis system that analyzes the behavior of passers-by in a predetermined space, and is the same as the position detection means that obtains the position coordinates of each passer-by passing through the space. Tracking processing means for tracking the position of each passerby to obtain a temporal change in the position coordinates of each passer, and storage means for storing the data of the temporal change in the position coordinates within a predetermined time for each passerby; , Means for obtaining a passage trajectory of each passerby in the space from temporal change data of the position coordinates stored in the storage means, an approach relative distance between passersby in the space from the pass trajectory, and Means for obtaining a crossing angle formed by a traveling direction vector, and a display for displaying a position where the approach distance and the crossing angle are within a predetermined threshold range within a predetermined time in a predetermined space. Characterized by comprising a stage.

請求項5に記載の発明は、所定の空間内における通行人の行動を解析する通行人行動解析システムであって、前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内を小さく分割した領域毎に存在する通行人の人数を求める手段と、所定空間の前記領域内を所定時間内に存在した通行人の密度分布を表示する表示手段とを備えたことを特徴とする。   The invention according to claim 5 is a passer-by behavior analysis system for analyzing the behavior of passers-by in a predetermined space, and is the same as the position detecting means for obtaining the position coordinates of each passer-by passing through the space. Tracking processing means for tracking the position of each passerby to obtain a temporal change in the position coordinates of each passer, and storage means for storing the data of the temporal change in the position coordinates within a predetermined time for each passerby; , Means for determining the number of passersby present in each area obtained by dividing the space from the temporal change data of the position coordinates stored in the storage means, and existing in the area of the predetermined space within the predetermined time And a display means for displaying the density distribution of the passerby.

本発明によれば、距離画像を用いて正確に通行人の行動を解析するようにしたため、可視画像による解析処理において発生する問題を解決するともに、通行人の速度や方向、密度を総合的に解析することができる。また、通行密度に応じて、距離画像を得る手段の台数を決定するようにしたため、最適な台数で最適な計測を行うことが可能になるという効果が得られる。   According to the present invention, since the behavior of the passerby is accurately analyzed using the distance image, the problem that occurs in the analysis process using the visible image is solved, and the speed, direction, and density of the passerby are comprehensively determined. Can be analyzed. Further, since the number of means for obtaining the distance image is determined according to the traffic density, the effect that it is possible to perform the optimum measurement with the optimum number is obtained.

以下、本発明の一実施形態による通行人行動解析システムを図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、予め決められた空間6内の通行人7の行動を解析処理を実行するサーバである。符号2は、リフレクタやポジションマークを必要とせず、周囲を2次元的にスキャンして、物体までの距離を測定するレーザセンサである。レーザセンサ2は、床から16.3cmの水平面をスキャニングして、レーザの投光の高さに応じた水平断面で、静止物体・移動物体の両方が含まれた直交座標系におけるレーザ距離画像を得ることができる。符号3は、レーザセンサ2のそれぞれを制御するために、それぞれのレーザセンサ2毎に設けられたクライアントPC(パソコン)である。符号4は、各クライアントPC3とサーバ1との間で情報通信を行うネットワークであり、クライアントPC3内に蓄積された計測データをサーバ1へ転送とサーバ1からの指示の情報をクライアントPC3へ送るために用いる。符号5は、所定の空間6内の可視画像を撮像するビデオカメラであり、得られた画像は、サーバ1内に取り込み、行動解析結果の検証に用いる。   Hereinafter, a passerby behavior analysis system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a server that performs an analysis process on the behavior of a passerby 7 in a predetermined space 6. Reference numeral 2 denotes a laser sensor that does not require a reflector or a position mark, and scans the surroundings two-dimensionally to measure the distance to an object. The laser sensor 2 scans a horizontal surface of 16.3 cm from the floor, and displays a laser distance image in an orthogonal coordinate system including both a stationary object and a moving object in a horizontal section corresponding to the height of the laser projection. Can be obtained. Reference numeral 3 denotes a client PC (personal computer) provided for each laser sensor 2 in order to control each laser sensor 2. Reference numeral 4 denotes a network for performing information communication between each client PC 3 and the server 1 in order to transfer the measurement data stored in the client PC 3 to the server 1 and to send instruction information from the server 1 to the client PC 3. Used for. Reference numeral 5 denotes a video camera that captures a visible image in a predetermined space 6, and the obtained image is taken into the server 1 and used for verification of a behavior analysis result.

次に、図2を参照して、図1にサーバ1の構成を説明する。図2は、図1に示すサーバ1の構成を示すブロック図である。この図において、符号11は、各クライアントPC3から距離画像データを受信するデータ受信部である。符号12は、データ受信部11において受信した距離画像データを記憶する距離画像データ記憶部である。符号13は、複数のクライアントPC3から受信した複数の距離画像データを、時間的に同期させるとともに、1つの座標系に統合する同期処理部である。符号14は、時間的に同期させ、1つの座標系に統合した距離画像データから通行人7の足部分を抽出し、この通行人7の追跡するトラッキング処理を実行し、所定の空間6内を所定の時間内に通行した通行人の通行軌跡を算出する軌跡算出部である。符号15は、軌跡算出部14において得られた各通行人の通行軌跡データを記憶する軌跡データ記憶部である。符号16は、空間6内を複数に分割した小さい領域の通行人密度を、軌跡データ記憶部15に記憶されている通行軌跡データから算出して出力する密度算出部である。符号17は、軌跡データ記憶部15に記憶されている通行軌跡データから通行人の速度分布を算出して出力する速度算出部である。符号18は、軌跡データ記憶部15に記憶されている通行軌跡データから通行人同士が所定の条件を満たした状態を検出し、この状態を混雑度として出力する混雑度算出部である。符号19は、軌跡データ記憶部15に記憶されている通行軌跡データを読み出して出力する軌跡出力部である。符号20は、ディスプレイで構成する表示部である。符号21は、行動解析データ(通行軌跡、通行速度、通行密度、混雑度)を記憶する解析結果記憶部である。符号22は、通行人の密度に応じて、レーザセンサ2の稼働台数を決定する台数決定部である。符号23は、通行人の密度レベル毎にレーザセンサ2の稼働台数が予め定義された台数テーブルである。符号24は、決定した台数をクライアントPC3へ通知するデータ送信部である。   Next, the configuration of the server 1 will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration of the server 1 shown in FIG. In this figure, reference numeral 11 denotes a data receiving unit that receives distance image data from each client PC 3. Reference numeral 12 denotes a distance image data storage unit that stores the distance image data received by the data receiving unit 11. Reference numeral 13 denotes a synchronization processing unit that synchronizes a plurality of distance image data received from a plurality of client PCs 3 in time and integrates them into one coordinate system. Reference numeral 14 is synchronized with time, extracts the foot portion of the passerby 7 from the distance image data integrated into one coordinate system, executes a tracking process that the passerby 7 tracks, and passes through the predetermined space 6. It is a locus | trajectory calculation part which calculates the passage locus | trajectory of the passerby who passed within the predetermined time. Reference numeral 15 denotes a trajectory data storage unit that stores the pass trajectory data of each passer-by obtained by the trajectory calculation unit 14. Reference numeral 16 denotes a density calculation unit that calculates and outputs the passer-by density of a small area obtained by dividing the space 6 into a plurality from the trajectory data stored in the trajectory data storage unit 15. Reference numeral 17 denotes a speed calculation unit that calculates and outputs a speed distribution of a passerby from the travel path data stored in the path data storage unit 15. Reference numeral 18 denotes a congestion degree calculation unit that detects a state where passers-by meets predetermined conditions from the passage locus data stored in the locus data storage unit 15 and outputs this state as a congestion degree. Reference numeral 19 denotes a trajectory output unit that reads and outputs the traffic trajectory data stored in the trajectory data storage unit 15. Reference numeral 20 denotes a display unit configured by a display. Reference numeral 21 denotes an analysis result storage unit that stores behavior analysis data (traffic trajectory, traffic speed, traffic density, congestion degree). Reference numeral 22 denotes a number determination unit that determines the number of operating laser sensors 2 according to the passerby density. Reference numeral 23 is a number table in which the number of operating laser sensors 2 is defined in advance for each passer's density level. Reference numeral 24 denotes a data transmission unit that notifies the client PC 3 of the determined number.

次に、通行人7を抽出し、トラッキング(追跡)する動作を説明する。まず、各クライアントPC3は、レーザセンサ2から得た距離画像データをサーバ1へ転送する。これを受けて、データ受信部11は、各クライアントPC3から受信した距離画像データを距離画像データ記憶部12に記憶する。   Next, an operation of extracting and tracking the passerby 7 will be described. First, each client PC 3 transfers distance image data obtained from the laser sensor 2 to the server 1. In response to this, the data receiving unit 11 stores the distance image data received from each client PC 3 in the distance image data storage unit 12.

次に、同期処理部13は、距離画像データ記憶部12に記憶されている複数の距離画像データ読み出し、壁や柱などの固定物を除去し、移動体のみのデータを作成する背景差分処理を行う。レーザセンサ2は、常に同じ位置で同じ範囲をスキャンしているため、壁や柱などの位置はシステムが持っているシステム誤差の範囲を超えて変化しない。この原理を用いて、時間とともに位置が変化しない固定物を背景として保存することを行う。これにより、時間的同期を取るとともに、1つの座標系に統合した距離画像データが得られる。同期処理部13は、この距離画像データを記憶部12へ記憶する。そして、同期処理部13は、同期処理の終了を軌跡算出部14に対して通知する。   Next, the synchronization processing unit 13 reads a plurality of distance image data stored in the distance image data storage unit 12, removes fixed objects such as walls and pillars, and performs background difference processing for creating data only for the moving object. Do. Since the laser sensor 2 always scans the same range at the same position, the position of the wall or the column does not change beyond the system error range of the system. Using this principle, a fixed object whose position does not change with time is stored as a background. As a result, temporal image synchronization and distance image data integrated in one coordinate system can be obtained. The synchronization processing unit 13 stores the distance image data in the storage unit 12. Then, the synchronization processing unit 13 notifies the locus calculation unit 14 of the end of the synchronization processing.

これを受けて、軌跡算出部14は、距離画像データ記憶部12から距離画像データを読み出し、この距離画像データから通行人の足に当たった複数のレーザビームをまとめて、どのポイントクラウドが1本の足に当たるのかを推定するクラスタリング処理を行う。これは、最初の背景差分によって移動体データを抽出し、これらのポイントクラウドの中で、半径10cm以内に集まっているデータを足断面データをクラスタリングする処理である。   In response to this, the trajectory calculation unit 14 reads out the distance image data from the distance image data storage unit 12, collects a plurality of laser beams that have hit the passersby from the distance image data, and which point cloud is one. A clustering process is performed to estimate whether the foot hits the foot. This is a process of extracting moving body data based on the first background difference, and clustering foot cross-section data of data collected within a radius of 10 cm in these point clouds.

次に、軌跡算出部14は、クラスタリング処理で得られた足を2本まとめて、どれが1人の通行人に相当するのかを推定するグルーピング処理を行う。これは、クラスタリングされた足断面データに対して、30cm以内の距離にあるものを1人の通行人とみなしてグルーピングする処理である。   Next, the trajectory calculation unit 14 performs a grouping process to estimate which of the two legs obtained by the clustering process corresponds to one passer-by. This is a process of grouping the clustered foot cross-section data with a distance within 30 cm as one passer-by.

次に、軌跡算出部14は、グルーピングした通行人がどこへ移動したのかを追跡するトラッキング処理を行う。人間は、歩行する際、左右どちらか一方の足を軸足にして移動する。この動作を時系列上連続したフレームから抽出すれば、グルーピングした足断面にある程度重なりが出てくる。ここで、時系列で3フレーム以上重なりがあればこれらを通行軌跡とみなすことにより、通行軌跡のもととなるシードが抽出できることになる。続いて、離散型のカルマンフィルタを使用して、トラッキング処理で作成したシードを結合して、通行軌跡を延長する処理を行う。これにより、各通行人の通行軌跡が得られたこととなり、軌跡算出部14は、得られた通行軌跡を軌跡データ記憶部15へ記憶する。軌跡データは、各通行人毎に、各時刻(測定開始からの経過時間)の存在位置座標値から構成される。このトラッキング(追跡)する動作を概念的にまとめた処理フローを図3のステップS1〜S5に示す。   Next, the trajectory calculation unit 14 performs a tracking process that tracks where the grouped passerby has moved. When a human walks, he or she moves using either the left or right foot as an axis foot. If this operation is extracted from time-sequential frames, the grouped foot cross-sections will overlap to some extent. Here, if there is an overlap of 3 frames or more in time series, the seeds that are the basis of the traffic track can be extracted by considering these as traffic tracks. Subsequently, a discrete Kalman filter is used to combine the seeds created in the tracking process to extend the trajectory. As a result, the trajectory of each passerby is obtained, and the trajectory calculation unit 14 stores the obtained trajectory in the trajectory data storage unit 15. The trajectory data is composed of the position coordinate values at each time (elapsed time from the start of measurement) for each passerby. A processing flow conceptually summarizing the tracking operation is shown in steps S1 to S5 in FIG.

次に、軌跡データ記憶部15に記憶されている軌跡データを出力する動作を説明する。解析者の入力操作を受けて、軌跡出力部19は、軌跡データ記憶部15から軌跡データを読み出し、各通行人毎に、各存在位置座標値間を補間する線で結び、進行方向別に色分けして表示部20へ表示する。図4に、表示部20へ軌跡データを表示した例を示す。図4(a)は、空間の平面図に対して、軌跡データをプロットした図である。図4(b)は、図4(a)の一部分の拡大図である。また、図6に、図5に示す駅のコンコースの平面図と軌跡データを重ね合わせて表示した例を示す。   Next, an operation for outputting the trajectory data stored in the trajectory data storage unit 15 will be described. In response to the input operation of the analyst, the trajectory output unit 19 reads the trajectory data from the trajectory data storage unit 15, connects each passerby with a line that interpolates between the existing position coordinate values, and color-codes each travel direction. Are displayed on the display unit 20. FIG. 4 shows an example in which locus data is displayed on the display unit 20. FIG. 4A is a diagram in which locus data is plotted with respect to a plan view of a space. FIG. 4B is an enlarged view of a part of FIG. FIG. 6 shows an example in which the plan view of the station concourse shown in FIG.

次に、軌跡データ記憶部15に記憶されている軌跡データに基づいて、図5に示す駅のコンコース内を通行する通行人の密度を算出して、出力する密度算出部16の動作を説明する。まず、密度算出部16は、解析者の密度分布表示の入力操作を受けて、計測対象空間を小さい領域(1m四方の領域)に分割する。そして、密度算出部16は、軌跡データ記憶部15に記憶されている軌跡データを参照して、分割した領域内を単位時間(例えば、30秒)内に通過した軌跡の個数をカウントする。このカウント値を密度の強度値として、表示部20へ表示する。図7に、図5に示す駅のコンコースの平面図と各領域内の密度の値を重ね合わせて表示した例を示す。   Next, based on the trajectory data stored in the trajectory data storage unit 15, the density calculation unit 16 that calculates and outputs the density of passers-by passing through the concourse of the station shown in FIG. 5 will be described. To do. First, the density calculation unit 16 divides the measurement target space into small areas (1 m square area) in response to an input operation of density distribution display by the analyst. Then, the density calculation unit 16 refers to the trajectory data stored in the trajectory data storage unit 15 and counts the number of trajectories that have passed through the divided area within a unit time (for example, 30 seconds). The count value is displayed on the display unit 20 as a density intensity value. FIG. 7 shows an example in which the plan view of the station concourse shown in FIG. 5 and the density value in each region are displayed in an overlapping manner.

次に、軌跡データ記憶部15に記憶されている軌跡データに基づいて、図5に示す駅のコンコース内を通行する通行人の速度を算出して、出力する速度算出部17の動作を説明する。まず、速度算出部16は、解析者の速度分布表示の入力操作を受けて、計測対象空間を小さい領域(1m四方の領域)に分割する。そして、速度算出部17は、軌跡データ記憶部15に記憶されている軌跡データを参照して、分割した領域内を単位時間(例えば、30秒)内に所定の方向へ通過した軌跡の速度を求める。この速度値を速度分布として、表示部20へ表示する。図8に、図5に示す駅のコンコースの平面図と各領域内の速度の値(ホームから改札へ向かう通行人の速度)を重ね合わせて表示した例を示す。   Next, based on the trajectory data stored in the trajectory data storage unit 15, the operation of the speed calculation unit 17 that calculates and outputs the speed of the passers-by passing through the concourse of the station shown in FIG. To do. First, the speed calculation unit 16 divides the measurement target space into small areas (1 m square area) in response to the input operation of the speed distribution display of the analyst. Then, the speed calculation unit 17 refers to the trajectory data stored in the trajectory data storage unit 15, and calculates the speed of the trajectory that has passed through the divided area in a predetermined direction within a unit time (for example, 30 seconds). Ask. This speed value is displayed on the display unit 20 as a speed distribution. FIG. 8 shows an example in which the plan view of the station concourse shown in FIG. 5 and the speed value in each area (the speed of the passers-by from the platform to the ticket gate) are displayed in an overlapping manner.

次に、軌跡データ記憶部15に記憶されている軌跡データに基づいて、図5に示す駅のコンコース内を通行する通行人の混雑度を算出して、出力する混雑度算出部18の動作を説明する。ここで、図9を参照して、混雑度について説明する。混雑度とは、通行人同士の接近距離と進行方向ベクトルがなす交差角とのそれぞれが所定のしきい値の範囲内になった状態が、単位時間当たりにどの位置で何回発生したか示す度合いである。混雑度算出部18は、解析者の混雑度表示の入力操作を受けて、軌跡データ記憶部15に記憶されている軌跡データを読み出して、各通行人毎に、各存在位置座標値間を補間する線で結び、表示部20へ表示するとともに、各軌跡データから、接近距離と進行方向ベクトルがなす交差角を求める。そして、混雑度算出部18は、接近距離が60cm以下でかつ、進行方向ベクトルがなす交差角が180°±45°である状態が発生した位置を軌跡表示と重ね合わせて表示する。図10に、図5に示す駅のコンコースの平面図と、通行軌跡と、通行人同士の接近距離と進行方向ベクトルがなす交差角とのそれぞれが所定のしきい値の範囲内になった状態が発生した位置とを重ね合わせて表示した例を示す。   Next, based on the trajectory data stored in the trajectory data storage unit 15, the congestion degree calculation unit 18 that calculates and outputs the congestion degree of passers-by passing through the concourse of the station shown in FIG. 5. Will be explained. Here, the degree of congestion will be described with reference to FIG. Congestion level indicates how many times each unit time a state in which the approach distance between passers-by and the crossing angle formed by the traveling direction vector are within a predetermined threshold range has occurred. Degree. The congestion degree calculation unit 18 reads the trajectory data stored in the trajectory data storage unit 15 in response to an input operation of the congestion level display by the analyst, and interpolates between the respective position coordinates for each passerby. Are connected to each other and displayed on the display unit 20, and the intersection angle formed by the approach distance and the traveling direction vector is obtained from each trajectory data. Then, the congestion degree calculation unit 18 superimposes and displays the position where the state in which the approach distance is 60 cm or less and the crossing angle formed by the traveling direction vector is 180 ° ± 45 ° is superimposed on the trajectory display. In FIG. 10, the plan view of the station concourse shown in FIG. 5, the trajectory, the approaching distance between the passers-by and the intersection angle formed by the traveling direction vector are within predetermined threshold values. An example in which the position where the state has occurred is displayed in an overlapping manner is shown.

次に、図11を参照して、求めた通行人の密度の値に基づいて、使用するレーザセンサ2の台数を決定する動作を説明する。まず、データ受信部11が各クライアントPC3から距離画像データを受信し、先に説明した動作によって、密度算出部16が通行人の密度を算出する(ステップS11、S12)。算出した密度の値は、密度算出部16から台数決定部22へ出力する。これを受けて、台数決定部22は、直前の処理によって求めた密度の値と新たに求めた密度レベルが変化したか否かを判定する(ステップS13)。この判定は、台数テーブル23を参照して、求めた密度の値がどの密度レベルに該当するかを求め、密度レベルが変化したか否かを判定することにより行う。   Next, with reference to FIG. 11, the operation of determining the number of laser sensors 2 to be used will be described based on the obtained passer density value. First, the data receiving unit 11 receives the distance image data from each client PC 3, and the density calculating unit 16 calculates the passerby density by the operation described above (steps S11 and S12). The calculated density value is output from the density calculation unit 16 to the number determination unit 22. In response to this, the number determination unit 22 determines whether or not the density value obtained by the immediately preceding process and the newly obtained density level have changed (step S13). This determination is performed by referring to the number table 23 to determine which density level the obtained density value corresponds to and determining whether the density level has changed.

ここで、図12を参照して、台数テーブルの構造を説明する。台数テーブル23は、使用するレーザセンサ3の台数(1台〜4台)と、密度レベル(0〜3)と、密度値の範囲が関係付けられて予め記憶されている。例えば、密度算出部16から出力された密度の最大値が「0.3人/m」である場合、密度レベルは「2」となり、新たに出力された密度の最大値が「0.6人/m」である場合、密度レベルは「3」となるため、ステップS13の判定では、密度レベルが変化したとみなす。 Here, the structure of the number table will be described with reference to FIG. The number table 23 stores the number of laser sensors 3 to be used (1 to 4), the density level (0 to 3), and the density value range in advance. For example, when the maximum density value output from the density calculation unit 16 is “0.3 person / m 2 ”, the density level is “2”, and the maximum density value newly output is “0.6”. In the case of “person / m 2 ”, since the density level is “3”, it is considered that the density level has changed in the determination in step S13.

次に、ステップS13の判定の結果、密度レベルが変化した場合、台数決定部22は、新たな密度レベルに対応する台数を台数テーブル23から読み出し、この読み出した台数を使用台数として決定する(ステップS14)。そして、台数決定部22は、データ送信部24を介して、ここで決定した使用台数を各クライアントPC3へ通知する(ステップS15)。これを受けて、クライアントPC3は、通知された使用台数に基づいてレーザセンサ2を制御する。各クライアントPC3は、使用台数の値毎に自身に接続されているレーザセンサ2を動作させるか否かが予め決められており、この規則に基づいて、自身に接続されているレーザセンサ2を動作させる(ステップS16)。これにより、通行人の密度に基づいて、使用するレーザセンサ2の台数が増減し、密度が小さい場合には、少ない台数で計測し、密度が大きい場合は、多い台数で計測を行うことができる。   Next, when the density level changes as a result of the determination in step S13, the number determination unit 22 reads the number corresponding to the new density level from the number table 23, and determines this read number as the used number (step). S14). Then, the number determination unit 22 notifies each client PC 3 of the number of use determined here via the data transmission unit 24 (step S15). In response to this, the client PC 3 controls the laser sensor 2 based on the notified number of used devices. Each client PC 3 determines in advance whether or not to operate the laser sensor 2 connected to itself for each value of the number of units used, and operates the laser sensor 2 connected to itself based on this rule. (Step S16). As a result, the number of laser sensors 2 to be used is increased or decreased based on the passerby density. When the density is low, measurement can be performed with a small number, and when the density is large, measurement can be performed with a large number. .

このように、距離画像データの統合により得られる通行人の軌跡データを方向別に色分けし可視化することで、特定の目的地に向かう通行人がおおよそどの部分を移動しているかを把握することができる。また、通行人の軌跡データに、それぞれの時刻における通行人同士の相対距離ならびに歩行者の進行方向ベクトルがなす交差角を閾値として与えることにより、通行人同士の衝突現象を検知することができ、衝突現象が検知された箇所を可視化することで、駅のコンコースのどこで、特にそのような現象が生じているかを把握することができる。また、通行人の軌跡データを方向別に分けた後、データ上に所定領域を想定し、その領域を通過した方向別のベクトルがある一定時間に移動した距離を平均化し、その平均値を時間で割ることで、その領域における通行人の平均移動速度が求められる。平均移動速度の大きさを色分けして表示することにより、コンコース内のどの部分で移動に時間を要しているか、また移動し易さし難さについても把握することができる。また、ある単位時間あたりに、通行人の軌跡データ上に設けた所定領域を通過した軌跡の個数をカウントし、カウントした値を領域面積で割ることにより、その領域における通行人の流動密度を求めることができる。流動密度の大きさを色分けして表示することにより、コンコース内のどの部分で混雑しているかを把握することができる。また、通行密度に応じて、使用するレーザセンサの台数を決定するようにしたため、最適な台数で最適な計測を行うことが可能となる。   Thus, by visualizing the passerby's trajectory data obtained by integrating the distance image data by color-coded for each direction, it is possible to grasp which part of the passerby who is moving to a specific destination is moving. . In addition, by providing the trajectory data of passersby as a threshold with the relative distance between passers-by at each time and the crossing angle formed by the pedestrian travel direction vector, it is possible to detect a collision phenomenon between passers-by, By visualizing the location where the collision phenomenon is detected, it is possible to grasp where such a phenomenon occurs in the concourse of the station. Also, after dividing the passerby's trajectory data by direction, assuming a predetermined area on the data, average the distance traveled for a certain time by a vector for each direction that passed the area, and the average value is calculated by time By dividing, the average moving speed of passersby in the area is obtained. By displaying the size of the average moving speed in different colors, it is possible to grasp in which part of the concourse it takes time and the difficulty of moving. Also, by counting the number of trajectories that have passed through a predetermined area provided on the passerby's trajectory data per unit time and dividing the counted value by the area, the passerby's flow density in that area is obtained. be able to. By displaying the size of the flow density in different colors, it is possible to grasp which part of the concourse is crowded. In addition, since the number of laser sensors to be used is determined according to the traffic density, it is possible to perform optimum measurement with the optimum number.

また、通行密度と通行速度を組み合わせることにより、混んでいるのに移動しやすい、空いているのに移動し難い、混んでいてかつ移動し難い、空いていてかつ移動しやすい、といったコンコース内の箇所ごとの特質を把握することができる。また、通行速度と衝突検知を組み合わせることにより、コンコース内の箇所ごとの移動のし易さ、し難さと、通行人同士の衝突の出現頻度との関係を把握することができる。さらには、通行密度と衝突検知を組み合わせることにより、コンコース内の箇所ごとの混み具合と、旅客同士の衝突の出現頻度との関係を把握することができる。   Also, by combining the traffic density and the traffic speed, it is easy to move in the crowd, difficult to move in the vacant space, crowded and difficult to move, vacant and easy to move in the concourse. The characteristics of each part can be grasped. Further, by combining the passage speed and the collision detection, it is possible to grasp the relationship between the ease and difficulty of movement for each location in the concourse and the appearance frequency of collision between passers-by. Furthermore, by combining the traffic density and collision detection, it is possible to grasp the relationship between the degree of congestion at each location in the concourse and the frequency of appearance of collision between passengers.

なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより通行人行動の解析処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Note that a program for realizing the function of the processing unit in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed, thereby executing a passerby action. Analysis processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明の一実施形態の構成を示す模式図である。It is a schematic diagram which shows the structure of one Embodiment of this invention. 図1に示すサーバ1の構成を示すブロック図である。It is a block diagram which shows the structure of the server 1 shown in FIG. トラッキング処理の動作を示す説明図である。It is explanatory drawing which shows operation | movement of a tracking process. 通行軌跡の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of a trajectory. 計測対象の空間の平面図である。It is a top view of the space of measurement object. 行動解析結果の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of an action analysis result. 行動解析結果の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of an action analysis result. 行動解析結果の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of an action analysis result. 衝突現象を説明する図を示す説明図である。It is explanatory drawing which shows the figure explaining a collision phenomenon. 行動解析結果の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of an action analysis result. 使用台数決定処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a used number determination process. 台数テーブルのテーブル構造を示す説明図である。It is explanatory drawing which shows the table structure of a number table.

符号の説明Explanation of symbols

1・・・サーバ、2・・・レーザセンサ、3・・・クライアントPC、4・・・ネットワーク、5・・・ビデオカメラ、6・・・空間、7・・・通行人
DESCRIPTION OF SYMBOLS 1 ... Server, 2 ... Laser sensor, 3 ... Client PC, 4 ... Network, 5 ... Video camera, 6 ... Space, 7 ... Passerby

Claims (5)

所定の空間内における通行人の行動を解析する通行人行動解析システムであって、
距離画像を取得する複数の距離画像取得手段と、
前記複数の距離画像取得手段の距離画像取得タイミングを同期させる同期手段と、
前記距離画像取得手段がそれぞれ取得した複数の距離画像の座標系を1つの座標系に統合する座標系統合手段と、
座標系を統合した前記距離画像から前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、
同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、
所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する第1の記憶手段と、
前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内を小さく分割した領域毎に存在する通行人の人数から前記領域毎の密度を求める密度算出手段と、
前記密度の値と距離画像取得手段の台数が予め関係付けられて記憶された第2の記憶手段と、
前記第1の記憶手段に記憶されている所定時間内の位置座標の時間的変化のデータに基づいて、通行人の行動を解析する行動解析手段と
を備え、
前記座標系統合手段は、前記密度算出手段により得られた密度の値に関係つけられている距離画像取得手段の台数を前記第2の記憶手段から読み出し、読み出した台数の距離画像取得手段を使用して得られた距離画像の座標系を統合する
ことを特徴とする通行人行動解析システム。
A passer-behavior analysis system that analyzes the behavior of passers-by in a predetermined space,
A plurality of distance image acquisition means for acquiring a distance image;
Synchronization means for synchronizing distance image acquisition timings of the plurality of distance image acquisition means;
Coordinate system integration means for integrating the coordinate systems of a plurality of distance images respectively acquired by the distance image acquisition means into one coordinate system;
Position detecting means for determining the position coordinates of each passerby who passes through the space from the distance image obtained by integrating the coordinate system;
Tracking processing means for tracking the position of the same passerby to obtain temporal changes in the position coordinates of each passer;
First storage means for storing, for each passerby, data of temporal changes in position coordinates within a predetermined time;
Density calculating means for obtaining the density of each area from the number of passersby existing for each area obtained by dividing the space from the temporal change data of the position coordinates stored in the storage means;
Second storage means in which the density value and the number of distance image acquisition means are stored in association with each other;
Action analysis means for analyzing the behavior of a passer-by based on data of temporal changes in position coordinates within a predetermined time stored in the first storage means,
The coordinate system integration means reads the number of distance image acquisition means related to the density value obtained by the density calculation means from the second storage means, and uses the read number of distance image acquisition means. A passer-behavior analysis system that integrates the coordinate system of distance images obtained in this way.
所定の空間内における通行人の行動を解析する通行人行動解析システムであって、
前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、
同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、
所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、
前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内の各通行人それぞれの通行軌跡を求める手段と、
所定空間の所定時間内に通行した通行人全ての通行軌跡を表示する表示手段と
を備えたことを特徴とする通行人行動解析システム。
A passer-behavior analysis system that analyzes the behavior of passers-by in a predetermined space,
Position detecting means for determining the position coordinates of each passerby that passes through the space;
Tracking processing means for tracking the position of the same passerby to obtain temporal changes in the position coordinates of each passer;
Storage means for storing data of temporal changes in position coordinates within a predetermined time for each passer-by,
Means for obtaining the passage trajectory of each passerby in the space from the temporal change data of the position coordinates stored in the storage means;
A passer behavior analysis system comprising: a display unit that displays a trajectory of all passers-by who pass within a predetermined time in a predetermined space.
所定の空間内における通行人の行動を解析する通行人行動解析システムであって、
前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、
同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、
所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、
前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内の各通行人それぞれの通行速度を求める手段と、
所定空間の所定時間内に通行した通行人全ての通行速度分布を表示する表示手段と
を備えたことを特徴とする通行人行動解析システム。
A passer-behavior analysis system that analyzes the behavior of passers-by in a predetermined space,
Position detecting means for determining the position coordinates of each passerby that passes through the space;
Tracking processing means for tracking the position of the same passerby to obtain temporal changes in the position coordinates of each passer;
Storage means for storing data of temporal changes in position coordinates within a predetermined time for each passer-by,
Means for determining the passing speed of each passerby in the space from temporal change data of the position coordinates stored in the storage means;
A passer behavior analysis system comprising: display means for displaying a passing speed distribution of all passers-by who pass within a predetermined time in a predetermined space.
所定の空間内における通行人の行動を解析する通行人行動解析システムであって、
前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、
同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、
所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、
前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内の各通行人それぞれの通行軌跡を求める手段と、
前記通行軌跡から前記空間内の各通行人同士の接近相対距離及び進行方向ベクトルがなす交差角を求める手段と、
所定空間の所定時間内における前記接近距離及び前記交差角が所定のしきい値の範囲内の状態が発生した位置を表示する表示手段と
を備えたことを特徴とする通行人行動解析システム。
A passer-behavior analysis system that analyzes the behavior of passers-by in a predetermined space,
Position detecting means for determining the position coordinates of each passerby that passes through the space;
Tracking processing means for tracking the position of the same passerby to obtain temporal changes in the position coordinates of each passer;
Storage means for storing data of temporal changes in position coordinates within a predetermined time for each passer-by,
Means for obtaining the passage trajectory of each passerby in the space from the temporal change data of the position coordinates stored in the storage means;
Means for obtaining the crossing angle formed by the approaching relative distance and the traveling direction vector of each passerby in the space from the trajectory;
A passer-behavior analysis system comprising: a display unit configured to display a position where the approach distance and the crossing angle within a predetermined time in a predetermined space are within a predetermined threshold range.
所定の空間内における通行人の行動を解析する通行人行動解析システムであって、
前記空間内を通行する通行人それぞれの位置座標を求める位置検出手段と、
同一の通行人の位置をトラッキングして、各通行人の位置座標の時間的変化を求めるトラッキング処理手段と、
所定時間内の位置座標の時間的変化のデータを各通行人毎に記憶する記憶手段と、
前記記憶手段に記憶されている位置座標の時間的変化データから前記空間内を小さく分割した領域毎に存在する通行人の人数を求める手段と、
所定空間の前記領域内を所定時間内に存在した通行人の密度分布を表示する表示手段と
を備えたことを特徴とする通行人行動解析システム。
A passer-behavior analysis system that analyzes the behavior of passers-by in a predetermined space,
Position detecting means for determining the position coordinates of each passerby that passes through the space;
Tracking processing means for tracking the position of the same passerby to obtain temporal changes in the position coordinates of each passer;
Storage means for storing data of temporal changes in position coordinates within a predetermined time for each passer-by,
Means for determining the number of passersby present in each area obtained by dividing the space into smaller parts from the temporal change data of the position coordinates stored in the storage means;
A passer behavior analysis system comprising: display means for displaying a density distribution of passersby who existed within a predetermined time in the region of a predetermined space.
JP2004168388A 2004-06-07 2004-06-07 Passer behavior analysis system Active JP4493415B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004168388A JP4493415B2 (en) 2004-06-07 2004-06-07 Passer behavior analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004168388A JP4493415B2 (en) 2004-06-07 2004-06-07 Passer behavior analysis system

Publications (2)

Publication Number Publication Date
JP2005346617A true JP2005346617A (en) 2005-12-15
JP4493415B2 JP4493415B2 (en) 2010-06-30

Family

ID=35498904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004168388A Active JP4493415B2 (en) 2004-06-07 2004-06-07 Passer behavior analysis system

Country Status (1)

Country Link
JP (1) JP4493415B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008026997A (en) * 2006-07-18 2008-02-07 Denso Corp Pedestrian recognition device and pedestrian recognition method
JP2008076234A (en) * 2006-09-21 2008-04-03 Hitachi Information & Communication Engineering Ltd Moving object measuring system
JP2008275442A (en) * 2007-04-27 2008-11-13 Univ Of Tokyo Laser measurement system and method
JP2009110185A (en) * 2007-10-29 2009-05-21 East Japan Railway Co Passerby behavior analyzer, passerby behavior analysis method, and its program
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
JP2011076316A (en) * 2009-09-30 2011-04-14 Fujifilm Corp Device, method and program for crowd watching
JP2011220904A (en) * 2010-04-13 2011-11-04 Advanced Telecommunication Research Institute International Position detection system
CN102313817A (en) * 2011-07-27 2012-01-11 北京北大千方科技有限公司 Method for detecting passenger flow movement speed
JP2012014602A (en) * 2010-07-05 2012-01-19 Hitachi Ltd Signage terminal and system for the same
JP2012073683A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Person detection device, person detection method and program
WO2012111138A1 (en) * 2011-02-18 2012-08-23 株式会社日立製作所 Pedestrian movement information detection device
JP2012203646A (en) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program
JP2013064671A (en) * 2011-09-20 2013-04-11 Advanced Telecommunication Research Institute International Measurement system and measurement method
JP2018028823A (en) * 2016-08-18 2018-02-22 日本電信電話株式会社 Clustering device and clustering method
CN108417054A (en) * 2018-03-15 2018-08-17 战国昌 Laser remote sensing intelligent transportation system
JP2019139498A (en) * 2018-02-09 2019-08-22 株式会社日立製作所 Control system and control method
JP2020106475A (en) * 2018-12-28 2020-07-09 株式会社日立エルジーデータストレージ Sensor system and distance measuring method
WO2021064943A1 (en) * 2019-10-03 2021-04-08 三菱電機株式会社 Display processing device, display processing method, and program
KR20220009491A (en) 2019-07-19 2022-01-24 미쓰비시덴키 가부시키가이샤 Display processing apparatus, display processing method and storage medium
WO2023053336A1 (en) * 2021-09-30 2023-04-06 日本電気株式会社 Information provision system, information provision method, and program recording medium
JP7470964B2 (en) 2020-03-05 2024-04-19 学校法人 中央大学 Analysis system and analysis method

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008026997A (en) * 2006-07-18 2008-02-07 Denso Corp Pedestrian recognition device and pedestrian recognition method
JP2008076234A (en) * 2006-09-21 2008-04-03 Hitachi Information & Communication Engineering Ltd Moving object measuring system
JP2008275442A (en) * 2007-04-27 2008-11-13 Univ Of Tokyo Laser measurement system and method
JP2009110185A (en) * 2007-10-29 2009-05-21 East Japan Railway Co Passerby behavior analyzer, passerby behavior analysis method, and its program
JP4631036B2 (en) * 2007-10-29 2011-02-16 東日本旅客鉄道株式会社 Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
JP2011076316A (en) * 2009-09-30 2011-04-14 Fujifilm Corp Device, method and program for crowd watching
JP2011220904A (en) * 2010-04-13 2011-11-04 Advanced Telecommunication Research Institute International Position detection system
JP2012014602A (en) * 2010-07-05 2012-01-19 Hitachi Ltd Signage terminal and system for the same
JP2012073683A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Person detection device, person detection method and program
WO2012111138A1 (en) * 2011-02-18 2012-08-23 株式会社日立製作所 Pedestrian movement information detection device
JP2012203646A (en) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program
CN102313817A (en) * 2011-07-27 2012-01-11 北京北大千方科技有限公司 Method for detecting passenger flow movement speed
JP2013064671A (en) * 2011-09-20 2013-04-11 Advanced Telecommunication Research Institute International Measurement system and measurement method
JP2018028823A (en) * 2016-08-18 2018-02-22 日本電信電話株式会社 Clustering device and clustering method
JP6998225B2 (en) 2018-02-09 2022-02-04 株式会社日立製作所 Control system and control method
JP2019139498A (en) * 2018-02-09 2019-08-22 株式会社日立製作所 Control system and control method
CN108417054A (en) * 2018-03-15 2018-08-17 战国昌 Laser remote sensing intelligent transportation system
JP2020106475A (en) * 2018-12-28 2020-07-09 株式会社日立エルジーデータストレージ Sensor system and distance measuring method
JP7194015B2 (en) 2018-12-28 2022-12-21 株式会社日立エルジーデータストレージ Sensor system and distance measurement method
DE112019007455T5 (en) 2019-07-19 2022-03-03 Mitsubishi Electric Corporation DISPLAY PROCESSING DEVICE, DISPLAY PROCESSING METHOD AND PROGRAM
KR20220009491A (en) 2019-07-19 2022-01-24 미쓰비시덴키 가부시키가이샤 Display processing apparatus, display processing method and storage medium
CN114096999A (en) * 2019-07-19 2022-02-25 三菱电机株式会社 Display processing device, display processing method, and program
KR102436618B1 (en) 2019-07-19 2022-08-25 미쓰비시덴키 가부시키가이샤 Display processing apparatus, display processing method and storage medium
JP6996669B2 (en) 2019-10-03 2022-02-04 三菱電機株式会社 Display processing device, display processing method and program
JPWO2021064943A1 (en) * 2019-10-03 2021-04-08
WO2021064943A1 (en) * 2019-10-03 2021-04-08 三菱電機株式会社 Display processing device, display processing method, and program
JP7470964B2 (en) 2020-03-05 2024-04-19 学校法人 中央大学 Analysis system and analysis method
WO2023053336A1 (en) * 2021-09-30 2023-04-06 日本電気株式会社 Information provision system, information provision method, and program recording medium

Also Published As

Publication number Publication date
JP4493415B2 (en) 2010-06-30

Similar Documents

Publication Publication Date Title
JP4493415B2 (en) Passer behavior analysis system
US10108863B2 (en) System and method for detecting and tracking objects
Seer et al. Kinects and human kinetics: A new approach for studying pedestrian behavior
JP7163945B2 (en) Movement situation estimation device, movement situation estimation method, and program recording medium
Ahmetovic et al. Achieving practical and accurate indoor navigation for people with visual impairments
Ma et al. Experimental study on microscopic moving characteristics of pedestrians in built corridor based on digital image processing
KR101606100B1 (en) Video synopsis method and apparatus
CN105574501B (en) A kind of stream of people&#39;s video detecting analysis system
US9241138B2 (en) Image monitoring apparatus, image monitoring system, and image monitoring system configuration method
US20190294890A1 (en) Method and apparatus for surveillance
WO2012111138A1 (en) Pedestrian movement information detection device
JP4631036B2 (en) Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof
US20230412775A1 (en) Video monitoring apparatus, control method thereof, and computer readable medium
JP3831112B2 (en) Moving object measuring device
JP3655618B2 (en) Pedestrian age determination device, walking state / pedestrian age determination method and program
Hediyeh et al. Automated analysis of pedestrian crossing speed behavior at scramble-phase signalized intersections using computer vision techniques
JP2012037980A (en) Moving object prediction device and program
KR20160035121A (en) Method and Apparatus for Counting Entity by Using Location Information Extracted from Depth Image
Dridi Tracking individual targets in high density crowd scenes analysis of a video recording in hajj 2009
CN112668525A (en) People flow counting method and device, electronic equipment and storage medium
JP2015194915A (en) Moving body tracking apparatus, moving body tracking method, moving body tracking system, and camera
JP7359621B2 (en) Area setting support device, area setting support method, and area setting support program
Bevilacqua et al. Real time detection of stopped vehicles in traffic scenes
Malinovskiy et al. Model‐free video detection and tracking of pedestrians and bicyclists
JP2006085366A (en) Speed distribution analyzing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100406

R150 Certificate of patent or registration of utility model

Ref document number: 4493415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250