JP4631036B2 - Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof - Google Patents

Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof Download PDF

Info

Publication number
JP4631036B2
JP4631036B2 JP2007280598A JP2007280598A JP4631036B2 JP 4631036 B2 JP4631036 B2 JP 4631036B2 JP 2007280598 A JP2007280598 A JP 2007280598A JP 2007280598 A JP2007280598 A JP 2007280598A JP 4631036 B2 JP4631036 B2 JP 4631036B2
Authority
JP
Japan
Prior art keywords
passer
passerby
clustering
foot
walking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007280598A
Other languages
Japanese (ja)
Other versions
JP2009110185A (en
Inventor
ゆり 仲川
亮介 柴崎
肖偉 邵
卉菁 ▲趙▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
East Japan Railway Co
Original Assignee
University of Tokyo NUC
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, East Japan Railway Co filed Critical University of Tokyo NUC
Priority to JP2007280598A priority Critical patent/JP4631036B2/en
Publication of JP2009110185A publication Critical patent/JP2009110185A/en
Application granted granted Critical
Publication of JP4631036B2 publication Critical patent/JP4631036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、鉄道の駅などにおいて、通行人が移動、滞在する空間における通行人の行動を解析する通行人行動解析装置及び通行人行動解析方法並びにそのプログラムに関する。   The present invention relates to a passer-behavior analysis device, a passer-behavior analysis method, and a program for analyzing a passer-by behavior in a space where a passer-by moves and stays at a railway station or the like.

駅を利用する旅客がスムーズに流れ移動できることが駅における快適性の重要な要件となっているが、乗降客や乗換客などが複雑に入り組み、案内標識や出入り口を確認するための立ち止まりや売店での買い物、待ち合わせによる滞留など、スムーズな流れを阻害する要素が多数存在する。これにより旅客同士の衝突や混雑による歩行速度の低下などの問題が発生する。
駅環境の快適性を向上させる改良工事等を検討するための基礎情報収集として実施されてきた従来の旅客流動調査は、断面での通過人数を把握することが主であり、人手による調査が主流であったため、駅構内を面的移動する旅客の速度や方向、密度を総合的に解析するのは困難であった。
Passengers using the station can flow and move smoothly is an important requirement for the comfort of the station, but passengers and transfer passengers are complicated, stoppages and shops to check the signs and entrances and exits There are many factors that impede the smooth flow, such as shopping at a store or staying at a meeting. This causes problems such as a decrease in walking speed due to passenger collisions and congestion.
Conventional passenger flow surveys, which have been conducted as basic information collection for studying improvement works that improve the comfort of the station environment, are mainly to grasp the number of people passing through the section, and manual surveys are the mainstream. Therefore, it was difficult to comprehensively analyze the speed, direction, and density of passengers moving across the station.

このような問題を解決するために、道路の交差点に可視画像のカメラを設置し、このカメラにより、横断歩道を含む所定範囲の監視領域内の画像を撮像して、道路の交差点における歩行者の状況や人数を調べることにより、車両用信号および歩行者用信号の制御をより効率的に行なえ、結果として歩行者の安全を向上させることができる技術が知られている(例えば、特許文献1参照)。   In order to solve such a problem, a camera of a visible image is installed at a road intersection, and an image in a monitoring area of a predetermined range including a pedestrian crossing is captured by this camera, and a pedestrian at a road intersection is captured. By examining the situation and the number of people, a technique is known that can more efficiently control the signal for the vehicle and the signal for the pedestrian, and as a result, improve the safety of the pedestrian (see, for example, Patent Document 1). ).

ここで、特許文献1に示す装置は、可視のビデオ画像を使用しているため、通行人が交錯する時などに追跡処理が困難になる場合があり、通行人の正確な位置の追跡処理を行うのが困難であるという問題がある。また、この問題を避けるためカメラの設置位置や設置角度が大きく制約され、撮像範囲が狭くなるとともに、多数の通行人がある場合は計算処理負荷が大きくなってしまうという問題もある。そして、このような問題を解決し、距離画像を用いて通行人の行動を解析することができる技術が開示されている(例えば、特許文献2参照)。
特開平11−275562号公報 特開2005−346617号公報
Here, since the device shown in Patent Document 1 uses visible video images, tracking processing may be difficult when passers-by interlaces, and accurate tracking processing of passers-by is performed. There is a problem that it is difficult to do. In addition, in order to avoid this problem, the installation position and the installation angle of the camera are greatly restricted, the imaging range becomes narrow, and there are problems that the calculation processing load increases when there are many passersby. And the technique which can solve such a problem and can analyze a passerby's action using a distance picture is disclosed (for example, refer to patent documents 2).
JP 11-275562 A JP 2005-346617 A

しかしながら、特許文献2の技術では、必ずしも通行人の追跡処理の精度が十分ではなかったため、その処理の精度を上げることが望まれている。   However, in the technique of Patent Document 2, the accuracy of the passerby tracking process is not necessarily sufficient, and it is desired to increase the accuracy of the process.

そこでこの発明は、比較的に広い場所に大勢の人が存在するような場合における通行人の追跡処理の精度を向上させることのできる通行人行動解析装置を提供することを目的としている。   Accordingly, an object of the present invention is to provide a passer-by behavior analysis apparatus that can improve the accuracy of passer-by tracking processing when a large number of people are present in a relatively large place.

上記目的を達成するために、本発明は、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段と、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段と、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段と、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段と、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段と、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段と、を備えることを特徴とする通行人行動解析装置である。   In order to achieve the above object, the present invention uses distance data receiving means for receiving distance data indicating the distance of a passer's foot from a laser sensor, and a plurality of the distance data acquired by a plurality of the laser sensors. From the clustering result, sensing image data generating means for generating sensing image data indicating the detection position of the laser sensor on the spatial plane at the same time, clustering means for clustering a plurality of the detection positions in the sensing image data, and From the passer identification means for specifying the cluster corresponding to the foot of one passer-by, and the position of the passer's foot, the walking direction, the stride, the walking cycle, and the walking phase from the identified passer-by cluster Parameter determining means for determining the parameter, and the parameter and the particle filter algorithm The locus analysis means for analyzing the trajectory of passers by using prism, a passerby behavioral analysis apparatus comprising: a.

また本発明は、上述の通行人行動解析装置が、前記クラスタリングにおいて、Mean-shift Clusteringアルゴリズムを用いることを特徴とする。   Further, the present invention is characterized in that the above-mentioned passerby behavior analysis apparatus uses a Mean-shift Clustering algorithm in the clustering.

また本発明は、上述の通行人行動解析装置において、前記クラスタリング結果のクラスタが分割または統合するクラスタを、前記一人の通行人の足に対応するクラスタと特定することを特徴とする。   Further, the present invention is characterized in that, in the above-described passer-behavior analysis device, a cluster that is divided or integrated by the cluster of the clustering results is identified as a cluster corresponding to the leg of the one passer-by.

また本発明は、上述の通行人行動解析装置の前記軌跡解析処理手段が、前記Particle filterアルゴリズムの処理において、前記クラスタリング結果のクラスタにおいて特定した、前記通行人の左足の加速度および右足の加速度から、前記パラメータのうちの歩行位相を更新し当該歩行位相によって前記通行人の移動距離を更新し、またそれら更新した歩行位相と移動距離と前記歩行方向とから前記パラメータのうちの通行人の足のポイントの位置を予測することを特徴とすることを特徴とする。 In the present invention, the trajectory analysis processing unit of the above-mentioned passer-by behavior analysis apparatus , from the acceleration of the left foot and the right foot of the passer-by identified in the clustering result cluster in the processing of the Particle filter algorithm , The walking phase of the parameter is updated, the movement distance of the passerby is updated by the walking phase, and the foot point of the passerby of the parameter is updated from the updated walking phase, the movement distance, and the walking direction. It is characterized by predicting the position of .

また本発明は、通行人行動解析装置における通行人行動解析方法であって、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信処理と、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成処理と、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング処理と、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定処理と、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定処理と、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理と、を有することを特徴とする通行人行動解析方法である。   The present invention is also a passer-by behavior analysis method in a passer-by behavior analysis apparatus, which is obtained by a distance data receiving process for receiving distance data indicating a distance from a laser sensor of a passer's foot, and a plurality of the laser sensors. A plurality of the detected distance data, and sensing image data generation processing for generating sensing image data indicating the detection position of the laser sensor on the space plane at the same time, and clustering the plurality of detection positions in the sensing image data Clustering processing, passer identification processing for identifying a cluster corresponding to a passer's foot from the clustering result, and position of the passer's foot, walking direction, stride from the identified passer's cluster A parameter determination process for determining a parameter consisting of a walking cycle and a walking phase; A passerby behavioral analysis method characterized by having a trajectory analysis process for analyzing the trajectory of passers by using the serial parameters and Particle filter algorithm.

また本発明は、通行人行動解析装置のコンピュータに、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段、を実行させることを特徴とするプログラムである。   Further, the present invention provides a computer of a passer-by behavior analysis device, distance data receiving means for receiving distance data indicating a distance of a passer's foot from a laser sensor, and a plurality of the distance data acquired by the plurality of laser sensors. The sensing image data generating means for generating sensing image data indicating the detection position of the laser sensor on the spatial plane at the same time, clustering means for clustering a plurality of the detection positions in the sensing image data, and one person from the clustering result A passer specifying means for specifying a cluster corresponding to a passer's foot, a parameter comprising the position of the passer's foot, the walking direction, the stride, the walking cycle, and the walking phase from the specified passer's cluster Parameter determining means for determining the parameter and the particle filter Is a program for causing to execute a trajectory analysis means, for analyzing the trajectory of passers using Gorizumu.

本発明によれば、通行人が混み合っている場合においても、精度良く、各通行人の軌跡の解析手法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even when a passerby is crowded, the analysis method of the locus | trajectory of each passerby can be provided accurately.

以下、本発明の一実施形態による通行人行動解析装置を図面を参照して説明する。
図1は同実施形態による通行人行動解析システムの構成を示すブロック図である。
この図において、符号1は、予め決められた空間6内の通行人7の行動の解析処理を実行する通行人行動解析装置である。また符号2は、通行人等の物体までの距離を測定するレーザセンサである。レーザセンサ2は、床から約10cmの高さの水平面をスキャニングして、レーザの投光の高さに応じた水平断面で、静止物体・移動物体の両方が含まれた直交座標系における距離データを得ることができる。また符号3は、レーザセンサ2のそれぞれを制御するために、それぞれのレーザセンサ2毎に設けられたクライアントPC(パソコン)である。符号4は、各クライアントPC3と通行人行動解析装置1との間で情報通信を行うネットワークであり、クライアントPC3内に蓄積された計測データを通行人行動解析装置1へ転送し、サーバ1からの指示の情報をクライアントPC3へ送るために利用される。
Hereinafter, a passer-by behavior analysis apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a passer-by behavior analysis system according to the embodiment.
In this figure, reference numeral 1 denotes a passer-by behavior analysis device that executes a behavior analysis process of a passer-by 7 in a predetermined space 6. Reference numeral 2 denotes a laser sensor that measures the distance to an object such as a passerby. The laser sensor 2 scans a horizontal plane at a height of about 10 cm from the floor, and is a horizontal section corresponding to the height of the laser projection, and distance data in an orthogonal coordinate system that includes both stationary and moving objects. Can be obtained. Reference numeral 3 denotes a client PC (personal computer) provided for each laser sensor 2 in order to control each laser sensor 2. Reference numeral 4 denotes a network that performs information communication between each client PC 3 and the passer-by behavior analysis apparatus 1. The measurement data stored in the client PC 3 is transferred to the passer-by behavior analysis apparatus 1, and is sent from the server 1. It is used to send instruction information to the client PC 3.

次に、図2を参照して、図1に通行人行動解析装置1の構成を説明する。
図2は、図1に示す通行人行動解析装置1の構成を示すブロック図である。
この図において、符号11は、各クライアントPC3から距離データを受信する通信処理部である。また符合12はデータ受信部11において受信した距離データを記憶するセンシングデータ記憶部である。符号13は、距離データに基づいて、通行人の行動の解析処理を行うための各種パラメータを記憶するパラメータ情報記憶部である。また符号14は、時間的に同期させ、1つの座標系に統合したセンシング画像データから通行人7の足部分を抽出し、この通行人7を追跡するトラッキング処理を実行し、所定の空間6内を所定の時間内に通行した通行人の通行軌跡を算出する軌跡算出部である。また符号15は、軌跡算出部14において得られた各通行人の通行軌跡データを記憶する軌跡データ記憶部である。また符号16は、通行軌跡データに基づく通行軌跡画像を出力する軌跡出力部である。符号17は、ディスプレイで構成する表示部である。
Next, the configuration of the passer-by behavior analysis apparatus 1 will be described with reference to FIG.
FIG. 2 is a block diagram showing a configuration of the passer-by behavior analysis apparatus 1 shown in FIG.
In this figure, reference numeral 11 denotes a communication processing unit that receives distance data from each client PC 3. Reference numeral 12 denotes a sensing data storage unit for storing distance data received by the data receiving unit 11. Reference numeral 13 denotes a parameter information storage unit that stores various parameters for performing an analysis process of a passerby action based on the distance data. Further, reference numeral 14 denotes a time-synchronizing process that extracts a foot portion of the passerby 7 from sensing image data integrated in one coordinate system, and performs a tracking process for tracking the passerby 7. Is a trajectory calculation unit that calculates a trajectory of a passerby who has passed within a predetermined time. Reference numeral 15 denotes a trajectory data storage unit that stores the pass trajectory data of each passer-by obtained by the trajectory calculation unit 14. Reference numeral 16 denotes a trajectory output unit that outputs a trajectory image based on the traffic trajectory data. Reference numeral 17 denotes a display unit configured by a display.

次に、通行人7を抽出し、トラッキング(追跡)する動作を説明する。
まず、各クライアントPC3は、レーザセンサ2から得た距離データを通行人行動解析装置1へ転送する。これを受けて、通信処理部11は、各クライアントPC3から受信した距離データをセンシングデータ記憶部12に記録する。
Next, an operation of extracting and tracking the passerby 7 will be described.
First, each client PC 3 transfers the distance data obtained from the laser sensor 2 to the passer-by behavior analysis apparatus 1. In response to this, the communication processing unit 11 records the distance data received from each client PC 3 in the sensing data storage unit 12.

次に、軌跡算出部14は、センシングデータ記憶部12に記憶されている複数の距離データを読み出し、時間的同期を取るとともに、1つの座標系に統合したセンシング画像データを生成する。そしてセンシング画像データを生成すると、軌跡算出部14はトラッキング処理を開始する。   Next, the trajectory calculation unit 14 reads a plurality of distance data stored in the sensing data storage unit 12 to obtain temporal synchronization and generate sensing image data integrated into one coordinate system. When the sensing image data is generated, the trajectory calculation unit 14 starts tracking processing.

図3はセンシング画像データの概要を示す図である。
この図が示すように、センシング画像データは、通行人の足から反射したレーザ光により特定された距離データを、複数のレーザセンサ2から受信して生成したものであり、そのセンシング画像データの出力には、レーザセンサ、通行人の足のポイント、背景(壁や柱など)が表示される。なお、本実施形態ではレーザセンサ2は、地表から10cmの高さでレーザ光を送信してその反射により通行人の踝付近の距離を検出しているが、これは、腰近辺の高さであると、多数の人が交錯した際に、その空間における測定対象の混雑度が高くなり、測定が難しくなるためである。
FIG. 3 is a diagram showing an outline of sensing image data.
As shown in this figure, sensing image data is generated by receiving distance data specified by laser light reflected from a leg of a passerby from a plurality of laser sensors 2, and outputting the sensing image data. Displays a laser sensor, a foot point of a passerby, and a background (such as a wall or a pillar). In this embodiment, the laser sensor 2 transmits a laser beam at a height of 10 cm from the ground surface and detects the distance near the passer's heel by its reflection, but this is the height near the waist. This is because when many people cross each other, the degree of congestion of the measurement object in the space increases, making measurement difficult.

図4は歩行モデルの概要を示す第1の図である。
次に、軌跡算出部によるトラッキング処理について説明する。
まず、通行人の足の軌跡は周期的である。つまり、レーザセンサ2によって得られたデータでは、通行人の2つの足からは、図4に示すような、周期的かつ網紐のようなデータが取得できると考えられる。そこで、本実施形態による歩行モデルは、Particle filterルゴリズムを用いて、通行人の状態を予測する手法をとる。なお、前提として、(1)歩行者は2速歩行であること、(2)通行人の足の測定があいまいにならないように通行人は足付近に何らかの付帯物をつけていないこと、とする。
FIG. 4 is a first diagram showing an outline of the walking model.
Next, tracking processing by the locus calculation unit will be described.
First, the trajectory of the passer's foot is periodic. That is, it is considered that the data obtained by the laser sensor 2 can acquire periodic and net-like data as shown in FIG. 4 from two legs of a passerby. Therefore, the walking model according to the present embodiment, using a Particle filter algorithm takes a method to predict the passers state. As a premise, (1) the pedestrian is walking in 2nd speed, and (2) the passerby does not attach any accessories near the foot so that the measurement of the passer's foot is not ambiguous. .

図5は歩行モデルの概要を示す第2の図である。
通行人が歩行している際には、通常、典型的な足のスイング様態を見ることができる。図5は、その典型的な足のスイング様態を示している。この図が示すように、通行人の2つの足は、その歩行時の2つの足それぞれの役割として交互にスイングされている。そして、図5で示すように、まず、歩行人が右足から歩こうと考えたときには、右足のスイングを前方に加速させる。そして、右足がスイングしている間、その力は徐々に軽減し、右足のスイングが止まる。また同様に右足が止まると、次に左足の加速度をつけてスイングし、徐々に力を軽減して、左足が止まる。そして、図5で示すような、加速度、速さ、移動距離の関係が導かれる。なお図5において破線は右足を、実線は左足を表している。そして右足の加速度は次式(1)のように表すことができる。
FIG. 5 is a second diagram showing an outline of the walking model.
When a passerby is walking, a typical foot swing mode can usually be seen. FIG. 5 shows the typical foot swing mode. As shown in this figure, the two feet of the passerby are alternately swung as roles of the two feet during walking. Then, as shown in FIG. 5, first, when a pedestrian thinks to walk from the right foot, the swing of the right foot is accelerated forward. And while the right foot is swinging, the force is gradually reduced and the swing of the right foot is stopped. Similarly, when the right foot stops, it swings with the acceleration of the left foot, gradually reducing the force, and the left foot stops. And the relationship of acceleration, speed, and moving distance as shown in FIG. 5 is derived. In FIG. 5, the broken line represents the right foot and the solid line represents the left foot. The acceleration of the right foot can be expressed as the following equation (1).

Figure 0004631036
Figure 0004631036

ここで、式(1)において、Aは最大の加速度である。またTは歩行周期(左足1歩、右足1歩を1周期とする)を示している。従って、右足の速さv(t)および移動距離S(t)は、式(2)、式(3)により表すことができる。 Here, in Expression (1), A is the maximum acceleration. T represents a walking cycle (one step for the left foot and one step for the right foot as one cycle). Therefore, the speed v R (t) and the moving distance S R (t) of the right foot can be expressed by Expression (2) and Expression (3).

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

また同様に左足の移動距離S(t)は、式(4)により表すことができる。 Similarly, the movement distance S L (t) of the left foot can be expressed by Expression (4).

Figure 0004631036
Figure 0004631036

従って、2つの足の距離S(t)は、式(3)および式(4)より、 Therefore, the distance S d (t) between the two feet is obtained from the equations (3) and (4):

Figure 0004631036
Figure 0004631036

と表すことができる。また2つの足の距離S(t)は図11(左足と右足の距離の関係を示す図)で示すようなコサインのパターンS (t)として、式(6)のように示すことができる。 It can be expressed as. Also, the distance S d (t) between the two feet is expressed as in the equation (6) as a cosine pattern S d ^ (t) as shown in FIG. Can do.

Figure 0004631036
Figure 0004631036

なお、式(6)においてSは歩幅を示し、γは位相を示している。なお、図11のS(t)およびS(t)で示すパターンは、図4で示した周期的かつ網紐のようなパターンと似ていることが分かる。また式(6)によって、歩行の位相における通行人の移動距離を算出することができる。 In Equation (6), S indicates the stride and γ indicates the phase. In addition, it turns out that the pattern shown by S R (t) and S L (t) in FIG. 11 is similar to the periodic and string-like pattern shown in FIG. Further, the travel distance of the passerby in the walking phase can be calculated by the equation (6).

図6はクラスタリング結果を示す図である。
ここで、軌跡算出部14は、センシング画像データを用いてMean-shift Clusteringアルゴリズムにより、図6で示すように、複数の通行人のポイントデータをクラスタリングする。なお、図6においてクラスタリングした結果は通行人の足のポイントを円によりマークアップしている。またMean-shift Clusteringアルゴリズムについては、非特許文献<D.Comaniciu and P.Meer,“Ditribution free decomposition of multivariate data”,Pattern Analysis and Applications,vol2, pp.22-30,1999>に記述されている手法を用いた。
FIG. 6 is a diagram showing a clustering result.
Here, the trajectory calculation unit 14 clusters the point data of a plurality of passersby as shown in FIG. 6 using the sensing image data and the Mean-shift Clustering algorithm. In FIG. 6, the result of clustering marks up the feet of passersby with circles. The Mean-shift Clustering algorithm is described in non-patent literature <D. Comaniniciu and P. Meer, “Ditribution free decomposition of multivariate data”, Pattern Analysis and Applications, vol2, pp.22-30, 1999>. The method was used.

ここで、図6の結果では、たいてい片方の足ごとにクラスタリングが行われるが、一人の通行人の両足が近接している場合には、それら両足が一つの足としてクラスタリングされてしまう。また、異なる通行人の足が一つの足としてクラスタリングされてしまう場合もある。これは、Mean-shift Clusteringアルゴリズムが、クラスタの大きさを自動的に制限するためである。   Here, in the result of FIG. 6, clustering is usually performed for each foot, but when both feet of one passerby are close, these feet are clustered as one foot. In addition, the feet of different passersby may be clustered as one foot. This is because the Mean-shift Clustering algorithm automatically limits the cluster size.

図7は複数のレーザポイントの統合および分割の概要を示す図である。
図7で示すように、クラスタリングにより得られた点のクラスタが、t−1秒の場面においては1つのクラスタだったが、t秒の場面においては二つのクラスタとしてクラスタリングされる場合があり、これは分割である。また逆にt−1秒の場面においては2つのクラスタだったが、t秒の場面においては1つのクラスタとしてクラスタリングされる場合があり、これは統合である。いずれの場合もそれらは一人の通行人の両足として特定することができる。
FIG. 7 is a diagram showing an outline of integration and division of a plurality of laser points.
As shown in FIG. 7, the cluster of points obtained by clustering was one cluster in the scene of t−1 seconds, but may be clustered as two clusters in the scene of t seconds. Is a division. On the contrary, in the scene of t-1 seconds, there are two clusters, but in the scene of t seconds, there are cases where the clusters are clustered as one cluster, which is integration. In either case, they can be identified as both feet of a single passerby.

ここで、センシング画像データの連続する各フレームにおいて、まず、クラスタリング結果によるそれぞれのクラスタの形や大きさ、移動方向を計算する。そして軌跡算出部14は、時刻tにおけるそれぞれのクラスタC について、時刻t−1の時点からの隣り合うクラスタとの統合または分割について計算する。これにより、軌跡算出部14は、クラスタリング結果によるどのクラスタのペアまたは一つが一人の通行人に対応するものかを判定する。 Here, in each successive frame of the sensing image data, first, the shape and size of each cluster and the moving direction are calculated based on the clustering result. The locus calculating section 14, for each cluster C i t at time t, calculates the integration or split between adjacent clusters from the point of time t-1. Thereby, the trajectory calculation unit 14 determines which cluster pair or one according to the clustering result corresponds to one passer-by.

次に、軌跡算出部14は、通行人の追跡処理を開始する。ここでParticle filterアルゴリズムの技術は、複数の通行人の追跡処理に有効である。Particle filterアルゴリズムを用いた通行人追跡処理においては、次の8つのパラメータを用いる。   Next, the trajectory calculation unit 14 starts a passerby tracking process. Here, the technique of the particle filter algorithm is effective for tracking a plurality of passers-by. In the passer-by tracking process using the particle filter algorithm, the following eight parameters are used.

Figure 0004631036
Figure 0004631036

なお、LxおよびLyは左足の位置を、またRxおよびRyは右足の位置を示している。また、Sは歩幅を、Tは歩行周期を、αは歩行方向を、γは位相を示している。そして、軌跡算出部14は、時刻tにおける全ての通行人について   Lx and Ly indicate the position of the left foot, and Rx and Ry indicate the position of the right foot. S represents the stride, T represents the walking cycle, α represents the walking direction, and γ represents the phase. Then, the trajectory calculation unit 14 determines all passers-by at time t.

Figure 0004631036
Figure 0004631036

および、確率密度関数 And the probability density function

Figure 0004631036
Figure 0004631036

を算出する。ここで式(8)において、Z1:tは、時間tに達するまでの全ての観察データ(レーザセンサからの距離データ)を示している。なおZは時間tにおける観察データ(レーザセンサからの距離データ)を示す。また、式(9)において、Mはサンプルの数を示しており、θk,s はk番目のオブジェクトのs番目のサンプルを示している。またπk,s は対応する重みを示している。 Is calculated. Here, in Expression (8), Z 1: t indicates all observation data (distance data from the laser sensor) until the time t is reached. Z t indicates observation data (distance data from the laser sensor) at time t. Further, in the equation (9), M indicates the number of samples, theta k, s t denotes the s-th sample of the k-th object. The π k, s t shows the corresponding weight.

Particle filterアルゴリズムは、予測と更新を繰り返す帰納的関数であるため、まず予測ステップにおいては、乱数r∈[0,1]を生成し、そしてその乱数を用いて、全てのサンプルから時刻t−1における一つのサンプルθk,s を選択する。なおこのParticle filterアルゴリズムの処理については、非特許文献<M.Isard and A.Blake, “CONDENSATON−conditional density propagation for visual tracking”, Int.J.Computer Vision, vol.29, no.1, pp.5-28 1998.>を用いる。そして、以下の算出を行う。 Since the particle filter algorithm is an inductive function that repeats prediction and update, first, in the prediction step, a random number rε [0, 1] is generated, and the random number is used to generate time t−1 from all samples. Select one sample θ k, st at. Regarding the processing of the particle filter algorithm, non-patent literature <M. Isard and A. Blake, “CONDENSATON-conditional density propagation for visual tracking”, Int. J. Computer Vision, vol. 29, no. 1, pp. 5-28 1998.> is used. Then, the following calculation is performed.

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

ここでΔtは時刻t−1から時刻tまでの間の時間である。また、w,w,wα,wγ,wr1,wr2は分散ランダムノイズである。予測ステップにおいては、最初に式(6)によって、歩行位相γおよび移動距離mdを更新する。次に歩行位相に基づいて、右足と左足のどちらの足が動いているかを判断し、異なるダイナミックレンジ(rまたはr)を割り当てる。その後、両足の位置を、その動きと歩行方向αによって予測する。最後に、歩幅S、歩行周期T、歩行方向αを予測する。 Here, Δt is the time from time t−1 to time t. Further, w s , w T , w α , w γ , w r1 , and w r2 are distributed random noises. In the prediction step, first, the walking phase γ and the movement distance md are updated by Expression (6). Next, based on the walking phase, it is determined whether the right foot or the left foot is moving, and a different dynamic range (r L or r R ) is assigned. Then, the position of both feet is predicted by the movement and the walking direction α. Finally, the stride S, the walking cycle T, and the walking direction α are predicted.

また更新ステップにおいては、クラスタリングで検出した結果の一つずつについて行う。このとき、k番目のオブジェクトについて、時刻tにおける全てのサンプルの重み(πk,s )を算出する。観察対象は In addition, the update step is performed for each result detected by clustering. At this time, the weight (π k, s t ) of all samples at time t is calculated for the kth object. Observation target

Figure 0004631036
Figure 0004631036

で表される点集合であり、重みの更新については次の式により行う。 The weight set is updated by the following formula.

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

Figure 0004631036
Figure 0004631036

そして結果として算出されるpおよびpは左足と右足の位置を示している。また、pは左足と右足の相対距離を示している。また、d0は右足と左足の歩行方向の距離を示している。またr0は式(6)を用いて算出された基準値である。 As a result, p L and p R calculated indicate the positions of the left foot and the right foot. Further, p B denotes the relative distance of the left foot and the right foot. D0 indicates the distance in the walking direction between the right foot and the left foot. Further, r0 is a reference value calculated using Equation (6).

そして、式(19)〜(21)で算出された値は、算出のタイミングごとに、軌跡算出部14から軌跡データ記憶部15に一時格納され、軌跡出力部16が、前記算出のタイミングごとのデータを用いて通行軌跡画像を表示部17に出力する。   The values calculated by the equations (19) to (21) are temporarily stored from the locus calculation unit 14 to the locus data storage unit 15 at every calculation timing, and the locus output unit 16 performs the calculation at each calculation timing. A traffic trajectory image is output to the display unit 17 using the data.

図8は通行人行動解析装置の処理フローを示す図である。
図9は歩行方向算出概要を示す図である。
上述したように軌跡算出部14は、各クライアント端末から受信した距離データに基づいて、センシング画像データを生成する(ステップS1)。そして、センシング画像データにおけるレーザポイントを、Mean-shift Clusteringアルゴリズムを用いてクラスタリングする(ステップS2)。またそのクラスタリング結果から、時間t−1および時間tにおける各クラスタのうち2つが1つに統合するクラスタ、または1つが2つに分割するクラスタを一人の通行人のクラスタと特定する(ステップS3)。そして、一人の通行人の足を示すポイントの位置(Lx,Ly,Rx,Ry)から図9で示すような方向を算出して歩行方向αと決定し、また歩幅S、歩行周期T、歩行位相γの各種パラメータを決定する(ステップS4)。そして、各種パラメータを用いて、全ての通行人について、Particle filterアルゴリズムを用いて上記トラッキング処理を行う(ステップS5)。
FIG. 8 is a diagram showing a processing flow of the passer-by behavior analysis apparatus.
FIG. 9 is a diagram showing an outline of walking direction calculation.
As described above, the trajectory calculation unit 14 generates sensing image data based on the distance data received from each client terminal (step S1). Then, the laser points in the sensing image data are clustered using the Mean-shift Clustering algorithm (Step S2). Further, from the clustering result, a cluster in which two of the clusters at time t-1 and time t are integrated into one, or a cluster into which one is divided into two is identified as a single passer-by cluster (step S3). . Then, the direction shown in FIG. 9 is calculated from the position (Lx, Ly, Rx, Ry) of the point indicating the leg of one passerby and determined as the walking direction α, and the stride S, the walking cycle T, the walking Various parameters of the phase γ are determined (step S4). Then, using the various parameters, the tracking process is performed for all passers-by using the particle filter algorithm (step S5).

図10は通行軌跡画像を示す図である。
この図が示すように、通行人解析装置1は表示部17に、時刻tにおける通行の軌跡を表示する。この通行人解析装置1の処理によれば、通行人が混み合っている場合においても、精度良く、各通行人の軌跡を解析することができる。そして、上述の通行人解析装置の処理を用いて、2006年06月14日、午前07時00分〜午前07時05分のJR東日本の大崎駅構内(60m×20m)においてトラッキング処理を行ったところ、全387人の通行人のうち、367人の通行人のトラッキング処理が成功し、成功率が94.8%となった。また2006年06月14日、午前08時00分〜午前08時10分のJR東日本の大崎駅構内(60m×20m)においてトラッキング処理を行ったところ、全2608人の通行人のうち、約80%の通行人のトラッキング処理が成功した。
FIG. 10 is a diagram showing a traffic trajectory image.
As shown in this figure, the passer-by analysis apparatus 1 displays the trajectory of the pass at time t on the display unit 17. According to the process of this passer-by analysis apparatus 1, even when the passers-by is crowded, the trajectory of each passer-by can be analyzed with high accuracy. Then, using the processing of the above-described passer analysis device, tracking processing was performed on June 14, 2006, at Osaki Station (60 m × 20 m) in JR East Japan from 07:00 am to 07:05 am However, of all 387 passers-by, 367 passers were successfully tracked, resulting in a success rate of 94.8%. On June 14, 2006, the tracking process was performed at Osaki Station (60m x 20m) in JR East Japan from 08:00 am to 08:10 am, and about 80 out of 2608 passersby. % Passer-by tracking was successful.

なお、上述の通行人解析装置は内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   In addition, the above-mentioned passer-by analysis apparatus has a computer system inside. The process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing this program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

通行人行動解析システムの構成を示すブロック図である。It is a block diagram which shows the structure of a passer-by action analysis system. 通行人行動解析装置の構成を示すブロック図である。It is a block diagram which shows the structure of a passer-by action analysis apparatus. センシング画像データの概要を示す図である。It is a figure which shows the outline | summary of sensing image data. 歩行モデルの概要を示す第1の図である。It is a 1st figure which shows the outline | summary of a walking model. 歩行モデルの概要を示す第2の図である。It is a 2nd figure which shows the outline | summary of a walking model. クラスタリング結果を示す図である。It is a figure which shows a clustering result. レーザポイントの統合および分割の概要を示す図である。It is a figure which shows the outline | summary of integration and division | segmentation of a laser point. 通行軌跡画像の概要を示す図である。It is a figure which shows the outline | summary of a traffic locus image. 歩行方向算出概要を示す図である。It is a figure which shows the walking direction calculation summary. 通行軌跡画像を示す図である。It is a figure which shows a traffic locus image. 左足と右足の距離の関係を示す図である。It is a figure which shows the relationship between the distance of a left foot and a right foot.

符号の説明Explanation of symbols

1・・・通行人解析装置
2・・・レーザセンサ
3・・・クライアントPC
4・・・ネットワーク
11・・・通信処理部
12・・・センシングデータ記憶部
13・・・パラメータ記憶部
14・・・軌跡算出部
15・・・軌跡データ記憶部
16・・・軌跡出力部
17・・・表示部

DESCRIPTION OF SYMBOLS 1 ... Passer analysis device 2 ... Laser sensor 3 ... Client PC
4 ... Network 11 ... Communication processing unit 12 ... Sensing data storage unit 13 ... Parameter storage unit 14 ... Trajectory calculation unit 15 ... Trajectory data storage unit 16 ... Trajectory output unit 17 ... Display section

Claims (6)

通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段と、
複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段と、
前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段と、
前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段と、
前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段と、
前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段と、
を備えることを特徴とする通行人行動解析装置。
Distance data receiving means for receiving distance data indicating a distance from a laser sensor of a passer's foot;
Sensing image data generating means for generating sensing image data indicating a detection position of the laser sensor on the spatial plane at the same time using a plurality of the distance data acquired by a plurality of the laser sensors,
Clustering means for clustering a plurality of the detection positions in the sensing image data;
A passer-by identification means for specifying a cluster corresponding to the leg of one passer-by from the clustering result;
Parameter determining means for determining a parameter consisting of a position of a foot point of the passerby, a walking direction, a stride, a walking cycle, and a walking phase from the identified passerby cluster;
A trajectory analysis processing means for analyzing a trajectory of a passerby using the parameter and the particle filter algorithm;
A passer-behavior analysis device comprising:
前記クラスタリングにおいて、Mean-shift Clusteringアルゴリズムを用いることを特徴とする請求項1に記載の通行人行動解析装置。   The passer-by-behavior analysis apparatus according to claim 1, wherein a mean-shift clustering algorithm is used in the clustering. 前記クラスタリング結果のクラスタが分割または統合するクラスタを、前記一人の通行人の足に対応するクラスタと特定する
ことを特徴とする請求項1または請求項2に記載の通行人行動解析装置。
The passerby behavior analysis apparatus according to claim 1 or 2, wherein a cluster that is obtained by dividing or integrating the cluster of the clustering results is identified as a cluster corresponding to the foot of the one passerby.
前記軌跡解析処理手段は、前記Particle filterアルゴリズムの処理において、前記クラスタリング結果のクラスタにおいて特定した、前記通行人の左足の加速度および右足の加速度から、前記パラメータのうちの歩行位相を更新し当該歩行位相によって前記通行人の移動距離を更新し、またそれら更新した歩行位相と移動距離と前記歩行方向とから前記パラメータのうちの通行人の足のポイントの位置を予測する
ことを特徴とする請求項1から請求項3のいずれかに記載の通行人行動解析装置。
The trajectory analysis processing means updates the walking phase of the parameters and updates the walking phase from the acceleration of the left foot and the right foot of the passerby identified in the clustering result cluster in the processing of the Particle filter algorithm. The travel distance of the passer-by is updated by the above, and the position of the foot point of the passer-by among the parameters is predicted from the updated walking phase, the travel distance, and the walking direction. The passer-by behavior analysis device according to claim 3.
通行人行動解析装置における通行人行動解析方法であって、
通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信処理と、
複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成処理と、
前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング処理と、
前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定処理と、
前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定処理と、
前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理と、
を有することを特徴とする通行人行動解析方法。
A passer behavior analysis method in a passer behavior analysis device,
Distance data reception processing for receiving distance data indicating the distance of the passer's foot from the laser sensor;
Sensing image data generation processing for generating sensing image data indicating the detection position of the laser sensor on the spatial plane at the same time using a plurality of the distance data acquired by a plurality of the laser sensors,
A clustering process for clustering a plurality of the detection positions in the sensing image data;
A passer-by identification process that identifies a cluster corresponding to the leg of one passer-by from the clustering result;
A parameter determination process for determining a parameter consisting of the position of the foot point of the passerby, the walking direction, the stride, the walking cycle, and the walking phase from the identified passerby cluster;
Trajectory analysis processing for analyzing the trajectory of passers-by using the parameters and the Particle filter algorithm,
A passer-behavior analysis method characterized by comprising:
通行人行動解析装置のコンピュータに、
通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段、
複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段、
前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段、
前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段、
前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段、
前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段、
を実行させることを特徴とするプログラム。
In the computer of the passer-by behavior analysis device,
Distance data receiving means for receiving distance data indicating the distance from the laser sensor of the passer's foot;
Sensing image data generating means for generating sensing image data indicating a detection position of the laser sensor on the space plane at the same time using a plurality of the distance data acquired by the plurality of laser sensors
Clustering means for clustering a plurality of the detection positions in the sensing image data;
A passerby specifying means for specifying a cluster corresponding to the leg of one passerby from the clustering result,
Parameter determining means for determining a parameter consisting of the position of the foot point of the passerby, the walking direction, the stride, the walking cycle, and the walking phase from the identified passerby cluster,
Trajectory analysis processing means for analyzing the trajectory of a passerby using the parameter and the Particle filter algorithm,
A program characterized by having executed.
JP2007280598A 2007-10-29 2007-10-29 Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof Active JP4631036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007280598A JP4631036B2 (en) 2007-10-29 2007-10-29 Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007280598A JP4631036B2 (en) 2007-10-29 2007-10-29 Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof

Publications (2)

Publication Number Publication Date
JP2009110185A JP2009110185A (en) 2009-05-21
JP4631036B2 true JP4631036B2 (en) 2011-02-16

Family

ID=40778631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007280598A Active JP4631036B2 (en) 2007-10-29 2007-10-29 Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof

Country Status (1)

Country Link
JP (1) JP4631036B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5561066B2 (en) * 2010-09-27 2014-07-30 富士通株式会社 Person detection device, person detection method, and program
JP5664252B2 (en) * 2011-01-12 2015-02-04 トヨタ自動車株式会社 Pedestrian detection device
JP5953484B2 (en) * 2011-03-30 2016-07-20 株式会社国際電気通信基礎技術研究所 Measuring device, measuring method and measuring program
JP5811934B2 (en) * 2011-09-09 2015-11-11 三菱電機株式会社 Residence degree detection device and passenger conveyor
CN104408942A (en) * 2014-11-27 2015-03-11 天津艾思科尔科技有限公司 Intelligent vehicle speed measuring device and method
CN104469309A (en) * 2014-12-12 2015-03-25 天津艾思科尔科技有限公司 Tunnel pedestrian intrusion detection device and method
CN108345004A (en) * 2018-02-09 2018-07-31 弗徕威智能机器人科技(上海)有限公司 A kind of human body follower method of mobile robot
CN108762309B (en) * 2018-05-03 2021-05-18 浙江工业大学 Human body target following method based on hypothesis Kalman filtering
WO2023053336A1 (en) * 2021-09-30 2023-04-06 日本電気株式会社 Information provision system, information provision method, and program recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346617A (en) * 2004-06-07 2005-12-15 East Japan Railway Co Passer-by behavior analysis system
JP2006221610A (en) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3403308B2 (en) * 1997-02-18 2003-05-06 日本電信電話株式会社 Walking pattern processing device
US8229164B2 (en) * 2006-07-10 2012-07-24 Synthesis Corporation Pedestrian tracking method and pedestrian tracking device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346617A (en) * 2004-06-07 2005-12-15 East Japan Railway Co Passer-by behavior analysis system
JP2006221610A (en) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device

Also Published As

Publication number Publication date
JP2009110185A (en) 2009-05-21

Similar Documents

Publication Publication Date Title
JP4631036B2 (en) Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof
JP7052663B2 (en) Object detection device, object detection method and computer program for object detection
Hu et al. Moving object detection and tracking from video captured by moving camera
CN106536299B (en) System and method based on test object abrupt deceleration vehicle
Gandhi et al. Pedestrian collision avoidance systems: A survey of computer vision based recent studies
JP5102410B2 (en) Moving body detection apparatus and moving body detection method
Benfold et al. Guiding visual surveillance by tracking human attention.
US9286678B2 (en) Camera calibration using feature identification
JP5535816B2 (en) Moving object prediction apparatus and program
US8965050B2 (en) Behavior analysis device
CN105654031B (en) System and method for object detection
JP4363295B2 (en) Plane estimation method using stereo images
WO2014084218A1 (en) Subject detection device
TW201225004A (en) Image based detecting system and method for traffic parameters and computer program product thereof
JP2013232091A (en) Approaching object detection device, approaching object detection method and approaching object detection computer program
JP4609076B2 (en) Moving object detection apparatus and moving object detection method
JP2005346617A (en) Passer-by behavior analysis system
KR102359083B1 (en) Device for detecting moving object and method thereof
JP5866682B2 (en) Measuring system and measuring method
KR101040904B1 (en) System and method for estimating traffic using the laser
Bravo et al. Outdoor vacant parking space detector for improving mobility in smart cities
CN113869607A (en) Safe driving prediction optimization method, device, equipment and storage medium
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP2008066953A (en) Image monitoring apparatus
Beleznai et al. Vision-based mobile analysis of roadside guardrail structures

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101020

R150 Certificate of patent or registration of utility model

Ref document number: 4631036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250