JP4631036B2 - Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof - Google Patents
Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof Download PDFInfo
- Publication number
- JP4631036B2 JP4631036B2 JP2007280598A JP2007280598A JP4631036B2 JP 4631036 B2 JP4631036 B2 JP 4631036B2 JP 2007280598 A JP2007280598 A JP 2007280598A JP 2007280598 A JP2007280598 A JP 2007280598A JP 4631036 B2 JP4631036 B2 JP 4631036B2
- Authority
- JP
- Japan
- Prior art keywords
- passer
- passerby
- clustering
- foot
- walking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 49
- 241000287107 Passer Species 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 25
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 19
- 239000002245 particle Substances 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 238000013500 data storage Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、鉄道の駅などにおいて、通行人が移動、滞在する空間における通行人の行動を解析する通行人行動解析装置及び通行人行動解析方法並びにそのプログラムに関する。 The present invention relates to a passer-behavior analysis device, a passer-behavior analysis method, and a program for analyzing a passer-by behavior in a space where a passer-by moves and stays at a railway station or the like.
駅を利用する旅客がスムーズに流れ移動できることが駅における快適性の重要な要件となっているが、乗降客や乗換客などが複雑に入り組み、案内標識や出入り口を確認するための立ち止まりや売店での買い物、待ち合わせによる滞留など、スムーズな流れを阻害する要素が多数存在する。これにより旅客同士の衝突や混雑による歩行速度の低下などの問題が発生する。
駅環境の快適性を向上させる改良工事等を検討するための基礎情報収集として実施されてきた従来の旅客流動調査は、断面での通過人数を把握することが主であり、人手による調査が主流であったため、駅構内を面的移動する旅客の速度や方向、密度を総合的に解析するのは困難であった。
Passengers using the station can flow and move smoothly is an important requirement for the comfort of the station, but passengers and transfer passengers are complicated, stoppages and shops to check the signs and entrances and exits There are many factors that impede the smooth flow, such as shopping at a store or staying at a meeting. This causes problems such as a decrease in walking speed due to passenger collisions and congestion.
Conventional passenger flow surveys, which have been conducted as basic information collection for studying improvement works that improve the comfort of the station environment, are mainly to grasp the number of people passing through the section, and manual surveys are the mainstream. Therefore, it was difficult to comprehensively analyze the speed, direction, and density of passengers moving across the station.
このような問題を解決するために、道路の交差点に可視画像のカメラを設置し、このカメラにより、横断歩道を含む所定範囲の監視領域内の画像を撮像して、道路の交差点における歩行者の状況や人数を調べることにより、車両用信号および歩行者用信号の制御をより効率的に行なえ、結果として歩行者の安全を向上させることができる技術が知られている(例えば、特許文献1参照)。 In order to solve such a problem, a camera of a visible image is installed at a road intersection, and an image in a monitoring area of a predetermined range including a pedestrian crossing is captured by this camera, and a pedestrian at a road intersection is captured. By examining the situation and the number of people, a technique is known that can more efficiently control the signal for the vehicle and the signal for the pedestrian, and as a result, improve the safety of the pedestrian (see, for example, Patent Document 1). ).
ここで、特許文献1に示す装置は、可視のビデオ画像を使用しているため、通行人が交錯する時などに追跡処理が困難になる場合があり、通行人の正確な位置の追跡処理を行うのが困難であるという問題がある。また、この問題を避けるためカメラの設置位置や設置角度が大きく制約され、撮像範囲が狭くなるとともに、多数の通行人がある場合は計算処理負荷が大きくなってしまうという問題もある。そして、このような問題を解決し、距離画像を用いて通行人の行動を解析することができる技術が開示されている(例えば、特許文献2参照)。
しかしながら、特許文献2の技術では、必ずしも通行人の追跡処理の精度が十分ではなかったため、その処理の精度を上げることが望まれている。
However, in the technique of
そこでこの発明は、比較的に広い場所に大勢の人が存在するような場合における通行人の追跡処理の精度を向上させることのできる通行人行動解析装置を提供することを目的としている。 Accordingly, an object of the present invention is to provide a passer-by behavior analysis apparatus that can improve the accuracy of passer-by tracking processing when a large number of people are present in a relatively large place.
上記目的を達成するために、本発明は、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段と、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段と、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段と、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段と、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段と、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段と、を備えることを特徴とする通行人行動解析装置である。 In order to achieve the above object, the present invention uses distance data receiving means for receiving distance data indicating the distance of a passer's foot from a laser sensor, and a plurality of the distance data acquired by a plurality of the laser sensors. From the clustering result, sensing image data generating means for generating sensing image data indicating the detection position of the laser sensor on the spatial plane at the same time, clustering means for clustering a plurality of the detection positions in the sensing image data, and From the passer identification means for specifying the cluster corresponding to the foot of one passer-by, and the position of the passer's foot, the walking direction, the stride, the walking cycle, and the walking phase from the identified passer-by cluster Parameter determining means for determining the parameter, and the parameter and the particle filter algorithm The locus analysis means for analyzing the trajectory of passers by using prism, a passerby behavioral analysis apparatus comprising: a.
また本発明は、上述の通行人行動解析装置が、前記クラスタリングにおいて、Mean-shift Clusteringアルゴリズムを用いることを特徴とする。 Further, the present invention is characterized in that the above-mentioned passerby behavior analysis apparatus uses a Mean-shift Clustering algorithm in the clustering.
また本発明は、上述の通行人行動解析装置において、前記クラスタリング結果のクラスタが分割または統合するクラスタを、前記一人の通行人の足に対応するクラスタと特定することを特徴とする。 Further, the present invention is characterized in that, in the above-described passer-behavior analysis device, a cluster that is divided or integrated by the cluster of the clustering results is identified as a cluster corresponding to the leg of the one passer-by.
また本発明は、上述の通行人行動解析装置の前記軌跡解析処理手段が、前記Particle filterアルゴリズムの処理において、前記クラスタリング結果のクラスタにおいて特定した、前記通行人の左足の加速度および右足の加速度から、前記パラメータのうちの歩行位相を更新し当該歩行位相によって前記通行人の移動距離を更新し、またそれら更新した歩行位相と移動距離と前記歩行方向とから前記パラメータのうちの通行人の足のポイントの位置を予測することを特徴とすることを特徴とする。 In the present invention, the trajectory analysis processing unit of the above-mentioned passer-by behavior analysis apparatus , from the acceleration of the left foot and the right foot of the passer-by identified in the clustering result cluster in the processing of the Particle filter algorithm , The walking phase of the parameter is updated, the movement distance of the passerby is updated by the walking phase, and the foot point of the passerby of the parameter is updated from the updated walking phase, the movement distance, and the walking direction. It is characterized by predicting the position of .
また本発明は、通行人行動解析装置における通行人行動解析方法であって、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信処理と、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成処理と、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング処理と、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定処理と、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定処理と、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理と、を有することを特徴とする通行人行動解析方法である。 The present invention is also a passer-by behavior analysis method in a passer-by behavior analysis apparatus, which is obtained by a distance data receiving process for receiving distance data indicating a distance from a laser sensor of a passer's foot, and a plurality of the laser sensors. A plurality of the detected distance data, and sensing image data generation processing for generating sensing image data indicating the detection position of the laser sensor on the space plane at the same time, and clustering the plurality of detection positions in the sensing image data Clustering processing, passer identification processing for identifying a cluster corresponding to a passer's foot from the clustering result, and position of the passer's foot, walking direction, stride from the identified passer's cluster A parameter determination process for determining a parameter consisting of a walking cycle and a walking phase; A passerby behavioral analysis method characterized by having a trajectory analysis process for analyzing the trajectory of passers by using the serial parameters and Particle filter algorithm.
また本発明は、通行人行動解析装置のコンピュータに、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段、を実行させることを特徴とするプログラムである。 Further, the present invention provides a computer of a passer-by behavior analysis device, distance data receiving means for receiving distance data indicating a distance of a passer's foot from a laser sensor, and a plurality of the distance data acquired by the plurality of laser sensors. The sensing image data generating means for generating sensing image data indicating the detection position of the laser sensor on the spatial plane at the same time, clustering means for clustering a plurality of the detection positions in the sensing image data, and one person from the clustering result A passer specifying means for specifying a cluster corresponding to a passer's foot, a parameter comprising the position of the passer's foot, the walking direction, the stride, the walking cycle, and the walking phase from the specified passer's cluster Parameter determining means for determining the parameter and the particle filter Is a program for causing to execute a trajectory analysis means, for analyzing the trajectory of passers using Gorizumu.
本発明によれば、通行人が混み合っている場合においても、精度良く、各通行人の軌跡の解析手法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, even when a passerby is crowded, the analysis method of the locus | trajectory of each passerby can be provided accurately.
以下、本発明の一実施形態による通行人行動解析装置を図面を参照して説明する。
図1は同実施形態による通行人行動解析システムの構成を示すブロック図である。
この図において、符号1は、予め決められた空間6内の通行人7の行動の解析処理を実行する通行人行動解析装置である。また符号2は、通行人等の物体までの距離を測定するレーザセンサである。レーザセンサ2は、床から約10cmの高さの水平面をスキャニングして、レーザの投光の高さに応じた水平断面で、静止物体・移動物体の両方が含まれた直交座標系における距離データを得ることができる。また符号3は、レーザセンサ2のそれぞれを制御するために、それぞれのレーザセンサ2毎に設けられたクライアントPC(パソコン)である。符号4は、各クライアントPC3と通行人行動解析装置1との間で情報通信を行うネットワークであり、クライアントPC3内に蓄積された計測データを通行人行動解析装置1へ転送し、サーバ1からの指示の情報をクライアントPC3へ送るために利用される。
Hereinafter, a passer-by behavior analysis apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a passer-by behavior analysis system according to the embodiment.
In this figure,
次に、図2を参照して、図1に通行人行動解析装置1の構成を説明する。
図2は、図1に示す通行人行動解析装置1の構成を示すブロック図である。
この図において、符号11は、各クライアントPC3から距離データを受信する通信処理部である。また符合12はデータ受信部11において受信した距離データを記憶するセンシングデータ記憶部である。符号13は、距離データに基づいて、通行人の行動の解析処理を行うための各種パラメータを記憶するパラメータ情報記憶部である。また符号14は、時間的に同期させ、1つの座標系に統合したセンシング画像データから通行人7の足部分を抽出し、この通行人7を追跡するトラッキング処理を実行し、所定の空間6内を所定の時間内に通行した通行人の通行軌跡を算出する軌跡算出部である。また符号15は、軌跡算出部14において得られた各通行人の通行軌跡データを記憶する軌跡データ記憶部である。また符号16は、通行軌跡データに基づく通行軌跡画像を出力する軌跡出力部である。符号17は、ディスプレイで構成する表示部である。
Next, the configuration of the passer-by
FIG. 2 is a block diagram showing a configuration of the passer-by
In this figure,
次に、通行人7を抽出し、トラッキング(追跡)する動作を説明する。
まず、各クライアントPC3は、レーザセンサ2から得た距離データを通行人行動解析装置1へ転送する。これを受けて、通信処理部11は、各クライアントPC3から受信した距離データをセンシングデータ記憶部12に記録する。
Next, an operation of extracting and tracking the
First, each
次に、軌跡算出部14は、センシングデータ記憶部12に記憶されている複数の距離データを読み出し、時間的同期を取るとともに、1つの座標系に統合したセンシング画像データを生成する。そしてセンシング画像データを生成すると、軌跡算出部14はトラッキング処理を開始する。
Next, the
図3はセンシング画像データの概要を示す図である。
この図が示すように、センシング画像データは、通行人の足から反射したレーザ光により特定された距離データを、複数のレーザセンサ2から受信して生成したものであり、そのセンシング画像データの出力には、レーザセンサ、通行人の足のポイント、背景(壁や柱など)が表示される。なお、本実施形態ではレーザセンサ2は、地表から10cmの高さでレーザ光を送信してその反射により通行人の踝付近の距離を検出しているが、これは、腰近辺の高さであると、多数の人が交錯した際に、その空間における測定対象の混雑度が高くなり、測定が難しくなるためである。
FIG. 3 is a diagram showing an outline of sensing image data.
As shown in this figure, sensing image data is generated by receiving distance data specified by laser light reflected from a leg of a passerby from a plurality of
図4は歩行モデルの概要を示す第1の図である。
次に、軌跡算出部によるトラッキング処理について説明する。
まず、通行人の足の軌跡は周期的である。つまり、レーザセンサ2によって得られたデータでは、通行人の2つの足からは、図4に示すような、周期的かつ網紐のようなデータが取得できると考えられる。そこで、本実施形態による歩行モデルは、Particle filterアルゴリズムを用いて、通行人の状態を予測する手法をとる。なお、前提として、(1)歩行者は2速歩行であること、(2)通行人の足の測定があいまいにならないように通行人は足付近に何らかの付帯物をつけていないこと、とする。
FIG. 4 is a first diagram showing an outline of the walking model.
Next, tracking processing by the locus calculation unit will be described.
First, the trajectory of the passer's foot is periodic. That is, it is considered that the data obtained by the
図5は歩行モデルの概要を示す第2の図である。
通行人が歩行している際には、通常、典型的な足のスイング様態を見ることができる。図5は、その典型的な足のスイング様態を示している。この図が示すように、通行人の2つの足は、その歩行時の2つの足それぞれの役割として交互にスイングされている。そして、図5で示すように、まず、歩行人が右足から歩こうと考えたときには、右足のスイングを前方に加速させる。そして、右足がスイングしている間、その力は徐々に軽減し、右足のスイングが止まる。また同様に右足が止まると、次に左足の加速度をつけてスイングし、徐々に力を軽減して、左足が止まる。そして、図5で示すような、加速度、速さ、移動距離の関係が導かれる。なお図5において破線は右足を、実線は左足を表している。そして右足の加速度は次式(1)のように表すことができる。
FIG. 5 is a second diagram showing an outline of the walking model.
When a passerby is walking, a typical foot swing mode can usually be seen. FIG. 5 shows the typical foot swing mode. As shown in this figure, the two feet of the passerby are alternately swung as roles of the two feet during walking. Then, as shown in FIG. 5, first, when a pedestrian thinks to walk from the right foot, the swing of the right foot is accelerated forward. And while the right foot is swinging, the force is gradually reduced and the swing of the right foot is stopped. Similarly, when the right foot stops, it swings with the acceleration of the left foot, gradually reducing the force, and the left foot stops. And the relationship of acceleration, speed, and moving distance as shown in FIG. 5 is derived. In FIG. 5, the broken line represents the right foot and the solid line represents the left foot. The acceleration of the right foot can be expressed as the following equation (1).
ここで、式(1)において、Aは最大の加速度である。またTは歩行周期(左足1歩、右足1歩を1周期とする)を示している。従って、右足の速さvR(t)および移動距離SR(t)は、式(2)、式(3)により表すことができる。 Here, in Expression (1), A is the maximum acceleration. T represents a walking cycle (one step for the left foot and one step for the right foot as one cycle). Therefore, the speed v R (t) and the moving distance S R (t) of the right foot can be expressed by Expression (2) and Expression (3).
また同様に左足の移動距離SL(t)は、式(4)により表すことができる。 Similarly, the movement distance S L (t) of the left foot can be expressed by Expression (4).
従って、2つの足の距離Sd(t)は、式(3)および式(4)より、 Therefore, the distance S d (t) between the two feet is obtained from the equations (3) and (4):
と表すことができる。また2つの足の距離Sd(t)は図11(左足と右足の距離の関係を示す図)で示すようなコサインのパターンSd ^(t)として、式(6)のように示すことができる。 It can be expressed as. Also, the distance S d (t) between the two feet is expressed as in the equation (6) as a cosine pattern S d ^ (t) as shown in FIG. Can do.
なお、式(6)においてSは歩幅を示し、γは位相を示している。なお、図11のSR(t)およびSL(t)で示すパターンは、図4で示した周期的かつ網紐のようなパターンと似ていることが分かる。また式(6)によって、歩行の位相における通行人の移動距離を算出することができる。 In Equation (6), S indicates the stride and γ indicates the phase. In addition, it turns out that the pattern shown by S R (t) and S L (t) in FIG. 11 is similar to the periodic and string-like pattern shown in FIG. Further, the travel distance of the passerby in the walking phase can be calculated by the equation (6).
図6はクラスタリング結果を示す図である。
ここで、軌跡算出部14は、センシング画像データを用いてMean-shift Clusteringアルゴリズムにより、図6で示すように、複数の通行人のポイントデータをクラスタリングする。なお、図6においてクラスタリングした結果は通行人の足のポイントを円によりマークアップしている。またMean-shift Clusteringアルゴリズムについては、非特許文献<D.Comaniciu and P.Meer,“Ditribution free decomposition of multivariate data”,Pattern Analysis and Applications,vol2, pp.22-30,1999>に記述されている手法を用いた。
FIG. 6 is a diagram showing a clustering result.
Here, the
ここで、図6の結果では、たいてい片方の足ごとにクラスタリングが行われるが、一人の通行人の両足が近接している場合には、それら両足が一つの足としてクラスタリングされてしまう。また、異なる通行人の足が一つの足としてクラスタリングされてしまう場合もある。これは、Mean-shift Clusteringアルゴリズムが、クラスタの大きさを自動的に制限するためである。 Here, in the result of FIG. 6, clustering is usually performed for each foot, but when both feet of one passerby are close, these feet are clustered as one foot. In addition, the feet of different passersby may be clustered as one foot. This is because the Mean-shift Clustering algorithm automatically limits the cluster size.
図7は複数のレーザポイントの統合および分割の概要を示す図である。
図7で示すように、クラスタリングにより得られた点のクラスタが、t−1秒の場面においては1つのクラスタだったが、t秒の場面においては二つのクラスタとしてクラスタリングされる場合があり、これは分割である。また逆にt−1秒の場面においては2つのクラスタだったが、t秒の場面においては1つのクラスタとしてクラスタリングされる場合があり、これは統合である。いずれの場合もそれらは一人の通行人の両足として特定することができる。
FIG. 7 is a diagram showing an outline of integration and division of a plurality of laser points.
As shown in FIG. 7, the cluster of points obtained by clustering was one cluster in the scene of t−1 seconds, but may be clustered as two clusters in the scene of t seconds. Is a division. On the contrary, in the scene of t-1 seconds, there are two clusters, but in the scene of t seconds, there are cases where the clusters are clustered as one cluster, which is integration. In either case, they can be identified as both feet of a single passerby.
ここで、センシング画像データの連続する各フレームにおいて、まず、クラスタリング結果によるそれぞれのクラスタの形や大きさ、移動方向を計算する。そして軌跡算出部14は、時刻tにおけるそれぞれのクラスタCi tについて、時刻t−1の時点からの隣り合うクラスタとの統合または分割について計算する。これにより、軌跡算出部14は、クラスタリング結果によるどのクラスタのペアまたは一つが一人の通行人に対応するものかを判定する。
Here, in each successive frame of the sensing image data, first, the shape and size of each cluster and the moving direction are calculated based on the clustering result. The
次に、軌跡算出部14は、通行人の追跡処理を開始する。ここでParticle filterアルゴリズムの技術は、複数の通行人の追跡処理に有効である。Particle filterアルゴリズムを用いた通行人追跡処理においては、次の8つのパラメータを用いる。
Next, the
なお、LxおよびLyは左足の位置を、またRxおよびRyは右足の位置を示している。また、Sは歩幅を、Tは歩行周期を、αは歩行方向を、γは位相を示している。そして、軌跡算出部14は、時刻tにおける全ての通行人について
Lx and Ly indicate the position of the left foot, and Rx and Ry indicate the position of the right foot. S represents the stride, T represents the walking cycle, α represents the walking direction, and γ represents the phase. Then, the
および、確率密度関数 And the probability density function
を算出する。ここで式(8)において、Z1:tは、時間tに達するまでの全ての観察データ(レーザセンサからの距離データ)を示している。なおZtは時間tにおける観察データ(レーザセンサからの距離データ)を示す。また、式(9)において、Mはサンプルの数を示しており、θk,s tはk番目のオブジェクトのs番目のサンプルを示している。またπk,s tは対応する重みを示している。 Is calculated. Here, in Expression (8), Z 1: t indicates all observation data (distance data from the laser sensor) until the time t is reached. Z t indicates observation data (distance data from the laser sensor) at time t. Further, in the equation (9), M indicates the number of samples, theta k, s t denotes the s-th sample of the k-th object. The π k, s t shows the corresponding weight.
Particle filterアルゴリズムは、予測と更新を繰り返す帰納的関数であるため、まず予測ステップにおいては、乱数r∈[0,1]を生成し、そしてその乱数を用いて、全てのサンプルから時刻t−1における一つのサンプルθk,s tを選択する。なおこのParticle filterアルゴリズムの処理については、非特許文献<M.Isard and A.Blake, “CONDENSATON−conditional density propagation for visual tracking”, Int.J.Computer Vision, vol.29, no.1, pp.5-28 1998.>を用いる。そして、以下の算出を行う。 Since the particle filter algorithm is an inductive function that repeats prediction and update, first, in the prediction step, a random number rε [0, 1] is generated, and the random number is used to generate time t−1 from all samples. Select one sample θ k, st at. Regarding the processing of the particle filter algorithm, non-patent literature <M. Isard and A. Blake, “CONDENSATON-conditional density propagation for visual tracking”, Int. J. Computer Vision, vol. 29, no. 1, pp. 5-28 1998.> is used. Then, the following calculation is performed.
ここでΔtは時刻t−1から時刻tまでの間の時間である。また、ws,wT,wα,wγ,wr1,wr2は分散ランダムノイズである。予測ステップにおいては、最初に式(6)によって、歩行位相γおよび移動距離mdを更新する。次に歩行位相に基づいて、右足と左足のどちらの足が動いているかを判断し、異なるダイナミックレンジ(rLまたはrR)を割り当てる。その後、両足の位置を、その動きと歩行方向αによって予測する。最後に、歩幅S、歩行周期T、歩行方向αを予測する。 Here, Δt is the time from time t−1 to time t. Further, w s , w T , w α , w γ , w r1 , and w r2 are distributed random noises. In the prediction step, first, the walking phase γ and the movement distance md are updated by Expression (6). Next, based on the walking phase, it is determined whether the right foot or the left foot is moving, and a different dynamic range (r L or r R ) is assigned. Then, the position of both feet is predicted by the movement and the walking direction α. Finally, the stride S, the walking cycle T, and the walking direction α are predicted.
また更新ステップにおいては、クラスタリングで検出した結果の一つずつについて行う。このとき、k番目のオブジェクトについて、時刻tにおける全てのサンプルの重み(πk,s t)を算出する。観察対象は In addition, the update step is performed for each result detected by clustering. At this time, the weight (π k, s t ) of all samples at time t is calculated for the kth object. Observation target
で表される点集合であり、重みの更新については次の式により行う。 The weight set is updated by the following formula.
そして結果として算出されるpLおよびpRは左足と右足の位置を示している。また、pBは左足と右足の相対距離を示している。また、d0は右足と左足の歩行方向の距離を示している。またr0は式(6)を用いて算出された基準値である。 As a result, p L and p R calculated indicate the positions of the left foot and the right foot. Further, p B denotes the relative distance of the left foot and the right foot. D0 indicates the distance in the walking direction between the right foot and the left foot. Further, r0 is a reference value calculated using Equation (6).
そして、式(19)〜(21)で算出された値は、算出のタイミングごとに、軌跡算出部14から軌跡データ記憶部15に一時格納され、軌跡出力部16が、前記算出のタイミングごとのデータを用いて通行軌跡画像を表示部17に出力する。
The values calculated by the equations (19) to (21) are temporarily stored from the
図8は通行人行動解析装置の処理フローを示す図である。
図9は歩行方向算出概要を示す図である。
上述したように軌跡算出部14は、各クライアント端末から受信した距離データに基づいて、センシング画像データを生成する(ステップS1)。そして、センシング画像データにおけるレーザポイントを、Mean-shift Clusteringアルゴリズムを用いてクラスタリングする(ステップS2)。またそのクラスタリング結果から、時間t−1および時間tにおける各クラスタのうち2つが1つに統合するクラスタ、または1つが2つに分割するクラスタを一人の通行人のクラスタと特定する(ステップS3)。そして、一人の通行人の足を示すポイントの位置(Lx,Ly,Rx,Ry)から図9で示すような方向を算出して歩行方向αと決定し、また歩幅S、歩行周期T、歩行位相γの各種パラメータを決定する(ステップS4)。そして、各種パラメータを用いて、全ての通行人について、Particle filterアルゴリズムを用いて上記トラッキング処理を行う(ステップS5)。
FIG. 8 is a diagram showing a processing flow of the passer-by behavior analysis apparatus.
FIG. 9 is a diagram showing an outline of walking direction calculation.
As described above, the
図10は通行軌跡画像を示す図である。
この図が示すように、通行人解析装置1は表示部17に、時刻tにおける通行の軌跡を表示する。この通行人解析装置1の処理によれば、通行人が混み合っている場合においても、精度良く、各通行人の軌跡を解析することができる。そして、上述の通行人解析装置の処理を用いて、2006年06月14日、午前07時00分〜午前07時05分のJR東日本の大崎駅構内(60m×20m)においてトラッキング処理を行ったところ、全387人の通行人のうち、367人の通行人のトラッキング処理が成功し、成功率が94.8%となった。また2006年06月14日、午前08時00分〜午前08時10分のJR東日本の大崎駅構内(60m×20m)においてトラッキング処理を行ったところ、全2608人の通行人のうち、約80%の通行人のトラッキング処理が成功した。
FIG. 10 is a diagram showing a traffic trajectory image.
As shown in this figure, the passer-
なお、上述の通行人解析装置は内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。 In addition, the above-mentioned passer-by analysis apparatus has a computer system inside. The process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing this program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1・・・通行人解析装置
2・・・レーザセンサ
3・・・クライアントPC
4・・・ネットワーク
11・・・通信処理部
12・・・センシングデータ記憶部
13・・・パラメータ記憶部
14・・・軌跡算出部
15・・・軌跡データ記憶部
16・・・軌跡出力部
17・・・表示部
DESCRIPTION OF
4 ...
Claims (6)
複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段と、
前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段と、
前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段と、
前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段と、
前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段と、
を備えることを特徴とする通行人行動解析装置。 Distance data receiving means for receiving distance data indicating a distance from a laser sensor of a passer's foot;
Sensing image data generating means for generating sensing image data indicating a detection position of the laser sensor on the spatial plane at the same time using a plurality of the distance data acquired by a plurality of the laser sensors,
Clustering means for clustering a plurality of the detection positions in the sensing image data;
A passer-by identification means for specifying a cluster corresponding to the leg of one passer-by from the clustering result;
Parameter determining means for determining a parameter consisting of a position of a foot point of the passerby, a walking direction, a stride, a walking cycle, and a walking phase from the identified passerby cluster;
A trajectory analysis processing means for analyzing a trajectory of a passerby using the parameter and the particle filter algorithm;
A passer-behavior analysis device comprising:
ことを特徴とする請求項1または請求項2に記載の通行人行動解析装置。 The passerby behavior analysis apparatus according to claim 1 or 2, wherein a cluster that is obtained by dividing or integrating the cluster of the clustering results is identified as a cluster corresponding to the foot of the one passerby.
ことを特徴とする請求項1から請求項3のいずれかに記載の通行人行動解析装置。 The trajectory analysis processing means updates the walking phase of the parameters and updates the walking phase from the acceleration of the left foot and the right foot of the passerby identified in the clustering result cluster in the processing of the Particle filter algorithm. The travel distance of the passer-by is updated by the above, and the position of the foot point of the passer-by among the parameters is predicted from the updated walking phase, the travel distance, and the walking direction. The passer-by behavior analysis device according to claim 3.
通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信処理と、
複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成処理と、
前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング処理と、
前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定処理と、
前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定処理と、
前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理と、
を有することを特徴とする通行人行動解析方法。 A passer behavior analysis method in a passer behavior analysis device,
Distance data reception processing for receiving distance data indicating the distance of the passer's foot from the laser sensor;
Sensing image data generation processing for generating sensing image data indicating the detection position of the laser sensor on the spatial plane at the same time using a plurality of the distance data acquired by a plurality of the laser sensors,
A clustering process for clustering a plurality of the detection positions in the sensing image data;
A passer-by identification process that identifies a cluster corresponding to the leg of one passer-by from the clustering result;
A parameter determination process for determining a parameter consisting of the position of the foot point of the passerby, the walking direction, the stride, the walking cycle, and the walking phase from the identified passerby cluster;
Trajectory analysis processing for analyzing the trajectory of passers-by using the parameters and the Particle filter algorithm,
A passer-behavior analysis method characterized by comprising:
通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段、
複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段、
前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段、
前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段、
前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段、
前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段、
を実行させることを特徴とするプログラム。 In the computer of the passer-by behavior analysis device,
Distance data receiving means for receiving distance data indicating the distance from the laser sensor of the passer's foot;
Sensing image data generating means for generating sensing image data indicating a detection position of the laser sensor on the space plane at the same time using a plurality of the distance data acquired by the plurality of laser sensors
Clustering means for clustering a plurality of the detection positions in the sensing image data;
A passerby specifying means for specifying a cluster corresponding to the leg of one passerby from the clustering result,
Parameter determining means for determining a parameter consisting of the position of the foot point of the passerby, the walking direction, the stride, the walking cycle, and the walking phase from the identified passerby cluster,
Trajectory analysis processing means for analyzing the trajectory of a passerby using the parameter and the Particle filter algorithm,
A program characterized by having executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007280598A JP4631036B2 (en) | 2007-10-29 | 2007-10-29 | Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007280598A JP4631036B2 (en) | 2007-10-29 | 2007-10-29 | Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009110185A JP2009110185A (en) | 2009-05-21 |
JP4631036B2 true JP4631036B2 (en) | 2011-02-16 |
Family
ID=40778631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007280598A Active JP4631036B2 (en) | 2007-10-29 | 2007-10-29 | Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4631036B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5561066B2 (en) * | 2010-09-27 | 2014-07-30 | 富士通株式会社 | Person detection device, person detection method, and program |
JP5664252B2 (en) * | 2011-01-12 | 2015-02-04 | トヨタ自動車株式会社 | Pedestrian detection device |
JP5953484B2 (en) * | 2011-03-30 | 2016-07-20 | 株式会社国際電気通信基礎技術研究所 | Measuring device, measuring method and measuring program |
JP5811934B2 (en) * | 2011-09-09 | 2015-11-11 | 三菱電機株式会社 | Residence degree detection device and passenger conveyor |
CN104408942A (en) * | 2014-11-27 | 2015-03-11 | 天津艾思科尔科技有限公司 | Intelligent vehicle speed measuring device and method |
CN104469309A (en) * | 2014-12-12 | 2015-03-25 | 天津艾思科尔科技有限公司 | Tunnel pedestrian intrusion detection device and method |
CN108345004A (en) * | 2018-02-09 | 2018-07-31 | 弗徕威智能机器人科技(上海)有限公司 | A kind of human body follower method of mobile robot |
CN108762309B (en) * | 2018-05-03 | 2021-05-18 | 浙江工业大学 | Human body target following method based on hypothesis Kalman filtering |
WO2023053336A1 (en) * | 2021-09-30 | 2023-04-06 | 日本電気株式会社 | Information provision system, information provision method, and program recording medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346617A (en) * | 2004-06-07 | 2005-12-15 | East Japan Railway Co | Passer-by behavior analysis system |
JP2006221610A (en) * | 2004-12-14 | 2006-08-24 | Samsung Electronics Co Ltd | Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3403308B2 (en) * | 1997-02-18 | 2003-05-06 | 日本電信電話株式会社 | Walking pattern processing device |
US8229164B2 (en) * | 2006-07-10 | 2012-07-24 | Synthesis Corporation | Pedestrian tracking method and pedestrian tracking device |
-
2007
- 2007-10-29 JP JP2007280598A patent/JP4631036B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346617A (en) * | 2004-06-07 | 2005-12-15 | East Japan Railway Co | Passer-by behavior analysis system |
JP2006221610A (en) * | 2004-12-14 | 2006-08-24 | Samsung Electronics Co Ltd | Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device |
Also Published As
Publication number | Publication date |
---|---|
JP2009110185A (en) | 2009-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4631036B2 (en) | Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof | |
JP7052663B2 (en) | Object detection device, object detection method and computer program for object detection | |
Hu et al. | Moving object detection and tracking from video captured by moving camera | |
CN106536299B (en) | System and method based on test object abrupt deceleration vehicle | |
Gandhi et al. | Pedestrian collision avoidance systems: A survey of computer vision based recent studies | |
JP5102410B2 (en) | Moving body detection apparatus and moving body detection method | |
Benfold et al. | Guiding visual surveillance by tracking human attention. | |
US9286678B2 (en) | Camera calibration using feature identification | |
JP5535816B2 (en) | Moving object prediction apparatus and program | |
US8965050B2 (en) | Behavior analysis device | |
CN105654031B (en) | System and method for object detection | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
WO2014084218A1 (en) | Subject detection device | |
TW201225004A (en) | Image based detecting system and method for traffic parameters and computer program product thereof | |
JP2013232091A (en) | Approaching object detection device, approaching object detection method and approaching object detection computer program | |
JP4609076B2 (en) | Moving object detection apparatus and moving object detection method | |
JP2005346617A (en) | Passer-by behavior analysis system | |
KR102359083B1 (en) | Device for detecting moving object and method thereof | |
JP5866682B2 (en) | Measuring system and measuring method | |
KR101040904B1 (en) | System and method for estimating traffic using the laser | |
Bravo et al. | Outdoor vacant parking space detector for improving mobility in smart cities | |
CN113869607A (en) | Safe driving prediction optimization method, device, equipment and storage medium | |
JP4697761B2 (en) | Queue detection method and queue detection apparatus | |
JP2008066953A (en) | Image monitoring apparatus | |
Beleznai et al. | Vision-based mobile analysis of roadside guardrail structures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4631036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131126 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |