JP2009110185A - 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム - Google Patents

通行人行動解析装置及び通行人行動解析方法並びにそのプログラム Download PDF

Info

Publication number
JP2009110185A
JP2009110185A JP2007280598A JP2007280598A JP2009110185A JP 2009110185 A JP2009110185 A JP 2009110185A JP 2007280598 A JP2007280598 A JP 2007280598A JP 2007280598 A JP2007280598 A JP 2007280598A JP 2009110185 A JP2009110185 A JP 2009110185A
Authority
JP
Japan
Prior art keywords
passerby
passer
clustering
foot
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007280598A
Other languages
English (en)
Other versions
JP4631036B2 (ja
Inventor
Yuri Nakagawa
ゆり 仲川
Ryosuke Shibazaki
亮介 柴崎
Xiaowei Shao
肖偉 邵
卉菁 ▲趙▼
Kisei Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
East Japan Railway Co
Original Assignee
University of Tokyo NUC
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, East Japan Railway Co filed Critical University of Tokyo NUC
Priority to JP2007280598A priority Critical patent/JP4631036B2/ja
Publication of JP2009110185A publication Critical patent/JP2009110185A/ja
Application granted granted Critical
Publication of JP4631036B2 publication Critical patent/JP4631036B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】比較的に広い場所に大勢の人が存在するような場合における通行人の追跡処理の精度を向上させることのできる通行人行動解析装置を提供する。
【解決手段】通行人の足のレーザセンサからの距離を示す距離データを受信し、複数のレーザセンサによって取得された距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成する。そして、センシング画像データにおける複数の検出位置をクラスタリングし、そのクラスタリング結果から一人の通行人の足に対応するクラスタを特定し、特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相を決定する。また、各パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する。
【選択図】図1

Description

本発明は、鉄道の駅などにおいて、通行人が移動、滞在する空間における通行人の行動を解析する通行人行動解析装置及び通行人行動解析方法並びにそのプログラムに関する。
駅を利用する旅客がスムーズに流れ移動できることが駅における快適性の重要な要件となっているが、乗降客や乗換客などが複雑に入り組み、案内標識や出入り口を確認するための立ち止まりや売店での買い物、待ち合わせによる滞留など、スムーズな流れを阻害する要素が多数存在する。これにより旅客同士の衝突や混雑による歩行速度の低下などの問題が発生する。
駅環境の快適性を向上させる改良工事等を検討するための基礎情報収集として実施されてきた従来の旅客流動調査は、断面での通過人数を把握することが主であり、人手による調査が主流であったため、駅構内を面的移動する旅客の速度や方向、密度を総合的に解析するのは困難であった。
このような問題を解決するために、道路の交差点に可視画像のカメラを設置し、このカメラにより、横断歩道を含む所定範囲の監視領域内の画像を撮像して、道路の交差点における歩行者の状況や人数を調べることにより、車両用信号および歩行者用信号の制御をより効率的に行なえ、結果として歩行者の安全を向上させることができる技術が知られている(例えば、特許文献1参照)。
ここで、特許文献1に示す装置は、可視のビデオ画像を使用しているため、通行人が交錯する時などに追跡処理が困難になる場合があり、通行人の正確な位置の追跡処理を行うのが困難であるという問題がある。また、この問題を避けるためカメラの設置位置や設置角度が大きく制約され、撮像範囲が狭くなるとともに、多数の通行人がある場合は計算処理負荷が大きくなってしまうという問題もある。そして、このような問題を解決し、距離画像を用いて通行人の行動を解析することができる技術が開示されている(例えば、特許文献2参照)。
特開平11−275562号公報 特開2005−346617号公報
しかしながら、特許文献2の技術では、必ずしも通行人の追跡処理の精度が十分ではなかったため、その処理の精度を上げることが望まれている。
そこでこの発明は、比較的に広い場所に大勢の人が存在するような場合における通行人の追跡処理の精度を向上させることのできる通行人行動解析装置を提供することを目的としている。
上記目的を達成するために、本発明は、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段と、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段と、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段と、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段と、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段と、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段と、を備えることを特徴とする通行人行動解析装置である。
また本発明は、上述の通行人行動解析装置が、前記クラスタリングにおいて、Mean-shift Clusteringアルゴリズムを用いることを特徴とする。
また本発明は、上述の通行人行動解析装置において、前記クラスタリング結果のクラスタが分割または統合するクラスタを、前記一人の通行人の足に対応するクラスタと特定することを特徴とする。
また本発明は、上述の通行人行動解析装置において、前記クラスタリング結果のクラスタにおいて特定した、前記通行人の左足の加速度および右足の加速度から、歩行位相および移動距離を算出し、当該歩行位相および移動距離を用いてParticle filterアルゴリズムにより通行人の軌跡を解析することを特徴とする。
また本発明は、通行人行動解析装置における通行人行動解析方法であって、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信処理と、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成処理と、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング処理と、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定処理と、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定処理と、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理と、を有することを特徴とする通行人行動解析方法である。
また本発明は、通行人行動解析装置のコンピュータに、通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段、を実行させることを特徴とするプログラムである。
本発明によれば、通行人が混み合っている場合においても、精度良く、各通行人の軌跡の解析手法を提供することができる。
以下、本発明の一実施形態による通行人行動解析装置を図面を参照して説明する。
図1は同実施形態による通行人行動解析システムの構成を示すブロック図である。
この図において、符号1は、予め決められた空間6内の通行人7の行動の解析処理を実行する通行人行動解析装置である。また符号2は、通行人等の物体までの距離を測定するレーザセンサである。レーザセンサ2は、床から約10cmの高さの水平面をスキャニングして、レーザの投光の高さに応じた水平断面で、静止物体・移動物体の両方が含まれた直交座標系における距離データを得ることができる。また符号3は、レーザセンサ2のそれぞれを制御するために、それぞれのレーザセンサ2毎に設けられたクライアントPC(パソコン)である。符号4は、各クライアントPC3と通行人行動解析装置1との間で情報通信を行うネットワークであり、クライアントPC3内に蓄積された計測データを通行人行動解析装置1へ転送し、サーバ1からの指示の情報をクライアントPC3へ送るために利用される。
次に、図2を参照して、図1に通行人行動解析装置1の構成を説明する。
図2は、図1に示す通行人行動解析装置1の構成を示すブロック図である。
この図において、符号11は、各クライアントPC3から距離データを受信する通信処理部である。また符合12はデータ受信部11において受信した距離データを記憶するセンシングデータ記憶部である。符号13は、距離データに基づいて、通行人の行動の解析処理を行うための各種パラメータを記憶するパラメータ情報記憶部である。また符号14は、時間的に同期させ、1つの座標系に統合したセンシング画像データから通行人7の足部分を抽出し、この通行人7を追跡するトラッキング処理を実行し、所定の空間6内を所定の時間内に通行した通行人の通行軌跡を算出する軌跡算出部である。また符号15は、軌跡算出部14において得られた各通行人の通行軌跡データを記憶する軌跡データ記憶部である。また符号16は、通行軌跡データに基づく通行軌跡画像を出力する軌跡出力部である。符号17は、ディスプレイで構成する表示部である。
次に、通行人7を抽出し、トラッキング(追跡)する動作を説明する。
まず、各クライアントPC3は、レーザセンサ2から得た距離データを通行人行動解析装置1へ転送する。これを受けて、通信処理部11は、各クライアントPC3から受信した距離データをセンシングデータ記憶部12に記録する。
次に、軌跡算出部14は、センシングデータ記憶部12に記憶されている複数の距離データを読み出し、時間的同期を取るとともに、1つの座標系に統合したセンシング画像データを生成する。そしてセンシング画像データを生成すると、軌跡算出部14はトラッキング処理を開始する。
図3はセンシング画像データの概要を示す図である。
この図が示すように、センシング画像データは、通行人の足から反射したレーザ光により特定された距離データを、複数のレーザセンサ2から受信して生成したものであり、そのセンシング画像データの出力には、レーザセンサ、通行人の足のポイント、背景(壁や柱など)が表示される。なお、本実施形態ではレーザセンサ2は、地表から10cmの高さでレーザ光を送信してその反射により通行人の踝付近の距離を検出しているが、これは、腰近辺の高さであると、多数の人が交錯した際に、その空間における測定対象の混雑度が高くなり、測定が難しくなるためである。
図4は歩行モデルの概要を示す第1の図である。
次に、軌跡算出部によるトラッキング処理について説明する。
まず、通行人の足の軌跡は周期的である。つまり、レーザセンサ2によって得られたデータでは、通行人の2つの足からは、図4に示すような、周期的かつ網紐のようなデータが取得できると考えられる。そこで、本実施形態による歩行モデルは、Particle filterルゴリズムを用いて、通行人の状態を予測する手法をとる。なお、前提として、(1)歩行者は2速歩行であること、(2)通行人の足の測定があいまいにならないように通行人は足付近に何らかの付帯物をつけていないこと、とする。
図5は歩行モデルの概要を示す第2の図である。
通行人が歩行している際には、通常、典型的な足のスイング様態を見ることができる。図5は、その典型的な足のスイング様態を示している。この図が示すように、通行人の2つの足は、その歩行時の2つの足それぞれの役割として交互にスイングされている。そして、図5で示すように、まず、歩行人が右足から歩こうと考えたときには、右足のスイングを前方に加速させる。そして、右足がスイングしている間、その力は徐々に軽減し、右足のスイングが止まる。また同様に右足が止まると、次に左足の加速度をつけてスイングし、徐々に力を軽減して、左足が止まる。そして、図5で示すような、加速度、速さ、移動距離の関係が導かれる。なお図5において破線は右足を、実線は左足を表している。そして右足の加速度は次式(1)のように表すことができる。
Figure 2009110185
ここで、式(1)において、Aは最大の加速度である。またTは歩行周期(左足1歩、右足1歩を1周期とする)を示している。従って、右足の速さv(t)および移動距離S(t)は、式(2)、式(3)により表すことができる。
Figure 2009110185
Figure 2009110185
また同様に左足の移動距離S(t)は、式(4)により表すことができる。
Figure 2009110185
従って、2つの足の距離S(t)は、式(3)および式(4)より、
Figure 2009110185
と表すことができる。また2つの足の距離S(t)は図11(左足と右足の距離の関係を示す図)で示すようなコサインのパターンS (t)として、式(6)のように示すことができる。
Figure 2009110185
なお、式(6)においてSは歩幅を示し、γは位相を示している。なお、図11のS(t)およびS(t)で示すパターンは、図4で示した周期的かつ網紐のようなパターンと似ていることが分かる。また式(6)によって、歩行の位相における通行人の移動距離を算出することができる。
図6はクラスタリング結果を示す図である。
ここで、軌跡算出部14は、センシング画像データを用いてMean-shift Clusteringアルゴリズムにより、図6で示すように、複数の通行人のポイントデータをクラスタリングする。なお、図6においてクラスタリングした結果は通行人の足のポイントを円によりマークアップしている。またMean-shift Clusteringアルゴリズムについては、非特許文献<D.Comaniciu and P.Meer,“Ditribution free decomposition of multivariate data”,Pattern Analysis and Applications,vol2, pp.22-30,1999>に記述されている手法を用いた。
ここで、図6の結果では、たいてい片方の足ごとにクラスタリングが行われるが、一人の通行人の両足が近接している場合には、それら両足が一つの足としてクラスタリングされてしまう。また、異なる通行人の足が一つの足としてクラスタリングされてしまう場合もある。これは、Mean-shift Clusteringアルゴリズムが、クラスタの大きさを自動的に制限するためである。
図7は複数のレーザポイントの統合および分割の概要を示す図である。
図7で示すように、クラスタリングにより得られた点のクラスタが、t−1秒の場面においては1つのクラスタだったが、t秒の場面においては二つのクラスタとしてクラスタリングされる場合があり、これは分割である。また逆にt−1秒の場面においては2つのクラスタだったが、t秒の場面においては1つのクラスタとしてクラスタリングされる場合があり、これは統合である。いずれの場合もそれらは一人の通行人の両足として特定することができる。
ここで、センシング画像データの連続する各フレームにおいて、まず、クラスタリング結果によるそれぞれのクラスタの形や大きさ、移動方向を計算する。そして軌跡算出部14は、時刻tにおけるそれぞれのクラスタC について、時刻t−1の時点からの隣り合うクラスタとの統合または分割について計算する。これにより、軌跡算出部14は、クラスタリング結果によるどのクラスタのペアまたは一つが一人の通行人に対応するものかを判定する。
次に、軌跡算出部14は、通行人の追跡処理を開始する。ここでParticle filterアルゴリズムの技術は、複数の通行人の追跡処理に有効である。Particle filterアルゴリズムを用いた通行人追跡処理においては、次の8つのパラメータを用いる。
Figure 2009110185
なお、LxおよびLyは左足の位置を、またRxおよびRyは右足の位置を示している。また、Sは歩幅を、Tは歩行周期を、αは歩行方向を、γは位相を示している。そして、軌跡算出部14は、時刻tにおける全ての通行人について
Figure 2009110185
および、確率密度関数
Figure 2009110185
を算出する。ここで式(8)において、Z1:tは、時間tに達するまでの全ての観察データ(レーザセンサからの距離データ)を示している。なおZは時間tにおける観察データ(レーザセンサからの距離データ)を示す。また、式(9)において、Mはサンプルの数を示しており、θk,s はk番目のオブジェクトのs番目のサンプルを示している。またπk,s は対応する重みを示している。
Particle filterアルゴリズムは、予測と更新を繰り返す帰納的関数であるため、まず予測ステップにおいては、乱数r∈[0,1]を生成し、そしてその乱数を用いて、全てのサンプルから時刻t−1における一つのサンプルθk,s を選択する。なおこのParticle filterアルゴリズムの処理については、非特許文献<M.Isard and A.Blake, “CONDENSATON−conditional density propagation for visual tracking”, Int.J.Computer Vision, vol.29, no.1, pp.5-28 1998.>を用いる。そして、以下の算出を行う。
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
ここでΔtは時刻t−1から時刻tまでの間の時間である。また、w,w,wα,wγ,wr1,wr2は分散ランダムノイズである。予測ステップにおいては、最初に式(6)によって、歩行位相γおよび移動距離mdを更新する。次に歩行位相に基づいて、右足と左足のどちらの足が動いているかを判断し、異なるダイナミックレンジ(rまたはr)を割り当てる。その後、両足の位置を、その動きと歩行方向αによって予測する。最後に、歩幅S、歩行周期T、歩行方向αを予測する。
また更新ステップにおいては、クラスタリングで検出した結果の一つずつについて行う。このとき、k番目のオブジェクトについて、時刻tにおける全てのサンプルの重み(πk,s )を算出する。観察対象は
Figure 2009110185
で表される点集合であり、重みの更新については次の式により行う。
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
Figure 2009110185
そして結果として算出されるpおよびpは左足と右足の位置を示している。また、pは左足と右足の相対距離を示している。また、d0は右足と左足の歩行方向の距離を示している。またr0は式(6)を用いて算出された基準値である。
そして、式(19)〜(21)で算出された値は、算出のタイミングごとに、軌跡算出部14から軌跡データ記憶部15に一時格納され、軌跡出力部16が、前記算出のタイミングごとのデータを用いて通行軌跡画像を表示部17に出力する。
図8は通行人行動解析装置の処理フローを示す図である。
図9は歩行方向算出概要を示す図である。
上述したように軌跡算出部14は、各クライアント端末から受信した距離データに基づいて、センシング画像データを生成する(ステップS1)。そして、センシング画像データにおけるレーザポイントを、Mean-shift Clusteringアルゴリズムを用いてクラスタリングする(ステップS2)。またそのクラスタリング結果から、時間t−1および時間tにおける各クラスタのうち2つが1つに統合するクラスタ、または1つが2つに分割するクラスタを一人の通行人のクラスタと特定する(ステップS3)。そして、一人の通行人の足を示すポイントの位置(Lx,Ly,Rx,Ry)から図9で示すような方向を算出して歩行方向αと決定し、また歩幅S、歩行周期T、歩行位相γの各種パラメータを決定する(ステップS4)。そして、各種パラメータを用いて、全ての通行人について、Particle filterアルゴリズムを用いて上記トラッキング処理を行う(ステップS5)。
図10は通行軌跡画像を示す図である。
この図が示すように、通行人解析装置1は表示部17に、時刻tにおける通行の軌跡を表示する。この通行人解析装置1の処理によれば、通行人が混み合っている場合においても、精度良く、各通行人の軌跡を解析することができる。そして、上述の通行人解析装置の処理を用いて、2006年06月14日、午前07時00分〜午前07時05分のJR東日本の大崎駅構内(60m×20m)においてトラッキング処理を行ったところ、全387人の通行人のうち、367人の通行人のトラッキング処理が成功し、成功率が94.8%となった。また2006年06月14日、午前08時00分〜午前08時10分のJR東日本の大崎駅構内(60m×20m)においてトラッキング処理を行ったところ、全2608人の通行人のうち、約80%の通行人のトラッキング処理が成功した。
なお、上述の通行人解析装置は内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
通行人行動解析システムの構成を示すブロック図である。 通行人行動解析装置の構成を示すブロック図である。 センシング画像データの概要を示す図である。 歩行モデルの概要を示す第1の図である。 歩行モデルの概要を示す第2の図である。 クラスタリング結果を示す図である。 レーザポイントの統合および分割の概要を示す図である。 通行軌跡画像の概要を示す図である。 歩行方向算出概要を示す図である。 通行軌跡画像を示す図である。 左足と右足の距離の関係を示す図である。
符号の説明
1・・・通行人解析装置
2・・・レーザセンサ
3・・・クライアントPC
4・・・ネットワーク
11・・・通信処理部
12・・・センシングデータ記憶部
13・・・パラメータ記憶部
14・・・軌跡算出部
15・・・軌跡データ記憶部
16・・・軌跡出力部
17・・・表示部

Claims (6)

  1. 通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段と、
    複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段と、
    前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段と、
    前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段と、
    前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段と、
    前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段と、
    を備えることを特徴とする通行人行動解析装置。
  2. 前記クラスタリングにおいて、Mean-shift Clusteringアルゴリズムを用いることを特徴とする請求項1に記載の通行人行動解析装置。
  3. 前記クラスタリング結果のクラスタが分割または統合するクラスタを、前記一人の通行人の足に対応するクラスタと特定する
    ことを特徴とする請求項1または請求項2に記載の通行人行動解析装置。
  4. 前記クラスタリング結果のクラスタにおいて特定した、前記通行人の左足の加速度および右足の加速度から、歩行位相および移動距離を算出し、当該歩行位相および移動距離を用いてParticle filterアルゴリズムにより通行人の軌跡を解析する
    ことを特徴とする請求項1から請求項3のいずれかに記載の通行人行動解析装置。
  5. 通行人行動解析装置における通行人行動解析方法であって、
    通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信処理と、
    複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成処理と、
    前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング処理と、
    前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定処理と、
    前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定処理と、
    前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理と、
    を有することを特徴とする通行人行動解析方法。
  6. 通行人行動解析装置のコンピュータに、
    通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段、
    複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段、
    前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段、
    前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段、
    前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段、
    前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段、
    を実行させることを特徴とするプログラム。
JP2007280598A 2007-10-29 2007-10-29 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム Active JP4631036B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007280598A JP4631036B2 (ja) 2007-10-29 2007-10-29 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007280598A JP4631036B2 (ja) 2007-10-29 2007-10-29 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム

Publications (2)

Publication Number Publication Date
JP2009110185A true JP2009110185A (ja) 2009-05-21
JP4631036B2 JP4631036B2 (ja) 2011-02-16

Family

ID=40778631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007280598A Active JP4631036B2 (ja) 2007-10-29 2007-10-29 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム

Country Status (1)

Country Link
JP (1) JP4631036B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073683A (ja) * 2010-09-27 2012-04-12 Fujitsu Ltd 人物検出装置、人物検出方法及びプログラム
JP2012145444A (ja) * 2011-01-12 2012-08-02 Toyota Motor Corp 歩行者検出装置
JP2012215555A (ja) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International 計測装置,計測方法および計測プログラム
JP2013068599A (ja) * 2011-09-09 2013-04-18 Mitsubishi Electric Corp 滞留度検出装置及び乗客コンベア
CN105096603A (zh) * 2014-12-12 2015-11-25 天津艾思科尔科技有限公司 全天候探测装置
CN105262984A (zh) * 2014-11-27 2016-01-20 天津艾思科尔科技有限公司 一种带有固定装置的探测器
CN108345004A (zh) * 2018-02-09 2018-07-31 弗徕威智能机器人科技(上海)有限公司 一种移动机器人的人体跟随方法
CN108762309A (zh) * 2018-05-03 2018-11-06 浙江工业大学 一种基于假设卡尔曼滤波的人体目标跟随方法
WO2023053336A1 (ja) * 2021-09-30 2023-04-06 日本電気株式会社 情報提供システム、情報提供方法及びプログラム記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228540A (ja) * 1997-02-18 1998-08-25 Nippon Telegr & Teleph Corp <Ntt> 歩行パターン処理装置
JP2005346617A (ja) * 2004-06-07 2005-12-15 East Japan Railway Co 通行人行動解析システム
JP2006221610A (ja) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228540A (ja) * 1997-02-18 1998-08-25 Nippon Telegr & Teleph Corp <Ntt> 歩行パターン処理装置
JP2005346617A (ja) * 2004-06-07 2005-12-15 East Japan Railway Co 通行人行動解析システム
JP2006221610A (ja) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073683A (ja) * 2010-09-27 2012-04-12 Fujitsu Ltd 人物検出装置、人物検出方法及びプログラム
JP2012145444A (ja) * 2011-01-12 2012-08-02 Toyota Motor Corp 歩行者検出装置
JP2012215555A (ja) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International 計測装置,計測方法および計測プログラム
JP2013068599A (ja) * 2011-09-09 2013-04-18 Mitsubishi Electric Corp 滞留度検出装置及び乗客コンベア
CN105262984A (zh) * 2014-11-27 2016-01-20 天津艾思科尔科技有限公司 一种带有固定装置的探测器
CN105262984B (zh) * 2014-11-27 2018-09-18 天津艾思科尔科技有限公司 一种带有固定装置的探测器
CN105096603A (zh) * 2014-12-12 2015-11-25 天津艾思科尔科技有限公司 全天候探测装置
CN108345004A (zh) * 2018-02-09 2018-07-31 弗徕威智能机器人科技(上海)有限公司 一种移动机器人的人体跟随方法
CN108762309A (zh) * 2018-05-03 2018-11-06 浙江工业大学 一种基于假设卡尔曼滤波的人体目标跟随方法
CN108762309B (zh) * 2018-05-03 2021-05-18 浙江工业大学 一种基于假设卡尔曼滤波的人体目标跟随方法
WO2023053336A1 (ja) * 2021-09-30 2023-04-06 日本電気株式会社 情報提供システム、情報提供方法及びプログラム記録媒体

Also Published As

Publication number Publication date
JP4631036B2 (ja) 2011-02-16

Similar Documents

Publication Publication Date Title
JP4631036B2 (ja) 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム
Hu et al. Moving object detection and tracking from video captured by moving camera
US9286678B2 (en) Camera calibration using feature identification
KR101829556B1 (ko) 객체 움직임의 라이더 기반 분류 기법
Benfold et al. Guiding visual surveillance by tracking human attention.
CN105760846B (zh) 基于深度数据的目标检测与定位方法及系统
JP5535816B2 (ja) 移動物予測装置及びプログラム
JP4363295B2 (ja) ステレオ画像による平面推定方法
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
WO2014084218A1 (ja) 対象物検知装置
CN110171405A (zh) 基于检测对象制动车辆的系统和方法
CN105654031B (zh) 用于物体检测的系统和方法
TW201225004A (en) Image based detecting system and method for traffic parameters and computer program product thereof
CN108645375B (zh) 一种用于车载双目系统快速车辆测距优化方法
JP4609076B2 (ja) 移動物体検出装置及び移動物体検出方法
JP2005346617A (ja) 通行人行動解析システム
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
Ismail et al. Automated collection of pedestrian data using computer vision techniques
JP5866682B2 (ja) 計測システムおよび計測方法
JP3891181B2 (ja) カメラパラメータの自動算出方法及び装置
Bravo et al. Outdoor vacant parking space detector for improving mobility in smart cities
JP4697761B2 (ja) 待ち行列検出方法及び待ち行列検出装置
Beleznai et al. Vision-based mobile analysis of roadside guardrail structures
Bae et al. SiT Dataset: Socially Interactive Pedestrian Trajectory Dataset for Social Navigation Robots
JP2008066953A (ja) 画像監視装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101020

R150 Certificate of patent or registration of utility model

Ref document number: 4631036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250