JP2004191095A - Passenger track extraction device and system - Google Patents
Passenger track extraction device and system Download PDFInfo
- Publication number
- JP2004191095A JP2004191095A JP2002356885A JP2002356885A JP2004191095A JP 2004191095 A JP2004191095 A JP 2004191095A JP 2002356885 A JP2002356885 A JP 2002356885A JP 2002356885 A JP2002356885 A JP 2002356885A JP 2004191095 A JP2004191095 A JP 2004191095A
- Authority
- JP
- Japan
- Prior art keywords
- data
- trajectory
- server
- clients
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、広範囲にわたって通行人の数や行動を計測する際に用いられる通行人軌跡抽出装置およびシステムに関する。
【0002】
【従来の技術】
通行人の数や行動を非接触で計測することは、建物のセキュリティやマーケティングなど多くの分野で要求が高まっている。従来、人物の位置情報を非接触で計測する方法の多くは、ビデオ画像を利用していた。しかしビデオ画像では、人間が交錯するときなどにうまくトラッキングできないなど、データの抽出に際して問題があった。そこで近年、距離や速度を直接測ることができる、レーザセンサを用いた計測方法が用いられている。
レーザセンサはレーザ波の拡散が小さいために、解像度が非常に高い。また、測定できる範囲が非常に大きく、測定誤差も非常に小さい。
レーザセンサを用いた従来の技術では、被測定物に異なるパターンの反射板を巻きつけて、1台のレーザセンサにより位置を計測するものもある(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開平11−211831号公報
【0004】
【発明が解決しようとする課題】
しかしながら、多数の通行人の居る場所において、人が互いに重なり合うため、1台のレーザセンサではうまく抽出できない。また、計測できる範囲も1台のレーザセンサでは限界がある。
この発明はこのような点を鑑みてなされたもので、複数のレーザセンサにより通行人の位置座標を検知し、サーバがその検知データを座標変換してデータを統合し、リアルタイムかつ広範囲での通行人の軌跡の抽出を行う、通行人軌跡抽出装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記した目的を達成するために、請求項1記載の通行人軌跡抽出装置は、通行人の位置や物体を検知する複数の検知手段に対応して設けられた複数のクライアントを制御する、通行人軌跡抽出装置において、前記複数の検知手段の検知時間を同期する同期手段と、前記複数の検知手段によって検知したデータから、前記複数のクライアントが抽出した通行人の位置座標を1つの座標系に統合する統合手段と、前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段とを有する。
【0006】
請求項2記載の発明は、請求項1記載の通行人軌跡抽出装置において、前記検知手段がレーザセンサであって、地面近くに水平にスキャンし、通行人の足を検知することを特徴とする。
【0007】
請求項3記載の発明は、請求項1あるいは2記載の通行人軌跡抽出装置において、前記軌跡抽出手段が、前記検知手段によって検知した通行人の2本の足データをグループ化し、前記2本の足データの重心点を抽出し、前記足データが重なっているグループを抽出し、抽出した前記グループの2本の足データの重心点を結んで該通行人の移動軌跡を抽出し、前記通行人の移動速度や方向を設定することを特徴とする。
【0008】
請求項4記載の発明は、請求項1あるいは2記載の通行人軌跡抽出装置において、前記軌跡抽出手段が、前記検知手段によって検知した通行人の足の歩行モデルを定義し、前記通行人の移動速度や方向、足振り位相の状態をカルマンフィルタによって計算し前記通行人の移動軌跡を抽出することを特徴とする
【0009】
請求項5記載の通行人軌跡抽出システムは、通行人の位置や物体を検知する複数の検知手段と、前記複数の検知手段に対応して設けられ、各検知手段から出力される検知データから通行人の位置座標を抽出する複数のクライアントと、前記複数のクライアントを制御するサーバとを具備し、前記サーバは、前記検知手段の検知時間を同期する同期手段と、前記複数のクライアントから送信される通行人の位置座標を1つの座標系に統合する統合手段と、前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段とを有することを特徴とする。
【0010】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の一実施形態に係る通行人軌跡抽出装置の概略構成を示すブロック図である。1はサーバであり、ネットワークNを介してクライアント11〜13を制御する。クライアント11〜13は、それぞれレーザセンサ21〜23(検知手段)を制御する。
レーザセンサ21〜23は、それぞれ異なる場所の床に設置され、地面から約20cmの高さの水平面でスキャンし、最大半径70mの範囲内の通行人を検知する。このとき、レーザ光は通行人の足に当たることになる。またレーザセンサ21〜23は、角度270度の範囲でスキャンし、0.25度の刻みで、周辺物(固定物と移動物)までの距離を直接計測し、それぞれクライアント11〜13にデータを送る。
【0011】
次に、上記構成におけるサーバ1とクライアント11〜13の動作について、図2と図3を参照して説明する。図2はサーバ1の動作、図3はクライアント11〜13の動作を示す。
まず、サーバ1はクライアント11〜13に同期信号を送る(ステップSa1)。クライアント11〜13はその信号を受信すると(ステップSa11)時刻同期を行う(ステップSa12)。
サーバ1はクライアント11〜13にデータをリクエストするリクエスト信号を送信する(ステップSa2)。クライアント11〜13がそのリクエスト信号を受信すると(ステップSa13)、それぞれ対応したレーザセンサ21〜23は1回スキャンし周辺物を検知する。クライアント11〜13はその1スキャンのデータを取得し、サンプルデータとしてサーバ1に送る(ステップSa14)。
【0012】
このとき、レーザセンサ21〜23は、隣接する少なくとも2つのレーザセンサで共通な固定物を検知するよう、検知範囲がお互いに若干重複するように設置されている。また、レーザセンサ21〜23が計測したレーザデータはレーザセンサ21〜23それぞれ独自に設定したローカル座標系に相対している。
サーバ1はクライアント11〜13からサンプルデータを受信し(ステップSa3)、各サンプルデータから、共通な固定物に対する計測データを視覚的に判断してそれらをマッチングし、1つのデータに統合する。そして、クライアント毎の座標系変換パラメータを決定する(ステップSa4)。
このようにして同一時刻かつ同一座標系に統合したデータを1フレームとする。
【0013】
次に、サーバ1はクライアント11〜13に計測開始信号を送る(ステップSa5)。クライアント11がその計測開始信号を受信すると(ステップSa15)、レーザセンサ21は周辺物をスキャンする。クライアント11はスキャンしたデータを取得する(ステップSa16)。
レーザセンサ21は、固定物に対して常に同じ角度で同じ距離値を計測している。クライアント11は、レーザセンサ21がスキャンした200のデータを時系列ごとに重ねる。そして、時間とともに変化しない固定物を抽出し、背景データを生成する。この背景データは1時間おきに更新される(ステップSa17)。クライアント11はレーザセンサ21の計測したデータから、背景差分により移動物に当たる動体データを抽出し(ステップSa18)、動体データをサーバ1に送る(ステップSa19)。ステップSa16からステップSa19の動作は、計測終了まで繰り返される。
クライアント12、13と対応するレーザセンサ22、23もそれぞれ同様の動作を行う。
【0014】
サーバ1はクライアント11〜13から動体データを受信し(ステップSa6)、ステップSa4で計算した座標系変換パラメータによって同一座標系に統合し、1フレームのデータを作成する(ステップSa7)。そして、サーバ1は座標変換した動体データから通行人の軌跡を求める(ステップSa8)。軌跡の求め方はサブルーチンとして後に述べる。
サーバ1が軌跡の測定を終了したら(ステップSa9)、クライアント11〜13に計測終了信号を送信する(ステップSa10)。クライアント11〜13はその計測終了信号を受信すると(ステップSa20)、処理を終了する。
以上により、サーバ1は統合したデータ上で通行人の軌跡を検出することができる。
【0015】
次に、ステップSa8において通行人の軌跡を求めるサーバ1の動作を、図4を参照して説明する。
【0016】
通行人の足1本にはレーザ光が数点当たる。サーバ1は、ステップSa7で座標変換された動体データが、半径10cm以内に集まっているものを、1本の足にあたるデータとしてクラスタ化し、半径10cmの円にして足断面データとする(ステップSb1)。次にサーバ1は、30cm以内の距離にある足断面データ全てを2個づつグループ化し、通行人の候補とみなす。次にサーバ1は、グループ化した2つの足断面データの中点を取り、通行人候補の重心点とする(ステップSb2)。図11にクラスタ化とグループ化の例を示す。
【0017】
サーバ1は、ステップSb2で抽出した重心点を利用して、前の時刻におけるフレームで登録された既存の軌跡を現在フレームまで延長する(ステップSb3)。このステップSb3における軌跡の延長手法について図5を参照して説明する。
サーバ1は、前の時刻におけるフレームで登録された既存の軌跡に対して、通行人の重心点の移動速度や方向などによって、現在フレームにおける重心点の探索範囲を定める(ステップSc1)。次にサーバ1は、その探索範囲において、通行人候補の重心点を探索する(ステップSc2)。重心点が見つかった場合(ステップSc3で「Yes」)、通行人の重心点の移動速度や方向などで予測される、最も近い重心点まで軌跡を延長する(ステップSc4)。また、その重心点を結んで通行人の歩いた軌跡とする。そしてサーバ1は、通行人の重心点の位置、移動速度、方向などを更新する。
サーバ1は、重心点が見つからなかった回数を数えるカウンタを有する。重心点が見つからなかった場合(ステップSc3で「No」)、カウンタが4以下であれば(ステップSc5で「No」)、カウンタに1を加算する(ステップSc6)。カウンタが5以上であれば(ステップSc5で「Yes」)、該当軌跡の追跡を終了する(ステップSc7)。
続けて、前の時刻におけるフレームで登録された他の既存の軌跡を現在フレームまで延長する場合は(ステップSc8で「Yes」)、ステップSc1の処理に戻る。
【0018】
図4に戻って、人間は、歩行する際に両足を交互に移動するので、足断面データが重なっている足のグループを、時系列上連続したフレームから抽出すれば、通行人1人が歩行しているとみなすことができる(図12を参照)。サーバ1は、前の時刻におけるフレームで登録された既存の軌跡に属していない足のグループに対して、連続3つ以上のフレームに足断面データが重なっているグループを抽出する(ステップSb4)。次にサーバ1は、それぞれの足のグループにおける重心点を抽出し、それら重心点を結び、新たな軌跡として登録する(ステップSb5)。
【0019】
次に、カルマンフィルタを用いて通行人の軌跡を求めるサーバ1の動作を説明する。まず、図6に全体の動作を示す。各計測時刻に、まず各クライアントから動体データを収集し、座標系統合を行う(ステップSd1)。半径10cm以内に集まっている動体データを足断面データとしてクラスタ化し(図11を参照)、その中心点を足の位置データとして求める(ステップSd2)。既に抽出された軌跡データをカルマンフィルタ手法によって現在フレームに延長する(ステップSd3)。既に抽出された軌跡に属しない足データに対して、30cm以内の距離にあるものをグループ化し(ステップSd4)、足データが重なっているグループが3つ以上連続なフレームから検出されるならば、新規軌跡として抽出し(ステップSd5)、カルマンフィルタ(新規軌跡)の初期状態を設定する。この過程を軌跡測定終了まで繰り返す。
【0020】
ステップSd3において、既に抽出された軌跡データをカルマンフィルタによって現在フレームまで延長する手法を図7に示す。各軌跡データに対して、まず前フレーム目までの軌跡データによって現在計測フレームにおける状態ベクトルと計測データ(両足の位置)を予測して、探索範囲を決める(ステップSe1)。この詳細については後に述べる。次に、探索範囲に該当足の計測データを探索する(ステップSe2)。足データが見つかった場合(ステップSe3で「Yes」)、予測した計測データに最も近い足データを現在フレームにおける計測データとする(ステップSe4)。足データが見つからなかった場合、見つからなかった回数を数えるカウンタが5以上ならば(ステップSe5で「Yes」)、この軌跡が終了したと考え(ステップSe8)、その他の軌跡を検討する。カウンタが4以下ならば(ステップSe5で「No」)、カウンタに1を加算し(ステップSe6)、予測した計測データを現在フレームにおける計測データとする(ステップSe7)。最後に現在フレームにおける計測データを利用して、予測された状態ベクトルを更新する(ステップSe9)。この詳細については後に述べる。
続けて、前フレーム目までの他の既存の軌跡を現在フレームまで延長する場合は(ステップSe10で「Yes」)、ステップSe1の処理に戻る。
【0021】
ここで、歩行者モデルを検討する。人間は、歩行する際に両足を交互に移動する。片方の足が着陸してからもう片方の足が振りはじめる。それが単純化した例を図8に示してある。
両足の運びに4つの位相を定義する。両足とも静止の状態から、右足だけが加速して、両足の位置が揃った地点までを位相1と定義する。それから右足が減速し、着地するまでを位相2と定義する。着地する時点に両足の移動速度がほぼ静止の状態に戻る。同じく左足だけの加速を位相3、減速を位相4と定義する。両足に施す加速度は足の筋肉などからの力によって決められる。
【0022】
歩行者モデルを左足と右足が水平面(統合座標系)に置ける速度(vLとvR)、加速度(aLとaR)、位置(pLとpR)によって評価する。そこで、歩行者モデルを計測時刻によって変化するパラメータ(位置、速度)と足振り位相によって変化するパラメータ(加速度)に分けて、離散型カルマンフィルタを定義する。
【0023】
【数1】
【0024】
sk,nは計測時刻k(kフレーム)に歩行者nの両足の位置、速度による状態ベクトルである。uk,nは計測時刻k(kフレーム)に歩行者nの両足の加速度ベクトルである。ωは状態モデル誤差である。本例ではωが定数であると仮定して、ある経験値によって設定する。
【0025】
【数2】
【0026】
Φは両足の位置、速度に関する既存知識によって現在時刻にある両足の位置、速度を推定する行列関係式である。Ψは加速度によって位置、速度の変化を表す行列関係式である。それぞれを[数3][数4]式に定義する。ここで、Δtは計測間隔であり、本例では、Δtはほぼ0.1secである。
【0027】
【数3】
【0028】
【数4】
【0029】
状態ベクトルsk,nを[数5]式のように計測値と関連づける。また状態ベクトルuk,nは足振り位相を検出することによって更新される。
【0030】
【数5】
【0031】
ここで、mk,nは計測時刻kに歩行者nを計測された両足の位置データである。Hは状態ベクトルsk,nと計測データmk,nとの関係式である。εは計測誤差である。本例ではεが定数であると仮定して、ある経験値によって設定する。
【0032】
【数6】
【0033】
【数7】
【0034】
図9には状態モデルの予測を示してある。歩行者nの歩行軌跡を、
Tn=s1,n, s2,n,…, sk−1,n
によって定義する。計測時刻kにおける状態モデルの予測は図13のアルゴリズムで行われる。
Q=E[ωωT]とP−=E[(s−s−)(s−s−)T]はそれぞれ状態モデル誤差と事前推定誤差の共分散行列である。また、加速度に関する状態ベクトルu− k,n に対する予測は、図14のアルゴリズムで行われる。図14において、fRとfLは両足の加速度関数である。本例では両足に施す加(減)速度が等しく、また各位相は一定な常数であると単純化する。
【0035】
予測された現在フレームにおける計測データによって探索範囲を決めて、該当する計測された両足のデータを探索し、更新する(図7のステップSe2〜Se8参照)。それによって現在フレームにおける状態ベクトルを図15のように求める(図10参照)。ここで、Kはカルマンゲイン、R=E[εεT]とP=E[(s−s)(s−s)T]はそれぞれ計測誤差と事後推定誤差の共分散行列である。
【0036】
以上説明したように、本実施形態によれば、複数のレーザセンサで通行人を検出することによって、広範囲にわたる検出を行うことができる。また、複数のレーザセンサの検出データから、それぞれ1台ずつ接続されたクライアントが動体データを抽出し、それをサーバが座標変換することで1つの座標系に統合し、軌跡を抽出することで、膨大な計算量を並列処理することができ、リアルタイムで通行人の軌跡を追うことができる。
【0037】
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
【0038】
上記実施形態では、地表近くの水平面にレーザをスキャンして通行人を検知する構成としたが、例えば、入口のドアなど、地表と垂直にレーザをスキャンして、その入口に入った人数を検知したり、身長の差で男女、大人と子供を検知したりする構成としてもよい。
また、通行人の検知だけでなく、スーパーなどのショッピングカートや自動車を検知する構成としてもよい。
また、ビデオカメラの画像とレーザの軌跡データを組み合わせて、通行人の軌跡を映像として表示しても良い。
【0039】
【発明の効果】
以上の説明で明らかなように、本発明によれば、複数の検知手段で通行人を検知し、同期手段によって検知時間の同期を行い、統合手段によって複数のクライアントが抽出した通行人の位置座標を1つの座標系に統合することで、広範囲にわたる通行人の移動軌跡を検出できる。また、複数の検知手段を複数のクライアントが個々に制御することで、計算量が少なくて済み、リアルタイムで通行人の移動軌跡を追うことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る通行人軌跡計測システムの概略構成を示すブロック図である。
【図2】同実施形態におけるサーバ1の動作を示すフローチャートである。
【図3】同実施形態におけるクライアントの動作を示すフローチャートである。
【図4】同実施形態における重心点を用いた軌跡抽出の動作を示すフローチャートである。
【図5】同実施形態における重心点を用いた軌跡の延長方法の動作を示すフローチャートである。
【図6】同実施形態におけるカルマンフィルタを用いた軌跡抽出の動作を示すフローチャートである。
【図7】同実施形態におけるカルマンフィルタを用いた軌跡の延長方法の動作を示すフローチャートである。
【図8】同実施形態における通行人の歩行モデルの例である。
【図9】同実施形態におけるカルマンフィルタを用いた状態モデルの予測を示すフローチャートである。
【図10】同実施形態におけるカルマンフィルタを用いた状態モデルの更新を示すフローチャートである。
【図11】同実施形態における通行人の足を判別するクラスタ化とグループ化の例を示す。
【図12】同実施形態における通行人の両足が交互に移動するパターンの判別による新規軌跡の抽出の例を示す。
【図13】同実施形態におけるカルマンフィルタを用いた状態モデルの予測を示すアルゴリズムである。
【図14】同実施形態における足振り位相の判別による加速度に関する状態ベクトルの予測を示すアルゴリズムである。
【図15】同実施形態におけるカルマンフィルタを用いた状態ベクトルの更新を示すアルゴリズムである。
【符号の説明】
1…サーバ、11〜13…クライアント、21〜23…レーザセンサ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a pedestrian trajectory extraction device and system used when measuring the number and behavior of pedestrians over a wide range.
[0002]
[Prior art]
Contactless measurement of the number and behavior of pedestrians is increasing in many fields, such as building security and marketing. Conventionally, many methods for measuring position information of a person in a non-contact manner have used video images. However, video images have a problem in data extraction, such as difficulty in tracking when humans intersect. Therefore, in recent years, a measurement method using a laser sensor, which can directly measure a distance or a speed, has been used.
The resolution of the laser sensor is very high because the diffusion of the laser wave is small. Further, the measurable range is very large, and the measurement error is very small.
In a conventional technique using a laser sensor, there is a technique in which a reflector having a different pattern is wound around an object to be measured and the position is measured by one laser sensor (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-11-211831
[Problems to be solved by the invention]
However, in a place where many passers-by exist, people overlap with each other, so that a single laser sensor cannot extract well. Also, there is a limit to the range that can be measured with one laser sensor.
The present invention has been made in view of such a point, and a plurality of laser sensors detect the position coordinates of a pedestrian, a server converts the detected data into coordinates, integrates the data, and allows real-time and wide-area traffic. An object of the present invention is to provide a trajectory extraction device for extracting a trajectory of a person.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a passer-by trajectory extraction device according to claim 1 controls a plurality of clients provided in correspondence with a plurality of detecting means for detecting a position or an object of a passer-by. In the trajectory extraction device, a synchronization means for synchronizing detection times of the plurality of detection means, and position coordinates of a pedestrian extracted by the plurality of clients from data detected by the plurality of detection means are integrated into one coordinate system. And trajectory extracting means for extracting a trajectory of the pedestrian from the position coordinates of the pedestrian obtained by the integrating means.
[0006]
According to a second aspect of the present invention, in the trajectory extraction device according to the first aspect, the detection means is a laser sensor, and scans horizontally near the ground to detect a foot of a pedestrian. .
[0007]
According to a third aspect of the present invention, in the trajectory trajectory extraction apparatus according to the first or second aspect, the trajectory extraction means groups two foot data of the pedestrian detected by the detection means, and Extracting the center of gravity of the foot data, extracting the group where the foot data overlaps, connecting the center of gravity of the two foot data of the extracted group to extract the movement trajectory of the passer, It is characterized by setting the moving speed and direction of the moving object.
[0008]
According to a fourth aspect of the present invention, in the trajectory trajectory extraction device according to the first or second aspect, the trajectory extraction means defines a walking model of a pedestrian's foot detected by the detection means, and The state of speed, direction, and foot swing phase is calculated by a Kalman filter, and the trajectory of the pedestrian is extracted.
6. The passer-trajectory extraction system according to claim 5, wherein a plurality of detecting means for detecting a position or an object of the passer-by are provided in correspondence with the plurality of detecting means, and the passer-by is used based on detection data output from each detecting means. A plurality of clients for extracting position coordinates of a person; and a server for controlling the plurality of clients, wherein the server is transmitted from the plurality of clients and a synchronization unit for synchronizing the detection time of the detection unit. Integrating means for integrating the position coordinates of the passer-by into one coordinate system, and trajectory extracting means for extracting the trajectory of the passer-by from the position coordinates of the passer obtained by the integrating means. .
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a schematic configuration of a trajectory extraction device according to an embodiment of the present invention.
The
[0011]
Next, operations of the
First, the
The
[0012]
At this time, the
The
Data integrated at the same time and in the same coordinate system in this manner is defined as one frame.
[0013]
Next, the
The
The
[0014]
The
When the
As described above, the
[0015]
Next, the operation of the
[0016]
A laser beam hits one leg of a passerby. The
[0017]
The
The
The
Subsequently, if another existing trajectory registered in the frame at the previous time is extended to the current frame (“Yes” in step Sc8), the process returns to step Sc1.
[0018]
Returning to FIG. 4, since the human alternately moves both feet when walking, if a group of feet with overlapping foot cross-sectional data is extracted from a time-series continuous frame, one passerby can walk. (See FIG. 12). The
[0019]
Next, the operation of the
[0020]
FIG. 7 shows a method for extending the already extracted trajectory data to the current frame by the Kalman filter in step Sd3. For each trajectory data, first, the state vector and the measurement data (the position of both feet) in the current measurement frame are predicted based on the trajectory data up to the previous frame, and the search range is determined (step Se1). The details will be described later. Next, the measurement data of the corresponding foot is searched in the search range (Step Se2). When the foot data is found (“Yes” in step Se3), the foot data closest to the predicted measurement data is set as the measurement data in the current frame (step Se4). When the foot data is not found, if the counter for counting the number of times that the foot data is not found is 5 or more (“Yes” in step Se5), it is considered that this trajectory has ended (step Se8), and other trajectories are examined. If the counter is 4 or less ("No" in step Se5), 1 is added to the counter (step Se6), and the predicted measurement data is used as the measurement data in the current frame (step Se7). Finally, the predicted state vector is updated using the measurement data in the current frame (step Se9). The details will be described later.
Subsequently, when extending another existing trajectory up to the previous frame to the current frame (“Yes” in step Se10), the process returns to step Se1.
[0021]
Now consider the pedestrian model. Humans move their feet alternately when walking. After one foot lands, the other starts to swing. An example of a simplification is shown in FIG.
Four phases are defined for carrying both feet.
[0022]
The pedestrian model is evaluated based on the speed (v L and v R ), acceleration (a L and a R ), and position (p L and p R ) at which the left foot and the right foot can be placed on a horizontal plane (integrated coordinate system). Therefore, the discrete Kalman filter is defined by dividing the pedestrian model into parameters (position and speed) that change according to the measurement time and parameters (acceleration) that change according to the phase of foot swing.
[0023]
(Equation 1)
[0024]
sk, n is a state vector based on the position and speed of both feet of the pedestrian n at the measurement time k (k frame). u k, n are acceleration vectors of both feet of pedestrian n at measurement time k (k frame). ω is a state model error. In this example, it is assumed that ω is a constant, and is set by a certain empirical value.
[0025]
(Equation 2)
[0026]
Φ is a matrix relational expression for estimating the position and speed of both feet at the current time based on existing knowledge about the position and speed of both feet. Ψ is a matrix relational expression representing a change in position and speed according to acceleration. Each of them is defined by
[0027]
[Equation 3]
[0028]
(Equation 4)
[0029]
The state vector sk, n is related to the measured value as in [Equation 5]. The state vector uk , n is updated by detecting the foot swing phase.
[0030]
(Equation 5)
[0031]
Here, mk, n are the position data of both feet at which the pedestrian n was measured at the measurement time k. H is a relational expression between the state vector sk, n and the measurement data mk, n . ε is a measurement error. In this example, it is assumed that ε is a constant, and is set by a certain empirical value.
[0032]
(Equation 6)
[0033]
(Equation 7)
[0034]
FIG. 9 shows the prediction of the state model. The walking locus of pedestrian n
Tn = s 1, n , s 2, n , ..., sk-1, n
Defined by The prediction of the state model at the measurement time k is performed by the algorithm in FIG.
Q = E [ωω T ] and P − = E [(s−s − ) (s−s − ) T ] are the covariance matrices of the state model error and the prior estimation error, respectively. The state vector u about acceleration - predictions for k, n is performed in the algorithm of FIG. 14. In FIG. 14, f R and f L are acceleration functions of both feet. In this example, the acceleration (deceleration) applied to both feet is the same, and each phase is a constant constant for simplification.
[0035]
The search range is determined based on the predicted measurement data in the current frame, and the corresponding measured data of both feet is searched and updated (see steps Se2 to Se8 in FIG. 7). Thereby, the state vector in the current frame is obtained as shown in FIG. 15 (see FIG. 10). Here, K is the Kalman gain, and R = E [εε T ] and P = E [(s−s) (s−s) T ] are the covariance matrices of the measurement error and the posterior estimation error, respectively.
[0036]
As described above, according to the present embodiment, a wide range of detection can be performed by detecting a pedestrian with a plurality of laser sensors. Also, from the detection data of the plurality of laser sensors, a client connected one by one extracts moving body data, and the server converts the moving body data into a single coordinate system by performing coordinate conversion, and extracts a trajectory. An enormous amount of calculation can be performed in parallel, and the trajectory of a passerby can be followed in real time.
[0037]
As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the embodiments, and may include a design change or the like without departing from the gist of the present invention.
[0038]
In the above embodiment, the laser is scanned on a horizontal plane near the ground surface to detect a pedestrian.For example, the laser is scanned perpendicularly to the ground surface, such as an entrance door, and the number of persons entering the entrance is detected. It is also possible to adopt a configuration in which a male or female, an adult and a child are detected based on a difference in height.
Further, a configuration may be adopted in which a shopping cart or a car such as a supermarket is detected as well as a pedestrian.
Alternatively, the trajectory of a passerby may be displayed as an image by combining the image of the video camera and the trajectory data of the laser.
[0039]
【The invention's effect】
As is apparent from the above description, according to the present invention, a plurality of detecting means detect a passerby, a synchronizing means synchronizes the detection time, and a plurality of clients extract the position coordinates of the passerby the integrating means. Is integrated into one coordinate system, so that the trajectory of the pedestrian over a wide range can be detected. In addition, since a plurality of clients individually control a plurality of detecting means, the amount of calculation is small, and the trajectory of a pedestrian can be tracked in real time.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a pedestrian track measurement system according to an embodiment of the present invention.
FIG. 2 is a flowchart showing an operation of the
FIG. 3 is a flowchart showing an operation of the client in the embodiment.
FIG. 4 is a flowchart showing an operation of trajectory extraction using a center of gravity in the embodiment.
FIG. 5 is a flowchart showing an operation of a method of extending a trajectory using a center of gravity in the embodiment.
FIG. 6 is a flowchart showing an operation of trajectory extraction using a Kalman filter in the embodiment.
FIG. 7 is a flowchart showing an operation of a trajectory extending method using a Kalman filter in the embodiment.
FIG. 8 is an example of a pedestrian walking model in the embodiment.
FIG. 9 is a flowchart showing prediction of a state model using a Kalman filter in the embodiment.
FIG. 10 is a flowchart showing updating of a state model using a Kalman filter in the embodiment.
FIG. 11 shows an example of clustering and grouping for discriminating a foot of a passer-by in the embodiment.
FIG. 12 shows an example of extraction of a new trajectory by discriminating a pattern in which both feet of a passerby move alternately in the embodiment.
FIG. 13 is an algorithm showing prediction of a state model using a Kalman filter in the embodiment.
FIG. 14 is an algorithm showing prediction of a state vector relating to acceleration by discrimination of a foot swing phase in the embodiment.
FIG. 15 is an algorithm showing updating of a state vector using a Kalman filter in the embodiment.
[Explanation of symbols]
DESCRIPTION OF
Claims (5)
前記複数の検知手段の検知時間を同期する同期手段と、
前記複数の検知手段によって検知したデータから、前記複数のクライアントが抽出した通行人の位置座標を1つの座標系に統合する統合手段と、
前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段と
を有する通行人軌跡抽出装置。In a passer trajectory extraction device, which controls a plurality of clients provided in correspondence with a plurality of detection means for detecting a position or an object of a passer,
Synchronization means for synchronizing the detection times of the plurality of detection means,
Integrating means for integrating the position coordinates of the pedestrian extracted by the plurality of clients into one coordinate system from the data detected by the plurality of detecting means;
Trajectory extraction means for extracting a trajectory of a pedestrian from the position coordinates of the pedestrian obtained by the integration means.
ことを特徴とする請求項1記載の通行人軌跡抽出装置。2. A trajectory extraction device according to claim 1, wherein said detection means is a laser sensor, and scans horizontally near the ground to detect a foot of a pedestrian.
前記2本の足データの重心点を抽出し、
前記足データが重なっているグループを抽出し、
抽出した前記グループの2本の足データの重心点を結んで該通行人の移動軌跡を抽出し、前記通行人の移動速度や方向を設定する
ことを特徴とする請求項1あるいは2記載の通行人軌跡抽出装置。The trajectory extraction means groups the two foot data of passersby detected by the detection means,
Extract the center of gravity of the two foot data,
Extract the group where the foot data overlaps,
3. The traffic according to claim 1, wherein the trajectory of the passer is extracted by connecting the center of gravity of the two foot data of the extracted group, and the moving speed and direction of the passer are set. Human trajectory extraction device.
前記通行人の移動速度や方向、足振り位相の状態をカルマンフィルタによって計算し前記通行人の移動軌跡を抽出する
ことを特徴とする請求項1あるいは2記載の通行人軌跡抽出装置。The trajectory extraction unit defines a walking model of a foot of a passerby detected by the detection unit,
3. The passer trajectory extraction device according to claim 1, wherein the passer's movement speed, direction and foot swing phase are calculated by a Kalman filter to extract the passer's movement trajectory.
前記複数の検知手段に対応して設けられ、各検知手段から出力される検知データから通行人の位置座標を抽出する複数のクライアントと、
前記複数のクライアントを制御するサーバと
を具備し、
前記サーバは、
前記検知手段の検知時間を同期する同期手段と、
前記複数のクライアントから送信される通行人の位置座標を1つの座標系に統合する統合手段と、
前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段とを有する
ことを特徴とする通行人軌跡抽出システム。A plurality of detection means for detecting the position and objects of passers-by;
A plurality of clients provided corresponding to the plurality of detection means, for extracting position coordinates of a pedestrian from detection data output from each detection means,
A server that controls the plurality of clients,
The server comprises:
Synchronization means for synchronizing the detection time of the detection means,
Integrating means for integrating the position coordinates of the passerby transmitted from the plurality of clients into one coordinate system;
Trajectory extraction means for extracting a trajectory of the pedestrian from the position coordinates of the pedestrian obtained by the integration means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002356885A JP4012952B2 (en) | 2002-12-09 | 2002-12-09 | Passer-trajectory extraction apparatus and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002356885A JP4012952B2 (en) | 2002-12-09 | 2002-12-09 | Passer-trajectory extraction apparatus and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004191095A true JP2004191095A (en) | 2004-07-08 |
JP4012952B2 JP4012952B2 (en) | 2007-11-28 |
Family
ID=32757093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002356885A Expired - Fee Related JP4012952B2 (en) | 2002-12-09 | 2002-12-09 | Passer-trajectory extraction apparatus and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4012952B2 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006007940A (en) * | 2004-06-24 | 2006-01-12 | Fujitsu Ltd | Calibration method of radar device, radar device, monitoring system, and program |
JP2008026997A (en) * | 2006-07-18 | 2008-02-07 | Denso Corp | Pedestrian recognition device and pedestrian recognition method |
JP2008275442A (en) * | 2007-04-27 | 2008-11-13 | Univ Of Tokyo | Laser measurement system and method |
JP2008303057A (en) * | 2007-06-11 | 2008-12-18 | Hitachi Ltd | Safety device and safety control method for passenger conveyor |
JP2009085927A (en) * | 2007-10-03 | 2009-04-23 | Hitachi Information & Communication Engineering Ltd | Object-detecting system and method therefor |
JP2009168578A (en) * | 2008-01-15 | 2009-07-30 | Advanced Telecommunication Research Institute International | Measurement device and measurement method |
CN102314819A (en) * | 2010-07-05 | 2012-01-11 | 株式会社日立制作所 | Digital signage and system |
JP2012073683A (en) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | Person detection device, person detection method and program |
JP2012145444A (en) * | 2011-01-12 | 2012-08-02 | Toyota Motor Corp | Pedestrian detection device |
JP2013064671A (en) * | 2011-09-20 | 2013-04-11 | Advanced Telecommunication Research Institute International | Measurement system and measurement method |
JP2013068599A (en) * | 2011-09-09 | 2013-04-18 | Mitsubishi Electric Corp | Stay degree detection apparatus and passenger conveyor |
JP2013103071A (en) * | 2011-11-16 | 2013-05-30 | Daikoku Denki Co Ltd | Player management device |
JP2013257288A (en) * | 2012-06-14 | 2013-12-26 | Fujitsu Ltd | Monitoring device, monitoring method, and program |
WO2018168552A1 (en) * | 2017-03-14 | 2018-09-20 | コニカミノルタ株式会社 | Object detection system |
JP2020042013A (en) * | 2018-09-12 | 2020-03-19 | 百度在線網絡技術(北京)有限公司 | Laser radar system-based ranging method, laser radar system-based ranging device, and computer-readable storage medium |
WO2021111747A1 (en) * | 2019-12-03 | 2021-06-10 | コニカミノルタ株式会社 | Image processing device, monitoring system, and image processing method |
US11335011B2 (en) | 2018-03-16 | 2022-05-17 | Nec Corporation | Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program |
-
2002
- 2002-12-09 JP JP2002356885A patent/JP4012952B2/en not_active Expired - Fee Related
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006007940A (en) * | 2004-06-24 | 2006-01-12 | Fujitsu Ltd | Calibration method of radar device, radar device, monitoring system, and program |
JP2008026997A (en) * | 2006-07-18 | 2008-02-07 | Denso Corp | Pedestrian recognition device and pedestrian recognition method |
JP2008275442A (en) * | 2007-04-27 | 2008-11-13 | Univ Of Tokyo | Laser measurement system and method |
JP2008303057A (en) * | 2007-06-11 | 2008-12-18 | Hitachi Ltd | Safety device and safety control method for passenger conveyor |
JP2009085927A (en) * | 2007-10-03 | 2009-04-23 | Hitachi Information & Communication Engineering Ltd | Object-detecting system and method therefor |
JP2009168578A (en) * | 2008-01-15 | 2009-07-30 | Advanced Telecommunication Research Institute International | Measurement device and measurement method |
CN102314819A (en) * | 2010-07-05 | 2012-01-11 | 株式会社日立制作所 | Digital signage and system |
JP2012073683A (en) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | Person detection device, person detection method and program |
JP2012145444A (en) * | 2011-01-12 | 2012-08-02 | Toyota Motor Corp | Pedestrian detection device |
JP2013068599A (en) * | 2011-09-09 | 2013-04-18 | Mitsubishi Electric Corp | Stay degree detection apparatus and passenger conveyor |
JP2013064671A (en) * | 2011-09-20 | 2013-04-11 | Advanced Telecommunication Research Institute International | Measurement system and measurement method |
JP2013103071A (en) * | 2011-11-16 | 2013-05-30 | Daikoku Denki Co Ltd | Player management device |
JP2013257288A (en) * | 2012-06-14 | 2013-12-26 | Fujitsu Ltd | Monitoring device, monitoring method, and program |
US9316730B2 (en) | 2012-06-14 | 2016-04-19 | Fujitsu Limited | Monitoring device and monitoring method |
WO2018168552A1 (en) * | 2017-03-14 | 2018-09-20 | コニカミノルタ株式会社 | Object detection system |
JPWO2018168552A1 (en) * | 2017-03-14 | 2020-01-16 | コニカミノルタ株式会社 | Object detection system |
US11113833B2 (en) | 2017-03-14 | 2021-09-07 | Konica Minolta, Inc. | Object detection system |
US11335011B2 (en) | 2018-03-16 | 2022-05-17 | Nec Corporation | Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program |
JP2020042013A (en) * | 2018-09-12 | 2020-03-19 | 百度在線網絡技術(北京)有限公司 | Laser radar system-based ranging method, laser radar system-based ranging device, and computer-readable storage medium |
US11656356B2 (en) | 2018-09-12 | 2023-05-23 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Ranging method based on laser radar system, device and readable storage medium |
WO2021111747A1 (en) * | 2019-12-03 | 2021-06-10 | コニカミノルタ株式会社 | Image processing device, monitoring system, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4012952B2 (en) | 2007-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4012952B2 (en) | Passer-trajectory extraction apparatus and system | |
JP5950296B2 (en) | Person tracking attribute estimation device, person tracking attribute estimation method, program | |
Zhao et al. | A novel system for tracking pedestrians using multiple single-row laser-range scanners | |
US10088549B2 (en) | System and a method for tracking mobile objects using cameras and tag devices | |
US20160379074A1 (en) | System and a method for tracking mobile objects using cameras and tag devices | |
Cui et al. | Laser-based detection and tracking of multiple people in crowds | |
US20020028003A1 (en) | Methods and systems for distinguishing individuals utilizing anatomy and gait parameters | |
CA2934102A1 (en) | A system and a method for tracking mobile objects using cameras and tag devices | |
SE0100186D0 (en) | Method for developing a system for identifying the presence and orientation of an object in a vehicle | |
KR102369062B1 (en) | Moving robot and method for control of the moving robot | |
Nakamura et al. | Tracking pedestrians using multiple single‐row laser range scanners and its reliability evaluation | |
CN106295544A (en) | A kind of unchanged view angle gait recognition method based on Kinect | |
JP7339485B2 (en) | measurement system | |
JP2004298285A (en) | Judgment device and judgment method of walking condition and pedestrian attribute | |
JP2009110185A (en) | Passerby behavior analyzer, passerby behavior analysis method, and its program | |
JP2018067755A (en) | Detection data management device | |
JP2004042777A (en) | Obstacle detector | |
JP5418938B2 (en) | Group behavior estimation apparatus and service providing system | |
Abd Rahman et al. | Pedestrian detection using triple laser range finders | |
Fan et al. | Pose estimation of human body based on silhouette images | |
JP2012115570A (en) | Identification device for person passing through | |
WO2021241293A1 (en) | Action-subject specifying system | |
Chen et al. | ARMSAINTS: An AR-based Real-time Mobile System for Assistive Indoor Navigation with Target Segmentation | |
Pierard et al. | Design of a reliable processing pipeline for the non-intrusive measurement of feet trajectories with lasers | |
Zhao et al. | Monitoring a populated environment using single-row laser range scanners from a mobile platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070508 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070724 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070801 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110921 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130921 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |