JP2004191095A - Passenger track extraction device and system - Google Patents

Passenger track extraction device and system Download PDF

Info

Publication number
JP2004191095A
JP2004191095A JP2002356885A JP2002356885A JP2004191095A JP 2004191095 A JP2004191095 A JP 2004191095A JP 2002356885 A JP2002356885 A JP 2002356885A JP 2002356885 A JP2002356885 A JP 2002356885A JP 2004191095 A JP2004191095 A JP 2004191095A
Authority
JP
Japan
Prior art keywords
data
trajectory
server
clients
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002356885A
Other languages
Japanese (ja)
Other versions
JP4012952B2 (en
Inventor
Ryosuke Shibazaki
亮介 柴崎
卉菁 ▲趙▼
Kisei Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foundation for the Promotion of Industrial Science
Original Assignee
Foundation for the Promotion of Industrial Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foundation for the Promotion of Industrial Science filed Critical Foundation for the Promotion of Industrial Science
Priority to JP2002356885A priority Critical patent/JP4012952B2/en
Publication of JP2004191095A publication Critical patent/JP2004191095A/en
Application granted granted Critical
Publication of JP4012952B2 publication Critical patent/JP4012952B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a passenger track extraction device for extracting a passenger track simultaneously in a wide range, by detecting the position coordinate of the passenger by a plurality of laser sensors, and by performing coordinate transformation and integrating detection data by a server. <P>SOLUTION: The server 1 synchronizes all the clients. The laser sensors 21-23 detects a peripheral article in the first place, and transmits it to the server 1 to the clients 11-13 respectively. The server 1 visually determines measured data to a common fixed article, and matches and integrates the data into one data. The server 1 determines a parameter for transforming each coordinate system of the clients 11-13. The clients 11-13 extract moving body data from data detected respectively by the laser sensors 21-23, and transmit the data to the server 1. The server 1 integrates into the same coordinate system based on the determined parameter. The server 1 determines the passenger track from the moving body data subjected to the coordinate transformation. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、広範囲にわたって通行人の数や行動を計測する際に用いられる通行人軌跡抽出装置およびシステムに関する。
【0002】
【従来の技術】
通行人の数や行動を非接触で計測することは、建物のセキュリティやマーケティングなど多くの分野で要求が高まっている。従来、人物の位置情報を非接触で計測する方法の多くは、ビデオ画像を利用していた。しかしビデオ画像では、人間が交錯するときなどにうまくトラッキングできないなど、データの抽出に際して問題があった。そこで近年、距離や速度を直接測ることができる、レーザセンサを用いた計測方法が用いられている。
レーザセンサはレーザ波の拡散が小さいために、解像度が非常に高い。また、測定できる範囲が非常に大きく、測定誤差も非常に小さい。
レーザセンサを用いた従来の技術では、被測定物に異なるパターンの反射板を巻きつけて、1台のレーザセンサにより位置を計測するものもある(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開平11−211831号公報
【0004】
【発明が解決しようとする課題】
しかしながら、多数の通行人の居る場所において、人が互いに重なり合うため、1台のレーザセンサではうまく抽出できない。また、計測できる範囲も1台のレーザセンサでは限界がある。
この発明はこのような点を鑑みてなされたもので、複数のレーザセンサにより通行人の位置座標を検知し、サーバがその検知データを座標変換してデータを統合し、リアルタイムかつ広範囲での通行人の軌跡の抽出を行う、通行人軌跡抽出装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記した目的を達成するために、請求項1記載の通行人軌跡抽出装置は、通行人の位置や物体を検知する複数の検知手段に対応して設けられた複数のクライアントを制御する、通行人軌跡抽出装置において、前記複数の検知手段の検知時間を同期する同期手段と、前記複数の検知手段によって検知したデータから、前記複数のクライアントが抽出した通行人の位置座標を1つの座標系に統合する統合手段と、前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段とを有する。
【0006】
請求項2記載の発明は、請求項1記載の通行人軌跡抽出装置において、前記検知手段がレーザセンサであって、地面近くに水平にスキャンし、通行人の足を検知することを特徴とする。
【0007】
請求項3記載の発明は、請求項1あるいは2記載の通行人軌跡抽出装置において、前記軌跡抽出手段が、前記検知手段によって検知した通行人の2本の足データをグループ化し、前記2本の足データの重心点を抽出し、前記足データが重なっているグループを抽出し、抽出した前記グループの2本の足データの重心点を結んで該通行人の移動軌跡を抽出し、前記通行人の移動速度や方向を設定することを特徴とする。
【0008】
請求項4記載の発明は、請求項1あるいは2記載の通行人軌跡抽出装置において、前記軌跡抽出手段が、前記検知手段によって検知した通行人の足の歩行モデルを定義し、前記通行人の移動速度や方向、足振り位相の状態をカルマンフィルタによって計算し前記通行人の移動軌跡を抽出することを特徴とする
【0009】
請求項5記載の通行人軌跡抽出システムは、通行人の位置や物体を検知する複数の検知手段と、前記複数の検知手段に対応して設けられ、各検知手段から出力される検知データから通行人の位置座標を抽出する複数のクライアントと、前記複数のクライアントを制御するサーバとを具備し、前記サーバは、前記検知手段の検知時間を同期する同期手段と、前記複数のクライアントから送信される通行人の位置座標を1つの座標系に統合する統合手段と、前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段とを有することを特徴とする。
【0010】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の一実施形態に係る通行人軌跡抽出装置の概略構成を示すブロック図である。1はサーバであり、ネットワークNを介してクライアント11〜13を制御する。クライアント11〜13は、それぞれレーザセンサ21〜23(検知手段)を制御する。
レーザセンサ21〜23は、それぞれ異なる場所の床に設置され、地面から約20cmの高さの水平面でスキャンし、最大半径70mの範囲内の通行人を検知する。このとき、レーザ光は通行人の足に当たることになる。またレーザセンサ21〜23は、角度270度の範囲でスキャンし、0.25度の刻みで、周辺物(固定物と移動物)までの距離を直接計測し、それぞれクライアント11〜13にデータを送る。
【0011】
次に、上記構成におけるサーバ1とクライアント11〜13の動作について、図2と図3を参照して説明する。図2はサーバ1の動作、図3はクライアント11〜13の動作を示す。
まず、サーバ1はクライアント11〜13に同期信号を送る(ステップSa1)。クライアント11〜13はその信号を受信すると(ステップSa11)時刻同期を行う(ステップSa12)。
サーバ1はクライアント11〜13にデータをリクエストするリクエスト信号を送信する(ステップSa2)。クライアント11〜13がそのリクエスト信号を受信すると(ステップSa13)、それぞれ対応したレーザセンサ21〜23は1回スキャンし周辺物を検知する。クライアント11〜13はその1スキャンのデータを取得し、サンプルデータとしてサーバ1に送る(ステップSa14)。
【0012】
このとき、レーザセンサ21〜23は、隣接する少なくとも2つのレーザセンサで共通な固定物を検知するよう、検知範囲がお互いに若干重複するように設置されている。また、レーザセンサ21〜23が計測したレーザデータはレーザセンサ21〜23それぞれ独自に設定したローカル座標系に相対している。
サーバ1はクライアント11〜13からサンプルデータを受信し(ステップSa3)、各サンプルデータから、共通な固定物に対する計測データを視覚的に判断してそれらをマッチングし、1つのデータに統合する。そして、クライアント毎の座標系変換パラメータを決定する(ステップSa4)。
このようにして同一時刻かつ同一座標系に統合したデータを1フレームとする。
【0013】
次に、サーバ1はクライアント11〜13に計測開始信号を送る(ステップSa5)。クライアント11がその計測開始信号を受信すると(ステップSa15)、レーザセンサ21は周辺物をスキャンする。クライアント11はスキャンしたデータを取得する(ステップSa16)。
レーザセンサ21は、固定物に対して常に同じ角度で同じ距離値を計測している。クライアント11は、レーザセンサ21がスキャンした200のデータを時系列ごとに重ねる。そして、時間とともに変化しない固定物を抽出し、背景データを生成する。この背景データは1時間おきに更新される(ステップSa17)。クライアント11はレーザセンサ21の計測したデータから、背景差分により移動物に当たる動体データを抽出し(ステップSa18)、動体データをサーバ1に送る(ステップSa19)。ステップSa16からステップSa19の動作は、計測終了まで繰り返される。
クライアント12、13と対応するレーザセンサ22、23もそれぞれ同様の動作を行う。
【0014】
サーバ1はクライアント11〜13から動体データを受信し(ステップSa6)、ステップSa4で計算した座標系変換パラメータによって同一座標系に統合し、1フレームのデータを作成する(ステップSa7)。そして、サーバ1は座標変換した動体データから通行人の軌跡を求める(ステップSa8)。軌跡の求め方はサブルーチンとして後に述べる。
サーバ1が軌跡の測定を終了したら(ステップSa9)、クライアント11〜13に計測終了信号を送信する(ステップSa10)。クライアント11〜13はその計測終了信号を受信すると(ステップSa20)、処理を終了する。
以上により、サーバ1は統合したデータ上で通行人の軌跡を検出することができる。
【0015】
次に、ステップSa8において通行人の軌跡を求めるサーバ1の動作を、図4を参照して説明する。
【0016】
通行人の足1本にはレーザ光が数点当たる。サーバ1は、ステップSa7で座標変換された動体データが、半径10cm以内に集まっているものを、1本の足にあたるデータとしてクラスタ化し、半径10cmの円にして足断面データとする(ステップSb1)。次にサーバ1は、30cm以内の距離にある足断面データ全てを2個づつグループ化し、通行人の候補とみなす。次にサーバ1は、グループ化した2つの足断面データの中点を取り、通行人候補の重心点とする(ステップSb2)。図11にクラスタ化とグループ化の例を示す。
【0017】
サーバ1は、ステップSb2で抽出した重心点を利用して、前の時刻におけるフレームで登録された既存の軌跡を現在フレームまで延長する(ステップSb3)。このステップSb3における軌跡の延長手法について図5を参照して説明する。
サーバ1は、前の時刻におけるフレームで登録された既存の軌跡に対して、通行人の重心点の移動速度や方向などによって、現在フレームにおける重心点の探索範囲を定める(ステップSc1)。次にサーバ1は、その探索範囲において、通行人候補の重心点を探索する(ステップSc2)。重心点が見つかった場合(ステップSc3で「Yes」)、通行人の重心点の移動速度や方向などで予測される、最も近い重心点まで軌跡を延長する(ステップSc4)。また、その重心点を結んで通行人の歩いた軌跡とする。そしてサーバ1は、通行人の重心点の位置、移動速度、方向などを更新する。
サーバ1は、重心点が見つからなかった回数を数えるカウンタを有する。重心点が見つからなかった場合(ステップSc3で「No」)、カウンタが4以下であれば(ステップSc5で「No」)、カウンタに1を加算する(ステップSc6)。カウンタが5以上であれば(ステップSc5で「Yes」)、該当軌跡の追跡を終了する(ステップSc7)。
続けて、前の時刻におけるフレームで登録された他の既存の軌跡を現在フレームまで延長する場合は(ステップSc8で「Yes」)、ステップSc1の処理に戻る。
【0018】
図4に戻って、人間は、歩行する際に両足を交互に移動するので、足断面データが重なっている足のグループを、時系列上連続したフレームから抽出すれば、通行人1人が歩行しているとみなすことができる(図12を参照)。サーバ1は、前の時刻におけるフレームで登録された既存の軌跡に属していない足のグループに対して、連続3つ以上のフレームに足断面データが重なっているグループを抽出する(ステップSb4)。次にサーバ1は、それぞれの足のグループにおける重心点を抽出し、それら重心点を結び、新たな軌跡として登録する(ステップSb5)。
【0019】
次に、カルマンフィルタを用いて通行人の軌跡を求めるサーバ1の動作を説明する。まず、図6に全体の動作を示す。各計測時刻に、まず各クライアントから動体データを収集し、座標系統合を行う(ステップSd1)。半径10cm以内に集まっている動体データを足断面データとしてクラスタ化し(図11を参照)、その中心点を足の位置データとして求める(ステップSd2)。既に抽出された軌跡データをカルマンフィルタ手法によって現在フレームに延長する(ステップSd3)。既に抽出された軌跡に属しない足データに対して、30cm以内の距離にあるものをグループ化し(ステップSd4)、足データが重なっているグループが3つ以上連続なフレームから検出されるならば、新規軌跡として抽出し(ステップSd5)、カルマンフィルタ(新規軌跡)の初期状態を設定する。この過程を軌跡測定終了まで繰り返す。
【0020】
ステップSd3において、既に抽出された軌跡データをカルマンフィルタによって現在フレームまで延長する手法を図7に示す。各軌跡データに対して、まず前フレーム目までの軌跡データによって現在計測フレームにおける状態ベクトルと計測データ(両足の位置)を予測して、探索範囲を決める(ステップSe1)。この詳細については後に述べる。次に、探索範囲に該当足の計測データを探索する(ステップSe2)。足データが見つかった場合(ステップSe3で「Yes」)、予測した計測データに最も近い足データを現在フレームにおける計測データとする(ステップSe4)。足データが見つからなかった場合、見つからなかった回数を数えるカウンタが5以上ならば(ステップSe5で「Yes」)、この軌跡が終了したと考え(ステップSe8)、その他の軌跡を検討する。カウンタが4以下ならば(ステップSe5で「No」)、カウンタに1を加算し(ステップSe6)、予測した計測データを現在フレームにおける計測データとする(ステップSe7)。最後に現在フレームにおける計測データを利用して、予測された状態ベクトルを更新する(ステップSe9)。この詳細については後に述べる。
続けて、前フレーム目までの他の既存の軌跡を現在フレームまで延長する場合は(ステップSe10で「Yes」)、ステップSe1の処理に戻る。
【0021】
ここで、歩行者モデルを検討する。人間は、歩行する際に両足を交互に移動する。片方の足が着陸してからもう片方の足が振りはじめる。それが単純化した例を図8に示してある。
両足の運びに4つの位相を定義する。両足とも静止の状態から、右足だけが加速して、両足の位置が揃った地点までを位相1と定義する。それから右足が減速し、着地するまでを位相2と定義する。着地する時点に両足の移動速度がほぼ静止の状態に戻る。同じく左足だけの加速を位相3、減速を位相4と定義する。両足に施す加速度は足の筋肉などからの力によって決められる。
【0022】
歩行者モデルを左足と右足が水平面(統合座標系)に置ける速度(vとv)、加速度(aとa)、位置(pとp)によって評価する。そこで、歩行者モデルを計測時刻によって変化するパラメータ(位置、速度)と足振り位相によって変化するパラメータ(加速度)に分けて、離散型カルマンフィルタを定義する。
【0023】
【数1】

Figure 2004191095
【0024】
k,nは計測時刻k(kフレーム)に歩行者nの両足の位置、速度による状態ベクトルである。uk,nは計測時刻k(kフレーム)に歩行者nの両足の加速度ベクトルである。ωは状態モデル誤差である。本例ではωが定数であると仮定して、ある経験値によって設定する。
【0025】
【数2】
Figure 2004191095
【0026】
Φは両足の位置、速度に関する既存知識によって現在時刻にある両足の位置、速度を推定する行列関係式である。Ψは加速度によって位置、速度の変化を表す行列関係式である。それぞれを[数3][数4]式に定義する。ここで、Δtは計測間隔であり、本例では、Δtはほぼ0.1secである。
【0027】
【数3】
Figure 2004191095
【0028】
【数4】
Figure 2004191095
【0029】
状態ベクトルsk,nを[数5]式のように計測値と関連づける。また状態ベクトルuk,nは足振り位相を検出することによって更新される。
【0030】
【数5】
Figure 2004191095
【0031】
ここで、mk,nは計測時刻kに歩行者nを計測された両足の位置データである。Hは状態ベクトルsk,nと計測データmk,nとの関係式である。εは計測誤差である。本例ではεが定数であると仮定して、ある経験値によって設定する。
【0032】
【数6】
Figure 2004191095
【0033】
【数7】
Figure 2004191095
【0034】
図9には状態モデルの予測を示してある。歩行者nの歩行軌跡を、
Tn=s1,n, s2,n,…, sk−1,n
によって定義する。計測時刻kにおける状態モデルの予測は図13のアルゴリズムで行われる。
Q=E[ωω]とP=E[(s−s)(s−s]はそれぞれ状態モデル誤差と事前推定誤差の共分散行列である。また、加速度に関する状態ベクトルu k,n に対する予測は、図14のアルゴリズムで行われる。図14において、fとfは両足の加速度関数である。本例では両足に施す加(減)速度が等しく、また各位相は一定な常数であると単純化する。
【0035】
予測された現在フレームにおける計測データによって探索範囲を決めて、該当する計測された両足のデータを探索し、更新する(図7のステップSe2〜Se8参照)。それによって現在フレームにおける状態ベクトルを図15のように求める(図10参照)。ここで、Kはカルマンゲイン、R=E[εε]とP=E[(s−s)(s−s)]はそれぞれ計測誤差と事後推定誤差の共分散行列である。
【0036】
以上説明したように、本実施形態によれば、複数のレーザセンサで通行人を検出することによって、広範囲にわたる検出を行うことができる。また、複数のレーザセンサの検出データから、それぞれ1台ずつ接続されたクライアントが動体データを抽出し、それをサーバが座標変換することで1つの座標系に統合し、軌跡を抽出することで、膨大な計算量を並列処理することができ、リアルタイムで通行人の軌跡を追うことができる。
【0037】
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
【0038】
上記実施形態では、地表近くの水平面にレーザをスキャンして通行人を検知する構成としたが、例えば、入口のドアなど、地表と垂直にレーザをスキャンして、その入口に入った人数を検知したり、身長の差で男女、大人と子供を検知したりする構成としてもよい。
また、通行人の検知だけでなく、スーパーなどのショッピングカートや自動車を検知する構成としてもよい。
また、ビデオカメラの画像とレーザの軌跡データを組み合わせて、通行人の軌跡を映像として表示しても良い。
【0039】
【発明の効果】
以上の説明で明らかなように、本発明によれば、複数の検知手段で通行人を検知し、同期手段によって検知時間の同期を行い、統合手段によって複数のクライアントが抽出した通行人の位置座標を1つの座標系に統合することで、広範囲にわたる通行人の移動軌跡を検出できる。また、複数の検知手段を複数のクライアントが個々に制御することで、計算量が少なくて済み、リアルタイムで通行人の移動軌跡を追うことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る通行人軌跡計測システムの概略構成を示すブロック図である。
【図2】同実施形態におけるサーバ1の動作を示すフローチャートである。
【図3】同実施形態におけるクライアントの動作を示すフローチャートである。
【図4】同実施形態における重心点を用いた軌跡抽出の動作を示すフローチャートである。
【図5】同実施形態における重心点を用いた軌跡の延長方法の動作を示すフローチャートである。
【図6】同実施形態におけるカルマンフィルタを用いた軌跡抽出の動作を示すフローチャートである。
【図7】同実施形態におけるカルマンフィルタを用いた軌跡の延長方法の動作を示すフローチャートである。
【図8】同実施形態における通行人の歩行モデルの例である。
【図9】同実施形態におけるカルマンフィルタを用いた状態モデルの予測を示すフローチャートである。
【図10】同実施形態におけるカルマンフィルタを用いた状態モデルの更新を示すフローチャートである。
【図11】同実施形態における通行人の足を判別するクラスタ化とグループ化の例を示す。
【図12】同実施形態における通行人の両足が交互に移動するパターンの判別による新規軌跡の抽出の例を示す。
【図13】同実施形態におけるカルマンフィルタを用いた状態モデルの予測を示すアルゴリズムである。
【図14】同実施形態における足振り位相の判別による加速度に関する状態ベクトルの予測を示すアルゴリズムである。
【図15】同実施形態におけるカルマンフィルタを用いた状態ベクトルの更新を示すアルゴリズムである。
【符号の説明】
1…サーバ、11〜13…クライアント、21〜23…レーザセンサ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a pedestrian trajectory extraction device and system used when measuring the number and behavior of pedestrians over a wide range.
[0002]
[Prior art]
Contactless measurement of the number and behavior of pedestrians is increasing in many fields, such as building security and marketing. Conventionally, many methods for measuring position information of a person in a non-contact manner have used video images. However, video images have a problem in data extraction, such as difficulty in tracking when humans intersect. Therefore, in recent years, a measurement method using a laser sensor, which can directly measure a distance or a speed, has been used.
The resolution of the laser sensor is very high because the diffusion of the laser wave is small. Further, the measurable range is very large, and the measurement error is very small.
In a conventional technique using a laser sensor, there is a technique in which a reflector having a different pattern is wound around an object to be measured and the position is measured by one laser sensor (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-11-211831
[Problems to be solved by the invention]
However, in a place where many passers-by exist, people overlap with each other, so that a single laser sensor cannot extract well. Also, there is a limit to the range that can be measured with one laser sensor.
The present invention has been made in view of such a point, and a plurality of laser sensors detect the position coordinates of a pedestrian, a server converts the detected data into coordinates, integrates the data, and allows real-time and wide-area traffic. An object of the present invention is to provide a trajectory extraction device for extracting a trajectory of a person.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a passer-by trajectory extraction device according to claim 1 controls a plurality of clients provided in correspondence with a plurality of detecting means for detecting a position or an object of a passer-by. In the trajectory extraction device, a synchronization means for synchronizing detection times of the plurality of detection means, and position coordinates of a pedestrian extracted by the plurality of clients from data detected by the plurality of detection means are integrated into one coordinate system. And trajectory extracting means for extracting a trajectory of the pedestrian from the position coordinates of the pedestrian obtained by the integrating means.
[0006]
According to a second aspect of the present invention, in the trajectory extraction device according to the first aspect, the detection means is a laser sensor, and scans horizontally near the ground to detect a foot of a pedestrian. .
[0007]
According to a third aspect of the present invention, in the trajectory trajectory extraction apparatus according to the first or second aspect, the trajectory extraction means groups two foot data of the pedestrian detected by the detection means, and Extracting the center of gravity of the foot data, extracting the group where the foot data overlaps, connecting the center of gravity of the two foot data of the extracted group to extract the movement trajectory of the passer, It is characterized by setting the moving speed and direction of the moving object.
[0008]
According to a fourth aspect of the present invention, in the trajectory trajectory extraction device according to the first or second aspect, the trajectory extraction means defines a walking model of a pedestrian's foot detected by the detection means, and The state of speed, direction, and foot swing phase is calculated by a Kalman filter, and the trajectory of the pedestrian is extracted.
6. The passer-trajectory extraction system according to claim 5, wherein a plurality of detecting means for detecting a position or an object of the passer-by are provided in correspondence with the plurality of detecting means, and the passer-by is used based on detection data output from each detecting means. A plurality of clients for extracting position coordinates of a person; and a server for controlling the plurality of clients, wherein the server is transmitted from the plurality of clients and a synchronization unit for synchronizing the detection time of the detection unit. Integrating means for integrating the position coordinates of the passer-by into one coordinate system, and trajectory extracting means for extracting the trajectory of the passer-by from the position coordinates of the passer obtained by the integrating means. .
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a schematic configuration of a trajectory extraction device according to an embodiment of the present invention. Reference numeral 1 denotes a server, which controls the clients 11 to 13 via the network N. The clients 11 to 13 control the laser sensors 21 to 23 (detection means), respectively.
The laser sensors 21 to 23 are installed on floors in different places, respectively, scan on a horizontal plane at a height of about 20 cm from the ground, and detect a pedestrian within a range of a maximum radius of 70 m. At this time, the laser light hits the foot of the passerby. The laser sensors 21 to 23 scan at an angle of 270 degrees, directly measure distances to peripheral objects (fixed objects and moving objects) at intervals of 0.25 degrees, and send data to the clients 11 to 13, respectively. send.
[0011]
Next, operations of the server 1 and the clients 11 to 13 in the above configuration will be described with reference to FIGS. 2 shows the operation of the server 1, and FIG. 3 shows the operation of the clients 11 to 13.
First, the server 1 sends a synchronization signal to the clients 11 to 13 (step Sa1). Upon receiving the signal (step Sa11), the clients 11 to 13 perform time synchronization (step Sa12).
The server 1 transmits a request signal for requesting data to the clients 11 to 13 (step Sa2). When the clients 11 to 13 receive the request signal (step Sa13), the corresponding laser sensors 21 to 23 scan once to detect peripheral objects. The clients 11 to 13 acquire the data of one scan and send them to the server 1 as sample data (step Sa14).
[0012]
At this time, the laser sensors 21 to 23 are installed so that their detection ranges slightly overlap each other so that at least two adjacent laser sensors detect a common fixed object. Further, the laser data measured by the laser sensors 21 to 23 are relative to the local coordinate system uniquely set for each of the laser sensors 21 to 23.
The server 1 receives the sample data from the clients 11 to 13 (step Sa3), visually judges measurement data for a common fixed object from each sample data, matches them, and integrates them into one data. Then, a coordinate system conversion parameter for each client is determined (step Sa4).
Data integrated at the same time and in the same coordinate system in this manner is defined as one frame.
[0013]
Next, the server 1 sends a measurement start signal to the clients 11 to 13 (step Sa5). When the client 11 receives the measurement start signal (step Sa15), the laser sensor 21 scans the surroundings. The client 11 acquires the scanned data (Step Sa16).
The laser sensor 21 always measures the same distance value at the same angle with respect to the fixed object. The client 11 superimposes the 200 data scanned by the laser sensor 21 in time series. Then, a fixed object that does not change with time is extracted to generate background data. This background data is updated every hour (step Sa17). The client 11 extracts the moving object data corresponding to the moving object from the data measured by the laser sensor 21 based on the background difference (step Sa18), and sends the moving object data to the server 1 (step Sa19). The operation from step Sa16 to step Sa19 is repeated until the measurement is completed.
The laser sensors 22 and 23 corresponding to the clients 12 and 13 respectively perform the same operation.
[0014]
The server 1 receives the moving object data from the clients 11 to 13 (step Sa6), integrates them into the same coordinate system using the coordinate system conversion parameters calculated in step Sa4, and creates one frame of data (step Sa7). Then, the server 1 obtains the trajectory of the pedestrian from the moving body data subjected to the coordinate conversion (step Sa8). The method of obtaining the trajectory will be described later as a subroutine.
When the server 1 ends the measurement of the trajectory (step Sa9), it transmits a measurement end signal to the clients 11 to 13 (step Sa10). Upon receiving the measurement end signal (step Sa20), the clients 11 to 13 end the processing.
As described above, the server 1 can detect the trajectory of the passerby on the integrated data.
[0015]
Next, the operation of the server 1 for obtaining the trajectory of the pedestrian in step Sa8 will be described with reference to FIG.
[0016]
A laser beam hits one leg of a passerby. The server 1 clusters the moving object data subjected to the coordinate conversion in step Sa7 within a radius of 10 cm as data corresponding to one foot, and forms a circle having a radius of 10 cm as foot sectional data (step Sb1). . Next, the server 1 groups all the foot cross-section data within a distance of 30 cm or less into two groups and regards them as passer-by candidates. Next, the server 1 takes the midpoint of the two grouped foot cross-section data and sets it as the center of gravity of the passerby candidate (step Sb2). FIG. 11 shows an example of clustering and grouping.
[0017]
The server 1 extends the existing trajectory registered in the frame at the previous time to the current frame by using the center of gravity extracted in step Sb2 (step Sb3). The method of extending the trajectory in step Sb3 will be described with reference to FIG.
The server 1 determines the search range of the center of gravity of the current frame with respect to the existing locus registered in the frame at the previous time, based on the moving speed and direction of the center of gravity of the passerby (step Sc1). Next, the server 1 searches for the center of gravity of the passerby candidate in the search range (step Sc2). If the center of gravity is found (“Yes” in step Sc3), the trajectory is extended to the nearest center of gravity predicted by the moving speed and direction of the pedestrian's center of gravity (step Sc4). In addition, the center of gravity is connected to the path of the pedestrian walking. Then, the server 1 updates the position, the moving speed, and the direction of the center of gravity of the passerby.
The server 1 has a counter for counting the number of times that the center of gravity is not found. When the center of gravity is not found (“No” in step Sc3), if the counter is 4 or less (“No” in step Sc5), 1 is added to the counter (step Sc6). If the counter is 5 or more (“Yes” in step Sc5), the tracking of the corresponding trajectory ends (step Sc7).
Subsequently, if another existing trajectory registered in the frame at the previous time is extended to the current frame (“Yes” in step Sc8), the process returns to step Sc1.
[0018]
Returning to FIG. 4, since the human alternately moves both feet when walking, if a group of feet with overlapping foot cross-sectional data is extracted from a time-series continuous frame, one passerby can walk. (See FIG. 12). The server 1 extracts a group in which foot cross-section data overlaps three or more consecutive frames with respect to a group of feet that do not belong to the existing trajectory registered in the frame at the previous time (step Sb4). Next, the server 1 extracts the center of gravity of each foot group, connects the centers of gravity, and registers it as a new trajectory (step Sb5).
[0019]
Next, the operation of the server 1 for obtaining the trajectory of the passerby using the Kalman filter will be described. First, FIG. 6 shows the overall operation. At each measurement time, first, moving object data is collected from each client, and coordinate system integration is performed (step Sd1). Moving object data collected within a radius of 10 cm is clustered as foot cross-sectional data (see FIG. 11), and the center point is obtained as foot position data (step Sd2). The trajectory data already extracted is extended to the current frame by the Kalman filter technique (step Sd3). For foot data that does not belong to the already extracted trajectory, those that are within a distance of 30 cm are grouped (step Sd4). If a group where foot data overlaps is detected from three or more consecutive frames, It is extracted as a new trajectory (step Sd5), and the initial state of the Kalman filter (new trajectory) is set. This process is repeated until the trajectory measurement is completed.
[0020]
FIG. 7 shows a method for extending the already extracted trajectory data to the current frame by the Kalman filter in step Sd3. For each trajectory data, first, the state vector and the measurement data (the position of both feet) in the current measurement frame are predicted based on the trajectory data up to the previous frame, and the search range is determined (step Se1). The details will be described later. Next, the measurement data of the corresponding foot is searched in the search range (Step Se2). When the foot data is found (“Yes” in step Se3), the foot data closest to the predicted measurement data is set as the measurement data in the current frame (step Se4). When the foot data is not found, if the counter for counting the number of times that the foot data is not found is 5 or more (“Yes” in step Se5), it is considered that this trajectory has ended (step Se8), and other trajectories are examined. If the counter is 4 or less ("No" in step Se5), 1 is added to the counter (step Se6), and the predicted measurement data is used as the measurement data in the current frame (step Se7). Finally, the predicted state vector is updated using the measurement data in the current frame (step Se9). The details will be described later.
Subsequently, when extending another existing trajectory up to the previous frame to the current frame (“Yes” in step Se10), the process returns to step Se1.
[0021]
Now consider the pedestrian model. Humans move their feet alternately when walking. After one foot lands, the other starts to swing. An example of a simplification is shown in FIG.
Four phases are defined for carrying both feet. Phase 1 is defined as a state from a state where both feet are still, to a point where only the right foot accelerates and both feet are aligned. Then, the phase until the right foot decelerates and lands is defined as phase 2. At the time of landing, the movement speed of both feet returns to a state of almost still. Similarly, acceleration of only the left foot is defined as phase 3, and deceleration is defined as phase 4. The acceleration applied to both feet is determined by the force from the muscles of the feet.
[0022]
The pedestrian model is evaluated based on the speed (v L and v R ), acceleration (a L and a R ), and position (p L and p R ) at which the left foot and the right foot can be placed on a horizontal plane (integrated coordinate system). Therefore, the discrete Kalman filter is defined by dividing the pedestrian model into parameters (position and speed) that change according to the measurement time and parameters (acceleration) that change according to the phase of foot swing.
[0023]
(Equation 1)
Figure 2004191095
[0024]
sk, n is a state vector based on the position and speed of both feet of the pedestrian n at the measurement time k (k frame). u k, n are acceleration vectors of both feet of pedestrian n at measurement time k (k frame). ω is a state model error. In this example, it is assumed that ω is a constant, and is set by a certain empirical value.
[0025]
(Equation 2)
Figure 2004191095
[0026]
Φ is a matrix relational expression for estimating the position and speed of both feet at the current time based on existing knowledge about the position and speed of both feet. Ψ is a matrix relational expression representing a change in position and speed according to acceleration. Each of them is defined by Expressions 3 and 4. Here, Δt is a measurement interval, and in this example, Δt is approximately 0.1 sec.
[0027]
[Equation 3]
Figure 2004191095
[0028]
(Equation 4)
Figure 2004191095
[0029]
The state vector sk, n is related to the measured value as in [Equation 5]. The state vector uk , n is updated by detecting the foot swing phase.
[0030]
(Equation 5)
Figure 2004191095
[0031]
Here, mk, n are the position data of both feet at which the pedestrian n was measured at the measurement time k. H is a relational expression between the state vector sk, n and the measurement data mk, n . ε is a measurement error. In this example, it is assumed that ε is a constant, and is set by a certain empirical value.
[0032]
(Equation 6)
Figure 2004191095
[0033]
(Equation 7)
Figure 2004191095
[0034]
FIG. 9 shows the prediction of the state model. The walking locus of pedestrian n
Tn = s 1, n , s 2, n , ..., sk-1, n
Defined by The prediction of the state model at the measurement time k is performed by the algorithm in FIG.
Q = E [ωω T ] and P = E [(s−s ) (s−s ) T ] are the covariance matrices of the state model error and the prior estimation error, respectively. The state vector u about acceleration - predictions for k, n is performed in the algorithm of FIG. 14. In FIG. 14, f R and f L are acceleration functions of both feet. In this example, the acceleration (deceleration) applied to both feet is the same, and each phase is a constant constant for simplification.
[0035]
The search range is determined based on the predicted measurement data in the current frame, and the corresponding measured data of both feet is searched and updated (see steps Se2 to Se8 in FIG. 7). Thereby, the state vector in the current frame is obtained as shown in FIG. 15 (see FIG. 10). Here, K is the Kalman gain, and R = E [εε T ] and P = E [(s−s) (s−s) T ] are the covariance matrices of the measurement error and the posterior estimation error, respectively.
[0036]
As described above, according to the present embodiment, a wide range of detection can be performed by detecting a pedestrian with a plurality of laser sensors. Also, from the detection data of the plurality of laser sensors, a client connected one by one extracts moving body data, and the server converts the moving body data into a single coordinate system by performing coordinate conversion, and extracts a trajectory. An enormous amount of calculation can be performed in parallel, and the trajectory of a passerby can be followed in real time.
[0037]
As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the embodiments, and may include a design change or the like without departing from the gist of the present invention.
[0038]
In the above embodiment, the laser is scanned on a horizontal plane near the ground surface to detect a pedestrian.For example, the laser is scanned perpendicularly to the ground surface, such as an entrance door, and the number of persons entering the entrance is detected. It is also possible to adopt a configuration in which a male or female, an adult and a child are detected based on a difference in height.
Further, a configuration may be adopted in which a shopping cart or a car such as a supermarket is detected as well as a pedestrian.
Alternatively, the trajectory of a passerby may be displayed as an image by combining the image of the video camera and the trajectory data of the laser.
[0039]
【The invention's effect】
As is apparent from the above description, according to the present invention, a plurality of detecting means detect a passerby, a synchronizing means synchronizes the detection time, and a plurality of clients extract the position coordinates of the passerby the integrating means. Is integrated into one coordinate system, so that the trajectory of the pedestrian over a wide range can be detected. In addition, since a plurality of clients individually control a plurality of detecting means, the amount of calculation is small, and the trajectory of a pedestrian can be tracked in real time.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a pedestrian track measurement system according to an embodiment of the present invention.
FIG. 2 is a flowchart showing an operation of the server 1 in the embodiment.
FIG. 3 is a flowchart showing an operation of the client in the embodiment.
FIG. 4 is a flowchart showing an operation of trajectory extraction using a center of gravity in the embodiment.
FIG. 5 is a flowchart showing an operation of a method of extending a trajectory using a center of gravity in the embodiment.
FIG. 6 is a flowchart showing an operation of trajectory extraction using a Kalman filter in the embodiment.
FIG. 7 is a flowchart showing an operation of a trajectory extending method using a Kalman filter in the embodiment.
FIG. 8 is an example of a pedestrian walking model in the embodiment.
FIG. 9 is a flowchart showing prediction of a state model using a Kalman filter in the embodiment.
FIG. 10 is a flowchart showing updating of a state model using a Kalman filter in the embodiment.
FIG. 11 shows an example of clustering and grouping for discriminating a foot of a passer-by in the embodiment.
FIG. 12 shows an example of extraction of a new trajectory by discriminating a pattern in which both feet of a passerby move alternately in the embodiment.
FIG. 13 is an algorithm showing prediction of a state model using a Kalman filter in the embodiment.
FIG. 14 is an algorithm showing prediction of a state vector relating to acceleration by discrimination of a foot swing phase in the embodiment.
FIG. 15 is an algorithm showing updating of a state vector using a Kalman filter in the embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Server, 11-13 ... Client, 21-23 ... Laser sensor

Claims (5)

通行人の位置や物体を検知する複数の検知手段に対応して設けられた複数のクライアントを制御する、通行人軌跡抽出装置において、
前記複数の検知手段の検知時間を同期する同期手段と、
前記複数の検知手段によって検知したデータから、前記複数のクライアントが抽出した通行人の位置座標を1つの座標系に統合する統合手段と、
前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段と
を有する通行人軌跡抽出装置。
In a passer trajectory extraction device, which controls a plurality of clients provided in correspondence with a plurality of detection means for detecting a position or an object of a passer,
Synchronization means for synchronizing the detection times of the plurality of detection means,
Integrating means for integrating the position coordinates of the pedestrian extracted by the plurality of clients into one coordinate system from the data detected by the plurality of detecting means;
Trajectory extraction means for extracting a trajectory of a pedestrian from the position coordinates of the pedestrian obtained by the integration means.
前記検知手段がレーザセンサであって、地面近くに水平にスキャンし、通行人の足を検知する
ことを特徴とする請求項1記載の通行人軌跡抽出装置。
2. A trajectory extraction device according to claim 1, wherein said detection means is a laser sensor, and scans horizontally near the ground to detect a foot of a pedestrian.
前記軌跡抽出手段が、前記検知手段によって検知した通行人の2本の足データをグループ化し、
前記2本の足データの重心点を抽出し、
前記足データが重なっているグループを抽出し、
抽出した前記グループの2本の足データの重心点を結んで該通行人の移動軌跡を抽出し、前記通行人の移動速度や方向を設定する
ことを特徴とする請求項1あるいは2記載の通行人軌跡抽出装置。
The trajectory extraction means groups the two foot data of passersby detected by the detection means,
Extract the center of gravity of the two foot data,
Extract the group where the foot data overlaps,
3. The traffic according to claim 1, wherein the trajectory of the passer is extracted by connecting the center of gravity of the two foot data of the extracted group, and the moving speed and direction of the passer are set. Human trajectory extraction device.
前記軌跡抽出手段が、前記検知手段によって検知した通行人の足の歩行モデルを定義し、
前記通行人の移動速度や方向、足振り位相の状態をカルマンフィルタによって計算し前記通行人の移動軌跡を抽出する
ことを特徴とする請求項1あるいは2記載の通行人軌跡抽出装置。
The trajectory extraction unit defines a walking model of a foot of a passerby detected by the detection unit,
3. The passer trajectory extraction device according to claim 1, wherein the passer's movement speed, direction and foot swing phase are calculated by a Kalman filter to extract the passer's movement trajectory.
通行人の位置や物体を検知する複数の検知手段と、
前記複数の検知手段に対応して設けられ、各検知手段から出力される検知データから通行人の位置座標を抽出する複数のクライアントと、
前記複数のクライアントを制御するサーバと
を具備し、
前記サーバは、
前記検知手段の検知時間を同期する同期手段と、
前記複数のクライアントから送信される通行人の位置座標を1つの座標系に統合する統合手段と、
前記統合手段によって得られた通行人の位置座標から該通行人の移動軌跡を抽出する軌跡抽出手段とを有する
ことを特徴とする通行人軌跡抽出システム。
A plurality of detection means for detecting the position and objects of passers-by;
A plurality of clients provided corresponding to the plurality of detection means, for extracting position coordinates of a pedestrian from detection data output from each detection means,
A server that controls the plurality of clients,
The server comprises:
Synchronization means for synchronizing the detection time of the detection means,
Integrating means for integrating the position coordinates of the passerby transmitted from the plurality of clients into one coordinate system;
Trajectory extraction means for extracting a trajectory of the pedestrian from the position coordinates of the pedestrian obtained by the integration means.
JP2002356885A 2002-12-09 2002-12-09 Passer-trajectory extraction apparatus and system Expired - Fee Related JP4012952B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002356885A JP4012952B2 (en) 2002-12-09 2002-12-09 Passer-trajectory extraction apparatus and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002356885A JP4012952B2 (en) 2002-12-09 2002-12-09 Passer-trajectory extraction apparatus and system

Publications (2)

Publication Number Publication Date
JP2004191095A true JP2004191095A (en) 2004-07-08
JP4012952B2 JP4012952B2 (en) 2007-11-28

Family

ID=32757093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002356885A Expired - Fee Related JP4012952B2 (en) 2002-12-09 2002-12-09 Passer-trajectory extraction apparatus and system

Country Status (1)

Country Link
JP (1) JP4012952B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006007940A (en) * 2004-06-24 2006-01-12 Fujitsu Ltd Calibration method of radar device, radar device, monitoring system, and program
JP2008026997A (en) * 2006-07-18 2008-02-07 Denso Corp Pedestrian recognition device and pedestrian recognition method
JP2008275442A (en) * 2007-04-27 2008-11-13 Univ Of Tokyo Laser measurement system and method
JP2008303057A (en) * 2007-06-11 2008-12-18 Hitachi Ltd Safety device and safety control method for passenger conveyor
JP2009085927A (en) * 2007-10-03 2009-04-23 Hitachi Information & Communication Engineering Ltd Object-detecting system and method therefor
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
CN102314819A (en) * 2010-07-05 2012-01-11 株式会社日立制作所 Digital signage and system
JP2012073683A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Person detection device, person detection method and program
JP2012145444A (en) * 2011-01-12 2012-08-02 Toyota Motor Corp Pedestrian detection device
JP2013064671A (en) * 2011-09-20 2013-04-11 Advanced Telecommunication Research Institute International Measurement system and measurement method
JP2013068599A (en) * 2011-09-09 2013-04-18 Mitsubishi Electric Corp Stay degree detection apparatus and passenger conveyor
JP2013103071A (en) * 2011-11-16 2013-05-30 Daikoku Denki Co Ltd Player management device
JP2013257288A (en) * 2012-06-14 2013-12-26 Fujitsu Ltd Monitoring device, monitoring method, and program
WO2018168552A1 (en) * 2017-03-14 2018-09-20 コニカミノルタ株式会社 Object detection system
JP2020042013A (en) * 2018-09-12 2020-03-19 百度在線網絡技術(北京)有限公司 Laser radar system-based ranging method, laser radar system-based ranging device, and computer-readable storage medium
WO2021111747A1 (en) * 2019-12-03 2021-06-10 コニカミノルタ株式会社 Image processing device, monitoring system, and image processing method
US11335011B2 (en) 2018-03-16 2022-05-17 Nec Corporation Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006007940A (en) * 2004-06-24 2006-01-12 Fujitsu Ltd Calibration method of radar device, radar device, monitoring system, and program
JP2008026997A (en) * 2006-07-18 2008-02-07 Denso Corp Pedestrian recognition device and pedestrian recognition method
JP2008275442A (en) * 2007-04-27 2008-11-13 Univ Of Tokyo Laser measurement system and method
JP2008303057A (en) * 2007-06-11 2008-12-18 Hitachi Ltd Safety device and safety control method for passenger conveyor
JP2009085927A (en) * 2007-10-03 2009-04-23 Hitachi Information & Communication Engineering Ltd Object-detecting system and method therefor
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
CN102314819A (en) * 2010-07-05 2012-01-11 株式会社日立制作所 Digital signage and system
JP2012073683A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Person detection device, person detection method and program
JP2012145444A (en) * 2011-01-12 2012-08-02 Toyota Motor Corp Pedestrian detection device
JP2013068599A (en) * 2011-09-09 2013-04-18 Mitsubishi Electric Corp Stay degree detection apparatus and passenger conveyor
JP2013064671A (en) * 2011-09-20 2013-04-11 Advanced Telecommunication Research Institute International Measurement system and measurement method
JP2013103071A (en) * 2011-11-16 2013-05-30 Daikoku Denki Co Ltd Player management device
JP2013257288A (en) * 2012-06-14 2013-12-26 Fujitsu Ltd Monitoring device, monitoring method, and program
US9316730B2 (en) 2012-06-14 2016-04-19 Fujitsu Limited Monitoring device and monitoring method
WO2018168552A1 (en) * 2017-03-14 2018-09-20 コニカミノルタ株式会社 Object detection system
JPWO2018168552A1 (en) * 2017-03-14 2020-01-16 コニカミノルタ株式会社 Object detection system
US11113833B2 (en) 2017-03-14 2021-09-07 Konica Minolta, Inc. Object detection system
US11335011B2 (en) 2018-03-16 2022-05-17 Nec Corporation Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program
JP2020042013A (en) * 2018-09-12 2020-03-19 百度在線網絡技術(北京)有限公司 Laser radar system-based ranging method, laser radar system-based ranging device, and computer-readable storage medium
US11656356B2 (en) 2018-09-12 2023-05-23 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Ranging method based on laser radar system, device and readable storage medium
WO2021111747A1 (en) * 2019-12-03 2021-06-10 コニカミノルタ株式会社 Image processing device, monitoring system, and image processing method

Also Published As

Publication number Publication date
JP4012952B2 (en) 2007-11-28

Similar Documents

Publication Publication Date Title
JP4012952B2 (en) Passer-trajectory extraction apparatus and system
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
Zhao et al. A novel system for tracking pedestrians using multiple single-row laser-range scanners
US10088549B2 (en) System and a method for tracking mobile objects using cameras and tag devices
US20160379074A1 (en) System and a method for tracking mobile objects using cameras and tag devices
Cui et al. Laser-based detection and tracking of multiple people in crowds
US20020028003A1 (en) Methods and systems for distinguishing individuals utilizing anatomy and gait parameters
CA2934102A1 (en) A system and a method for tracking mobile objects using cameras and tag devices
SE0100186D0 (en) Method for developing a system for identifying the presence and orientation of an object in a vehicle
KR102369062B1 (en) Moving robot and method for control of the moving robot
Nakamura et al. Tracking pedestrians using multiple single‐row laser range scanners and its reliability evaluation
CN106295544A (en) A kind of unchanged view angle gait recognition method based on Kinect
JP7339485B2 (en) measurement system
JP2004298285A (en) Judgment device and judgment method of walking condition and pedestrian attribute
JP2009110185A (en) Passerby behavior analyzer, passerby behavior analysis method, and its program
JP2018067755A (en) Detection data management device
JP2004042777A (en) Obstacle detector
JP5418938B2 (en) Group behavior estimation apparatus and service providing system
Abd Rahman et al. Pedestrian detection using triple laser range finders
Fan et al. Pose estimation of human body based on silhouette images
JP2012115570A (en) Identification device for person passing through
WO2021241293A1 (en) Action-subject specifying system
Chen et al. ARMSAINTS: An AR-based Real-time Mobile System for Assistive Indoor Navigation with Target Segmentation
Pierard et al. Design of a reliable processing pipeline for the non-intrusive measurement of feet trajectories with lasers
Zhao et al. Monitoring a populated environment using single-row laser range scanners from a mobile platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees