JP6831117B2 - 移動体追跡方法及びこれに用いる画像処理装置 - Google Patents

移動体追跡方法及びこれに用いる画像処理装置 Download PDF

Info

Publication number
JP6831117B2
JP6831117B2 JP2018223497A JP2018223497A JP6831117B2 JP 6831117 B2 JP6831117 B2 JP 6831117B2 JP 2018223497 A JP2018223497 A JP 2018223497A JP 2018223497 A JP2018223497 A JP 2018223497A JP 6831117 B2 JP6831117 B2 JP 6831117B2
Authority
JP
Japan
Prior art keywords
person
moving body
camera
shared
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018223497A
Other languages
English (en)
Other versions
JP2020087180A (ja
Inventor
泰祐 岡部
泰祐 岡部
覚 渋谷
覚 渋谷
Original Assignee
技研トラステム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 技研トラステム株式会社 filed Critical 技研トラステム株式会社
Priority to JP2018223497A priority Critical patent/JP6831117B2/ja
Publication of JP2020087180A publication Critical patent/JP2020087180A/ja
Application granted granted Critical
Publication of JP6831117B2 publication Critical patent/JP6831117B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、複数のカメラを連携させて広域にわたって同一移動体の行動を追跡するための移動体追跡方法及び画像処理装置に関する。ここで移動体としては、人物、その他の動物、自動車等の車両など様々な移動体を含む。
移動体としての人物をカメラ画像を用いて検出する人物検出システムは、例えば、店舗の客数カウントなどの用途に用いられ、店舗の来客パターンの分析などに利用される。人物検出システムとして、例えば、カメラで人物を検出する場合、予め人物モデルを設定しカメラ画像中からこの人物モデルと合致する画像を検出することで人物を検出するようにした方法が知られている(例えば、特許文献1参照)。また、画像の座標系上の位置からワールド座標系の3次元座標系上の位置へと変換する技術及び、ワールド座標系の3次元座標系を地上からの高さを仮定することで画像の座標系の位置へと変換する技術も知られている(例えば、特許文献2参照)。
特許第3406587号公報 特開2006−338123号公報 特開2016−162306号公報 米国特許第7319479号明細書
複数のカメラを用いて監視領域の全域にわたって人物を追跡する場合、人物位置を予め2台のカメラ間の距離が分かっている隣接する2台のカメラの真下位置からの距離に基づいて人物同定(同一人物判定)をしようとすると、カメラ位置と人物位置との距離が長くなるため、カメラの設置条件などの原因から誤差が大きくなり、人物同定が困難となることがある。また、各カメラからの人物位置情報を受け取り、監視領域を表す大きな1つの平面地図上にマッピングする等して人物の行動記録を検出するためには、例えば特許文献4のように複数のカメラを取りまとめる統括的なサーバーが必要であった。
また、上記の方法においては隣接する2台のカメラの設置角度や向き、設置距離を事前に計測しておくまたは一定にしておく必要があり、実際にはカメラの傾きの計測は特に困難であり、更にカメラ設置時の作業が煩雑であるという課題があった。
カメラの設置条件が完全に計測出来ている場合にはカメラ画像から推定される人物の距離の誤差は少ないが、実際にはカメラの設置角度や地面の傾きなどの誤差要因を完全に取り除くことは困難であり、カメラ画像においてカメラの真下位置からの距離に基づいた人物距離の推定を行うと、カメラ真下位置から人物位置との距離が遠くなるほど誤差が累積してより大きな誤差が生じてしまう。
以上の課題は、人物を対象とする場合に限らず、自動車等の様々な移動体を対象とする場合も同様である。
本発明は、以上の事情に鑑みてなされたものであり、統括的なサーバー要素を不要とし、隣接する2台のカメラ間だけの関係で精度よく移動体の同定を行い追跡することが可能となる移動体追跡方法及びこれに用いる画像処理装置を提供することを目的とする。
本発明に係る移動体追跡方法は、
複数のカメラの視野領域が設定される監視領域の移動体を追跡する方法であって、
隣接する2台のカメラの視野領域が部分的に重複する重複視野領域を有し、
重複視野領域において隣接する2台のカメラの視野領域間で同一位置として扱う共有点を配置し、
前記共有点は、前記重複視野領域に目印を2点配置してこれら2点の目印を共有点とし、更にこの2つの共有点の中間位置に配置する中点を共有点として加え、これら全ての前記共有点のうちの1点を基準点とし、
各カメラが各々の視野領域で検出する移動体を、実空間での移動体の外形をかたどった移動体モデルベースと照合して移動体モデルベースの位置を当該移動体代表点として表して追跡し、
重複視野領域内で隣接する2台のカメラの各々が検出する移動体に対して、前記基準点と前記代表点で表す移動体の実空間上の移動体位置との実距離及び方向が許容値以内にある移動体同士を同一移動体と判定し、
同一移動体と判定した移動体について一方のカメラ側での移動体追跡情報を隣接する他方のカメラ側へと伝達して隣接する2台のカメラ間を連携させる。
また、本発明に係る画像処理装置は、
前記移動体追跡方法に共通に用いる画像処理装置であって、
カメラとプロセッサとを有し、
プロセッサは、
自己のカメラの視野領域が隣接する他のカメラの視野領域と部分的に重複する重複視野領域において各視野領域間で同一位置として扱う共有点を記録し、前記共有点は、前記重複視野領域に目印を2点配置してこれら2点の目印を共有点とし、更にこの2つの共有点の中間位置に配置する中点を共有点として加え、これら全ての前記共有点のうちの1点を基準点として記録する共有点記録部と、
自己のカメラが視野領域で検出する移動体を、実空間での移動体の外形をかたどった移動体モデルベースと照合して移動体モデルベースの位置を当該移動体代表点として表す画像処理プロセス部と、
画像処理プロセス部で捉えた移動体を追跡する追跡処理プロセス部と、
追跡している移動体の移動体位置情報を隣接する他のカメラ側の画像処理装置と通信する通信プロセス部と、
重複視野領域内で自己のカメラと隣接する他のカメラの各々が検出する移動体に対して、前記基準点と前記代表点で表す移動体の実空間上の移動体位置との実距離及び方向が許容値以内にある移動体同士を同一移動体と判定する一致判定プロセス部とを備える。
本発明によれば、統括的なサーバー要素を不要とし、共有点の登録のみで動作するため設定が容易であり、隣接する2台のカメラ間だけの関係で精度よく移動体同定を行い追跡することが可能となる。また、移動体追跡のためのカメラ台数も実質的に制限なく連動することができる。よって、広域にわたり大規模な移動体追跡が可能となる。
実施形態の人物追跡システムを示す全体構成図である。 2台のカメラの重複視野領域に2つ共有点と1つ中点を配置した状態を示す模式図である。 2台のカメラの重複視野領域で認識された人物の人物同定方法として基準点と人物位置との間の距離及び方向を表した各視野領域を示す模式図である。 地上高さを持つ共有点から地上高さ0の中点を算出する方法を説明するために重複視野領域での各視野領域を示す模式図である。 実施形態における画像処理装置の構成を示すブロック図である。 2つのカメラ画像の座標系に角度差を有する状態を示す模式図である。
以下に、本発明の実施形態について添付図面を参照しながら説明する。
本実施形態では、移動体として人物を対象とする。ただし、本発明は、人物に限らず、人間以外の動物や自動車等の車両など様々な移動体を対象とすることができる。
図1、図2に示すように、移動体追跡システムとしての人物追跡システム1は、カメラ11(11a,11b,11c等)を備える画像処理装置2(2a,2b,2c等)を複数有し、これらの画像処理装置2がLAN等のネットワーク3により通信接続されている。また、ネットワーク3には集計装置4が接続されている。集計装置4には各画像処理装置2で連携して追跡した人物5の人物追跡情報が最後に出力される。各画像処理装置2は、カメラ11とプロセッサ12とを備えている。これらの画像処理装置2は、同一構造を有し、同一のプログラムで作動し、連携して人物追跡を行う。
なお、隣接する画像処理装置2間ではカメラ画像の同期が取れていてカメラ画像の同時性が担保されているものとする。このとき、ネットワーク3はイーサネット(登録商標)など高速通信が可能なネットワークであることが好ましい。
カメラ11は、CMOSカメラ等の撮像手段であり、その視野領域13(13a,13b,13c等)の範囲内で監視領域6を常時撮像し、このカメラ画像(視野領域13)をビデオ信号として連続的にプロセッサ12(12a,12b,12c等)に送信する。各カメラ11は、監視領域6の床面等を撮像するように天井又は壁等に設置されている。また、各カメラ11は、監視領域6に対して隣接する2台のカメラ11の視野領域13(13a,13b,13c等)が部分的に重複する重複視野領域30(30ab,30bc等)を持つように設置される。なお、図1では、視野領域13が横方向一列に隣接するように複数のカメラ11を設置しているが、視野領域13の周囲4方向の任意の位置に別の視野領域13が隣接するように複数のカメラ11を設置するようにしてもよい。
プロセッサ12は、カメラ11が撮像する視野領域13の人物5を捉えて追跡し、隣接する他の画像処理装置2へ同一人物の人物追跡情報を伝達し、隣接する2つの画像処理装置2間で人物5の追跡を連携させる。プロセッサ12は、人物5が一方の視野領域13から他方の視野領域13へ移動する際、同一人物か否か人物同定を行う。この人物同定方法は、隣接する2台のカメラ11の視野領域13が部分的に重複する重複視野領域30において各々のカメラ11側で撮像する人物5について、図3に示すように、基準点18から人物位置51までの実距離dp1,dp2及び方向α1,α2が同一性を有する人物5a,5b同士を同一人物として判定する。人物同定方法の詳細は後述する。
図5に示すように、プロセッサ12は、共有点記録部21、人物追跡履歴記録部22、画像処理プロセス部23、追跡処理プロセス部24、座標変換プロセス部25、通信プロセス部26、一致判定プロセス部27などを備えている。このプロセッサ12により人物追跡方法が実現される。
共有点記録部21は、隣接する2台のカメラ11の視野領域13が部分的に重複する重複視野領域30にマーカーにより目印を2点配置し、これら2点を共有点15,16として記録する。この2つの共有点15,16は、隣接する2台のカメラ11の各々の視野領域13で同一位置として扱われる。また、共有点記録部21は、2つの共有点15,16の実空間上の中間位置に配置する中点17を共有点として記録する。中点17も隣接する2台のカメラ11間では、各々の視野領域13での同一位置として扱われる。すなわち、共有点15,16は、マーカーを目印として決定した点であり、中点17は、この目印の点(共有点15,16)を基に決定した点であるが、いずれの点15〜17も、隣接する2台のカメラ11の各々の視野領域13で同一位置として扱われる共有点とするものである。共有点15,16、及び、共有点として登録された中点17の中から代表点14で表す人物5の人物位置51まで最も近い点を選択し、重複視野領域30内で人物同定を行う際の基準点18とされる。人物同定の際、この基準点18から人物位置51までの実距離dp1,dp2及び方向α1,α2が求められる。これによれば、例えば、カメラ位置の真下位置から人物位置までの実距離を求めて人物同定を行う場合に比べて短い距離となるので、距離の誤差も小さくすることができ、また、登録された共有点15〜17は隣接する2台のカメラ11の各々の視野領域13で同一地点と定義することで基準点18が校正され、誤差を減らすことが出来る。その結果、人物同定を精度よく行うことができる。なお、共有点として登録された中点17は、重複視野領域30のほぼ中央付近に配置されるから、この中点17を基準点18としてもよい。この場合、重複視野領域30内の人物位置51との間の距離dp1,dp2も相対的に短い距離として得やすく、また、基準点18の決定処理も簡易に行なうことができる。また、2つの各共有点15,16は、重複視野領域30の任意の位置に配置することができるが、長方形形状の重複視野領域30では各短辺側にそれぞれ配置するのが好ましく、また、各共有点15,16は、重複視野領域30の短辺の中央付近に配置するのが好ましい。これにより、2つの共有点15,16と1つの中点17の3点をできるだけ重複視野領域30内で分散させることができる。
なお、図3において共有点15,16を決めるためのマーカーは地上面(地上高さ0)に配置されたものとして説明しているが、実際にはマーカーの地上高さは任意の高さとすることができる。
また、共有点15,16を決めるための目標としてマーカーを配置しているが、重複視野領域30内に同一の地点または物体と判断できる特徴があれば、この特徴を基に共有点15,16を配置することができ、目印としてマーカーを配置する必要はない。
共有点記録部21には地上高さの情報とカメラ画像上の位置情報が記録される。これにより、公知の座標変換技術(例えば、段落0002等)により、共有点15,16の地上高さを変更した場合のカメラ画像上の位置を算出することが可能となる。座標変換技術により、例えば、図4に示すように、共有点15,16が地上高さ0のときのカメラ画像上の位置を点52,53として登録する。そして、この地上高さ0の共有点52,53から地上高0の中点17を算出することが出来る。ただし、計算が煩雑になることと、実際には目印となるマーカーは地上面に配置されることが多いことから、地上高さ0で固定して共有点15,16を取得することが好ましい。
重複視野領域30が広い場合においては、共有点を3点以上配置することで重複視野領域30内で共有点を分散させることができ、精度を安定させることが出来る。また、それぞれの共有点の実空間上の中間位置に配置する中点を求めて共有点として記録することで、更に共有点の数を増やし、共有点から人物位置までの距離を短くすることで人物同定の精度を安定させることが出来る。
また、図3では共有点15,16の2点間の実空間上の中間位置に中点17を配置しこれを共有点として追加する説明としているが、追加する共有点は、このような中点17に限定されない。例えば、共有点15,16を基に更に追加する共有点として、共有点15,16の2点を結ぶ実空間上の線上に位置する任意の数の点より1点又は2点以上選択して決定してもよいし、更には共有点15,16から算出される実空間上の位置が同一として扱われる点を1点又は2点以上選択して決定してもよい。特に、初期化時に画像上の全ての地点に対応するように実空間上の位置が同一として扱われる点を配置することで、一致判定プロセス部27の計算量を軽減することが出来る。
また、目印より決定する共有点は、図3では点15,16の2点で説明しているが、隣接する2台のカメラ11の視野領域13の画像上のそれぞれの座標系19a,19bが同じ座標系であると予め分かっている場合においては1点の共有点のみを配置、記録し、この1点の共有点を基準点18と扱うことで目印(マーカー)の記録を行う手間を減らすことが出来る。
人物追跡履歴記録部22は、自己の画像処理装置2で追跡する人物5の人物追跡情報を記録し、また、隣接する他の画像処理装置2から伝達されてきた人物5の人物追跡情報を記録する。
画像処理プロセス部23は、カメラ11が撮像するカメラ画像(視野領域13)内の人物5を認識し捉える処理を行う。この画像処理プロセス部23での人物認識方法として、ベクトル焦点法(特許第3406587号)を用いてカメラ画像中の人物5を、標準化された人物モデルベース(例えば、実空間で身長1600mmの人物の外形をかたどったモデル)と照合することにより人物5を認識し検出する。認識された人物5は、カメラ画像上でその人物5を代表点14として表す。また、人物モデルベースから得られた画像上の人物5の代表点14を座標変換技術(例えば、段落0002で説明した座標変換技術等)を用いて、人物5の実空間上の地上高0の地点を実空間上の人物位置51として算出する。これにより、視野領域13において人物位置51を誤差が少ない状態で示すことができる。
なお、人物認識方法として、例えば、人物画像の重心位置を人物位置として示す方法を用いると、カメラ画像上に映る形状によって人物画像の重心位置が変わることから人物位置が変動し、人物位置の検出に誤差が大きく生じる。また、人物画像の重心位置それ自体も地上高さがどの位置となるか不明である。その結果、人物同定において別人であると間違えるおそれが高くなる。これに対して、ベクトル焦点法(特許第3406587号)のように人物位置を標準化した人物モデルベースと照合し人物モデルベースの足元位置(地上高さ0の位置)を人物位置51の形で正規化する。これにより、カメラ画像で捉える人物位置を誤差の少ない状態で表すことができ、人物同定を精度よく行うことができる。
追跡処理プロセス部24は、画像処理プロセス部23で捉えた人物5を時系列的に追跡する処理を行う。
座標変換プロセス部25は、追跡している人物5の位置をカメラ画像の2次元座標系により座標変換する処理を行う。この際、図6に示すように、自己のカメラ11におけるカメラ画像(13a)の2次元座標系19aと隣接するカメラ11におけるカメラ画像(13b)の2次元座標系19bとに角度差θがある場合は、2点の共有点15,16を結ぶ線から角度差θを求めることができ、下記式1より前記の角度差θから算出した回転行列を用いて座標変換した人物位置51を算出する。これにより、2台のカメラ11間でカメラ画像の2次元座標系に角度差θがある場合でも、各々の視野領域13a,13bにおける人物位置51を同一の2次元座標系として扱うことができる。
図6の例では、角度差θは、視野領域13a,13bそれぞれの座標軸(例えば、y軸)と共有点15,16を結ぶ直線との差から求められた角度θa,θbの合計から求める。すなわち、角度差θは、視野領域13a側の画像処理装置2aにおいてはθa−θbの式で、視野領域13b側の画像処理装置2bにおいてはθb−θaの式で求めることができるため、予め画像処理装置2a,2b間で角度差θを算出しておく。
若しくは、画像処理装置2a,2b各々の座標変換プロセス部25において、各々の角度θa,θbから算出した回転行列を用いて送受信時に変換することで、各々の視野領域13a,13bにおける人物位置51を同一の2次元座標系として扱うことが出来る。
Figure 0006831117
通信プロセス部26は、座標変換プロセス部25が出力する人物5の位置座標(人物位置情報)を隣接する画像処理装置2へ送信し、また、隣接する画像処理装置2から送信された人物5の位置座標(人物位置情報)を受信する。また、通信プロセス部26は、同一人物と判定した人物5についての人物追跡情報を隣接する画像処理装置2との間で通信する。さらに、通信プロセス部26は、最後に人物追跡情報を伝達すべきカメラ11側となる画像処理装置2が無い場合は当該人物追跡情報を集計装置4へ送信する。
一致判定プロセス部27は、重複視野領域30内の人物5に対して隣接する2台のカメラ11の各々で撮像する人物同士が同一人物であるか否かの人物同定の処理を行う。すなわち、隣接する2台のカメラ11の重複視野領域30内の人物5に対して、一方のカメラ11側における基準点18から人物位置51までの間の実空間上の実距離及び方向と、他方のカメラ11側における基準点18から人物位置51までの間の実空間上の実距離及び方向とを対比する。その結果、前記の距離と方向において同一性を有する人物同士を同一人物と判定する。この人物同定は、重複視野領域30内に複数の人物5が存在する場合は、複数の人物のすべてに対して個々に対比判断して同一人物の特定を行う。
人物同定の際の同一性は、一致判定における距離と方向についての許容値としてはモデルベース幅以内の値を設定するのが好ましい。例えば、人物モデルベースの幅が42cm程度の場合、許容値として30cmとし、前記一致判定における距離と方向を対比したときの差がこの許容値以内であれば、同一人物であると判定することができる。
次に、この人物追跡システム1による人物追跡方法を説明する。
複数のカメラ11は、隣接する2台のカメラ11の各々の視野領域13が端部の領域で重複する重複視野領域30を持つように設置される(図1参照)。そして、初期設定として、重複視野領域30には、マーカーにより目印を2点配置し、この2点を隣接する2台のカメラ11の視野領域13間で同一位置として扱う共有点15,16とする(図2参照)。この共有点15,16により隣接する2台のカメラ11の各々の視野領域13が関連付けられて連結される。共有点15,16を決定すると、2つの共有点15,16の実空間上の中間位置に中点17が配置される。共有点15,16またはこの中点17から選択された人物同定に用いる点を基準点18とする。ここでは、例えば、中点17を基準点18とする(図3参照)。以上の設定がなされた複数の画像処理装置2を用いて監視領域6の人物追跡を行う。
例えば、図2に示すように、隣接する2台のカメラ11a,11b間で一方のカメラ11a側の視野領域13a内に人物5を新たに検出した時は、この人物5に新たな人物IDを付与し人物5を代表点14で示して追跡を行う。そして、人物5が重複視野領域30ab内に入ると、他方のカメラ11b側では自身の視野領域13b内に新たな人物5として検出されることとなるので、同様に、この人物5に新たなIDを付与し人物5を代表点14で示して追跡を行う。すなわち、重複視野領域30ab内では、隣接するカメラ11a,11b毎に検出した人物5に人物IDが付与され、カメラ11a,11b毎に各々の視野領域13a,13b内で人物5の追跡が行われる。
図5を参照して、重複視野領域30ab内の人物5に対して、一方のカメラ11a側は、自身で検出する人物5の人物位置51の位置座標を求め、これを人物位置座標データ(人物位置情報)として他方のカメラ11b側へ伝達し、また、他方のカメラ11b側も、自身で検出する人物5の人物位置51の位置座標を求め、これを人物位置座標データ(人物位置情報)として一方のカメラ11a側へ伝達する(図5に示す座標変換プロセス部25、通信プロセス部26)。この際、図6に示すように、互いのカメラ11a,11bのカメラ画像(視野領域13a,13b)において画像上の座標系19a,19bに角度差θがある場合は、2つの共有点15,16から求めた回転行列を用いて座標変換した人物位置座標データ(上記式1を参照)を相手方のカメラ11a,11b側へ伝達する。
そして、隣接する各画像処理装置2a,2bは、相手方から受け取った人物位置座標データと、自身が検出する人物位置座標データとを対比し、人物同定を行う(図3参照、図5に示す一致判定プロセス部27)。すなわち、自身の画像処理装置2aにおける人物位置座標データに基づいて自身で検出する人物位置51と基準点18との間の距離dp1及び方向α1を算出し、また、相手方の画像処理装置2bから受け取った人物位置座標データに基づいて相手方で検出する人物位置51と基準点18との間の距離dp2及び方向α2を算出する。これら距離dp1,dp2及び方向α1,α2を対比して一致度を求め、一致度が最も高く同一性を有すると認められる人物同士を同一人物であると判定する。この時、人物位置51と基準点18との間の距離dp1,dp2及び方向α1,α2は、ワールド座標系での距離(実距離)及び方向で表現される。なお、一方の画像処理装置2aでの人物同定と、他方の画像処理装置2bでの人物同定とは、これら画像処理装置2a,2b間の双方向通信により共通する人物位置座標データに基づき、また、双方の実空間上のワールド座標系で同一位置である基準点18に基づき処理されているので、人物同定の結果は、双方の画像処理装置2a,2bで同じ結果が得られる。
そして、同一人物と判定された人物5については、各々の画像処理装置2a,2bで付与した人物IDをどちらか一方の人物IDに統合し、この人物5が重複視野領域30abから脱出すると同時に視野領域13aからも脱出する画像処理装置2a側の当該人物5の人物追跡情報を、相手方の画像処理装置2bへ渡して引き継がせる。このようにして、隣接する2台のカメラ11a,11b間で同一人物の人物追跡情報を伝達して連携させていく。最後に、人物追跡情報を伝達すべきカメラ11側となる画像処理装置2が無い状態で人物5が視野領域13外へ移動した時は、最後のカメラ11側の画像処理装置2が当該人物5のこれまでの人物追跡情報を、集計装置4へ出力する。
以上の各画像処理装置2は、同一の構成を有し、同一のプログラムで動くものである。従って、各カメラ11のセットアップも容易であり、迅速にかつ安価に広域の監視領域6に対して人物追跡システム1を構築することができる。
また、2つの共有点15,16及び共有点15,16間の中点17を配置し、共有点15,16または中点17のうちから選択された1点を基準点18として人物位置51までの距離dp1,dp2及び方向α1,α2に基づいて人物同定を行う。これにより、2台のカメラ11間が共有点15,16のみで関連付けて連結されるから、安定して、かつ精度よく人物同定を行うことができる。なお、カメラ位置から人物位置までの距離に基づいて人物同定を行うと、一方のカメラ位置と人物位置との距離、他方のカメラ位置と人物位置との距離、各カメラ間の距離について評価を行うこととなる。この場合、カメラ位置と人物位置との距離や各カメラ間の距離が長くなり、加えてカメラ11の設置条件などの原因から各距離の誤差が大きくなり、人物同定を安定的に精度よく行うことが困難となる。これに対して、各カメラ11の重複視野領域30内に共有点15,16を配置して連動し、基準点18を配置することで、一方のカメラ11側の人物位置51と基準点18との距離、他方のカメラ11側の人物位置51と基準点18との距離について評価を行って人物同定を行うことにより、各距離が短いから距離の誤差があっても小さくなり、かつカメラ位置を認識することなく人物位置の追跡履歴の認識だけに基づいて人物同定を行うことができ、安定的に精度よく人物同定を行うことができる。
以上より、この人物追跡システムによれば、複数の画像処理装置2の各カメラ画像が共有点15,16のみで関連付け連結されていること、連結のための画像処理装置2間の通信が人物位置座標データと人物追跡情報だけで済み画像データの通信を行わないため通信量が少ないこと等の特徴を有している。これより、隣接する2台のカメラ11間だけの関係で人物5を追跡することができるから、各カメラ11からの人物位置情報をマッピングするための監視領域6全域にわたった統一的な地図情報が不要であり、また、複数のカメラ11を取りまとめる統括的なサーバー要素も不要であり、さらに、追跡のためのカメラ11の台数も実質的に制限が無い等の効果を有する。また、広域な監視領域6にわたり大規模な人物追跡が可能となる。
なお、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲内で必要な変形を施すことが可能である。
上記実施形態では、例として人物の追跡を挙げているが、人物以外の移動体のモデルベース(例えば自動車)を用いることで、前記のモデルベースと照合し、移動体位置を算出することで上記実施形態と同様の方法で移動体同定を精度よく行うことが出来る。
1 人物追跡システム
2 画像処理装置
3 ネットワーク
4 集計装置
5 人物(移動体)
6 監視領域
11 カメラ
12 プロセッサ
13 視野領域
14 代表点
15,16 共有点
17 中点(共有点)
18 基準点
21 共有点記録部
22 人物追跡履歴記録部
23 画像処理プロセス部
24 追跡処理プロセス部
25 座標変換プロセス部
26 通信プロセス部
27 一致判定プロセス部
30 重複視野領域
51 人物位置(移動体位置)
52,53 共有点の位置(地上高さ0)
dp1,dp2 距離
α1,α2 方向
θ 角度差

Claims (4)

  1. 複数のカメラの視野領域が設定される監視領域の移動体を追跡する方法であって、
    隣接する2台のカメラの視野領域が部分的に重複する重複視野領域を有し、
    重複視野領域において隣接する2台のカメラの視野領域間で同一位置として扱う共有点を配置し、
    前記共有点は、前記重複視野領域に目印を2点配置してこれら2点の目印を共有点とし、更にこの2つの共有点の中間位置に配置する中点を共有点として加え、これら全ての前記共有点のうちの1点を基準点とし、
    各カメラが各々の視野領域で検出する移動体を、実空間での移動体の外形をかたどった移動体モデルベースと照合して移動体モデルベースの位置を当該移動体代表点として表して追跡し、
    重複視野領域内で隣接する2台のカメラの各々が検出する移動体に対して、前記基準点と前記代表点で表す移動体の実空間上の移動体位置との実距離及び方向が許容値以内にある移動体同士を同一移動体と判定し、
    同一移動体と判定した移動体について一方のカメラ側での移動体追跡情報を隣接する他方のカメラ側へと伝達して隣接する2台のカメラ間を連携させる移動体追跡方法。
  2. 請求項1に記載の移動体追跡方法において、
    隣接する2台のカメラが撮像する画像上の座標系に角度差がある場合は、2つの共有点から求めた回転行列を用いて変換した移動体位置情報を用いて同一移動体の判定を行う移動体追跡方法。
  3. 請求項1又は2に記載の移動体追跡方法において、
    一方のカメラ側で検出する移動体が視野領域外へ移動した時に、移動体追跡情報を伝達すべき他方のカメラ側が無い場合は、この移動体の移動体追跡情報を集計装置に出力する移動体追跡方法。
  4. 請求項1〜のいずれか1項に記載の移動体追跡方法に共通に用いる画像処理装置であって、
    カメラとプロセッサとを有し、
    プロセッサは、
    自己のカメラの視野領域が隣接する他のカメラの視野領域と部分的に重複する重複視野領域において各視野領域間で同一位置として扱う共有点を記録し、前記共有点は、前記重複視野領域に目印を2点配置してこれら2点の目印を共有点とし、更にこの2つの共有点の中間位置に配置する中点を共有点として加え、これら全ての前記共有点のうちの1点を基準点として記録する共有点記録部と、
    自己のカメラが視野領域で検出する移動体を、実空間での移動体の外形をかたどった移動体モデルベースと照合して移動体モデルベースの位置を当該移動体代表点として表す画像処理プロセス部と、
    画像処理プロセス部で捉えた移動体を追跡する追跡処理プロセス部と、
    追跡している移動体の移動体位置情報を隣接する他のカメラ側の画像処理装置と通信する通信プロセス部と、
    重複視野領域内で自己のカメラと隣接する他のカメラの各々が検出する移動体に対して、前記基準点と前記代表点で表す移動体の実空間上の移動体位置との実距離及び方向が許容値以内にある移動体同士を同一移動体と判定する一致判定プロセス部とを備える画像処理装置。
JP2018223497A 2018-11-29 2018-11-29 移動体追跡方法及びこれに用いる画像処理装置 Active JP6831117B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018223497A JP6831117B2 (ja) 2018-11-29 2018-11-29 移動体追跡方法及びこれに用いる画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018223497A JP6831117B2 (ja) 2018-11-29 2018-11-29 移動体追跡方法及びこれに用いる画像処理装置

Publications (2)

Publication Number Publication Date
JP2020087180A JP2020087180A (ja) 2020-06-04
JP6831117B2 true JP6831117B2 (ja) 2021-02-17

Family

ID=70908418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018223497A Active JP6831117B2 (ja) 2018-11-29 2018-11-29 移動体追跡方法及びこれに用いる画像処理装置

Country Status (1)

Country Link
JP (1) JP6831117B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507957B (zh) * 2020-12-21 2023-12-15 阿波罗智联(北京)科技有限公司 一种车辆关联方法、装置、路侧设备及云控平台
CN112885097B (zh) * 2021-02-07 2023-01-10 云控智行(上海)汽车科技有限公司 一种基于跨点位的路侧融合管理方法及系统
CN113012199B (zh) * 2021-03-23 2024-01-12 北京灵汐科技有限公司 运动目标追踪的系统和方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5453429B2 (ja) * 2009-07-22 2014-03-26 オムロン株式会社 監視カメラ端末
JP5435740B2 (ja) * 2010-11-12 2014-03-05 オムロン株式会社 監視システム、および監視サーバ
JP6865110B2 (ja) * 2017-05-31 2021-04-28 Kddi株式会社 オブジェクト追跡方法および装置

Also Published As

Publication number Publication date
JP2020087180A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6831117B2 (ja) 移動体追跡方法及びこれに用いる画像処理装置
US9911226B2 (en) Method for cleaning or processing a room by means of an autonomously mobile device
JP3977776B2 (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
WO2015098971A1 (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
US20180137369A1 (en) Method and system for automatically managing space related resources
US10049304B2 (en) Method and system for detecting an occupant in an image
US9104702B2 (en) Positioning system
JP5147036B2 (ja) 位置推定装置、位置推定方法及び位置推定プログラム
KR101239532B1 (ko) 로봇의 위치 인식 장치 및 방법
JP2017103602A (ja) 位置検出装置、位置検出方法及びプログラム
Shim et al. A mobile robot localization using external surveillance cameras at indoor
Neves et al. Acquiring high-resolution face images in outdoor environments: A master-slave calibration algorithm
JP6323025B2 (ja) 表示制御プログラム、表示制御装置及び表示制御システム
Sogo et al. N-ocular stereo for real-time human tracking
JP2018185239A (ja) 位置姿勢推定装置及びプログラム
JP6096601B2 (ja) 駅ホーム転落検知装置
US11256910B2 (en) Method and system for locating an occupant
Datondji et al. Rotation and translation estimation for a wide baseline fisheye-stereo at crossroads based on traffic flow analysis
JP2007200364A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
Chen et al. Accurate self-calibration of two cameras by observations of a moving person on a ground plane
US20190362517A1 (en) Image database creation device, location and inclination estimation device, and image database creation method
JP7130423B2 (ja) 部品情報管理システム、および部品情報管理プログラム
JP2021093151A (ja) オブジェクト認識システム、装置、方法及びプログラム
WO2020111053A1 (ja) 監視装置、監視システム、監視方法、監視プログラム
JP6679349B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210114

R150 Certificate of patent or registration of utility model

Ref document number: 6831117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250