JP2004072628A - 複数カメラを用いた移動体追跡システム及びその方法 - Google Patents
複数カメラを用いた移動体追跡システム及びその方法 Download PDFInfo
- Publication number
- JP2004072628A JP2004072628A JP2002232005A JP2002232005A JP2004072628A JP 2004072628 A JP2004072628 A JP 2004072628A JP 2002232005 A JP2002232005 A JP 2002232005A JP 2002232005 A JP2002232005 A JP 2002232005A JP 2004072628 A JP2004072628 A JP 2004072628A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- camera
- agent
- person
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】自律的に動作する複数カメラによる移動体追跡の協調処理、及び複数カメラに分散された情報の効率的な収集・管理が行えるようにする。
【解決手段】複数ビデオカメラの毎に分散的に人物追跡するカメラ内追跡手段と、追跡を行うメイン追跡要素と移動体の特徴量をメイン追跡要素に供給するサブ追跡要素とからなり複数のカメラ内追跡手段間で連携して移動体を追跡するカメラ間追跡手段と、複数のカメラ内追跡手段に亙り自律的に移動して移動体を探索する移動体探索手段とを具える。これにより、システム全体にわたる移動体の追跡及び複数のビデオカメラ毎に分散された情報の統括的管理を効率よく行うことができる。
【選択図】図1
【解決手段】複数ビデオカメラの毎に分散的に人物追跡するカメラ内追跡手段と、追跡を行うメイン追跡要素と移動体の特徴量をメイン追跡要素に供給するサブ追跡要素とからなり複数のカメラ内追跡手段間で連携して移動体を追跡するカメラ間追跡手段と、複数のカメラ内追跡手段に亙り自律的に移動して移動体を探索する移動体探索手段とを具える。これにより、システム全体にわたる移動体の追跡及び複数のビデオカメラ毎に分散された情報の統括的管理を効率よく行うことができる。
【選択図】図1
Description
【0001】
【発明の属する技術分野】
本発明は、例えば人物や車両等のような移動体を画像上から認識し、追跡する移動体追跡システム及びその方法に関する。
【0002】
【従来の技術】
従来から、広域監視や設備監視を行うために、ビデオカメラ(以下単にカメラとも言う)を用いた監視システムが広く利用されている。従来のビデオカメラによる監視システムは、例えば、複数の監視用カメラにて撮影した画像を、人がリアルタイムでモニタリングすることで実現していた。近年、画像処理技術の進展に伴い、ビデオカメラによりビデオ撮影された画像に含まれる特定の移動体(追跡すべき人物像等)の認識、追跡を行う研究が盛んに行われており、単一のビデオカメラによりビデオ撮影された画像中から移動体を抽出し、この抽出された移動体を該単一のビデオカメラを用いて追跡すること自体は可能である。
【0003】
【発明が解決しようとする課題】
しかし、単一のビデオカメラによって撮影可能な範囲は、比較的狭い範囲に限られてしまう。また、単一視点により得られる画像情報だけは、実際に人物追跡に利用するには、オクルージョン(陰蔽物)や画像解析精度等の点で不十分である。すなわち、比較的広域にわたる環境の監視をビデオカメラを用いて行うためには、複数台のカメラを用いて移動体追跡システムを構築する必要がある。
この複数のカメラを具える移動体追跡システムは、システム全体の制御方式の点から、個々のビデオカメラにて取得した情報を統合するためのサーバコンピュータを具える集中制御型と、個々のビデオカメラが自律分散して動作する処理方式(分散型)の2種類に分類される。集中制御型の場合、各カメラに分散した情報の統合が容易である反面、全ての情報をサーバに集約する必要があるので、判断処理速度が遅く、また、システムの拡張性・柔軟性に乏しい。加えて、システム規模が大きい場合、サーバに対する負担が大きくなってしまうため、比較的大規模なシステムに適用するには、不向きである。
一方、分散型処理方式に基づくシステムは、前記集中制御型に較べて、システムの拡張性・柔軟性に優れ、システム規模が大きい場合も、ネットワークへの負荷が少ないので有利であるが、この場合は、特に、複数のカメラの協調方法並びに複数のカメラに分散された情報の収集・管理方法が課題となる。
【0004】
本発明は、上述の点に鑑みてなされたもので、システム全体での自律的な移動体追跡を可能とし、また、複数のカメラに分散された情報の収集・管理を効率的に行えるようにした複数カメラを用いた移動体追跡システム及びその方法を提供しようとするものである。
【0005】
【課題を解決する手段】
本発明は、ネットワーク上に接続され追跡環境の画像を撮影する複数のビデオカメラと、前記複数のビデオカメラの各々に接続され、ビデオ撮影した画像を画像処理する複数のプロセッサとを具え、前記ビデオ撮影した画像から追跡すべき移動体を特定し、前記特定した移動体の特徴量を抽出して、前記ビデオカメラの撮影範囲内において前記特徴量に基づく移動体追跡を、前記複数のビデオカメラの各々毎に分散的に行うカメラ内追跡手段と、複数の前記カメラ内追跡手段で抽出された複数の特徴量を統合して特定の移動体の追跡処理を行うメイン追跡要素と、個々の前記カメラ内追跡手段毎に抽出される前記特定の移動体の特徴量を前記メイン追跡要素に供給するサブ追跡要素とからなり、複数の前記カメラ内追跡手段間で連携して前記特定の移動体を追跡するカメラ間追跡手段と、前記カメラ内追跡手段にて抽出した特定の移動体の特徴量に基づき、複数の該カメラ内追跡手段に亙り自律的に移動して、該特徴量によって同定される移動体を探索することで、前記複数のビデオカメラ毎に分散された移動体追跡情報の統括的管理を可能とする移動体探索手段とを含むことを特徴とする移動体追跡システムである。
【0006】
前記カメラ間追跡手段は、複数の前記カメラ内追跡手段間で連携して特定の移動体を追跡することにより、各々自律分散的に動作する複数のビデオカメラ間で協調した追跡処理が行われる。これにより、当該システム全体での自律的な移動体追跡が可能となる。また、前記移動体探索手段は、カメラ内追跡手段にて抽出した特定の移動体の特徴量に基づき、複数のカメラ内追跡手段に亙り自律的に移動して、特定の移動体を探索する。これにより、移動体追跡システム全体における、特定の移動体の現在位置等の移動体追跡情報を把握できる。従って、本発明に係る移動体追跡システムは、分散型処理方式によるシステム構成でありながら、複数のビデオカメラ毎に分散された特定の移動体の移動体追跡情報の統括的管理を効率よく行うことができる。
【0007】
本発明は、方法の発明として構成し実施することができ、また、そのような方法を実行するためのプログラムても実施可能である。
【0008】
【発明の実施の形態】
以下、添付図面を参照して本発明に係る移動体追跡システムの一実施例について説明する。この実施例では、追跡対象たる移動体の一例として、追跡環境内に侵入した人物を追跡する例について説明する。なお、本発明の実施形態は、これに限定されるものではない。
【0009】
図1(a)は、本発明の一実施例に係る移動体追跡システムの全体構成例を示すブロック図であり、(b)は当該システムにおける追跡処理全体の流れの一例を示すフローチャートである。この移動体追跡システムは、建造物屋内等の追跡環境において、地理的に適宜分散して設置された複数台のビデオカメラ11により、該追跡環境内を移動する人物(移動体)を追跡環境全域に渡りシームレスに追跡しうるものである。図1(a)に示すように、複数のビデオカメラ11がネットワーク上に接続され、各ビデオカメラ11に対して、ビデオ撮影された画像を処理して特定人物を検出するためのプロセッサ12が接続される。カメラエージェント10は、前記ビデオカメラ11と、これに接続されたプロセッサ12とを1組として構成され、該カメラ11にてビデオ撮影した画像中から特定の人物を検出することで、単一のビデオカメラ11内での人物追跡(これをカメラ内追跡という)を行う。トラッキングエージェント20は、前記カメラエージェント10にて抽出した人物の複数ビデオカメラ間に亙る追跡(これをカメラ間追跡という)を担う。また、サーチエージェント30は、例えばトラッキングエージェントによる人物追跡が失敗した際等に生成され、当該システム内における特定人物の現在位置を探索するものである。
【0010】
このシステムによる人物追跡処理全体の流れは、図1(b)に示すように、概ね下記のようである。
1)画像の取得
2)人物(追跡対象)抽出及びその特徴量の抽出
3)カメラ内追跡
4)カメラ間追跡
カメラエージェント10では、カメラ11にて撮影した動画像を各フレーム毎にプロセッサ12に入力(図1(b)に示す「画像の取得」)し、プロセッサ12により前記フレーム画像を分析して、該画像中の人物領域の抽出及びその特徴量の抽出(図1(b)に示す「人物抽出及びその特徴量の抽出」)して、抽出した特徴量に基づき、時間軸上でフレーム間のマッチングを取ることにより、人物の追跡(図1(b)の「カメラ内追跡」)を行う。この「カメラ内追跡」は、人物像及び特徴量の抽出を実現するための所定の制御プログラムを含むソフトウェアを実行することにより実施される。
【0011】
前記カメラエージェント10にて人物が検出されると、その人物に対してカメラエージェント10上にトラッキングエージェント20が生成される。トラッキングエージェント20は、複数カメラ間に亙って特定の人物を追跡するための所定の制御プログラムを含むソフトウェア・アプリケーション(追跡モジュール)である。詳しくは後述するが、本実施例では、或る人物の追跡に際して、複数のトラッキングエージェント20は、1つのメインと複数のサブからなるグループを形成し、メインとなったトラッキングエージェントが、複数のカメラエージェント10から得られる人物の特徴量のデータを統合・分析して、当該人物の位置特定を行う。すなわち、メインとなった1つのトラッキングエージェントが、複数視点(ビデオカメラ)からのデータを取り纏めることで、分散配置されたカメラエージェント10の協調動作が行われるのである。この複数のトラッキングエージェント20の連携処理により、システム全体でのシームレスな人物追跡(図1(b)のカメラ間追跡)が実現される。
【0012】
また、サーチエージェント30は、カメラエージェント10で抽出した人物の特徴量に基づき、カメラエージェント10間を自律的に移動して特定人物の現在位置の探索を行うモバイルエージェントとして定義される。この発明に係る人物追跡システムでは、ネットワーク上に分散されたエージェントの協調処理により人物追跡が実現されるため、各エージェント(カメラエージェント及びトラッキングエージェント)から各種情報を集約するサーバを具備せず、システム全体におけるトラッキングエージェント20の位置把握や、特定の人物の現在位置の探索処理は、このサーチエージェント30を用いて行う。要するに、サーチエージェント30は、複数のカメラエージェント(或いはトラッキングエージェント)に分散した各種情報を一括して統合・管理するためのエージェントである。
このように、当該システムは、人物追跡処理をカメラエージェント10,トラッキングエージェント20及びサーチエージェント30の各機能要素別に分担して、必要に応じて各エージェントが適宜協調動作することで、複数カメラによるシステム全体での人物追跡を実現している。
【0013】
ここで、図2を参照して、ビデオカメラの地理的配置について説明する。図2において、部屋1に設置されたビデオカメラ11a,11bは、部屋1内において適宜分散して配置されており、各々の撮影範囲Fa,Fbを固定的に撮影するもので、各々の撮影範囲Fa,Fbは一部重複(図において斜線で示し、これを重複領域と称する)するようになっている。このビデオカメラ11a,11bのように、同一室内等、物理的に互いに近接して配置されたカメラエージェント同士でグループを形成して、同一グループ内のカメラエージェント10同士で共有しうる外部環境データ(例えば、後述のキャリブレーションデータやオクルージョンデータ、環境マップ等)等の各種情報の授受が行えるようにするとよい。これは、システムの管理及び拡張の簡便化、ユーザ利便性の向上といった点で有利である。なお、他のビデオカメラも同様に、物理的に近接配置される複数のカメラは、各々の撮影範囲が一部重複するよう設置される。
【0014】
ところで、カメラエージェント10から得られる情報(画像処理結果)を、システム全体(複数のカメラエージェント間で)比較・統合するには、各ビデオカメラ11で撮影した画像上のピクセル位置を、複数カメラで共通の座標系に対応付けする必要がある(これをカメラキャリブレーションという)。このため、カメラエージェント10には、予め、前記ピクセル位置(以下、画像座標という)を、追跡環境全体における絶対位置(以下、ワールド座標という)に変換するるために必要なキャリブレーションデータが与えられる。また、各カメラエージェントには、各々のビデオカメラ撮影環境(例えば図2に示したような室内)中の障害物(壁、机等)の位置を記述したテーブル(構造データ)もまた予め与えられる。カメラエージェント10では、このキャリブレーションデータと構造データに基づき、オクルージョンマップと環境マップとを自動生成する。オクルージョンマップとは、単一のカメラ撮影範囲中に存在する机、壁等のオブジェクトの位置を示したデータであり、これを参照することでビデオ画像中における床面(高さ=0)領域の判別が可能となる。
【0015】
前記環境マップは、各カメラエージェント10での撮影範囲の環境を静的情報としてモデリングし、これを記述したテーブルであって、各カメラエージェント10のカメラ撮影範囲において、自カメラのみで撮影される領域(単一撮影領域)か、他のカメラとの重複領域(複数撮影領域)かを区分けしたものである。各カメラエージェント10は、各々のビデオカメラ11で撮影したフレーム画像全体の画像座標をワールド座標に変換し、他のカメラエージェントから得たカメラキャリブレーションにより他カメラ撮影範囲を計算し、これを自身のカメラ11撮影範囲と重ね合わせることで、複数ビデオカメラ間での重複領域を推定し、各カメラエージェント10において各自のカメラ撮影領域に関する環境マップを生成する。環境マップの一例として、図2におけるビデオカメラ11aの環境マップを図3に示す。環境マップとは、下記の2点を基準として、ビデオカメラ11aの撮影範囲を5つの撮影領域区分に分類して示すものである。
(1)単一カメラによる撮影範囲か複数カメラの重複領域か
(2)撮影範囲中の内部か端部か
という2つの基準に従って、ビデオカメラ11aの撮影範囲は、カメラ11aでのみ撮影する単一撮影領域13及び単一境界領域14と、カメラ11a,11bの重複領域である複数撮影領域15、第1の複数境界領域16及び第2の複数境界領域17の、5つに分類される。上記「境界領域」とは、ビデオカメラ撮影範囲の端部付近を指しており、第1の複数境界領域16はカメラ11bの撮影範囲の端部を含み、第2の複数境界領域16はカメラ11aの撮影範囲の端部を含む領域である。後述のカメラ間追跡の際には、この環境マップを参照して、前記5つの領域の分類に応じて、トラッキングエージェント20のメイントラッカの権限委譲(カメラ間の移動)タイミングを決定している。
【0016】
次に、カメラエージェント10によるカメラ内追跡処理の流れを、図4を参照して簡単に説明する。先ず、ステップS11では、ビデオカメラ11で撮影された動画像中の各フレーム画像が所定サイクルでプロセッサ12に入力される。次いで、ステップS12では、入力された前記各フレーム画像から移動体(人物)領域を抽出する。背景差分法をベースに人物領域抽出処理する場合、前処理として、予めフレーム内に移動体等の異物の存在しない背景画像を作成しておき、この背景画像と入力画像との差分処理により、オブジェクト領域(背景以外の領域)を抽出する。なお、ステップS12の処理の後、抽出したオブジェクト領域について、ノイズ除去処理等を含む適切な後処理を行い、人物領域のみが抽出されるようにする。これは、例えば、人物頭部に相当するような頭部楕円モデル等の形状情報や、色情報(頭髪・肌色ピクセル抽出)等を適宜適用/組み合わせて処理することで、前記抽出したオブジェクト領域が人物であるかどうかを判定することにより実施できる。抽出したオブジェクト領域が人物像であった場合は、同時に頭部領域の推定も行い、頭部位置データを得る。
なお、ステップS12のフレーム画像中から人物領域の抽出を行う処理方法としては、前述の背景差分法に限らず、フレーム差分法、テンプレートマッチング法、オプティカルロール法等、適宜の画像処理方法を採用しうる。
【0017】
次いで、ステップS13では、前記ステップS12にて抽出した人物領域を、複数フレーム間で同定するための特徴量を示すパラメータを抽出する。本実施例では、この特徴量の一例として、該当人物の位置情報と色情報とを抽出する。また、前記位置情報としては、複数カメラエージェント間で情報の比較・統合することに鑑みて、画像上の画像座標からワールド座標に変換した(カメラキャリブレーションした)値を求める。
【0018】
ここで、位置情報取得処理について簡単に説明する。本実施例では、抽出した人物領域のフレーム画像におけるサイズ(ドット数等)から該当人物の身長を想定し、対象人物の身長情報を生成しておき、この身長情報を利用して位置情報の算出処理を行う。フレーム画像内の人物領域の足元部分は遮蔽物等によりが隠れてしまい易く、精度良く人物立ち位置の画像座標が得られないことが多いが、比較的精度よく抽出できる人物上半身部分に着目することで、高精度の位置情報を得ることができる。位置情報取得処理では、抽出した人物領域の画像座標と、前記頭部位置の画像点と、前記身長情報とを用いて、画像座標上の人物立ち位置の推測処理を行う。すなわち、抽出した人物領域上部の中心点(頭部画像点)から、身長情報に基づく身長の高さ分垂直に下りた位置を画像座標上の人物立ち位置とする。こうして算出した人物立ち位置情報(画像座標)を、ワールド座標に変換して、追跡環境中の人物の位置情報を得ることができる。なお、前記身長想定処理は、所定の制御プログラムを実行することで実施できる。
【0019】
また、人物の特徴量として抽出される色情報には、例えば、人物領域のRGB値をHSV変換した際の色相を、パラメータとして用いることができる。すなわち、抽出した前記人物領域において、特徴的な色の色相範囲を頻出領域としてパラメータ化することで、特定の人物について大まかな色情報が得られるようにする。この色情報は、後述のサーチエージェント20による人物探索処理等、位置情報を用いない人物同定処理に用いたり、或いは、人物同定処理の際に信頼度を付与すること、異なる色情報を有する複数人物を相対的に比較して個々の人物を特定すること等に利用しうる。
【0020】
ところで、前記ステップS12で抽出した人物領域の抽出精度は、背景や机等その他のオブジェクトの影響によって、各フレーム毎に差異が生じ、一様ではない。そこで、各フレームにおける人物領域の抽出精度を評価するパラメータ値として、抽出精度の評価値Wを各カメラエージェント10において人物抽出処理の際に算出する。評価値Wは、抽出された人物領域の縦横比Rと頭部領域のピクセル密度Dにより、下記の数1から求める。
【数1】
W={F(R)+D}/2
上記の数1において、F(R)は人物領域の縦横比Rの評価関数である。この評価関数F(R)の一例を図示すると図5のようである。縦横比Rの評価関数F(R)は、図5において横軸に示す縦横比Rが1:3〜3.5である場合に縦横比評価値(図5において縦軸に示す値)が高くなるよう設定されており、このとき抽出された人物領域の抽出精度は高いことになる。この抽出精度評価値Wを用いることで複数のカメラエージェント間での同一人物に対する抽出精度の比較が可能となり、これはカメラ間追跡におけるメイントラッカ権限委譲のパラメータの一つとなる。
【0021】
ステップS14では、ステップS13で抽出した特徴量のパラメータを用いて、抽出した人物領域を、時間軸上でフレーム間のマッチングを取ることにより、同一人物であるか否かの同定処理を行ことで、カメラ内追跡を実現する。すなわち、現在フレームにて抽出された人物を、前述の位置情報や色情報といったパラメータに基づき過去フレームにて既に追跡されてきた人物(つまり、同定済みである人物)と対応付けすることで、フレーム間での同定処理(マッチング)が行われる。
このカメラ内追跡は、基本的にはワールド座標上の対象人物の位置情報をパラメータとして用いて実行されるが、障害物等のオクルージョン(遮蔽)による影響で正確なワールド座標上の位置情報を得ることが困難な場合には、画像座標上の人物位置に基づき追跡を継続できる。また、カメラ内追跡において、色情報を併用することで、複数人物のすれ違いに対応した処理が可能となる。すなわち、フレーム内で複数の人物がすれ違った場合に、カメラエージェントが該複数の人物を1つのオブジェクト(人物領域)であると認識しても、色情報による人物識別を行うことで、人物すれ違い後の個々の人物の特定が可能になる。
【0022】
次にトラッキングエージェント20によるカメラ間追跡について説明する。
トラッキングエージェント20は、上述の通り、或る人物がカメラエージェント10に検出されると、該人物に対して生成されるもので、その人物が複数のカメラエージェント10で検出された場合は、各カメラエージェント10毎に複数のトラッキングエージェント20が生成されることになる。そのような同一の人物を追跡すべき複数のトラッキングエージェント20は、一つのメイントラッカMT(以下、単にMTと略称する)と、1以上複数のサブトラッカST(以下単に、STと略称する)からなるネットワークグループ(トラッキングエージェントグループ)を形成する。
STは、各自の存在するカメラエージェントにて抽出した該当人物の情報(人物抽出処理結果や位置情報、色情報のような前記特徴量パラメータであり、以降、これらを纏めて抽出データという)を、前記グループのMTに送信する。MTでは、自身の存在するカメラエージェントにて取得する抽出データ及び、各STから送信された抽出データを分析・統合して、該人物の位置特定を行う。このMTとSTの関係は動的に変化するものであり、同一対象を追跡するトラッキングエージェントグループ内において、追跡対象たる人物の移動に応じて、適切なトラッキングエージェントにMTの権限を委譲することで、特定の人物に追従して、MTが複数のカメラエージェント上を遷移する。こうして、複数のカメラ間にわたる特定の人物追跡が実現される。
【0023】
先ず、複数トラッキングエージェント間の連携処理に際して送受信されるデータパケットについて説明する。トラッキングエージェント間の連携が必要な状況としては、下記の4通りの状況がある。
1)新規トラッキングエージェント生成時のメイン/サブ判断
2)MTの権限委譲
3)STのグループ離脱
4)複数カメラ重複領域でのグループ再形成確認
送受信される各データ内容はとしては、「位置情報」、「色情報」、「画像取得時刻」、「人物抽出精度」といった抽出データや、「トラッキングエージェントID」等が含まれる。「トラッキングエージェントID」は、個々のトラッキングエージェントを識別するIDであて、例えば新規生成時に付与されるものであり、また、「要求種別」とは、上記4通りの状況の何れかを表すものである。こうした各種データ内容は、夫々所定のメッセージIDにより識別できるようにするとよい。
【0024】
図6は、それぞれネットワークに接続されたカメラエージェント10a〜10cの撮影範囲内を人物Pが移動した際に生成されるトラッキングエージェント20a〜20cからなるネットワークグループにおいて、メイントラッカMTとサブトラッカST関係の遷移を示す概念図である。また、図7は、トラッキングエージェントの状態遷移及び連携処理を説明するためのブロック図である。以下、トラッキングエージェントの状態遷移について、図6及び図7を参照して説明する。
図6に示すように、カメラエージェント10aにおいて、カメラ撮影範囲内に侵入した人物Pが抽出されると、カメラエージェント10a上には、該人物Pに対してトラッキングエージェント20aが新規生成される(図7において「Extract」で示す流れ)。図7に示すように、新規に生成されたトラッキングエージェントは、ネットワーク上に存在する他のMTに対して、獲得した人物Pの抽出データを通知し(「Brodcast」)、同一の対象人物を追跡中のMTが存在するか否かを問い合わせる。前記通知を受けた他のMTは、自身が追跡中の人物と、前記受信した抽出データとの対応付け(同定処理)を行う。これにより、前記新規トラッキングエージェントと同一の対象人物を追跡するトラッキングエージェントが既に存在するか否かの判定が行われる(図7の「Identification」)。このときカメラエージェント(図6ではカメラエージェント10a)上にされた前記新規トラッキングエージェントでは、自身の保持する環境マップを参照し、抽出人物Pの存在する撮影領域区分(図3参照)を求めておく。
【0025】
前記新規トラッキングエージェントが追跡する人物と同一の人物を追跡するトラッキングエージェントが既に存在する場合(図7の「Identified」)は、新規トラッキングエージェントには人物同定Ack(肯定応答)が送信され、該新規トラッキングエージェントはSTとなる(「GetAck」で示す流れ)。また、人物同定Ackが送信されなくとも、トラッキングエージェントにて環境マップを参照した結果、人物Pが環境マップ上の複数カメラ重複領域(図3に示す複数撮影領域15、第1の複数境界領域16及び第2の複数境界領域17)に位置している場合は、新規トラッキングエージェントは、該当人物を追跡中のトラッキングエージェントが既に存在していると判断し、該当するMTと接続して、STとなる。
【0026】
トラッキングエージェントが環境マップを参照した結果、人物Pが環境マップ上の単一カメラ領域(図3に示す単一撮影領域13、単一境界領域14)に位置しており、人物同定Ackが送信されない場合(「Don’tGetAck」)は、新規トラッキングエージェントは、人物Pはシステム全体で新規に発見された(人物Pを追跡するトラッキングエージェントが存在しない)ものと判断して、自らが新しいMTとして動作する。図6の例では、トラッキングエージェント20aは、先ずMTとして起動する。人物Pがカメラエージェント10a内で移動する間、トラッキングエージェント20aは既述のカメラ内追跡により獲得した抽出データを収集する。
【0027】
図6において、人物Pが移動して、カメラエージェント10bの撮影範囲内に侵入すると、カメラエージェント10b上にはトラッキングエージェント20bが新規生成され、上述したようなメイン/サブの判断(「Identification」)処理が行われる。この場合は、既にトラッキングエージェント20aがMTの権限を有しているので、トラッキングエージェント20bは、そのSTとなる。
ところで、MT(20a)と新規トラッキングエージェント(20b)間でなされる同定処理(複数カメラ間での同定処理)に際して、新規トラッキングエージェント20bは人物Pの身長情報を持たないので、該人物Pの足元部分が抽出できない場合は、正確な位置情報を算出できない。そのため、この場合は楕円状分布による人物立ち位置予測を行い、この予測位置情報を用いて同定処理を行う。すなわち、カメラエージェント10bにて抽出した人物領域の下辺部から求められるワールド座標上の人物立ち位置情報は、実際の人物足元位置から、カメラの光軸方向へずれた位置で算出されてしまう。そのような光軸方向についての誤差を統計的に測定することで、該誤差に基づく所定の幅を持って人物立ち位置を想定した、該人物の楕円状分布位置予測が可能となる。新規トラッキングエージェントは、人物領域の下辺部のワールド座標位置と、前記光軸方向の誤差に基づく楕円状分布位置予測とをMTに送信し、これを受信したMTは、前記下辺部のワールド座標位置と自身が保有する最新の位置情報との距離を比較して、該楕円状分布位置予測を閾値とした同定処理を行う。人物が同定されがると、トラッキングエージェント20bはSTとなり、現時点でのMTから人物の身長情報が与えられ、新規エージェントにおいても、身長情報を用いたより正確な位置情報の取得が可能となる。
【0028】
次に、MTの権限委譲について説明する。追跡対象人物がMTたるカメラエージェントの撮影範囲外に出る前に適切なSTにメイントラッカMTの権限を引き継ぐ処理が行われる。MT権限の委譲は、▲1▼現時点でのMTにおける環境マップの第1の複数境界領域16(図3参照)に存在し、且つ、▲2▼STでの人物領域の抽出精度がMTを上回った(或いはMTでの次期フレーム予測位置が撮影範囲外である)場合、の2条件が満たされたときに実行される。例えば、図6において、追跡対象人物Pが、カメラエージェント10aの環境マップ中の第1の複数境界領域16(図3参照)に侵入すると、MTたるトラッキングエージェント20aはメイン権限移動判断(図7の「MoveDecision」)を行う。そして、MT(トラッキングエージェント20a)は、人物抽出精度がMTよりも優れているSTを検索し、該当するSTに対してMTへの権限委譲要求(図7の「MoveRequest」)を送信し、サブ移行待機状態(図7の「WaitforAck」)になる。また、MTは、このとき同時に、グループ内のその他のSTに対してメイントラッカ入れ替わりの通知を行う。前記メイン権限委譲要求を受けたSTは、メイン移行待機状態となり(「WaitforMove」)、MTに対して権限引継Ackを送信し、MTからのAck受信通知(GetAck)を受信すると、MTの保持する追跡対象人物データを受け取り、新規にMTとなる。一方、旧MTは、前記権限引継Ackを受信した時点でSTへ移行し、新規MTに接続する。
このように、複数のトラッキングエージェント間で、人物追跡を担うMTの権限を委譲することで、実質的にトラッキングエージェントによる複数カメラ間での移動が実現される。
【0029】
追跡対象人物がカメラエージェントの撮影範囲から外れる等して、追跡処理が終了すると、該カメラエージェント上のトラッキングエージェントは消滅する。例えば、図6において、トラッキングエージェント20bがMTの権限を引継いで、トラッキングエージェント20aがSTへ移行した後、更なる人物Pの移動に伴い、人物Pがカメラエージェント10aの撮影範囲から外れて(図7の「Can’tExtract」)、図6において、トラッキングエージェント20bがMTの権限を引継いで、トラッキングエージェント20aがSTへ移行した後、更なる人物Pの移動に伴い、人物Pがカメラエージェント10aの撮影範囲から外れて、カメラエージェント10aでのカメラ内追跡処理が終了すると、トラッキングエージェント20aは、MTたるトラッキングエージェント20bに対して消滅する旨を通知した後、消滅する(図7の「Vanish」)。
なお、MTの時点でトラッキングエージェントが消滅する場合は、適切なSTに対してメイン権限委譲をした後に消滅する。但し、STが存在せず、メイン権限委譲が行われない場合は、追跡対象が当該システムから退出したものと見なして、システム全体での該当人物の追跡を終了する。
【0030】
ところで、追跡対象の人物が環境マップ上の単一撮影領域(図2において符号13で示す領域)にいる時に、複数のトラッキングエージェントでネットワークグループを形成していた場合は、該グループ中に異なる人物を追跡しているトラッキングエージェントが含まれている可能性が高い。このような場合、MTは、STから送信された抽出データと、自身のカメラエージェントで取得した抽出データを比較して、異なる人物を追跡しているトラッキングエージェントを検出でき、そのようなトラッキングエージェントに対して、グループ離脱要求を行う。グループ離脱要求を受けたトラッキングエージェントは、新規トラッキングエージェント生成時と同様の処理を行い、自身と同じ人物を追跡中のMTを検索する。
【0031】
また、追跡対象の人物が環境マップ上の複数撮影領域(図2において符号15〜17で示す領域)にいる場合、当該人物を追跡しているトラッキングエージェントがグループ外にも存在する可能性があるため、MTは、自らの存在を通知するパケット(複数カメラ重複領域でのグループ再形成確認)をネットワーク上に配信する。パケットを受信したトラッキングエージェントでは、自身が追跡中の人物と受信したパケットに基づく人物との同定処理を行う。その結果、両者が同一人物であった場合、該トラッキングエージェントは、該当するグループに加わる。これは、新規トラッキングエージェント生成時等における同定処理の失敗を補償する処理である。
【0032】
次に、サーチエージェント30による特定人物の現在位置探索処理について説明する。
この実施例に係る追跡システムには、複数のカメラエージェント10に各種情報が分散しており、分散した該各種情報を一括管理するサーバが存在しない。このため、前述したトラッキングエージェント20によるカメラ間追跡において、トラッキングエージェントが人物の同定処理に失敗した場合、該人物がどのカメラエージェントの撮影領域に移動したのか判らなくなってしまう。従って、カメラ間追跡に失敗した際の回復処理を行う必要がある。すなわち、該追跡に失敗した人物を当該システム内から探し出す処理を行う必要がある。サーチエージェント30は、この人物を当該システム内から探し出す処理や、当該システム全体における特定の人物の現在位置、言い換えれば、該人物を追跡中のトラッキングエージェントの現在位置を把握するのに用いる。サーチエージェント30による特定人物の現在位置探索処理は、サーチエージェント30が複数のカメラエージェント10間を移動して、追跡対象人物についての前記抽出データのうち、例えば色情報や、身長情報といった、位置情報以外の特徴量を用いて同定処理を行うことで実現される。
【0033】
前記サーチエージェント30による特定人物の現在位置探索処理の一例について図8のフローチャートを参照して説明する。
ステップS20において、ユーザ(システム監視者)や人物追跡中のトラッキングエージェントから発生される特定の人物の探索要求に応じて、該探索要求を受けたカメラエージェントでは、サーチエージェントと、該サーチエージェントに固有の探索IDが生成される。この探索IDは、探索要求を発生したトラッキングエージェントのID、カメラエージェントのID、該要求の発生時刻並びに該カメラエージェント内でユニークな乱数を含んで成る。これにより、要求の発生時刻と、探索要求の発生源とを、このサーチエージェントを受け入れたカメラエージェントに通知することができる。次いで、ステップS21では、現在着目しているカメラエージェント内にて探索すべき人物の探索・同定処理を行い、該当する人物が存在するか否かを確認する。前記人物の探索要求が発生された時点では、先ず、該要求を受信したカメラエージェントにて人物探索を行う。該当する人物が発見されれば、ステップS22に分岐して、この人物探索処理を終了する。人物が発見されない場合は、ステップS23に処理を進め、サーチエージェントの移動処理を行う。
【0034】
ところで、サーチエージェント20は、ネットワークを移動する性質上、保持する情報量が少なくい方が好ましい。この実施例では、人物探索処理の実行コードは各カメラエージェント10が所持し、且つ、サーチエージェントによる探索が既に済んだカメラエージェントには、サーチエージェントの移動履歴(探索済み情報)を記憶させることで、サーチエージェント20が持つ情報量を可及的抑制している。これにより、サーチエージェントの探索処理を効率的に行うことができる。
また、この実施例では、サーチエージェント20の移動先決定の要素として、カメラエージェントにおける人物の移動ログと、カメラエージェントに対する人物の移動確率(或るカメラエージェントにおける人物存在確率)とを用いる。
サーチエージェント20には、一定の記憶領域を設けて、人物探索過程で取得する人物の移動確率の高い未探索カメラエージェントのIDや、移動元のカメラエージェントID等を記憶しておく。各カメラエージェントに対する特定人物の移動確率は、該人物の移動統計に基づき算出する。例えば、或る人物が、カメラエージェント(これをCA1とする)から、これと隣接カメラエージェント(CA2)へ移動した際、該隣接するCA2では、該人物を追跡しているトラッキングエージェント(MT)が有するIDデータを元に移動元たるCA1を特定し、当該人物のCA1からの移動回数を加算すると共に、CA1に対して当該人物の移動を通知する。CA1では、CA2から送信されるメッセージを元に、該人物のCA2への移動回数を加算する。こうして、特定の人物について、カメラエージェント毎の入出に関する移動統計が求められる。各カメラエージェントでは、前記移動統計と共に、人物の移動ログを記憶しておく。移動ログの信頼度は時間経過に連れて低下するので、移動先決定の要素として移動ログを参照するか、移動確率を参照するかは、経過時間に基づき判断される。
【0035】
ステップS23では、前記ステップS21にて人物探索したカメラエージェントに当該サーチエージェントの探索IDを登録して、該カメラエージェントには当該サーチエージェントの移動履歴(探索済み情報)が記憶される。このとき該カメラエージェントには、サーチエージェントの移動元のカメラエージェントIDを記録しておくことで、サーチエージェントは、これらの情報を参照して探索経路のバックトレース(後戻り)ができる。続いて、ステップS24において、前記探索済みのカメラエージェントは、隣接するカメラエージェントに対して、自身の探索済みメッセージと、該サーチエージェントの探索IDとを通知する。サーチエージェントが移動する先は、基本的には移動元カメラエージェントに隣接したカメラエージェントであるため、互いに隣接したカメラエージェントの探索/未探索の情報を把握できれば、サーチエージェントの効率的な移動先決定には十分である。ステップS25では、サーチエージェントの前記記憶領域内を検索して、前記人物移動確率の高いカメラエージェントIDとして現在のカメラエージェントIDが記録されていれば、これを消去する。こうして、サーチエージェントは、前記カメラエージェントに対する人物探索処理が終了した後、ステップS26以降の次の移動先を決定するための処理を行う。
【0036】
サーチエージェントが移動先を決定する状況としては、以下の四通りの状況が挙げられる。
1,未探索の隣接カメラエージェントがある。
2,未探索の隣接カメラエージェントなはく、サーチエージェント記憶領域内に未探索カメラエージェントの情報がある。
3,隣接カメラエージェント、記憶領域内共に未探索カメラエージェントの情報なし。
4,移動ログがある。
先ず、ステップS26では、カメラエージェントに記憶された前記移動ログを確認し、経過時間Tが所定の閾値T1より小さい場合は、ステップS27に進み、該移動ログに沿ってカメラエージェントを移動し、移動先のカメラエージェントにて前記ステップS21以降の処理を繰り返す。一方、該当する人物の移動が移動ログにない場合、若しくは、経過時間Tが所定の閾値T1より大きい場合は、ステップS28に処理を進める。ステップS28では、隣接した未探索カメラエージェント(これをCAnとする)の人物移動確率を確認する。また、ステップS29では、前記隣接した未探索カメラエージェント以外(つまり移動予定先以外)の隣接カメラエージェントにおいて、人物移動確率の高いカメラエージェント(これをCAxとする)のIDをサーチエージェントの記憶領域内に記憶させる。
【0037】
ステップS30では、前記カメラエージェントCAnと前記カメラエージェントCAxの移動確率の比較を行い、より確率の高いカメラエージェントに移動先を決定する。カメラエージェントCAnの移動確率をRn、カメラエージェントCAxの移動確率をRxとし、CAxとCAnの距離をDとすると、CAxに移動する場合の条件は下記の式(2)で表せる。
【数2】
Rn<Rx*D*α
すなわち、カメラエージェントCAnの移動確率Rnが、CAxの移動確率Rxの関数より、小さい場合は、移動先はカメラエージェントCAxとされ、その反対に、移動確率Rnが移動確率Rxの関数よりも大きい場合は、カメラエージェントCAnを移動先とする。なお、係数αを適宜変更することで、移動先決定の条件を変更して、サーチエージェントの非効率的移動を抑制することができる。例えば、確率差が小さいとサーチエージェントの移動効率が悪くなる場合等に、係数αを大きくとって、確率差が大きい場合以外は採用しないようにできる。
【0038】
前記ステップS30における移動確率の比較の結果、移動確率Rnが移動確率Rxの関数よりも大きい(Rn>Rx*D*α)場合は、ステップS31に進み、サーチエージェントは、カメラエージェントCAnへ移動して、カメラエージェントCAnにて前記ステップS21以降の処理を行う。また、移動確率Rnが移動確率Rxより小さい(Rn<Rx*D*α)場合は、ステップS32に進み、サーチエージェントは、カメラエージェントCAxに移動して、カメラエージェントCAxにて前記ステップS21以降の処理を行う。
以上の処理を、目的とする追跡対象人物を発見するまで繰り返すことで、システム全体における人物(現在位置)の探索が実施されるのである。
【0039】
このようにして、カメラエージェントとトラッキングエージェントとサーチエージェントとが協調動作することで、情報を集約するサーバを備えない分散的システム構成において、複数カメラが連携したシステム全体でのシームレスな人物追跡を行い、また、複数カメラに分散した情報を効率的に統合・管理できる。
【0040】
なお、上述の実施例で説明した人物(移動体)追跡システムは、例えば老人ホーム内でのカメラ監視等、建造物内等に配備される一般的な人物追跡システムに好適である。また、例えば、商店店舗等において、人物(顧客)の移動を監視・追跡し、該人物の動きを分析することに利用でき、これは、商品の戦略的な陳列・配置位置の検討、及びその改善等に有益である。また、本システムは不特定多数の移動体を追跡できるので、交差点等における交通監視システムでの応用にも好適である。
【0041】
【発明の効果】
以上説明した通り、本発明によれば、分散配置された複数のカメラが連携動作することで、システム全体での自律的な移動体追跡が可能とされ、また、複数のカメラに分散された情報の収集・管理を効率的に行えるという優れた効果を奏する。
【図面の簡単な説明】
【図1】(a)は、本発明の一実施例に係る移動体追跡システムの全体構成を示す概念図、(b)は、同実施例に係る当該システムにおける追跡処理全体の流れの一例を示すフローチャート。
【図2】同実施例に係るビデオカメラの配置例を示す平面図。
【図3】同実施例に係るカメラエージェントにて作成される環境マップの一例を示す図。
【図4】同実施例に係るカメラエージェントにて実施されるカメラ内追跡処理の一例を示すフローチャート。
【図5】図4に示すカメラ内追跡処理において抽出した人物領域の評価関数F(R)の一例を示す図。
【図6】同実施例に係るトラッキングエージェントの動作例を説明するための概念図。
【図7】同実施例に係るトラッキングエージェントにおけるメイントッラカとサブトラッカの状態遷移を説明するためのブロック図。
【図8】同実施例に係るサーチエージェントにて実施される人物探索処理の一例を示すフローチャート。
【符号の簡単な説明】
10 カメラエージェント
11 ビデオカメラ
12 プロセッサ
20 トラッキングエージェント
30 サーチエージェント
【発明の属する技術分野】
本発明は、例えば人物や車両等のような移動体を画像上から認識し、追跡する移動体追跡システム及びその方法に関する。
【0002】
【従来の技術】
従来から、広域監視や設備監視を行うために、ビデオカメラ(以下単にカメラとも言う)を用いた監視システムが広く利用されている。従来のビデオカメラによる監視システムは、例えば、複数の監視用カメラにて撮影した画像を、人がリアルタイムでモニタリングすることで実現していた。近年、画像処理技術の進展に伴い、ビデオカメラによりビデオ撮影された画像に含まれる特定の移動体(追跡すべき人物像等)の認識、追跡を行う研究が盛んに行われており、単一のビデオカメラによりビデオ撮影された画像中から移動体を抽出し、この抽出された移動体を該単一のビデオカメラを用いて追跡すること自体は可能である。
【0003】
【発明が解決しようとする課題】
しかし、単一のビデオカメラによって撮影可能な範囲は、比較的狭い範囲に限られてしまう。また、単一視点により得られる画像情報だけは、実際に人物追跡に利用するには、オクルージョン(陰蔽物)や画像解析精度等の点で不十分である。すなわち、比較的広域にわたる環境の監視をビデオカメラを用いて行うためには、複数台のカメラを用いて移動体追跡システムを構築する必要がある。
この複数のカメラを具える移動体追跡システムは、システム全体の制御方式の点から、個々のビデオカメラにて取得した情報を統合するためのサーバコンピュータを具える集中制御型と、個々のビデオカメラが自律分散して動作する処理方式(分散型)の2種類に分類される。集中制御型の場合、各カメラに分散した情報の統合が容易である反面、全ての情報をサーバに集約する必要があるので、判断処理速度が遅く、また、システムの拡張性・柔軟性に乏しい。加えて、システム規模が大きい場合、サーバに対する負担が大きくなってしまうため、比較的大規模なシステムに適用するには、不向きである。
一方、分散型処理方式に基づくシステムは、前記集中制御型に較べて、システムの拡張性・柔軟性に優れ、システム規模が大きい場合も、ネットワークへの負荷が少ないので有利であるが、この場合は、特に、複数のカメラの協調方法並びに複数のカメラに分散された情報の収集・管理方法が課題となる。
【0004】
本発明は、上述の点に鑑みてなされたもので、システム全体での自律的な移動体追跡を可能とし、また、複数のカメラに分散された情報の収集・管理を効率的に行えるようにした複数カメラを用いた移動体追跡システム及びその方法を提供しようとするものである。
【0005】
【課題を解決する手段】
本発明は、ネットワーク上に接続され追跡環境の画像を撮影する複数のビデオカメラと、前記複数のビデオカメラの各々に接続され、ビデオ撮影した画像を画像処理する複数のプロセッサとを具え、前記ビデオ撮影した画像から追跡すべき移動体を特定し、前記特定した移動体の特徴量を抽出して、前記ビデオカメラの撮影範囲内において前記特徴量に基づく移動体追跡を、前記複数のビデオカメラの各々毎に分散的に行うカメラ内追跡手段と、複数の前記カメラ内追跡手段で抽出された複数の特徴量を統合して特定の移動体の追跡処理を行うメイン追跡要素と、個々の前記カメラ内追跡手段毎に抽出される前記特定の移動体の特徴量を前記メイン追跡要素に供給するサブ追跡要素とからなり、複数の前記カメラ内追跡手段間で連携して前記特定の移動体を追跡するカメラ間追跡手段と、前記カメラ内追跡手段にて抽出した特定の移動体の特徴量に基づき、複数の該カメラ内追跡手段に亙り自律的に移動して、該特徴量によって同定される移動体を探索することで、前記複数のビデオカメラ毎に分散された移動体追跡情報の統括的管理を可能とする移動体探索手段とを含むことを特徴とする移動体追跡システムである。
【0006】
前記カメラ間追跡手段は、複数の前記カメラ内追跡手段間で連携して特定の移動体を追跡することにより、各々自律分散的に動作する複数のビデオカメラ間で協調した追跡処理が行われる。これにより、当該システム全体での自律的な移動体追跡が可能となる。また、前記移動体探索手段は、カメラ内追跡手段にて抽出した特定の移動体の特徴量に基づき、複数のカメラ内追跡手段に亙り自律的に移動して、特定の移動体を探索する。これにより、移動体追跡システム全体における、特定の移動体の現在位置等の移動体追跡情報を把握できる。従って、本発明に係る移動体追跡システムは、分散型処理方式によるシステム構成でありながら、複数のビデオカメラ毎に分散された特定の移動体の移動体追跡情報の統括的管理を効率よく行うことができる。
【0007】
本発明は、方法の発明として構成し実施することができ、また、そのような方法を実行するためのプログラムても実施可能である。
【0008】
【発明の実施の形態】
以下、添付図面を参照して本発明に係る移動体追跡システムの一実施例について説明する。この実施例では、追跡対象たる移動体の一例として、追跡環境内に侵入した人物を追跡する例について説明する。なお、本発明の実施形態は、これに限定されるものではない。
【0009】
図1(a)は、本発明の一実施例に係る移動体追跡システムの全体構成例を示すブロック図であり、(b)は当該システムにおける追跡処理全体の流れの一例を示すフローチャートである。この移動体追跡システムは、建造物屋内等の追跡環境において、地理的に適宜分散して設置された複数台のビデオカメラ11により、該追跡環境内を移動する人物(移動体)を追跡環境全域に渡りシームレスに追跡しうるものである。図1(a)に示すように、複数のビデオカメラ11がネットワーク上に接続され、各ビデオカメラ11に対して、ビデオ撮影された画像を処理して特定人物を検出するためのプロセッサ12が接続される。カメラエージェント10は、前記ビデオカメラ11と、これに接続されたプロセッサ12とを1組として構成され、該カメラ11にてビデオ撮影した画像中から特定の人物を検出することで、単一のビデオカメラ11内での人物追跡(これをカメラ内追跡という)を行う。トラッキングエージェント20は、前記カメラエージェント10にて抽出した人物の複数ビデオカメラ間に亙る追跡(これをカメラ間追跡という)を担う。また、サーチエージェント30は、例えばトラッキングエージェントによる人物追跡が失敗した際等に生成され、当該システム内における特定人物の現在位置を探索するものである。
【0010】
このシステムによる人物追跡処理全体の流れは、図1(b)に示すように、概ね下記のようである。
1)画像の取得
2)人物(追跡対象)抽出及びその特徴量の抽出
3)カメラ内追跡
4)カメラ間追跡
カメラエージェント10では、カメラ11にて撮影した動画像を各フレーム毎にプロセッサ12に入力(図1(b)に示す「画像の取得」)し、プロセッサ12により前記フレーム画像を分析して、該画像中の人物領域の抽出及びその特徴量の抽出(図1(b)に示す「人物抽出及びその特徴量の抽出」)して、抽出した特徴量に基づき、時間軸上でフレーム間のマッチングを取ることにより、人物の追跡(図1(b)の「カメラ内追跡」)を行う。この「カメラ内追跡」は、人物像及び特徴量の抽出を実現するための所定の制御プログラムを含むソフトウェアを実行することにより実施される。
【0011】
前記カメラエージェント10にて人物が検出されると、その人物に対してカメラエージェント10上にトラッキングエージェント20が生成される。トラッキングエージェント20は、複数カメラ間に亙って特定の人物を追跡するための所定の制御プログラムを含むソフトウェア・アプリケーション(追跡モジュール)である。詳しくは後述するが、本実施例では、或る人物の追跡に際して、複数のトラッキングエージェント20は、1つのメインと複数のサブからなるグループを形成し、メインとなったトラッキングエージェントが、複数のカメラエージェント10から得られる人物の特徴量のデータを統合・分析して、当該人物の位置特定を行う。すなわち、メインとなった1つのトラッキングエージェントが、複数視点(ビデオカメラ)からのデータを取り纏めることで、分散配置されたカメラエージェント10の協調動作が行われるのである。この複数のトラッキングエージェント20の連携処理により、システム全体でのシームレスな人物追跡(図1(b)のカメラ間追跡)が実現される。
【0012】
また、サーチエージェント30は、カメラエージェント10で抽出した人物の特徴量に基づき、カメラエージェント10間を自律的に移動して特定人物の現在位置の探索を行うモバイルエージェントとして定義される。この発明に係る人物追跡システムでは、ネットワーク上に分散されたエージェントの協調処理により人物追跡が実現されるため、各エージェント(カメラエージェント及びトラッキングエージェント)から各種情報を集約するサーバを具備せず、システム全体におけるトラッキングエージェント20の位置把握や、特定の人物の現在位置の探索処理は、このサーチエージェント30を用いて行う。要するに、サーチエージェント30は、複数のカメラエージェント(或いはトラッキングエージェント)に分散した各種情報を一括して統合・管理するためのエージェントである。
このように、当該システムは、人物追跡処理をカメラエージェント10,トラッキングエージェント20及びサーチエージェント30の各機能要素別に分担して、必要に応じて各エージェントが適宜協調動作することで、複数カメラによるシステム全体での人物追跡を実現している。
【0013】
ここで、図2を参照して、ビデオカメラの地理的配置について説明する。図2において、部屋1に設置されたビデオカメラ11a,11bは、部屋1内において適宜分散して配置されており、各々の撮影範囲Fa,Fbを固定的に撮影するもので、各々の撮影範囲Fa,Fbは一部重複(図において斜線で示し、これを重複領域と称する)するようになっている。このビデオカメラ11a,11bのように、同一室内等、物理的に互いに近接して配置されたカメラエージェント同士でグループを形成して、同一グループ内のカメラエージェント10同士で共有しうる外部環境データ(例えば、後述のキャリブレーションデータやオクルージョンデータ、環境マップ等)等の各種情報の授受が行えるようにするとよい。これは、システムの管理及び拡張の簡便化、ユーザ利便性の向上といった点で有利である。なお、他のビデオカメラも同様に、物理的に近接配置される複数のカメラは、各々の撮影範囲が一部重複するよう設置される。
【0014】
ところで、カメラエージェント10から得られる情報(画像処理結果)を、システム全体(複数のカメラエージェント間で)比較・統合するには、各ビデオカメラ11で撮影した画像上のピクセル位置を、複数カメラで共通の座標系に対応付けする必要がある(これをカメラキャリブレーションという)。このため、カメラエージェント10には、予め、前記ピクセル位置(以下、画像座標という)を、追跡環境全体における絶対位置(以下、ワールド座標という)に変換するるために必要なキャリブレーションデータが与えられる。また、各カメラエージェントには、各々のビデオカメラ撮影環境(例えば図2に示したような室内)中の障害物(壁、机等)の位置を記述したテーブル(構造データ)もまた予め与えられる。カメラエージェント10では、このキャリブレーションデータと構造データに基づき、オクルージョンマップと環境マップとを自動生成する。オクルージョンマップとは、単一のカメラ撮影範囲中に存在する机、壁等のオブジェクトの位置を示したデータであり、これを参照することでビデオ画像中における床面(高さ=0)領域の判別が可能となる。
【0015】
前記環境マップは、各カメラエージェント10での撮影範囲の環境を静的情報としてモデリングし、これを記述したテーブルであって、各カメラエージェント10のカメラ撮影範囲において、自カメラのみで撮影される領域(単一撮影領域)か、他のカメラとの重複領域(複数撮影領域)かを区分けしたものである。各カメラエージェント10は、各々のビデオカメラ11で撮影したフレーム画像全体の画像座標をワールド座標に変換し、他のカメラエージェントから得たカメラキャリブレーションにより他カメラ撮影範囲を計算し、これを自身のカメラ11撮影範囲と重ね合わせることで、複数ビデオカメラ間での重複領域を推定し、各カメラエージェント10において各自のカメラ撮影領域に関する環境マップを生成する。環境マップの一例として、図2におけるビデオカメラ11aの環境マップを図3に示す。環境マップとは、下記の2点を基準として、ビデオカメラ11aの撮影範囲を5つの撮影領域区分に分類して示すものである。
(1)単一カメラによる撮影範囲か複数カメラの重複領域か
(2)撮影範囲中の内部か端部か
という2つの基準に従って、ビデオカメラ11aの撮影範囲は、カメラ11aでのみ撮影する単一撮影領域13及び単一境界領域14と、カメラ11a,11bの重複領域である複数撮影領域15、第1の複数境界領域16及び第2の複数境界領域17の、5つに分類される。上記「境界領域」とは、ビデオカメラ撮影範囲の端部付近を指しており、第1の複数境界領域16はカメラ11bの撮影範囲の端部を含み、第2の複数境界領域16はカメラ11aの撮影範囲の端部を含む領域である。後述のカメラ間追跡の際には、この環境マップを参照して、前記5つの領域の分類に応じて、トラッキングエージェント20のメイントラッカの権限委譲(カメラ間の移動)タイミングを決定している。
【0016】
次に、カメラエージェント10によるカメラ内追跡処理の流れを、図4を参照して簡単に説明する。先ず、ステップS11では、ビデオカメラ11で撮影された動画像中の各フレーム画像が所定サイクルでプロセッサ12に入力される。次いで、ステップS12では、入力された前記各フレーム画像から移動体(人物)領域を抽出する。背景差分法をベースに人物領域抽出処理する場合、前処理として、予めフレーム内に移動体等の異物の存在しない背景画像を作成しておき、この背景画像と入力画像との差分処理により、オブジェクト領域(背景以外の領域)を抽出する。なお、ステップS12の処理の後、抽出したオブジェクト領域について、ノイズ除去処理等を含む適切な後処理を行い、人物領域のみが抽出されるようにする。これは、例えば、人物頭部に相当するような頭部楕円モデル等の形状情報や、色情報(頭髪・肌色ピクセル抽出)等を適宜適用/組み合わせて処理することで、前記抽出したオブジェクト領域が人物であるかどうかを判定することにより実施できる。抽出したオブジェクト領域が人物像であった場合は、同時に頭部領域の推定も行い、頭部位置データを得る。
なお、ステップS12のフレーム画像中から人物領域の抽出を行う処理方法としては、前述の背景差分法に限らず、フレーム差分法、テンプレートマッチング法、オプティカルロール法等、適宜の画像処理方法を採用しうる。
【0017】
次いで、ステップS13では、前記ステップS12にて抽出した人物領域を、複数フレーム間で同定するための特徴量を示すパラメータを抽出する。本実施例では、この特徴量の一例として、該当人物の位置情報と色情報とを抽出する。また、前記位置情報としては、複数カメラエージェント間で情報の比較・統合することに鑑みて、画像上の画像座標からワールド座標に変換した(カメラキャリブレーションした)値を求める。
【0018】
ここで、位置情報取得処理について簡単に説明する。本実施例では、抽出した人物領域のフレーム画像におけるサイズ(ドット数等)から該当人物の身長を想定し、対象人物の身長情報を生成しておき、この身長情報を利用して位置情報の算出処理を行う。フレーム画像内の人物領域の足元部分は遮蔽物等によりが隠れてしまい易く、精度良く人物立ち位置の画像座標が得られないことが多いが、比較的精度よく抽出できる人物上半身部分に着目することで、高精度の位置情報を得ることができる。位置情報取得処理では、抽出した人物領域の画像座標と、前記頭部位置の画像点と、前記身長情報とを用いて、画像座標上の人物立ち位置の推測処理を行う。すなわち、抽出した人物領域上部の中心点(頭部画像点)から、身長情報に基づく身長の高さ分垂直に下りた位置を画像座標上の人物立ち位置とする。こうして算出した人物立ち位置情報(画像座標)を、ワールド座標に変換して、追跡環境中の人物の位置情報を得ることができる。なお、前記身長想定処理は、所定の制御プログラムを実行することで実施できる。
【0019】
また、人物の特徴量として抽出される色情報には、例えば、人物領域のRGB値をHSV変換した際の色相を、パラメータとして用いることができる。すなわち、抽出した前記人物領域において、特徴的な色の色相範囲を頻出領域としてパラメータ化することで、特定の人物について大まかな色情報が得られるようにする。この色情報は、後述のサーチエージェント20による人物探索処理等、位置情報を用いない人物同定処理に用いたり、或いは、人物同定処理の際に信頼度を付与すること、異なる色情報を有する複数人物を相対的に比較して個々の人物を特定すること等に利用しうる。
【0020】
ところで、前記ステップS12で抽出した人物領域の抽出精度は、背景や机等その他のオブジェクトの影響によって、各フレーム毎に差異が生じ、一様ではない。そこで、各フレームにおける人物領域の抽出精度を評価するパラメータ値として、抽出精度の評価値Wを各カメラエージェント10において人物抽出処理の際に算出する。評価値Wは、抽出された人物領域の縦横比Rと頭部領域のピクセル密度Dにより、下記の数1から求める。
【数1】
W={F(R)+D}/2
上記の数1において、F(R)は人物領域の縦横比Rの評価関数である。この評価関数F(R)の一例を図示すると図5のようである。縦横比Rの評価関数F(R)は、図5において横軸に示す縦横比Rが1:3〜3.5である場合に縦横比評価値(図5において縦軸に示す値)が高くなるよう設定されており、このとき抽出された人物領域の抽出精度は高いことになる。この抽出精度評価値Wを用いることで複数のカメラエージェント間での同一人物に対する抽出精度の比較が可能となり、これはカメラ間追跡におけるメイントラッカ権限委譲のパラメータの一つとなる。
【0021】
ステップS14では、ステップS13で抽出した特徴量のパラメータを用いて、抽出した人物領域を、時間軸上でフレーム間のマッチングを取ることにより、同一人物であるか否かの同定処理を行ことで、カメラ内追跡を実現する。すなわち、現在フレームにて抽出された人物を、前述の位置情報や色情報といったパラメータに基づき過去フレームにて既に追跡されてきた人物(つまり、同定済みである人物)と対応付けすることで、フレーム間での同定処理(マッチング)が行われる。
このカメラ内追跡は、基本的にはワールド座標上の対象人物の位置情報をパラメータとして用いて実行されるが、障害物等のオクルージョン(遮蔽)による影響で正確なワールド座標上の位置情報を得ることが困難な場合には、画像座標上の人物位置に基づき追跡を継続できる。また、カメラ内追跡において、色情報を併用することで、複数人物のすれ違いに対応した処理が可能となる。すなわち、フレーム内で複数の人物がすれ違った場合に、カメラエージェントが該複数の人物を1つのオブジェクト(人物領域)であると認識しても、色情報による人物識別を行うことで、人物すれ違い後の個々の人物の特定が可能になる。
【0022】
次にトラッキングエージェント20によるカメラ間追跡について説明する。
トラッキングエージェント20は、上述の通り、或る人物がカメラエージェント10に検出されると、該人物に対して生成されるもので、その人物が複数のカメラエージェント10で検出された場合は、各カメラエージェント10毎に複数のトラッキングエージェント20が生成されることになる。そのような同一の人物を追跡すべき複数のトラッキングエージェント20は、一つのメイントラッカMT(以下、単にMTと略称する)と、1以上複数のサブトラッカST(以下単に、STと略称する)からなるネットワークグループ(トラッキングエージェントグループ)を形成する。
STは、各自の存在するカメラエージェントにて抽出した該当人物の情報(人物抽出処理結果や位置情報、色情報のような前記特徴量パラメータであり、以降、これらを纏めて抽出データという)を、前記グループのMTに送信する。MTでは、自身の存在するカメラエージェントにて取得する抽出データ及び、各STから送信された抽出データを分析・統合して、該人物の位置特定を行う。このMTとSTの関係は動的に変化するものであり、同一対象を追跡するトラッキングエージェントグループ内において、追跡対象たる人物の移動に応じて、適切なトラッキングエージェントにMTの権限を委譲することで、特定の人物に追従して、MTが複数のカメラエージェント上を遷移する。こうして、複数のカメラ間にわたる特定の人物追跡が実現される。
【0023】
先ず、複数トラッキングエージェント間の連携処理に際して送受信されるデータパケットについて説明する。トラッキングエージェント間の連携が必要な状況としては、下記の4通りの状況がある。
1)新規トラッキングエージェント生成時のメイン/サブ判断
2)MTの権限委譲
3)STのグループ離脱
4)複数カメラ重複領域でのグループ再形成確認
送受信される各データ内容はとしては、「位置情報」、「色情報」、「画像取得時刻」、「人物抽出精度」といった抽出データや、「トラッキングエージェントID」等が含まれる。「トラッキングエージェントID」は、個々のトラッキングエージェントを識別するIDであて、例えば新規生成時に付与されるものであり、また、「要求種別」とは、上記4通りの状況の何れかを表すものである。こうした各種データ内容は、夫々所定のメッセージIDにより識別できるようにするとよい。
【0024】
図6は、それぞれネットワークに接続されたカメラエージェント10a〜10cの撮影範囲内を人物Pが移動した際に生成されるトラッキングエージェント20a〜20cからなるネットワークグループにおいて、メイントラッカMTとサブトラッカST関係の遷移を示す概念図である。また、図7は、トラッキングエージェントの状態遷移及び連携処理を説明するためのブロック図である。以下、トラッキングエージェントの状態遷移について、図6及び図7を参照して説明する。
図6に示すように、カメラエージェント10aにおいて、カメラ撮影範囲内に侵入した人物Pが抽出されると、カメラエージェント10a上には、該人物Pに対してトラッキングエージェント20aが新規生成される(図7において「Extract」で示す流れ)。図7に示すように、新規に生成されたトラッキングエージェントは、ネットワーク上に存在する他のMTに対して、獲得した人物Pの抽出データを通知し(「Brodcast」)、同一の対象人物を追跡中のMTが存在するか否かを問い合わせる。前記通知を受けた他のMTは、自身が追跡中の人物と、前記受信した抽出データとの対応付け(同定処理)を行う。これにより、前記新規トラッキングエージェントと同一の対象人物を追跡するトラッキングエージェントが既に存在するか否かの判定が行われる(図7の「Identification」)。このときカメラエージェント(図6ではカメラエージェント10a)上にされた前記新規トラッキングエージェントでは、自身の保持する環境マップを参照し、抽出人物Pの存在する撮影領域区分(図3参照)を求めておく。
【0025】
前記新規トラッキングエージェントが追跡する人物と同一の人物を追跡するトラッキングエージェントが既に存在する場合(図7の「Identified」)は、新規トラッキングエージェントには人物同定Ack(肯定応答)が送信され、該新規トラッキングエージェントはSTとなる(「GetAck」で示す流れ)。また、人物同定Ackが送信されなくとも、トラッキングエージェントにて環境マップを参照した結果、人物Pが環境マップ上の複数カメラ重複領域(図3に示す複数撮影領域15、第1の複数境界領域16及び第2の複数境界領域17)に位置している場合は、新規トラッキングエージェントは、該当人物を追跡中のトラッキングエージェントが既に存在していると判断し、該当するMTと接続して、STとなる。
【0026】
トラッキングエージェントが環境マップを参照した結果、人物Pが環境マップ上の単一カメラ領域(図3に示す単一撮影領域13、単一境界領域14)に位置しており、人物同定Ackが送信されない場合(「Don’tGetAck」)は、新規トラッキングエージェントは、人物Pはシステム全体で新規に発見された(人物Pを追跡するトラッキングエージェントが存在しない)ものと判断して、自らが新しいMTとして動作する。図6の例では、トラッキングエージェント20aは、先ずMTとして起動する。人物Pがカメラエージェント10a内で移動する間、トラッキングエージェント20aは既述のカメラ内追跡により獲得した抽出データを収集する。
【0027】
図6において、人物Pが移動して、カメラエージェント10bの撮影範囲内に侵入すると、カメラエージェント10b上にはトラッキングエージェント20bが新規生成され、上述したようなメイン/サブの判断(「Identification」)処理が行われる。この場合は、既にトラッキングエージェント20aがMTの権限を有しているので、トラッキングエージェント20bは、そのSTとなる。
ところで、MT(20a)と新規トラッキングエージェント(20b)間でなされる同定処理(複数カメラ間での同定処理)に際して、新規トラッキングエージェント20bは人物Pの身長情報を持たないので、該人物Pの足元部分が抽出できない場合は、正確な位置情報を算出できない。そのため、この場合は楕円状分布による人物立ち位置予測を行い、この予測位置情報を用いて同定処理を行う。すなわち、カメラエージェント10bにて抽出した人物領域の下辺部から求められるワールド座標上の人物立ち位置情報は、実際の人物足元位置から、カメラの光軸方向へずれた位置で算出されてしまう。そのような光軸方向についての誤差を統計的に測定することで、該誤差に基づく所定の幅を持って人物立ち位置を想定した、該人物の楕円状分布位置予測が可能となる。新規トラッキングエージェントは、人物領域の下辺部のワールド座標位置と、前記光軸方向の誤差に基づく楕円状分布位置予測とをMTに送信し、これを受信したMTは、前記下辺部のワールド座標位置と自身が保有する最新の位置情報との距離を比較して、該楕円状分布位置予測を閾値とした同定処理を行う。人物が同定されがると、トラッキングエージェント20bはSTとなり、現時点でのMTから人物の身長情報が与えられ、新規エージェントにおいても、身長情報を用いたより正確な位置情報の取得が可能となる。
【0028】
次に、MTの権限委譲について説明する。追跡対象人物がMTたるカメラエージェントの撮影範囲外に出る前に適切なSTにメイントラッカMTの権限を引き継ぐ処理が行われる。MT権限の委譲は、▲1▼現時点でのMTにおける環境マップの第1の複数境界領域16(図3参照)に存在し、且つ、▲2▼STでの人物領域の抽出精度がMTを上回った(或いはMTでの次期フレーム予測位置が撮影範囲外である)場合、の2条件が満たされたときに実行される。例えば、図6において、追跡対象人物Pが、カメラエージェント10aの環境マップ中の第1の複数境界領域16(図3参照)に侵入すると、MTたるトラッキングエージェント20aはメイン権限移動判断(図7の「MoveDecision」)を行う。そして、MT(トラッキングエージェント20a)は、人物抽出精度がMTよりも優れているSTを検索し、該当するSTに対してMTへの権限委譲要求(図7の「MoveRequest」)を送信し、サブ移行待機状態(図7の「WaitforAck」)になる。また、MTは、このとき同時に、グループ内のその他のSTに対してメイントラッカ入れ替わりの通知を行う。前記メイン権限委譲要求を受けたSTは、メイン移行待機状態となり(「WaitforMove」)、MTに対して権限引継Ackを送信し、MTからのAck受信通知(GetAck)を受信すると、MTの保持する追跡対象人物データを受け取り、新規にMTとなる。一方、旧MTは、前記権限引継Ackを受信した時点でSTへ移行し、新規MTに接続する。
このように、複数のトラッキングエージェント間で、人物追跡を担うMTの権限を委譲することで、実質的にトラッキングエージェントによる複数カメラ間での移動が実現される。
【0029】
追跡対象人物がカメラエージェントの撮影範囲から外れる等して、追跡処理が終了すると、該カメラエージェント上のトラッキングエージェントは消滅する。例えば、図6において、トラッキングエージェント20bがMTの権限を引継いで、トラッキングエージェント20aがSTへ移行した後、更なる人物Pの移動に伴い、人物Pがカメラエージェント10aの撮影範囲から外れて(図7の「Can’tExtract」)、図6において、トラッキングエージェント20bがMTの権限を引継いで、トラッキングエージェント20aがSTへ移行した後、更なる人物Pの移動に伴い、人物Pがカメラエージェント10aの撮影範囲から外れて、カメラエージェント10aでのカメラ内追跡処理が終了すると、トラッキングエージェント20aは、MTたるトラッキングエージェント20bに対して消滅する旨を通知した後、消滅する(図7の「Vanish」)。
なお、MTの時点でトラッキングエージェントが消滅する場合は、適切なSTに対してメイン権限委譲をした後に消滅する。但し、STが存在せず、メイン権限委譲が行われない場合は、追跡対象が当該システムから退出したものと見なして、システム全体での該当人物の追跡を終了する。
【0030】
ところで、追跡対象の人物が環境マップ上の単一撮影領域(図2において符号13で示す領域)にいる時に、複数のトラッキングエージェントでネットワークグループを形成していた場合は、該グループ中に異なる人物を追跡しているトラッキングエージェントが含まれている可能性が高い。このような場合、MTは、STから送信された抽出データと、自身のカメラエージェントで取得した抽出データを比較して、異なる人物を追跡しているトラッキングエージェントを検出でき、そのようなトラッキングエージェントに対して、グループ離脱要求を行う。グループ離脱要求を受けたトラッキングエージェントは、新規トラッキングエージェント生成時と同様の処理を行い、自身と同じ人物を追跡中のMTを検索する。
【0031】
また、追跡対象の人物が環境マップ上の複数撮影領域(図2において符号15〜17で示す領域)にいる場合、当該人物を追跡しているトラッキングエージェントがグループ外にも存在する可能性があるため、MTは、自らの存在を通知するパケット(複数カメラ重複領域でのグループ再形成確認)をネットワーク上に配信する。パケットを受信したトラッキングエージェントでは、自身が追跡中の人物と受信したパケットに基づく人物との同定処理を行う。その結果、両者が同一人物であった場合、該トラッキングエージェントは、該当するグループに加わる。これは、新規トラッキングエージェント生成時等における同定処理の失敗を補償する処理である。
【0032】
次に、サーチエージェント30による特定人物の現在位置探索処理について説明する。
この実施例に係る追跡システムには、複数のカメラエージェント10に各種情報が分散しており、分散した該各種情報を一括管理するサーバが存在しない。このため、前述したトラッキングエージェント20によるカメラ間追跡において、トラッキングエージェントが人物の同定処理に失敗した場合、該人物がどのカメラエージェントの撮影領域に移動したのか判らなくなってしまう。従って、カメラ間追跡に失敗した際の回復処理を行う必要がある。すなわち、該追跡に失敗した人物を当該システム内から探し出す処理を行う必要がある。サーチエージェント30は、この人物を当該システム内から探し出す処理や、当該システム全体における特定の人物の現在位置、言い換えれば、該人物を追跡中のトラッキングエージェントの現在位置を把握するのに用いる。サーチエージェント30による特定人物の現在位置探索処理は、サーチエージェント30が複数のカメラエージェント10間を移動して、追跡対象人物についての前記抽出データのうち、例えば色情報や、身長情報といった、位置情報以外の特徴量を用いて同定処理を行うことで実現される。
【0033】
前記サーチエージェント30による特定人物の現在位置探索処理の一例について図8のフローチャートを参照して説明する。
ステップS20において、ユーザ(システム監視者)や人物追跡中のトラッキングエージェントから発生される特定の人物の探索要求に応じて、該探索要求を受けたカメラエージェントでは、サーチエージェントと、該サーチエージェントに固有の探索IDが生成される。この探索IDは、探索要求を発生したトラッキングエージェントのID、カメラエージェントのID、該要求の発生時刻並びに該カメラエージェント内でユニークな乱数を含んで成る。これにより、要求の発生時刻と、探索要求の発生源とを、このサーチエージェントを受け入れたカメラエージェントに通知することができる。次いで、ステップS21では、現在着目しているカメラエージェント内にて探索すべき人物の探索・同定処理を行い、該当する人物が存在するか否かを確認する。前記人物の探索要求が発生された時点では、先ず、該要求を受信したカメラエージェントにて人物探索を行う。該当する人物が発見されれば、ステップS22に分岐して、この人物探索処理を終了する。人物が発見されない場合は、ステップS23に処理を進め、サーチエージェントの移動処理を行う。
【0034】
ところで、サーチエージェント20は、ネットワークを移動する性質上、保持する情報量が少なくい方が好ましい。この実施例では、人物探索処理の実行コードは各カメラエージェント10が所持し、且つ、サーチエージェントによる探索が既に済んだカメラエージェントには、サーチエージェントの移動履歴(探索済み情報)を記憶させることで、サーチエージェント20が持つ情報量を可及的抑制している。これにより、サーチエージェントの探索処理を効率的に行うことができる。
また、この実施例では、サーチエージェント20の移動先決定の要素として、カメラエージェントにおける人物の移動ログと、カメラエージェントに対する人物の移動確率(或るカメラエージェントにおける人物存在確率)とを用いる。
サーチエージェント20には、一定の記憶領域を設けて、人物探索過程で取得する人物の移動確率の高い未探索カメラエージェントのIDや、移動元のカメラエージェントID等を記憶しておく。各カメラエージェントに対する特定人物の移動確率は、該人物の移動統計に基づき算出する。例えば、或る人物が、カメラエージェント(これをCA1とする)から、これと隣接カメラエージェント(CA2)へ移動した際、該隣接するCA2では、該人物を追跡しているトラッキングエージェント(MT)が有するIDデータを元に移動元たるCA1を特定し、当該人物のCA1からの移動回数を加算すると共に、CA1に対して当該人物の移動を通知する。CA1では、CA2から送信されるメッセージを元に、該人物のCA2への移動回数を加算する。こうして、特定の人物について、カメラエージェント毎の入出に関する移動統計が求められる。各カメラエージェントでは、前記移動統計と共に、人物の移動ログを記憶しておく。移動ログの信頼度は時間経過に連れて低下するので、移動先決定の要素として移動ログを参照するか、移動確率を参照するかは、経過時間に基づき判断される。
【0035】
ステップS23では、前記ステップS21にて人物探索したカメラエージェントに当該サーチエージェントの探索IDを登録して、該カメラエージェントには当該サーチエージェントの移動履歴(探索済み情報)が記憶される。このとき該カメラエージェントには、サーチエージェントの移動元のカメラエージェントIDを記録しておくことで、サーチエージェントは、これらの情報を参照して探索経路のバックトレース(後戻り)ができる。続いて、ステップS24において、前記探索済みのカメラエージェントは、隣接するカメラエージェントに対して、自身の探索済みメッセージと、該サーチエージェントの探索IDとを通知する。サーチエージェントが移動する先は、基本的には移動元カメラエージェントに隣接したカメラエージェントであるため、互いに隣接したカメラエージェントの探索/未探索の情報を把握できれば、サーチエージェントの効率的な移動先決定には十分である。ステップS25では、サーチエージェントの前記記憶領域内を検索して、前記人物移動確率の高いカメラエージェントIDとして現在のカメラエージェントIDが記録されていれば、これを消去する。こうして、サーチエージェントは、前記カメラエージェントに対する人物探索処理が終了した後、ステップS26以降の次の移動先を決定するための処理を行う。
【0036】
サーチエージェントが移動先を決定する状況としては、以下の四通りの状況が挙げられる。
1,未探索の隣接カメラエージェントがある。
2,未探索の隣接カメラエージェントなはく、サーチエージェント記憶領域内に未探索カメラエージェントの情報がある。
3,隣接カメラエージェント、記憶領域内共に未探索カメラエージェントの情報なし。
4,移動ログがある。
先ず、ステップS26では、カメラエージェントに記憶された前記移動ログを確認し、経過時間Tが所定の閾値T1より小さい場合は、ステップS27に進み、該移動ログに沿ってカメラエージェントを移動し、移動先のカメラエージェントにて前記ステップS21以降の処理を繰り返す。一方、該当する人物の移動が移動ログにない場合、若しくは、経過時間Tが所定の閾値T1より大きい場合は、ステップS28に処理を進める。ステップS28では、隣接した未探索カメラエージェント(これをCAnとする)の人物移動確率を確認する。また、ステップS29では、前記隣接した未探索カメラエージェント以外(つまり移動予定先以外)の隣接カメラエージェントにおいて、人物移動確率の高いカメラエージェント(これをCAxとする)のIDをサーチエージェントの記憶領域内に記憶させる。
【0037】
ステップS30では、前記カメラエージェントCAnと前記カメラエージェントCAxの移動確率の比較を行い、より確率の高いカメラエージェントに移動先を決定する。カメラエージェントCAnの移動確率をRn、カメラエージェントCAxの移動確率をRxとし、CAxとCAnの距離をDとすると、CAxに移動する場合の条件は下記の式(2)で表せる。
【数2】
Rn<Rx*D*α
すなわち、カメラエージェントCAnの移動確率Rnが、CAxの移動確率Rxの関数より、小さい場合は、移動先はカメラエージェントCAxとされ、その反対に、移動確率Rnが移動確率Rxの関数よりも大きい場合は、カメラエージェントCAnを移動先とする。なお、係数αを適宜変更することで、移動先決定の条件を変更して、サーチエージェントの非効率的移動を抑制することができる。例えば、確率差が小さいとサーチエージェントの移動効率が悪くなる場合等に、係数αを大きくとって、確率差が大きい場合以外は採用しないようにできる。
【0038】
前記ステップS30における移動確率の比較の結果、移動確率Rnが移動確率Rxの関数よりも大きい(Rn>Rx*D*α)場合は、ステップS31に進み、サーチエージェントは、カメラエージェントCAnへ移動して、カメラエージェントCAnにて前記ステップS21以降の処理を行う。また、移動確率Rnが移動確率Rxより小さい(Rn<Rx*D*α)場合は、ステップS32に進み、サーチエージェントは、カメラエージェントCAxに移動して、カメラエージェントCAxにて前記ステップS21以降の処理を行う。
以上の処理を、目的とする追跡対象人物を発見するまで繰り返すことで、システム全体における人物(現在位置)の探索が実施されるのである。
【0039】
このようにして、カメラエージェントとトラッキングエージェントとサーチエージェントとが協調動作することで、情報を集約するサーバを備えない分散的システム構成において、複数カメラが連携したシステム全体でのシームレスな人物追跡を行い、また、複数カメラに分散した情報を効率的に統合・管理できる。
【0040】
なお、上述の実施例で説明した人物(移動体)追跡システムは、例えば老人ホーム内でのカメラ監視等、建造物内等に配備される一般的な人物追跡システムに好適である。また、例えば、商店店舗等において、人物(顧客)の移動を監視・追跡し、該人物の動きを分析することに利用でき、これは、商品の戦略的な陳列・配置位置の検討、及びその改善等に有益である。また、本システムは不特定多数の移動体を追跡できるので、交差点等における交通監視システムでの応用にも好適である。
【0041】
【発明の効果】
以上説明した通り、本発明によれば、分散配置された複数のカメラが連携動作することで、システム全体での自律的な移動体追跡が可能とされ、また、複数のカメラに分散された情報の収集・管理を効率的に行えるという優れた効果を奏する。
【図面の簡単な説明】
【図1】(a)は、本発明の一実施例に係る移動体追跡システムの全体構成を示す概念図、(b)は、同実施例に係る当該システムにおける追跡処理全体の流れの一例を示すフローチャート。
【図2】同実施例に係るビデオカメラの配置例を示す平面図。
【図3】同実施例に係るカメラエージェントにて作成される環境マップの一例を示す図。
【図4】同実施例に係るカメラエージェントにて実施されるカメラ内追跡処理の一例を示すフローチャート。
【図5】図4に示すカメラ内追跡処理において抽出した人物領域の評価関数F(R)の一例を示す図。
【図6】同実施例に係るトラッキングエージェントの動作例を説明するための概念図。
【図7】同実施例に係るトラッキングエージェントにおけるメイントッラカとサブトラッカの状態遷移を説明するためのブロック図。
【図8】同実施例に係るサーチエージェントにて実施される人物探索処理の一例を示すフローチャート。
【符号の簡単な説明】
10 カメラエージェント
11 ビデオカメラ
12 プロセッサ
20 トラッキングエージェント
30 サーチエージェント
Claims (3)
- ネットワーク上に接続され追跡環境の画像を撮影する複数のビデオカメラと、前記複数のビデオカメラの各々に接続され、ビデオ撮影した画像を画像処理する複数のプロセッサとを具え、
前記ビデオ撮影した画像から追跡すべき移動体を特定し、前記特定した移動体の特徴量を抽出して、前記ビデオカメラの撮影範囲内において前記特徴量に基づく移動体追跡を、前記複数のビデオカメラの各々毎に分散的に行うカメラ内追跡手段と、
複数の前記カメラ内追跡手段で抽出された複数の特徴量を統合して特定の移動体の追跡処理を行うメイン追跡要素と、個々の前記カメラ内追跡手段毎に抽出される前記特定の移動体の特徴量を前記メイン追跡要素に供給するサブ追跡要素とからなり、複数の前記カメラ内追跡手段間で連携して前記特定の移動体を追跡するカメラ間追跡手段と、
前記カメラ内追跡手段にて抽出した特定の移動体の特徴量に基づき、複数の該カメラ内追跡手段に亙り自律的に移動して、該特徴量によって同定される移動体を探索することで、前記複数のビデオカメラ毎に分散された移動体追跡情報の統括的管理を可能とする移動体探索手段と、
を含むことを特徴とする移動体追跡システム。 - 前記カメラ間追跡手段において、前記複数のカメラ内追跡手段間で連携して特定の移動体を追跡するために実施するプログラムであって、
前記メイン追跡要素が前記複数のカメラ内追跡手段で抽出された複数の特徴量を統合して特定の移動体の追跡処理を行う手順と、
前記サブ追跡要素が、自身の担当する前記カメラ内追跡手段毎に抽出される前記特定の移動体の特徴量を、前記メイン追跡要素に供給する手順と、
カメラ内追跡手段における前記移動体の抽出精度に応じて前記メイン追跡要素と前記サブ追跡要素の役割を遷移する手順と
を含むプログラム。 - 前記移動体探索手段において、特定の移動体を複数の該カメラ内追跡手段に亙り探索するために実施するプログラムであって、
前記カメラ内追跡手段にて抽出した特定の移動体の特徴量に基づき、該特徴量によって同定される移動体を任意のカメラ内追跡手段にて探索する手順と、
前記特定の移動体が発見されるまで複数のカメラ内追跡手段に亙って自律的に移動して移動体の探索を繰り返す手順と
を含むプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002232005A JP2004072628A (ja) | 2002-08-08 | 2002-08-08 | 複数カメラを用いた移動体追跡システム及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002232005A JP2004072628A (ja) | 2002-08-08 | 2002-08-08 | 複数カメラを用いた移動体追跡システム及びその方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004072628A true JP2004072628A (ja) | 2004-03-04 |
Family
ID=32017593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002232005A Pending JP2004072628A (ja) | 2002-08-08 | 2002-08-08 | 複数カメラを用いた移動体追跡システム及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004072628A (ja) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005251068A (ja) * | 2004-03-08 | 2005-09-15 | Nippon Telegr & Teleph Corp <Ntt> | 分散機能連携システム、分散機能管理装置、分散機能連携方法、およびプログラム |
WO2005117441A1 (ja) * | 2004-05-26 | 2005-12-08 | Incorporated Administrative Agency, National Agricultural And Bio-Oriented Research Organization | 自律稼働制御システム |
WO2006054598A1 (ja) * | 2004-11-16 | 2006-05-26 | Matsushita Electric Industrial Co., Ltd. | 顔特徴照合装置、顔特徴照合方法、及びプログラム |
WO2006067947A1 (ja) * | 2004-12-21 | 2006-06-29 | Matsushita Electric Industrial Co., Ltd. | カメラ端末および監視システム |
WO2006068049A1 (ja) * | 2004-12-21 | 2006-06-29 | Matsushita Electric Industrial Co., Ltd. | カメラ端末および撮影領域調整装置 |
WO2006132029A1 (ja) * | 2005-06-07 | 2006-12-14 | Matsushita Electric Industrial Co., Ltd. | 監視システム、監視方法及びカメラ端末 |
WO2007013231A1 (ja) * | 2005-07-29 | 2007-02-01 | Matsushita Electric Industrial Co., Ltd. | 撮影領域調整装置 |
WO2007026744A1 (ja) * | 2005-08-30 | 2007-03-08 | National University Corporation NARA Institute of Science and Technology | 広域分散カメラ間の連結関係推定法および連結関係推定プログラム |
JP2007104223A (ja) * | 2005-10-03 | 2007-04-19 | Canon Inc | システム用カメラ、監視システム及び監視方法 |
JPWO2005076621A1 (ja) * | 2004-02-03 | 2008-01-10 | 松下電器産業株式会社 | 監視システムおよびカメラ端末 |
CN100428781C (zh) * | 2004-12-21 | 2008-10-22 | 松下电器产业株式会社 | 摄像机终端及摄影区域调整装置 |
JP2009055446A (ja) * | 2007-08-28 | 2009-03-12 | Toshiba Corp | 映像検索システム及び映像検索装置 |
JP2009055445A (ja) * | 2007-08-28 | 2009-03-12 | Toshiba Corp | 映像検索システム及び映像検索装置 |
JP2009152733A (ja) * | 2007-12-19 | 2009-07-09 | Nec Corp | 人物特定システム、人物特定装置、人物特定方法および人物特定プログラム |
US7787013B2 (en) | 2004-02-03 | 2010-08-31 | Panasonic Corporation | Monitor system and camera |
JP2010199701A (ja) * | 2009-02-23 | 2010-09-09 | Fujitsu Ltd | 画像処理装置、画像処理方法、及び、画像処理プログラム |
WO2011010490A1 (ja) * | 2009-07-22 | 2011-01-27 | オムロン株式会社 | 監視カメラ端末 |
JP2011193187A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | 監視カメラ端末 |
US8115814B2 (en) | 2004-09-14 | 2012-02-14 | Canon Kabushiki Kaisha | Mobile tracking system, camera and photographing method |
JP2015064800A (ja) * | 2013-09-25 | 2015-04-09 | 株式会社 シリコンプラス | 自立型監視カメラ |
JP2015187880A (ja) * | 2015-05-25 | 2015-10-29 | 株式会社ニコン | 検出装置 |
JP2016119627A (ja) * | 2014-12-22 | 2016-06-30 | セコム株式会社 | 追跡処理装置 |
JP2017117244A (ja) * | 2015-12-24 | 2017-06-29 | Kddi株式会社 | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 |
JP2017139725A (ja) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 映像表示方法及び映像表示装置 |
WO2017134706A1 (ja) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 映像表示方法及び映像表示装置 |
JP2017204095A (ja) * | 2016-05-10 | 2017-11-16 | 富士通株式会社 | 特徴量比較プログラム、情報処理装置、および特徴量比較方法 |
US10255491B2 (en) | 2010-11-19 | 2019-04-09 | Nikon Corporation | Guidance system, detection device, and position assessment device |
JP2019174868A (ja) * | 2018-03-26 | 2019-10-10 | Kddi株式会社 | オブジェクト追跡装置、方法およびプログラム |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
CN111369587A (zh) * | 2019-06-13 | 2020-07-03 | 杭州海康威视系统技术有限公司 | 一种跟踪方法及装置 |
US11004211B2 (en) | 2017-08-30 | 2021-05-11 | Mitsubishi Electric Corporation | Imaging object tracking system and imaging object tracking method |
JP2021111404A (ja) * | 2020-01-07 | 2021-08-02 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | クロスカメラ障害物追跡方法、装置、機器、システム及び媒体 |
JP2022036143A (ja) * | 2014-09-26 | 2022-03-04 | 日本電気株式会社 | 物体追跡システム、物体追跡装置、および物体追跡方法 |
-
2002
- 2002-08-08 JP JP2002232005A patent/JP2004072628A/ja active Pending
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7787013B2 (en) | 2004-02-03 | 2010-08-31 | Panasonic Corporation | Monitor system and camera |
JPWO2005076621A1 (ja) * | 2004-02-03 | 2008-01-10 | 松下電器産業株式会社 | 監視システムおよびカメラ端末 |
JP2005251068A (ja) * | 2004-03-08 | 2005-09-15 | Nippon Telegr & Teleph Corp <Ntt> | 分散機能連携システム、分散機能管理装置、分散機能連携方法、およびプログラム |
JPWO2005117441A1 (ja) * | 2004-05-26 | 2008-04-03 | 独立行政法人農業・食品産業技術総合研究機構 | 自律稼働制御システム |
WO2005117441A1 (ja) * | 2004-05-26 | 2005-12-08 | Incorporated Administrative Agency, National Agricultural And Bio-Oriented Research Organization | 自律稼働制御システム |
JP4586182B2 (ja) * | 2004-05-26 | 2010-11-24 | 独立行政法人農業・食品産業技術総合研究機構 | 自立稼動制御システム |
US7399127B2 (en) | 2004-05-26 | 2008-07-15 | Incorporated Administrative Agency National Agricultural And Bio-Oriented Research Organization | Autonomous operation control system |
US8115814B2 (en) | 2004-09-14 | 2012-02-14 | Canon Kabushiki Kaisha | Mobile tracking system, camera and photographing method |
WO2006054598A1 (ja) * | 2004-11-16 | 2006-05-26 | Matsushita Electric Industrial Co., Ltd. | 顔特徴照合装置、顔特徴照合方法、及びプログラム |
JP2006146323A (ja) * | 2004-11-16 | 2006-06-08 | Matsushita Electric Ind Co Ltd | 顔特徴照合装置、顔特徴照合方法、及びプログラム |
US8073206B2 (en) | 2004-11-16 | 2011-12-06 | Panasonic Corporation | Face feature collator, face feature collating method, and program |
WO2006067947A1 (ja) * | 2004-12-21 | 2006-06-29 | Matsushita Electric Industrial Co., Ltd. | カメラ端末および監視システム |
JPWO2006068049A1 (ja) * | 2004-12-21 | 2008-06-12 | 松下電器産業株式会社 | カメラ端末および撮影領域調整装置 |
JPWO2006067947A1 (ja) * | 2004-12-21 | 2008-06-12 | 松下電器産業株式会社 | カメラ端末および監視システム |
US7924311B2 (en) | 2004-12-21 | 2011-04-12 | Panasonic Corporation | Camera terminal and monitoring system |
CN100428781C (zh) * | 2004-12-21 | 2008-10-22 | 松下电器产业株式会社 | 摄像机终端及摄影区域调整装置 |
WO2006068049A1 (ja) * | 2004-12-21 | 2006-06-29 | Matsushita Electric Industrial Co., Ltd. | カメラ端末および撮影領域調整装置 |
US7677816B2 (en) | 2004-12-21 | 2010-03-16 | Panasonic Corporation | Camera terminal and imaged area adjusting device |
US7929016B2 (en) | 2005-06-07 | 2011-04-19 | Panasonic Corporation | Monitoring system, monitoring method and camera terminal |
JPWO2006132029A1 (ja) * | 2005-06-07 | 2009-01-08 | 松下電器産業株式会社 | 監視システム、監視方法及びカメラ端末 |
WO2006132029A1 (ja) * | 2005-06-07 | 2006-12-14 | Matsushita Electric Industrial Co., Ltd. | 監視システム、監視方法及びカメラ端末 |
US8154599B2 (en) | 2005-07-29 | 2012-04-10 | Panasonic Corporation | Imaging region adjustment device |
JPWO2007013231A1 (ja) * | 2005-07-29 | 2009-02-05 | パナソニック株式会社 | 撮影領域調整装置 |
WO2007013231A1 (ja) * | 2005-07-29 | 2007-02-01 | Matsushita Electric Industrial Co., Ltd. | 撮影領域調整装置 |
JP4852765B2 (ja) * | 2005-08-30 | 2012-01-11 | 国立大学法人 奈良先端科学技術大学院大学 | 広域分散カメラ間の連結関係推定法および連結関係推定プログラム |
WO2007026744A1 (ja) * | 2005-08-30 | 2007-03-08 | National University Corporation NARA Institute of Science and Technology | 広域分散カメラ間の連結関係推定法および連結関係推定プログラム |
JP2007104223A (ja) * | 2005-10-03 | 2007-04-19 | Canon Inc | システム用カメラ、監視システム及び監視方法 |
JP4574509B2 (ja) * | 2005-10-03 | 2010-11-04 | キヤノン株式会社 | システム用カメラ、監視システム及び監視方法 |
JP2009055446A (ja) * | 2007-08-28 | 2009-03-12 | Toshiba Corp | 映像検索システム及び映像検索装置 |
JP2009055445A (ja) * | 2007-08-28 | 2009-03-12 | Toshiba Corp | 映像検索システム及び映像検索装置 |
JP2009152733A (ja) * | 2007-12-19 | 2009-07-09 | Nec Corp | 人物特定システム、人物特定装置、人物特定方法および人物特定プログラム |
JP2010199701A (ja) * | 2009-02-23 | 2010-09-09 | Fujitsu Ltd | 画像処理装置、画像処理方法、及び、画像処理プログラム |
WO2011010490A1 (ja) * | 2009-07-22 | 2011-01-27 | オムロン株式会社 | 監視カメラ端末 |
US8503727B2 (en) | 2009-07-22 | 2013-08-06 | Omron Corporation | Monitoring camera terminal |
JP5453429B2 (ja) * | 2009-07-22 | 2014-03-26 | オムロン株式会社 | 監視カメラ端末 |
JP2011193187A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | 監視カメラ端末 |
US10255491B2 (en) | 2010-11-19 | 2019-04-09 | Nikon Corporation | Guidance system, detection device, and position assessment device |
JP2015064800A (ja) * | 2013-09-25 | 2015-04-09 | 株式会社 シリコンプラス | 自立型監視カメラ |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
US11676388B2 (en) | 2014-09-26 | 2023-06-13 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP7272417B2 (ja) | 2014-09-26 | 2023-05-12 | 日本電気株式会社 | 物体追跡システム、物体追跡装置、および物体追跡方法 |
JP2022036143A (ja) * | 2014-09-26 | 2022-03-04 | 日本電気株式会社 | 物体追跡システム、物体追跡装置、および物体追跡方法 |
US11113538B2 (en) | 2014-09-26 | 2021-09-07 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP2016119627A (ja) * | 2014-12-22 | 2016-06-30 | セコム株式会社 | 追跡処理装置 |
JP2015187880A (ja) * | 2015-05-25 | 2015-10-29 | 株式会社ニコン | 検出装置 |
JP2017117244A (ja) * | 2015-12-24 | 2017-06-29 | Kddi株式会社 | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 |
WO2017134706A1 (ja) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 映像表示方法及び映像表示装置 |
JP2017139725A (ja) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 映像表示方法及び映像表示装置 |
JP2017204095A (ja) * | 2016-05-10 | 2017-11-16 | 富士通株式会社 | 特徴量比較プログラム、情報処理装置、および特徴量比較方法 |
US11004211B2 (en) | 2017-08-30 | 2021-05-11 | Mitsubishi Electric Corporation | Imaging object tracking system and imaging object tracking method |
JP2019174868A (ja) * | 2018-03-26 | 2019-10-10 | Kddi株式会社 | オブジェクト追跡装置、方法およびプログラム |
CN111369587A (zh) * | 2019-06-13 | 2020-07-03 | 杭州海康威视系统技术有限公司 | 一种跟踪方法及装置 |
CN111369587B (zh) * | 2019-06-13 | 2023-05-02 | 杭州海康威视系统技术有限公司 | 一种跟踪方法及装置 |
JP2021111404A (ja) * | 2020-01-07 | 2021-08-02 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | クロスカメラ障害物追跡方法、装置、機器、システム及び媒体 |
JP7241783B2 (ja) | 2020-01-07 | 2023-03-17 | アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド | クロスカメラ障害物追跡方法、装置、機器、システム及び媒体 |
US11769260B2 (en) | 2020-01-07 | 2023-09-26 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Cross-camera obstacle tracking method, system and medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004072628A (ja) | 複数カメラを用いた移動体追跡システム及びその方法 | |
JP5453429B2 (ja) | 監視カメラ端末 | |
LU102028B1 (en) | Multiple view multiple target tracking method and system based on distributed camera network | |
JP6141079B2 (ja) | 画像処理システム、画像処理装置、それらの制御方法、及びプログラム | |
US8218011B2 (en) | Object tracking system, method and smart node using active camera handoff | |
US20080130949A1 (en) | Surveillance System and Method for Tracking and Identifying Objects in Environments | |
JP6377533B2 (ja) | オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法 | |
JP4968929B2 (ja) | 画像処理装置及び画像処理方法 | |
EP1560160A2 (en) | A multiple camera system for obtaining high resolution images of objects | |
Ukita et al. | Real-time cooperative multi-target tracking by communicating active vision agents | |
EP1927947A1 (en) | Computer implemented method and system for tracking objects using surveillance database | |
JP2005117542A (ja) | 監視システム | |
JP2011193187A (ja) | 監視カメラ端末 | |
CN103238163A (zh) | 用于规定作为广告分发对象的设备,以及广告分发设备 | |
CN112507953A (zh) | 一种目标搜索及追踪方法和装置及设备 | |
WO2019155727A1 (ja) | 情報処理装置、追跡方法、及び追跡プログラム | |
JP4985742B2 (ja) | 撮影システム、方法及びプログラム | |
JP6230980B2 (ja) | 物体監視装置 | |
KR20100013855A (ko) | 카메라 핸드오프를 이용한 다중 카메라상의 연속적인 물체추적 방법 | |
KR101362962B1 (ko) | 차량번호 인식 및 검색 시스템과 운영방법 | |
JP2007164718A (ja) | 移動体検索装置及び移動体検索方法 | |
JP6504711B2 (ja) | 画像処理装置 | |
KR20190134916A (ko) | 실시간 로드 영상을 통해 유동 인구 데이터를 수집하는 방법 및 장치 | |
Zhao et al. | A sensor-service collaboration approach for target tracking in wireless camera networks | |
Gonzalez et al. | Data mining-based localisation of spatial low-resolution sensors in commercial buildings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070612 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071016 |