JP2006245795A - 動体追跡装置及び動体追跡表示装置 - Google Patents

動体追跡装置及び動体追跡表示装置 Download PDF

Info

Publication number
JP2006245795A
JP2006245795A JP2005056150A JP2005056150A JP2006245795A JP 2006245795 A JP2006245795 A JP 2006245795A JP 2005056150 A JP2005056150 A JP 2005056150A JP 2005056150 A JP2005056150 A JP 2005056150A JP 2006245795 A JP2006245795 A JP 2006245795A
Authority
JP
Japan
Prior art keywords
moving body
moving object
moving
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005056150A
Other languages
English (en)
Other versions
JP4559874B2 (ja
Inventor
Yuzo Ogawa
雄三 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toa Corp
Original Assignee
Toa Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toa Corp filed Critical Toa Corp
Priority to JP2005056150A priority Critical patent/JP4559874B2/ja
Publication of JP2006245795A publication Critical patent/JP2006245795A/ja
Application granted granted Critical
Publication of JP4559874B2 publication Critical patent/JP4559874B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 複数のカメラで撮影した画像を元に、1つの画面に動体の移動を追尾して表示する。
【解決手段】 撮像領域18を撮像するカメラ12と、撮像領域18と一部で重複する撮像領域20を撮像するカメラ14が発生する撮像信号ごとに、動体を検出し、動体の位置を表す動体位置情報と、動体位置情報の精度を表す動体位置精度情報とを含むラベルを、動体検出及び3D変換部28、30が生成する。統合サーバー36は、ラベルが同一の動体に対応するものであるとき、ラベルの前記位置情報を両ラベルの動体位置精度情報に基づいて統合する。クライアント38、42の1つの表示画面には、撮像領域18、20に対応する画像が表示され、ラベルの位置情報に対応する位置に、ラベルに対応する表示子を表示し、ラベルが統合された後にはその統合されたラベルに基づいて表示子が表示される。
【選択図】 図1

Description

本発明は、1台の撮像手段によって追跡できない動体を複数台の撮像手段によって追跡する動体追跡装置及びその追跡結果を表示する動体追跡表示装置に関する。
従来、上記のような動体追跡表示装置は、例えば視覚による監視装置として使用されることがある。複数の撮像カメラを使用した監視装置としては、例えば特許文献1に開示されているようなものがある。この特許文献1の技術は、複数の監視カメラで監視対象を監視するもので、監視区域の異なる位置に監視カメラが設置されている。各監視カメラの設置位置が監視カメラ設置位置情報として記憶され、かつ監視区域の通路構成が地図情報として記憶されている。監視対象を撮影している監視カメラの映像から監視対象の移動方向が検出される。検出された移動方向、各カメラの設置位置情報及び通路構成情報から、監視対象を次に撮影するカメラが特定される。監視対象を現在撮影しているカメラ映像と、監視対象を次に撮影するカメラの映像とを同時に監視端末の画面上に表示する。
特開2005−12415号公報
特許文献1に開示された技術によれば、次に監視対象を撮影するカメラ映像が、監視対象を現在撮影中のカメラ映像と同時に表示されるので、監視者が監視対象を見失うことが無い。しかし、この技術では、監視者は、次に監視対象を撮影するカメラ映像の画面に監視対象が移った瞬間以後、この画面を監視する必要がある。また、この技術では、監視対象が1つであれば、充分に対応可能であるが、複数の監視対象が同時に存在する場合、そのうちの1つしか監視することができない。
本発明は、1つの撮像手段では全てを撮像することができず、複数の撮像手段によって撮像している撮像領域を移動する動体を追跡する動体追跡装置及びその追跡結果を表示する動体追跡表示装置を提供することを目的とする。
本発明の一態様による動体追跡表示装置は、少なくとも2台の撮像手段を有している。これら2台の撮像手段は、一台の撮像手段では全てを撮像不能な撮像領域を分割して撮像している。例えば、少なくとも2台の撮像手段のうち、第1の撮像手段が、撮像領域のうち第1の撮像領域を撮像する。同第2の撮像手段が、第1の撮像領域と一部で重複する第2の撮像領域を撮像する。但し、第2の撮像領域では、第1の撮像領域と重複する部分以外の領域は第1の撮像手段では撮像不能である。或いは、第1の撮像領域と第2の撮像領域とは、重複する部分を持たず、第1及び第2の撮像領域それぞれの一部が互いに近接または隣接することもある。撮像手段は、第1及び第2の撮像手段に加えて、別の撮像手段を更に設けることができる。例えば第2の撮像領域と一部で重複する第3の撮像領域を撮像する第3の撮像手段を設けることもできる。但し、第3の撮像領域では、第2の撮像領域と重複する部分以外の領域は第2の撮像手段では撮像不能である。或いは第2の撮像領域とは重複する部分を持たない第3の撮像領域を撮像する第3の撮像手段を設けることもできる。但し第3の撮像領域は、その一部が第2の撮像領域の一部と隣接若しくは近接している。各撮像手段がそれぞれ発生する撮像信号を基に、動体データ生成手段が各撮像手段ごとに動体データを生成する。動体データは、動体位置情報を少なくとも含んでいる。動体位置情報は、対応する撮像手段からの撮像信号から検出された動体を表す動体情報に基づいて前記動体の位置を表すものである。前記撮像信号ごとの動体データが同一の動体に対応するものであるとき、統合手段が、両動体データの前記位置情報を統合する。表示手段の1つの画面に撮像領域全域を表す画像が表示され、この撮像領域が表示されている画像上の前記動体データの位置情報に対応する位置に、前記動体データに対応する表示子が表示され、前記動体データが統合された後にはその統合された前記動体データに基づいて前記表示子が表示される。
この態様では、或る動体が撮像領域の分割された領域、例えば第1の撮像領域上を移動している間には、当該動体に対応する表示子が、1つの画像上の当該移動物体の移動に従って撮像領域の第1の撮像領域に対応する領域を移動する。そして、重複、近接または隣接している撮像領域を動体が移動している際、撮像手段からの撮像信号に基づいて同一の動体に対して2つの動体データが作成され、これら2つの動体データが1つの動体データに統合される。統合された動体データの位置情報に従って、表示子が上記画像上を移動する。従って、各撮像手段の撮像信号に基づく画像それぞれを単に表示するだけでは、監視者は監視する画面を変更する必要があるが、この態様では、1台の撮像手段では撮像することができない撮像領域を分割して撮像して得た撮像信号に基づいて、上述した重複、近接または隣接する領域を跨って移動する動体の移動を1つの画像上に表示することができるので、監視者が監視する画面を変更する必要がない。しかも、追跡する必要のある動体が複数同時に存在していても、各動体を個別に表す表示子をそれぞれ表示することができるので、複数の動体を同時に追跡することができる。
上記の態様において、前記動体データは、動体位置情報の他に、位置精度情報を含むことができる。位置精度情報は、上記位置情報の精度を表すもので、前記動体情報に基づいて決定されている。位置精度情報としては、例えば撮像手段の分解能を使用することができる。このように位置精度情報を動体データが含む場合、統合手段は、両動体データの位置情報の統合を、両動体データの位置精度情報に基づいて行う。
このように構成すると、位置精度情報に基づいて統合後の動体データの位置情報の決定が行われるので、単純にいずれか一方の位置情報を統合後の位置情報とする場合よりも、位置情報の精度が高くなる。
なお、位置精度情報に基づく位置情報の統合は、例えば統合後の動体データの位置情報を、位置精度情報が高い動体データの位置情報とすることや、両動体データの位置情報の平均値とすることもできる。この平均値は、相加平均値、相乗平均値、調和平均値、加重平均値等の各種平均値を使用することができる。このように精度の高い位置情報を用いることや、平均値を使用することによって、画面に表示される表示子の位置の精度を高めることができる。
本発明の他の態様の動体追跡装置は、上記態様と同様な少なくとも2台の撮像手段を有している。更に、動体データ生成手段が、位置情報と位置精度情報とを含む動体データを生成する。統合手段が、同一の動体に対する動体データの位置情報を、位置精度情報に基づいて統合する。
このように構成すると、位置精度情報に基づいて動体データの位置情報の統合が行われる。従って、1台の撮像手段では撮像不能な撮像領域を移動する単一若しくは同時に存在する複数の動体の位置を、高精度に追跡することができる。
本発明の別の態様による動体追跡装置は、上記両態様と同様な少なくとも2台の撮像手段を有している。さらに、動体データ生成手段も有している。この動体データ生成手段が発生する動体データは、上述した動体位置情報を含む上に、動体位置情報が検出されてからの時間を表す検出時間情報と、動体データを識別する動体識別符号も含んでいる。また、統合手段が、前記撮像信号ごとの前記動体データが同一の動体に対応するものであるとき、検出時間情報に基づいて両動体データを同一の動体識別符号を持つ動体データに統合する。
本態様によれば、上記態様と同様に、1台の撮像手段で撮像不能な撮像領域を分割して撮像している撮像手段からの撮像信号に基づいて、重複、近接または隣接している2つの領域を移動する同じ動体に対する2つの動体データを、同じ動体識別符号を持つ1つの動体データに統合することができる。
この統合は、例えば検出時間情報が長い動体データを持つ動体データの動体識別符号を、統合後の動体データの動体識別符号とすることによって行うこともできる。このように構成すると、重複、近接または隣接している2つの領域で撮像された同一の動体に対して発生した2つの動体データを、移動の履歴の連続性を維持しつつ1つの動体データに統合することができる。
本発明の更に別の態様の動体追跡装置でも、上記各態様と同様に、少なくとも第1及び第2の撮像手段を含み、さらに動体データ生成手段と、統合手段とを含んでいる。表示手段を設けることによって動体追跡表示装置とすることもできる。動体データは、位置情報、位置精度情報、検出時間情報及び動体識別符号を含んでいる。統合手段は、前記動体データのうち前記検出時間情報が長いものの動体識別符号を統合後の動体識別符号とし、統合後の動体データの前記位置情報を前記両動体データの前記位置精度情報に基づいて決定する。例えば、統合された動体データの位置情報を、高い位置精度情報を持つ動体データの位置情報とする。
この態様によれば、上記各態様と同様に、重複、近接または隣接している2つの領域を撮像した撮像信号に基づいてこれら領域を跨って移動する動体の動体データを、移動の履歴を連続性のあるものとして統合することができる。しかも、統合後の動体データの位置情報は、両動体データの位置精度情報に基づいて決定しているので、その位置情報の精度が高い。従って、このような統合データによって表示子を表示した場合には、その表示子を高精度に、またその移動の履歴の連続性を保って1つの画面上に表示することができる。
上記の各態様において、前記統合手段は、前記統合された動体データの位置情報を、位置精度情報の高い位置情報としたり、前記両動体データの位置情報の平均値とすることもできる。この平均値は、相加平均値、相乗平均値、調和平均値、加重平均値等の各種平均値を使用することができる。このように精度の高い位置情報や、位置情報の平均値を使用することによって、画面に表示される表示子の位置の精度を高めることができる。
上記の各動体追跡表示装置において、前記表示子は、前記動体の軌跡を表示するものにできる。このように構成することによって動体がどのように移動してきたかを確実に把握することができる。
以上のように、本発明による動体追跡装置によれば、本来1つの撮像手段では撮像が不可能で複数の撮像手段で撮像された結果発生した、同一の動体に対する複数の動体データを統合して、動体の移動状態を検出することができる。また、本発明による動体追跡表示装置によれば、その検出結果を1つの画面に表示することができるので、監視者が当該動体の追跡が容易に行える。
本発明の1実施形態の動体追跡表示装置は、例えば監視装置に実施されている。この監視装置は、例えば図2に示すような撮像領域、例えば全監視領域を視覚によって監視するためのものである。この全監視領域は、例えば建物の1つのフロアーであって、対向する側壁2、4と、これらと直交しかつ互いに対向する側壁6、8とを有する平面形状が概略正方形のものである。一方の側壁2の中央から他方の側壁4に向かって中途まで仕切り10が床から天井まで設けられ、1箇所からフロアー全域を見通すことができないものである。
このフロアーを監視するために、監視装置は、複数台の撮像手段、例えば3台のCCDカメラ12、14、16を有している。
CCDカメラ12は、一方の側壁2における仕切り10よりも側壁8に寄った位置に床面を向くように傾けて設けられ、短破線で示すように、このカメラ12から側壁4に向かう第1の撮像領域、例えば第1の監視領域18を撮像する。第1の監視領域18は、全監視領域の一部でしかない。
CCDカメラ14は、側壁8において仕切り10の先端よりも側壁4側に寄った位置に床面を向くように傾けて設けられ、一点鎖線で示すように、このカメラ14から側壁6に向かう第2の撮像領域、例えば第2の監視領域20を撮像する。第2の監視領域20も全監視領域の一部でしかないが、第2の監視領域20の一部であるカメラ14の近傍で第1の監視領域18と重複している。重複領域を符号24で示す。
CCDカメラ16は、側壁4において仕切り10よりも側壁6に寄った位置に床面を向いて傾いて設けられ、長破線で示すように、このカメラ16から側壁2に向かう第3の撮像領域、例えば第3の監視領域22を撮像する。第3の監視領域22も全監視領域の一部でしかないが、第3の監視領域22の一部であるカメラ16の近傍において第2の監視領域20と重複している。この重複領域を符号26で示す。
図1に示すように、これらカメラ12、14、16が発生するアナログ撮像信号は、動体データ生成手段、例えば動体検出及び世界座標変換部28、30、32にそれぞれ供給される。各動体検出及び世界座標変換部28、30、32は、アナログ撮像信号をデジタル撮像信号に変換し、このデジタル撮像信号に基づいて、各カメラ12、14、16に対応する第1乃至第3の監視領域18、20、22中に動体が存在する場合には、その動体を検出する。この動体の検出方法は、公知であるので詳細な説明は省略する。
動体が検出された場合、各カメラ12、14、16の設置位置を原点とする3つのカメラ座標を元にその動体の位置情報が検出される。これらカメラ座標を元にした動体の各位置情報は、各カメラ座標に対して共通の世界座標を基にした位置情報に変換される。世界座標は、図2に示す全監視領域の所定の位置を原点とし、例えば側壁2、4に沿う方向をYw方向、側壁6、8に沿う方向をXw方向とし、床面と垂直な方向をZw方向としたもので、原点からの距離をX座標値、Y座標値、Z座標値で表してある。各カメラ座標を基にした位置情報をこの世界座標を基にした位置情報に変換する方法も公知であるので、詳細な説明は省略する。
この動体が各カメラ12、14、16において初めて検出されてからの時間も検出されている。以下、この時間を検出時間情報と称する。
動体を検出している各カメラ12、14、16の分解能情報も検出されている。分解能は、各画素位置に対してカメラの1画素が世界座標の何mmに対応するかを表したもので、分解能の値が小さい程、撮像されている動体の上記位置情報の精度が高いことを表している。即ち、分解能は、位置精度情報を表す。この分解能の検出法については、後述する。
これら位置情報、検出時間情報、分解能情報は、検出された動体に付した動体識別符号(動体ID)、この動体を検出したカメラを識別するカメラ識別符号(カメラID)と共に1組のラベルとして、ネットワーク34を介して統合手段、例えば統合サーバー36に供給される。なお、図2に示すような重複領域24または26に動体が存在する場合、同一の動体が2台のカメラによって同時に撮像されるので、同一の動体に対して2つのラベルが発生する。
統合サーバー36は、各動体検出及び世界座標変換部28、30、32からのラベルを処理し、ネットワーク34を介して接続されているクライアント38または、ネットワーク34及びワイヤレスLAN40を介して接続されているクライアント42が備える表示手段、例えば表示装置44に、図3に示すような表示を行う。
即ち、表示装置44の1つの表示画面、例えば表示ウインド46には、全監視領域を表した画像、例えばマップが表示されている。このマップは、上記世界座標に対応させて構成されている。そして、検出された動体を表す表示子、例えば動体マーク48が、その動体の移動に従って移動して表示され、また、その移動の軌跡50も表示される。図3では、側壁8における側壁2に寄った位置から移動を開始した動体が側壁4に向かって移動し、側壁4に近づいた重複領域24内で側壁6に向かって方向を変更して移動し、重複領域26内で側壁2方向に方向を変更した状態にあることを表している。このように、複数のカメラ12、14、16のいずれもが全監視領域を1台で撮像することができず、従来なら、それぞれ各カメラに対応して設けた複数の表示装置を並べて配置しておき、動体が移動するに連れて、監視する表示装置を変更しなければならなかったのに対し、この監視装置では、1つの表示ウインド46上には全監視領域を示すマップが表示され、そのマップ上に動体の移動状態が表示される。従って、監視者は、この表示ウインド46のみを監視していれば、動体の移動状態を認識することができる。
なお、この実施の形態では、表示ウインド46の側方に、各カメラ12、14、16が現在撮像している映像も表示するように表示ウインド52、54、56が表示されている。但し、これら表示ウインド52、54、56は、必ずしも必要なものではない。
例えば動体が第1の監視領域18のうち、第2の監視領域20と非重複の領域を移動している間には、その動体に対応してカメラ12、動体検出及び世界座標変換部28からのラベルに基づいて画面46上に動体マーク48及び軌跡50を表示していけばよい。動体が第1及び第2の監視領域18、20の重複領域24を移動している間には、同じ動体に対して、カメラ12、動体検出及び世界座標変換部28からのラベルと、カメラ14、動体検出及び世界座標変換部30からのラベルとが発生する。この状況は、第2及び第3の監視領域20、22の重複領域26内に1つの動体が存在する場合にも生じる。
この点について、統合サーバー36は、図4にフローチャートで示すようなラベル統合処理を一定時間ごとに行って解決している。統合サーバー36は、図5に示すように、各動体検出及び世界座標変換部28、30、32からのラベルが順に入力される入力ラベルバッファ36aを備えており、統合サーバー36のラベル統合処理部36bは、入力ラベルバッファ36aから、そこにある全てのラベルを入力し(ステップS2)、この全入力ラベルについてラベル振分処理を行い(ステップS4、S6、S8)、一旦、それを統合ラベルバッファ36cに記憶させる。ラベル振分処理については後述する。次に、統合ラベルバッファ36cから各ラベルをラベル統合処理部36bに入力し(ステップS10)、全てのラベルにおける2つのラベルの全ての組合せを入力し、ラベル付けかえ処理を行い(ステップS12、S14、S16)、各クライアント38、42に伝送する。ラベル付けかえ処理については後述する。
ラベル振分処理は、例えば図6にフローチャートで示すような処理である。まず、新たに入力されたラベルと、同じカメラIDと、同じ動体IDとを持つラベルが既に登録されているか判断する(ステップS18)。この判断の答えがノーの場合、新しい統合動体識別符号(統合ID)を持つ、動体データ、例えば統合ラベルを作成し、統合ラベルバッファ36cに登録する(ステップS20)。即ち、新しい統合IDを作成する。これに、今回入力されたカメラID、動体ID、位置情報、検出時間情報及び分解能情報を含める。一方、ステップS18の判断の答えがイエスの場合、既に統合ラベルバッファ36cに登録されている(既存の)統合ラベルの位置情報、検出時間情報及び分解能情報を、今回新たに入力されたラベルのものに更新する(ステップS22)。なお、統合ラベルバッファ36cは、予め定めた時間が経過しても、登録されている統合ラベルが更新されない場合、その統合ラベルを消滅させる。
ラベル付けかえ処理は、例えば図7にフローチャートで示すような処理である。まず、2つの統合ラベル、例えば統合ラベルA、Bを入力する(ステップS24)。次に、この2つの統合ラベルA、BにおいてカメラIDが別であるか判断する(ステップS26)。この判断の答えがノーである場合、統合ラベルA、Bが表す動体は、同じカメラで撮像されたものであり、重複領域24または26に存在することによって異なるカメラによって撮像された同一の動体ではないと判断する。従って、ラベル付けかえ処理をする必要がないので、このラベル付けかえ処理を終了する。
ステップS26の判断の答えがイエスである場合、統合ラベルA、Bが表す動体は同一のものである可能性があるので、統合ラベルA、Bの距離情報の差が予め定めたしきい値以下か判断する(ステップS28)。この判断の答えがノーである場合、統合ラベルA、Bが表す動体は、重複領域24または26に存在することによって異なるカメラによって撮像された同一の動体ではないと判断されるので、ラベル付けかえ処理をする必要がなく、このラベル付けかえ処理を終了する。
ステップS28の判断の答えがイエスの場合、統合ラベルA、Bが表す動体は、重複領域24または26に存在することに起因して、異なるカメラによって撮像された同一の動体であると判断できる。例えば統合ラベルA、Bは、図8(a)にそれぞれ丸を付して示した2つの統合ラベル、Xを付して示した2つの統合ラベル、または三角を付して示した2つの統合ラベルである。このように位置情報に差が生じる可能性があるのは、カメラの設置位置の違いや、動体に対する分解能がカメラによって異なるからである。もし、こられ2つの統合ラベルをそのまま表示ウインド46に表示すると、図8(a)に実線と破線で示すように、1つの動体に対して2つの動体表示が行われることになり、正確な動体の位置の表示が行えない。そこで、これら統合ラベルA、Bのつけかえを行う。
まず、2つの統合ラベルA、Bにおいて、統合ラベルAの検出時間情報が統合ラベルBの検出時間情報より長いか判断する(ステップS30)。この判断の答えがイエスの場合、統合ラベルAの方が長時間検出されている統合ラベルである。例えば統合ラベルA、Bが重複領域24に存在する動体に対する統合ラベルであると考えると、統合ラベルAがカメラ12によって撮像された画像に基づくものとなる。長時間検出されている統合データとして表示ウインド48に表示する方が、例えば軌跡50の連続性を保つために望ましいので、統合ラベルBの統合IDを統合ラベルAの統合IDに付けかえる(ステップS32)。また、ステップS30の判断の答えがノーの場合、統合ラベルBの方が長時間検出されている統合ラベルであるので、統合ラベルAの統合IDを統合ラベルBの統合IDに付けかえる(ステップS34)。
なお、このように検出時間情報の長短によって統合IDの付け替えを行っているので、統合ラベルバッファ36cでは、登録の更新が行われていない統合ラベルであっても、予め定めた時間にわたって存続させている。これは、何らかの理由で同一の動体に対する動体データが一定時間発生しなかったとしても、その後に再び動体データが発生した場合には、両動体データに基づくラベルを統合することができるからである。
ステップS32またはS34に続いて、統合ラベルA、Bの分解能において、統合ラベルAの分解能の値が統合ラベルBの分解能の値よりも小さいか判断する(ステップS36)。この判断の答えがイエスの場合、統合ラベルAの元となったカメラの位置情報の精度が高いので、統合ラベルAの元になったカメラの位置情報を使用するために、統合ラベルBの位置情報を統合ラベルAの位置情報に更新し(ステップS38)、ラベル付けかえ処理を終了する。また、この判断の答えがノーの場合、統合ラベルBの元となったカメラの方が位置情報の精度が高いので、統合ラベルBの基になったカメラの位置情報を使用するために、統合ラベルAの位置を統合ラベルBの位置情報に更新し(ステップS40)、ラベル付けかえ処理を終了する。
このようにラベル付けかえ処理が行われた統合ラベルが、各クライアント38、42に伝送され、統合ラベルに基づいて動体マーク48が表示ウインド48における統合ラベルの位置情報に対応する位置に表示され、また軌跡50が表示される。これら表示方法は、公知であるので、詳細な説明は省略する。このとき、ラベルの付けかえが行われているので、図8(b)に示すように軌跡50は、1本で表示される。例えば、図8(a)に示す2つの丸で示す統合ラベルで考えると、破線で示す軌跡上にある丸の分解能が実線で示す軌跡上の分解能よりも高いとすると、同図(b)に示すようにこの分解能の高い統合ラベルの位置情報に基づいて表示が行われる。
次に、図9、図10及び図11を参照して分解能について説明する。図9において、カメラ座標の原点をOcとし、点Ocからカメラの画像平面Pの中心を光軸Lが通るとする。そして、上述した世界座標のX軸をXw、Y軸をYw、Z軸をZwとする。Xw軸とYw軸とは床面上に互いに直交して位置し、Zw軸は、これらXw軸及びYw軸に直交する。カメラの画像平面Pの1画素Vが撮像対象、例えば動体の基準位置、例えば床面との接触点を撮像しているとする。点Ocから画素Vへのベクトルを世界座標で表すと、Xw軸方向の長さがxv、Yw軸方向の長さがyv、Zw軸方向の長さがzvとなる。この点Ocからこの画素Vに向かうベクトルを光線ベクトルと言う。Xw−Yw面に垂直でZw軸に平行で、かつ点Oc及び光線ベクトルを通る面Fを考える。この面Fにおいて、Zw軸に平行な軸Zwpに対して光軸Lがなす角度をθとする。また、画像平面Pにおいて画素Vよりも1つ上に存在する画素V1が、F面にあり軸Zwpと垂直な軸Zwv上で動体の基準位置よりも奥方向を撮像している。ここで画素VとV1とは面FにおいてZwp軸方向にdvだけ画素V1が点Ocに近い位置にあり、画素V1が面FにおいてZwv方向にdhだけ画素Vよりも奥側方向にある。図11に示すように画素V、V1間の距離をdとすると、dv=dsinθ、dh=dcosθと表される。画素VからZwp軸に伸ばした垂線とZwp軸の交点をVz、画素V1から軸Zwpに伸ばした垂線と軸Wzpとの交点をV1zとする。また、軸Zwpと軸Zwvとの交点をHとする。この交点HとOcとの距離は、カメラ設置位置Tzで表され、この値は前記世界座標変換部において既知である。
図10に示す面Fにおいて、点V−Vz間の距離は、(xv+yv1/2で表され、点V1z−V1間の距離は(xv+yv1/2+dhで表される。また点Oc−点Vz間の距離は上述したようにzvであり、点Oc−点V1z間の距離はzv−dvで表される。ここで、三角形の相似により、点H−A間の距離は、((xv+yv1/2/zv)Tzで表される。点H−A1間の距離は、(((xv+yv1/2+dh)/(zv−dv))Tzで表される。点A及びA1が、それぞれ画素V及びV1によって撮像されているので、点A−A1間の値を求めると、これが1画素当たり軸Zwv方向にどれだけの長さに対応しているかの分解能を表している。この分解能は、((zvdh+(xv+yv1/2dv)/zv(zv−dv))Tzで表される。dは予め判明している画素間隔とカメラ設置角度から求まる値であるので、dh、dvは予め計算しておくことができる。従って、分解能は、光線ベクトル(xv、yv、zv)さえ求まれば、容易に求めることができる。
なお、画素Vによって撮像された点Aと点Hまでの距離を求めると共に、画素Vの1つ横にある画素によって撮像された点と点Hまでの距離を求め、両距離の差を求めることによって水平方向の分解能を求めることもできる。
また、画素Vによって撮像された点Aから奥行き方向を撮像している点A1までの距離で分解能を計算したが、点Aから手前方向を撮像している点A2(図10参照)までの距離や、点Aから点A1までの距離と点Aから点A2までの距離の平均を分解能として計算することもできる。
上記の実施の形態では、第1の撮像領域18と第2の撮像領域20とが重複領域24を有し、第2の撮像領域20と第3の撮像領域22とが重複領域26を有する場合について説明した。しかし、必ずしも重複領域を有する必要はなく、例えば図2において、仕切り壁10が側壁4にまで到達しており、仕切り壁10にドアが設けられており、動体がそのドアを介して側壁6側に移動可能な場合でも、この発明によって動体の移動を追跡して表示することができる。この場合、第2の領域20は、図2における重複領域24のみとなり、図2における重複領域26は存在しなくなり、第2の領域(図2における重複領域24)の一部と第3の領域の一部(図2における重複領域26)とは、重複せずに隣接している。この第2の領域(図2における重複領域24)から第3の領域の一部(図2における重複領域26)に動体がドアを通過して移動した場合、カメラ14、16の撮像信号に基づいて生成されたラベルの位置情報は、近接したものとなるので、上述した実施の態様と同様にして動体の移動が表示される。なお、この説明では、第2の領域(図2における重複領域24)と第3の領域の一部(図2における重複領域26)とは隣接するとして説明したが、第2の領域(図2における重複領域24)と第3の領域の一部(図2における重複領域26)とが、隣接せずに、わずかな間隔をあけて近接しているような場合でも、同様に動体の移動に従って、その移動を表示することができる。
上記の実施の形態では、説明を簡略化するために、1つの動体のみが全監視領域に存在する場合について説明したが、同時に複数の動体が全監視領域に存在する場合でも、各動体に対応して、その移動軌跡を追跡することができる。また、上記の実施の形態では、分解能の値が小さい統合ラベルの位置情報をそのまま存続する統合ラベルの位置情報としたが、例えば2つの統合ラベルの位置情報の平均値を存続する統合ラベルの位置情報とすることもできる。この場合、平均値は、相加平均値、相乗平均値、調和平均値、加重平均値等の各種平均値のいずれか所望のものを使用することができる。上記の実施の形態では、軌跡50を表示したが、場合によっては不要である。上記の実施の形態では、合計3台のカメラを使用したが、少なくとも2台のカメラを監視領域が一部で重複するか、隣接するか、近接するように配置すればよい。上記の実施の形態では、ネットワーク34を介して動体検出及び世界座標変換部28、30、32からのラベルを統合サーバー36に伝送したが、ネットワーク34を介する必要は必ずしもない。同様に、クライアント38、42にネットワーク34またはネットワーク34と無線LAN42を介して統合後のラベルを伝送したが、必ずしもネットワーク34や無線LAN42を介する必要はない。上記の実施の形態では、本発明による動体追跡表示装置を監視装置に実施したが、これに限ったものではなく、例えばスポーツの中継放送における競技者の位置を追跡して表示する場合等に使用することができる。
本発明の1実施形態の監視装置のブロック図である。 図1の監視装置における監視領域及びカメラの配置状態を示す平面図である。 図1の監視装置においてクライアントの表示装置の表示画面を示す図である。 図1の監視装置における統合サーバーが行うラベル統合処理のフローチャートである。 図1の監視装置における統合サーバーのブロック図である。 図1の監視装置において統合サーバーが行う振分処理のフローチャートである。 図1の監視装置において統合サーバーが行うラベル付けかえ処理のフローチャートである。 図1の監視装置における付けかえ処理前の統合ラベルと付けかえ処理後の統合ラベルを示す図である。 図1の監視装置において使用するカメラの分解能の決定法を説明するための斜視図である。 図1の監視装置において使用するカメラの分解能の決定法を説明するための側面図である。 図1の監視装置において使用するカメラの分解能の決定に使用するdvとdhの決定法の説明図である。
符号の説明
12 14 16 カメラ(撮像手段)
18 第1の監視領域(第1の撮像領域)
20 第2の監視領域(第2の撮像領域)
24 重複領域
28 30、32 動体検出及び世界座標変換部(動体データ生成手段)
34 統合サーバー(統合手段)
38 42 クライアント(表示手段)

Claims (12)

  1. 一台の撮像手段では全てを撮像不能な撮像領域を分割して撮像している少なくとも2台の撮像手段と、
    これら少なくとも2台の撮像手段が発生する撮像信号ごとに動体を表す動体情報を検出し、各動体情報に基づく前記動体の位置を表す動体位置情報を含む動体データを、生成する動体データ生成手段と、
    前記撮像信号ごとの動体データが同一の動体に対応するものであるとき、前記両動体データの前記位置情報を統合する統合手段と、
    前記撮像領域に対応する画像が表示された1つの画面上における前記動体データの位置情報に対応する位置に、前記動体データに対応する表示子を表示し、前記動体データが統合された後にはその統合された前記動体データに基づいて前記表示子を表示する表示手段とを、
    具備する動体追跡表示装置。
  2. 請求項1記載の動体追跡表示装置において、前記動体データは、前記動体情報に基づいて決定された前記動体位置情報の精度を表す動体位置精度情報を含み、前記統合手段は、前記両動体データの前記動体位置精度情報に基づき前記両動体データの前記位置情報を統合する動体追跡表示装置。
  3. 請求項2記載の動体追跡表示装置において、前記統合手段は、前記統合された動体データの位置情報を、前記位置精度情報が高い動体データの位置情報とする動体追跡表示装置。
  4. 請求項1記載の動体追跡表示装置において、前記統合手段は、前記統合された動体データの位置情報を、前記両動体データの位置情報の平均値とする動体追跡表示装置。
  5. 一台の撮像手段では全てを撮像不能な撮像領域を分割して撮像している少なくとも2台の撮像手段と、
    これら少なくとも2台の撮像手段が発生する撮像信号ごとに動体を表す動体情報を検出し、各動体情報に基づく前記動体の位置を表す動体位置情報と、前記動体情報に基づいて決定された前記動体位置情報の精度を表す動体位置精度情報とを含む動体データを、生成する動体データ生成手段と、
    前記撮像信号ごとの動体データが同一の動体に対応するものであるとき、前記両動体データの前記位置情報を前記両動体データの前記動体位置精度情報に基づいて統合する統合手段とを、
    具備する動体追跡装置。
  6. 一台の撮像手段では全てを撮像不能な撮像領域を分割して撮像している少なくとも2台の撮像手段と、
    これら少なくとも2台の撮像手段が発生する撮像信号ごとに動体を表す動体情報を検出し、各動体情報に基づく前記動体の位置を表す動体位置情報と、この動体位置情報が検出されてからの時間を表す検出時間情報と、統合動体識別符号を含む動体データを、前記各撮像信号ごとに生成する動体データ生成手段と、
    前記撮像信号ごとの前記動体データが同一の動体に対応するものであるとき、両動体データを、前記検出時間情報に基づいて同一の統合動体識別符号を有する動体データに統合する統合手段とを、
    具備する動体追跡装置。
  7. 請求項6記載の動体追跡表示装置において、前記統合手段は、長い前記検出時間情報を持つ前記動体データの前記統合動体識別符号を、統合後の前記動体データの統合動体識別符号とする
    動体追跡装置。
  8. 一台の撮像手段では全てを撮像不能な撮像領域を分割して撮像している少なくとも2台の撮像手段と、
    これら少なくとも2台の撮像手段が発生する撮像信号ごとに動体を表す動体情報を検出し、各動体情報に基づく前記動体の位置を表す動体位置情報と、前記動体情報に基づいて前記動体位置情報の精度を表す動体位置精度情報と、前記動体位置情報が検出されてからの時間を表す検出時間情報と、統合動体識別符号とを、含む動体データを、生成する動体データ生成手段と、
    前記撮像信号ごとの動体データが同一の動体に対応するものであるとき、両動体データを統合する統合手段とを、
    具備し、前記統合手段は、前記動体データのうち前記検出時間情報が長いものの前記統合動体識別符号を統合後の統合動体識別符号とし、統合後の動体データの前記位置情報を前記両動体データの前記位置精度情報に基づいて決定する
    動体追跡装置。
  9. 請求項8記載の動体追跡装置に、前記撮像領域に対応する画像が表示された1つの画面上における前記動体データの位置情報に対応する位置に、前記動体データに対応する表示子を表示し、前記動体データが統合された後にはその統合後の前記動体データに基づいて前記表示子を表示する表示手段を、設けた動体追跡表示装置。
  10. 請求項5または8記載の動体追跡装置において、前記統合手段は、前記統合後の動体データの位置情報を、前記位置精度情報が高い動体データの位置情報とする動体追跡装置。
  11. 請求項5または8記載の動体追跡装置において、前記統合手段は、前記統合後の動体データの位置情報を、前記両動体データの位置情報の平均値とする動体追跡装置。
  12. 請求項1、2、3、4または9記載の動体追跡表示装置において、前記表示子は、前記動体の軌跡を表示する動体追跡表示装置。
JP2005056150A 2005-03-01 2005-03-01 動体追跡装置 Active JP4559874B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005056150A JP4559874B2 (ja) 2005-03-01 2005-03-01 動体追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005056150A JP4559874B2 (ja) 2005-03-01 2005-03-01 動体追跡装置

Publications (2)

Publication Number Publication Date
JP2006245795A true JP2006245795A (ja) 2006-09-14
JP4559874B2 JP4559874B2 (ja) 2010-10-13

Family

ID=37051759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005056150A Active JP4559874B2 (ja) 2005-03-01 2005-03-01 動体追跡装置

Country Status (1)

Country Link
JP (1) JP4559874B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2010206404A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2010206405A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2011233133A (ja) * 2010-04-09 2011-11-17 Miyake Inc 万引き防止システム
WO2013108686A1 (ja) 2012-01-17 2013-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
WO2016147644A1 (en) * 2015-03-16 2016-09-22 Canon Kabushiki Kaisha Image processing apparatus, image processing system, method for image processing, and computer program
JP2017034511A (ja) * 2015-08-03 2017-02-09 株式会社ブイ・アール・テクノセンター 移動体検出システム
JP2018073129A (ja) * 2016-10-28 2018-05-10 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP2019114280A (ja) * 2014-09-26 2019-07-11 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
KR20200094075A (ko) * 2019-01-29 2020-08-06 주식회사 스트라드비젼 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
KR20210066540A (ko) * 2019-11-28 2021-06-07 서은석 유동 객체 영상 추적 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749952A (ja) * 1993-08-06 1995-02-21 Hitachi Ltd 移動物体監視装置
JPH09114988A (ja) * 1995-10-16 1997-05-02 Toshiba Corp 候補人物自動提示捜索支援装置および候補人物自動提示捜索方式
JPH09330415A (ja) * 1996-06-10 1997-12-22 Hitachi Ltd 画像監視方法および画像監視システム
JP2003324720A (ja) * 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd 監視システムと監視カメラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749952A (ja) * 1993-08-06 1995-02-21 Hitachi Ltd 移動物体監視装置
JPH09114988A (ja) * 1995-10-16 1997-05-02 Toshiba Corp 候補人物自動提示捜索支援装置および候補人物自動提示捜索方式
JPH09330415A (ja) * 1996-06-10 1997-12-22 Hitachi Ltd 画像監視方法および画像監視システム
JP2003324720A (ja) * 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd 監視システムと監視カメラ

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2010206404A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2010206405A (ja) * 2009-03-02 2010-09-16 Secom Co Ltd 画像監視装置
JP2011233133A (ja) * 2010-04-09 2011-11-17 Miyake Inc 万引き防止システム
WO2013108686A1 (ja) 2012-01-17 2013-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9412180B2 (en) 2012-01-17 2016-08-09 Sony Corporation Information processing apparatus, information processing method, and program
US11676388B2 (en) 2014-09-26 2023-06-13 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11113538B2 (en) 2014-09-26 2021-09-07 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2019114280A (ja) * 2014-09-26 2019-07-11 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
US20180101732A1 (en) * 2015-03-16 2018-04-12 Canon Kabushiki Kaisha Image processing apparatus, image processing system, method for image processing, and computer program
CN107431786A (zh) * 2015-03-16 2017-12-01 佳能株式会社 图像处理设备、图像处理系统、图像处理方法和计算机程序
US10572736B2 (en) 2015-03-16 2020-02-25 Canon Kabushiki Kaisha Image processing apparatus, image processing system, method for image processing, and computer program
CN107431786B (zh) * 2015-03-16 2020-08-04 佳能株式会社 图像处理设备、图像处理系统和图像处理方法
JP2016174252A (ja) * 2015-03-16 2016-09-29 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
WO2016147644A1 (en) * 2015-03-16 2016-09-22 Canon Kabushiki Kaisha Image processing apparatus, image processing system, method for image processing, and computer program
JP2017034511A (ja) * 2015-08-03 2017-02-09 株式会社ブイ・アール・テクノセンター 移動体検出システム
JP2018073129A (ja) * 2016-10-28 2018-05-10 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
KR20200094075A (ko) * 2019-01-29 2020-08-06 주식회사 스트라드비젼 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
KR102229220B1 (ko) 2019-01-29 2021-03-18 주식회사 스트라드비젼 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
KR20210066540A (ko) * 2019-11-28 2021-06-07 서은석 유동 객체 영상 추적 방법 및 시스템
KR102343884B1 (ko) * 2019-11-28 2021-12-24 서은석 유동 객체 영상 추적 방법 및 시스템

Also Published As

Publication number Publication date
JP4559874B2 (ja) 2010-10-13

Similar Documents

Publication Publication Date Title
JP4559874B2 (ja) 動体追跡装置
JP3279479B2 (ja) 映像監視方法及び装置
KR100606485B1 (ko) 물체 추미 방법 및 물체 추미 장치
JP5284599B2 (ja) 画像処理装置
JP5956248B2 (ja) 画像監視装置
CN103688292A (zh) 图像显示装置和图像显示方法
JP2008009849A (ja) 人物追跡装置
JP2010128727A (ja) 画像処理装置
KR20140055353A (ko) 주변차량 위치 추적 장치 및 방법
JP2010176302A (ja) 車両検知装置、車両検知システム、車両検知装置の車両検知方法および車両検知プログラム
JPH06167564A (ja) 魚眼レンズを用いた測位方式およびその装置
JP2003061075A (ja) 物体追跡装置、物体追跡方法および侵入者監視システム
JP3852745B2 (ja) 物体検出方法及び物体検出装置
JP2007219603A (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JPH1144533A (ja) 先行車両検出装置
JP2017147689A (ja) 映像編集装置、映像編集方法及び映像編集用コンピュータプログラム
JP2013168178A (ja) 車両検知システムおよび車両検知システムの車両検知方法
JP4250172B2 (ja) 物体検出方法及び物体検出装置
JPWO2013175836A1 (ja) 監視カメラ管理装置、監視カメラ管理方法およびプログラム
JP2013065351A (ja) 画像処理装置および画像処理方法
JP2019096062A (ja) 物体追跡装置、物体追跡方法、および、物体追跡プログラム
JP2002259984A (ja) 動作解析装置及び動作解析方法
JPH0793558A (ja) 画像監視装置
JP2018056908A (ja) 情報処理装置、情報処理方法およびプログラム
JP3828096B2 (ja) 物体追跡装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100723

R150 Certificate of patent or registration of utility model

Ref document number: 4559874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250