JP5667846B2 - 対象物画像判定装置 - Google Patents

対象物画像判定装置 Download PDF

Info

Publication number
JP5667846B2
JP5667846B2 JP2010254654A JP2010254654A JP5667846B2 JP 5667846 B2 JP5667846 B2 JP 5667846B2 JP 2010254654 A JP2010254654 A JP 2010254654A JP 2010254654 A JP2010254654 A JP 2010254654A JP 5667846 B2 JP5667846 B2 JP 5667846B2
Authority
JP
Japan
Prior art keywords
image
concealment
installation
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010254654A
Other languages
English (en)
Other versions
JP2012108574A (ja
Inventor
昌宏 前田
昌宏 前田
裕二 中沢
裕二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010254654A priority Critical patent/JP5667846B2/ja
Publication of JP2012108574A publication Critical patent/JP2012108574A/ja
Application granted granted Critical
Publication of JP5667846B2 publication Critical patent/JP5667846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像における対象物の像の存在を判定する対象物画像判定装置に関し、特に什器等の設置物により画像上で隠蔽され得る対象物の像の存在を判定する対象物画像判定装置に関する。
侵入者検知等のため、監視空間を撮像した監視画像から人物などの監視対象物の像を抽出したり、当該像の画像特徴に基づいて監視対象物の存在を判定したり追跡したりすることが行われている。監視画像においては常に監視対象物の全体像が観測できるとは限らず、監視空間内の什器や柱、さらには他の人物などによりその一部がしばしば隠蔽される。この隠蔽は監視対象物の観測される大きさや色成分などの画像特徴を変動させるため、検知失敗や追跡失敗の原因となる。
下記特許文献1に記載の画像監視装置においては、対象物体が構造物などの陰に隠れてその一部分しか観測できないような場合でも対象物体を高精度に追跡するために、物体抽出位置に対象物体の三次元形状モデルを配置した監視空間の三次元シーンモデルを3D/2D変換することで監視画像にて対象物体にどの程度の隠れが発生している可能性があるかを求め、それをもとに対象物体抽出の結果を隠れの程度に応じて評価することが記載されている。
特開2000−231637号公報
しかしながら従来技術では、新たな画像が撮像されるたびに三次元のモデルから画像を生成する3D/2D変換処理(投影処理)を行わなければならない。当該投影処理は比較的大きな処理負荷を伴う。そのため、従来技術ではリアルタイムで対象物の検知や追跡を行うことが容易でないという問題点があった。
特に、魚眼レンズ等を備えた広角カメラを用いて検知や追跡を行う場合、投影処理にはレンズ歪を再現するための歪補正を含める必要があるため処理負荷が大きくなる。また、追跡にパーティクルフィルタを用いる場合、監視対象物の位置候補を多数設定して各設定に対する投影処理を行うため処理負荷が大きくなる。
本発明は上記課題を鑑みてなされたものであり、新たな画像が撮像されるたびに投影処理を行うことなく画像上での対象物の観測状態を推定可能にし、リアルタイムで高精度に対象物の存在を判定可能とすることを目的とする。
本発明に係る対象物画像判定装置は、予め定められた投影条件で空間を投影した画像における対象物の像の存在を判定するものであって、前記空間内での前記対象物の位置のうち前記画像において前記対象物が前記空間内の設置物により隠蔽される隠蔽位置を特定した隠蔽マップ、前記投影条件にて前記設置物の立体モデルを投影した設置物モデル像、及び前記空間内の各位置での前記対象物の立体モデルを前記投影条件にて投影した対象物モデル像を予め記憶した記憶部と、前記対象物が存在し得る前記空間内の候補位置を入力され、前記隠蔽マップを参照して前記候補位置が前記隠蔽位置か否かを判定し、前記候補位置が前記隠蔽位置であれば当該候補位置に対応する対象物モデル像から前記設置物モデル像の領域を除いて対象物可視領域とし、前記候補位置が前記隠蔽位置でなければ当該候補位置に対応する対象物モデル像の領域を対象物可視領域とする可視領域推定部と、前記画像における前記対象物可視領域の画像特徴から前記対象物の像の存在を判定する対象物判定部と、を有する。
本発明に係る上記対象物画像判定装置においては、前記隠蔽位置は前記空間の水平面座標系で表された二次元位置とすることができる。
他の本発明に係る対象物画像判定装置においては、前記候補位置は前記対象物に設定される代表点の座標で定義し、前記隠蔽マップは、前記画像にて死角となる前記設置物の背後領域及び、当該背後領域から外側へ前記対象物の代表サイズの距離まで張り出した実質背後領域を前記隠蔽位置に設定する。本発明の好適な態様は、前記候補位置を前記対象物の垂直中心軸の位置によって定義し、前記対象物の代表サイズを、前記対象物の立体モデルの最大幅の半分とした対象物画像判定装置である。
別の本発明に係る対象物画像判定装置においては、前記隠蔽マップは、前記隠蔽位置と、当該隠蔽位置にて隠蔽を生じさせ得る一又は複数の前記設置物とを対応付けた情報を含み、前記可視領域推定部は、前記候補位置が前記隠蔽位置である場合に、当該候補位置と対応する前記対象物モデル像から、前記隠蔽マップにて当該隠蔽位置に対応付けられた前記各設置物の前記設置物モデル像の領域を除いて前記対象物可視領域を求める。
立体モデルに基づく画像上での対象物の観測状態の推定処理の負荷が低減され、画像における対象物の像の存在を高速かつ高精度に判定できる。
本発明の実施形態に係る移動物体追跡装置のブロック構成図である。 事前処理の概略のフロー図である。 三次元モデルの一例を模式的に示す斜視図である。 隠蔽マップ作成部による隠蔽位置の判定処理を説明する模式図である。 図3の三次元モデルに対応して作成された隠蔽マップの模式図である。 図3の三次元モデルから作成された対象物モデル像の模式図である。 図3の三次元モデルから作成された設置物モデル像の模式図である。 移動物体追跡装置の追跡処理の概略のフロー図である。 隠蔽マップ及び基準面内での対象物及びカメラの位置を示す模式図である。 隠蔽状態の推定処理を説明する模式図である。
以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋等のように設置物が存在する屋内外の空間を監視対象の空間とすることができ、当該監視空間内を移動する人物を追跡対象物(以下、対象物と称する)とする。移動物体追跡装置1は監視空間を撮像した監視画像を処理して対象物の検出・追跡を行う。什器等の監視空間内の設置物は対象物のように移動せず予めその設置位置が判っている。設置物の他の例としては柱や給湯器などがある。設置物は画像処理の観点からは対象物の像を隠蔽し得る遮蔽物である。なお、注目している対象物以外の対象物も遮蔽物となり得る。
[移動物体追跡装置の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮像部2、設定入力部3、記憶部4、制御部5及び出力部6を含んで構成される。撮像部2、設定入力部3、記憶部4及び出力部6は制御部5に接続される。
撮像部2は、監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部5へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮像部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。
設定入力部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部4は、各種プログラムや各種データを記憶し、制御部5との間でこれらの情報を入出力する。各種データには、三次元モデル40、カメラパラメータ41、隠蔽マップ42、対象物モデル像43及び設置物モデル像44が含まれる。
三次元モデル40は、監視空間を模した仮想空間に対象物の立体形状を近似した対象物モデル及び/又は設置物の立体形状を近似した設置物モデルを配置した状態を記述したデータであり、追跡処理の準備段階で適宜作成され利用される。本実施形態では、監視空間及び仮想空間をX,Y,Z軸からなる右手直交座標系で表し、鉛直上方をZ軸の正方向に設定する。また、床面等の基準面は水平であり、Z=0で表されるXY平面で定義する。仮想空間内での設置物モデルの配置は監視空間内での実際の設置物の配置に合わせる。一方、対象物モデルの配置は任意位置に設定することができる。
対象物モデルは、例えば、対象物を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。移動物体追跡装置1が監視対象とする対象物は立位の人であり、本実施形態では、例えば、人の構成部分として頭部、胴部、脚部の3つが設定される。また、各構成部分の立体形状を近似的に表す部分モデルとして、長軸が鉛直方向に設定され短軸が水平方向に設定された楕円を長軸の周りに回転させて得られる回転楕円体を用いる。部分モデルの配置関係として、脚部の部分モデルの下端が基準面(Z=0)に接地するという拘束条件を課し、その脚部の部分モデルの上に胴部、頭部の部分モデルを順にZ軸方向に積み重ねた配置を設定する。基準面から頭部中心までの高さをH、胴部の最大幅(胴部短軸直径)をWで表す。本実施形態では説明を簡単にするため、高さH、幅Wは任意の対象物に共通とする。また、撮像部2との位置関係から、頭部は他の構成部分に隠蔽されにくく、監視画像に良好に現れることから、頭部中心を対象物の代表位置とする。なお、対象物モデルはより単純化して1つの回転楕円体で近似してもよい。
設置物モデルは、対象物の検出・追跡処理に先だって予め、監視空間内に置かれる設置物毎に設定される。設置物モデルは、監視空間に実在する設置物の形状・寸法のデータ、及び監視空間での設置物の配置のデータを含む。設置物の形状・寸法は監視空間に置かれる設置物を実測して取得することができるほか、設置物のメーカー等が提供する製品の三次元データを利用することもできる。設置物の配置は実測により取得できるほか、例えばコンピュータ上で部屋の什器レイアウトを設計した場合にはその設計データを利用することもできる。このようにして得られた設置物に関するデータは、設定入力部3又は外部機器との接続インターフェース(図示せず)から制御部5に入力され、制御部5は当該入力データに基づいて記憶部4に設置物モデルを格納する。
カメラパラメータ41は、撮像部2が監視空間を投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが予め設定入力部3から入力され、記憶部4に格納される。公知のピンホールカメラモデル等のカメラモデルにカメラパラメータ41を適用した座標変換式により、三次元モデル40を監視画像の座標系(撮像部2の撮像面;xy座標系)に投影できる。このカメラパラメータ41を用いた三次元モデル40の投影は、移動物体追跡装置1による対象物の検出・追跡処理に先だって行われる。
隠蔽マップ42は、監視空間内での対象物の位置のうち監視画像において対象物の少なくとも一部が設置物により隠蔽される位置(以下、隠蔽位置と称する)を特定する情報である。対象物は監視空間内にて基本的にはXY平面に沿った水平移動をする。そこで本実施形態では上述のように、対象物モデルの下端が基準面(Z=0)に接地するという拘束条件を課している。これに対応して、隠蔽マップ42は、隠蔽位置を基準面のXY座標系、つまり監視空間の床面座標で表す。ここで、例えば、監視空間に階段等の高低差が存在する場合には、対象物はZ方向にも移動し得る。そのような場合には、隠蔽マップ42は隠蔽位置を監視空間内の三次元座標で特定する構成とすることもできる。しかし、そのような特殊な監視空間でなければ、隠蔽位置を二次元位置で表した隠蔽マップ42を用いた方が隠蔽状態推定の処理量が削減される。
監視空間内に複数の設置物が存在する場合には、当該設置物毎に隠蔽マップ42を作成することもできるが、本実施形態の隠蔽マップ42は後述するように、XY平面内での各隠蔽位置の情報に、当該隠蔽位置にて隠蔽を生じさせ得る一又は複数の設置物の情報を対応付けたデータ構造とし、複数の設置物に対して1つに統合された隠蔽マップ42が記憶部4に設定される。隠蔽マップ42は、三次元モデル40及びカメラパラメータ41を用いて追跡処理の前に作成される。
対象物モデル像43は、監視空間内の各位置と、当該位置に配置された対象物の立体モデル(対象物モデル)を監視画像の座標系に投影した投影像とを対応付けたデータである。具体的には、投影像は、監視空間内に対象物モデルだけを仮想的に配置し、撮像部2の撮像面に対応して仮想的に設定される投影面に当該対象物モデルを投影した像である。対象物モデル像43は、三次元モデル40及びカメラパラメータ41を用いて追跡処理の前に、投影像を計算により求め作成される。
対象物モデルは監視空間内の各位置に配置され、当該位置毎に対象物モデル像43が生成される。本実施形態では上述の拘束条件により、対象物モデル像43はXY平面内の各位置に対応して生成される。
なお、例えば、H,W及びその他のパラメータが異なる複数種類の対象物モデルを用いて対象物モデル像43の生成を行い、追跡対象として検出された人に適合した対象物モデル像43を選択できるようにして、後述する監視画像における対象物の像の抽出・判定が体格差の影響を受けにくくして精度向上を図ることもできる。
設置物モデル像44は、設置物の識別子と、監視空間に配置された当該設置物の立体モデル(設置物モデル)を監視画像の座標系に投影した投影像とを対応付けたデータであり、設置物毎に生成される。具体的には、投影像は監視空間内に当該設置物モデルだけを仮想的に配置して算出される。設置物モデル像44は対象物モデル像43と同様、三次元モデル40及びカメラパラメータ41を用いて追跡処理の前に予め作成される。
制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部4からプログラムを読み出して実行し、隠蔽マップ作成部50、モデル投影部51、変化画素抽出部52、予測位置設定部53、隠蔽状態推定部54、尤度算出部55、物体位置算出部56、異常判定部57として機能する。
制御部5の各機能のうち隠蔽マップ作成部50及びモデル投影部51は、追跡処理の前に行われる事前処理を担う。
隠蔽マップ作成部50は三次元モデル40及びカメラパラメータ41を用いて、監視空間において対象物が各設置物により隠蔽される隠蔽位置を識別し、各隠蔽位置と当該隠蔽位置にて対象物を隠蔽する設置物とを対応付けた上述の隠蔽マップ42を作成して記憶部4に記憶させる。
本実施形態の隠蔽マップ42は、上述したように基準面上の二次元座標で定義される構成である。隠蔽マップ作成部50は、設置物ごとに当該設置物が置かれた領域(設置物位置と呼ぶ)と、撮像部2のカメラ位置から見て当該設置物の背後領域とを隠蔽位置として特定する。
ここで、対象物である人は設置物が占有する空間には入ることはできないことから、設置物位置は敢えて隠蔽位置とする必要はないという考え方もあり、そのような構成も可能である。特に、設置物が柱や背の高い本棚のような物である場合には、基本的にそのような構成が可能である。一方、設置物の高さが低い場合には、その上に対象物である人が身を乗り出したり寄りかかることが可能となり、設置物位置に対象物が位置することがある。そこで、本実施形態では設置物位置を隠蔽位置に設定することにより、このような場合にも隠蔽が生じていると判定できるようにして評価精度の向上を図っている。
また、設置物の背後領域は、本来的にはカメラ位置からの視線が設置物で遮られ見えない領域(死角)を含むが、本実施形態では、隠蔽マップ作成部50はさらにその本来的な背後領域(本来背後領域)から外側へ対象物の代表サイズの距離まで張り出した領域も含めて実質的な背後領域(実質背後領域)として隠蔽位置に設定する。
この実質背後領域を隠蔽位置に設定する処理は、対象物の位置を代表点によって処理することに対応したものである。すなわち、隠蔽状態推定の処理を高速化するために対象物の位置を一点で代表させつつ、対象物の大きさを考慮した正確な隠蔽状態推定を行うために本来背後領域より広い実質背後領域を予め隠蔽位置に設定しておくのである。仮に、本来背後領域のみを隠蔽位置に設定し、対象物の位置を代表点で表すと、対象物の候補位置(予測位置)において対象物が監視空間に占める領域を再現してから当該領域に隠蔽位置が含まれるか否かを判定しなくては候補位置における隠蔽発生の有無を判定できない。これに対し、予め隠蔽位置を本来背後領域から対象物の大きさに応じた近傍領域にまで広げた実質背後領域に設定しておけば、対象物の候補位置が隠蔽位置か否かを判定するだけで候補位置における隠蔽発生の有無を判定できる。つまり、事前処理にて予め対象物の大きさを考慮した実質背後領域を隠蔽位置に設定することによって、監視画像の入力ごとに多数回行われる隠蔽状態推定処理では対象物の大きさを無視した代表点で処理することを可能にしているのである。これにより隠蔽状態推定処理を簡単化・高速化しつつ対象物の大きさを考慮した適正な隠蔽状態推定処理が可能である。
設置物の本来背後領域は次のようにして算出される。すなわち、隠蔽マップ作成部50は、設置物モデルを配置した三次元モデル40を基準面に投影して設置物位置を求め、また基準面上に投影したカメラ位置を求める。そして、このカメラ位置からの基準面上での視線が設置物位置で遮られ届かない領域が背後領域とされる。つまり基準面上で設置物位置の背後は全て背後領域となり隠蔽位置とされる。なお、このようにして求めた背後領域を用いると、実際は設置物から或る程度離れてカメラから見越せる部分も隠蔽位置とされるが、後述する隠蔽状態推定部54での処理では、当該部分に対応する対象物モデル像43は全体が非隠蔽領域として抽出されるので隠蔽判断の結果には影響はなく、むしろ奥行き方向の位置算出誤差の影響を受けにくい効果がある。
モデル投影部51は、カメラパラメータ41を用いて三次元モデル40を投影することで、監視空間内の各位置に対応する対象物モデル像43、及び監視空間内の各設置物に対応する設置物モデル像44を作成し、それぞれを記憶部4に記憶させる。
制御部5の各機能のうち、変化画素抽出部52、予測位置設定部53、隠蔽状態推定部54、尤度算出部55、物体位置算出部56及び異常判定部57は追跡処理を担う。
変化画素抽出部52は、撮像部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を尤度算出部55へ出力する。変化画素の情報は必要に応じて予測位置設定部53にも出力される。変化画素の抽出は公知の背景差分処理により行われる。すなわち変化画素抽出部52は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。変化画素は対象物が存在する領域に対応して抽出され得る。変化画素抽出部52は背景画像として、監視領域に対象物が存在しない状態での監視画像を記憶部4に格納する。例えば、基本的に管理者は監視領域に対象物が存在しない状態で移動物体追跡装置1を起動するので、起動直後の監視画像から背景画像を生成することができる。なお、差分処理に代えて、新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。
予測位置設定部(仮説設定部)53は、過去に判定された各対象物の物体位置又は過去に設定された各対象物の予測位置から動き予測を行なって、新たに入力される監視画像において対象物が存在する位置を予測し、その予測された位置(予測位置)を隠蔽状態推定部54、尤度算出部55及び物体位置算出部56へ出力する。
例えば、位置の予測はパーティクルフィルタなどと呼ばれる方法を用いて行うことができる。当該方法は、各対象物に対して多数(その個数をPで表す。例えば1対象物あたり200個)の予測位置を順次設定して確率的に対象物の位置(物体位置)を判定するものであり、設定される予測位置は仮説などと呼ばれる。予測位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間のXYZ座標系で設定する。動き予測は過去の物体位置に所定の運動モデルを適用するか(下記(1))、又は過去の予測位置に所定の運動モデルを適用すること(下記(2))で行なわれる。
(1)物体位置からの予測
注目時刻より前のT時刻分(例えばT=5)の物体位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の物体位置に加算して注目時刻における物体位置を予測する。予測された物体位置を中心とする所定範囲にランダムにP個の予測位置を設定する。この方法では、過去T時刻分の物体位置が記憶部4に循環記憶される。
(2)予測位置からの予測
注目時刻より前のT時刻分(例えばT=5)の予測位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の予測位置に加算して注目時刻における新たな予測位置を予測する。予測はP個の予測位置それぞれに対し行ない、新たな予測位置とその元となった過去の予測位置には同一の識別子を付与して循環記憶する。なお、1時刻前の予測位置のうちその尤度が予め設定された尤度閾値より低いものは削除する。一方、この削除分を補うために、削除した個数と同数の1時刻前の新たな予測位置を1時刻前の予測された物体位置を中心とする所定範囲にランダムに設定し、これらの予測位置と対応する2時刻前以前の予測位置を過去の物体位置の運動に合わせて外挿し求める。そのために過去の予測位置に加えて、過去T時刻分の物体位置も記憶部4に循環記憶させる。
なお、新規の対象物が検出された場合は、予測位置設定部53は、その検出位置を中心とする所定範囲にランダムにP個の予測位置を設定する。
隠蔽状態推定部54は、対象物が存在し得る監視空間内の候補位置を入力され、隠蔽マップ42を参照して候補位置が隠蔽位置か否かを判定し、候補位置が隠蔽位置であれば当該候補位置に対応する対象物モデル像43から設置物モデル像44の領域を除いて対象物可視領域とし、候補位置が隠蔽位置でなければ当該候補位置に対応する対象物モデル像43の領域を対象物可視領域とする可視領域推定部である。
具体的には、隠蔽状態推定部54は候補位置として予測位置設定部53から予測位置を入力され、各予測位置における対象物の隠蔽状態を推定し、推定結果を尤度算出部55へ出力する。隠蔽状態推定部54は隠蔽状態の推定において、隠蔽マップ42から予測位置における隠蔽の有無及び隠蔽を生じさせる設置物を判定する。隠蔽有りと判定されると、当該予測位置に対応する対象物モデル像43から、隠蔽を生じさせると判定された設置物に対応する設置物モデル像44との重複領域を除去することにより非隠蔽領域(対象物可視領域)を推定する。一方、隠蔽無しと判定された場合は、当該予測位置に対応する対象物モデル像43をそのまま非隠蔽領域として推定する。さらに注目している対象物(注目対象物)よりも手前に他の対象物がある場合、当該他の対象物も注目対象物にとっての遮蔽物となる。この場合は、注目対象物に対応する対象物モデル像43から、手前の対象物に対応する対象物モデル像43との重複領域をさらに除去し、残った領域を非隠蔽領域と推定する。なお、このように対象物間の隠蔽状態を推定する場合、それら対象物の予測位置同士で対象物モデル像43を選択すると膨大な組み合わせとなる。そこで、隠蔽状態推定部54は撮像部2に近い対象物から順に物体位置を判定し、手前の対象物については当該判定された物体位置に対応する対象物モデル像43を選択し、これとの重複領域を注目対象物の予測位置に対応する対象物モデル像43から除く。このようにすることで処理量を減ずることができる。
尤度算出部55は、各予測位置に対して推定された非隠蔽領域における対象物の特徴量を監視画像から抽出し、特徴量の抽出度合いに応じた、当該予測位置の物体位置としての尤度を算出して物体位置算出部56へ出力する。下記(1)〜(4)は尤度の算出方法の例である。
(1)変化画素抽出部52により抽出された変化画素に非隠蔽領域を重ね合わせ、変化画素が非隠蔽領域に含まれる割合(包含度)を求める。包含度は、予測位置が現に対象物が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度に基づいて尤度を算出する。
(2)監視画像における非隠蔽領域の輪郭に対応する部分からエッジを抽出する。予測位置が現に対象物が存在する位置に近いほど、非隠蔽領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は増加し、一方、遠ざかるほど抽出度は減少しやすい。そこで、エッジの抽出度に基づいて尤度を算出する。
(3)各対象物の過去の物体位置において監視画像から抽出された特徴量を当該対象物の参照情報として記憶部4に記憶する。予測位置が現に対象物が存在する位置に近いほど背景や他の対象物の特徴量が混入しなくなるため、非隠蔽領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から非隠蔽領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。
このように隠蔽状態推定部54により推定された非隠蔽領域を利用することで、各対象物の隠蔽状態に適合した尤度を算出できるので追跡の信頼性が向上する。
物体位置算出部56は、対象物の各予測位置、及び当該予測位置ごとに算出された尤度から当該対象物の位置(物体位置)を判定し、判定結果を記憶部4に対象物ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物体位置なし、つまり消失したと判定する。下記(1)〜(3)は物体位置の算出方法の例である。
(1)対象物ごとに、尤度を重みとする予測位置の重み付け平均値を算出し、これを当該対象物の物体位置とする。
(2)対象物ごとに、最大の尤度が算出された予測位置を求め、これを物体位置とする。
(3)対象物ごとに、予め設定された尤度閾値以上の尤度が算出された予測位置の平均値を算出し、これを物体位置とする。ここで、尤度閾値>尤度下限値である。
上記尤度算出部55及び物体位置算出部56は、画像における非隠蔽領域の画像特徴から前記対象物の像の存在を判定する対象物判定部としての機能を有する。
異常判定部57は、記憶部4に蓄積された時系列の物体位置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部6へ異常信号を出力する。
出力部6は警告音を出力するスピーカー又はブザー等の音響出力手段、異常が判定された監視画像を表示する液晶ディスプレイ又はCRT等の表示手段などを含んでなり、異常判定部57から異常信号が入力されると異常発生の旨を外部へ出力する。また、出力部6は通信回線を介して異常信号を警備会社の監視センタに設置されたセンタ装置へ送信する通信手段を含んでもよい。
[事前処理]
次に、隠蔽マップ作成部50及びモデル投影部51による事前処理を説明する。
隠蔽マップ42のデータ形式は基準面(Z=0)と対応するディジタル画像データであり、監視空間を真上から見た画像に相当する。その各画素は基準面上の位置を量子化したものに相当し、基準面のX軸方向を例えばN画素、またY軸方向をM画素に量子化したN×M画素からなる画像データを構成する。画素値に相当するバイナリデータの各ビットは特定の設置物と一対一に対応付けられる。つまり、当該バイナリデータにおけるビット位置により、対応する設置物の識別子が指定される。各画素の当該ビットの値は、当該画素が当該ビットに対応する設置物の隠蔽位置であるか否かを表す。本実施形態では、或る画素における当該ビットの値が“1”であれば、当該画素は当該ビットに対応する設置物の隠蔽位置であり、一方、当該ビットの値が“0”であれば、非隠蔽位置であると定義する。例えば、画素値を8ビットに設定する場合、設置物#1による隠蔽が生じる位置と対応する画素の画素値は(00000001)、設置物#2による隠蔽が生じる位置と対応する画素の画素値は(00000010)、設置物#1及び設置物#2による隠蔽が生じる位置と対応する画素の画素値は(00000011)と設定される。なお、画素値のビット数は監視空間に存在し得る設置物の数に応じて設定することができる。
図2は事前処理の概略のフロー図である。事前処理が開始されると、制御部5は隠蔽マップ42、対象物モデル像43及び設置物モデル像44を初期化する(S1)。
初期化に続いて、隠蔽マップ作成部50が隠蔽マップを生成する(S2〜S10)。隠蔽マップ作成部50は各設置物を順次、注目設置物に設定して(S2)、監視空間に対応する仮想空間に注目設置物の設置物モデルを配置した三次元モデル40を生成する。そして、生成された三次元モデル40を基準面に投影し、注目設置物が存在する位置(設置物位置)を特定する(S3)。隠蔽マップ作成部50は設置物位置と対応する隠蔽マップ42の画素値において注目設置物と対応するビットの値を“1”に設定する(S4)。
また、隠蔽マップ作成部50は設置物位置を除く基準面内の各位置を順次、注目位置に設定する(S5)。隠蔽マップ作成部50は注目位置と基準面上でのカメラ位置とを結ぶ線分(投影線)を算出し(S6)、投影線上に設置物位置があるか否かを判定する(S7)。投影線上に設置物位置がある場合(S7にて「YES」の場合)、当該注目位置は本来背後領域と判定されて隠蔽位置に設定される(S8)。さらに、本移動物体追跡装置1では上述した実質背後領域を隠蔽位置とすることに対応して、当該注目位置の所定近傍領域も隠蔽位置に設定する(S8)。具体的には、隠蔽マップ作成部50は当該所定近傍領域の画素の画素値において、注目設置物と対応するビットの値を“1”に設定する。
本実施形態では、対象物の代表位置を頭部中心とし、追跡処理における候補位置も当該頭部中心を通る対象物の垂直中心軸によって定義すること、及び、基準面上での当該垂直中心軸から対象物の輪郭までの最大距離を表す値として対象物モデルの最大幅Wの1/2を用い得ることから、注目位置の近傍領域として、当該注目位置にて投影線と直交し当該注目位置を中心として長さがWより短い線分を設定する。この近傍領域内の点も隠蔽位置とすることで、本来的な背後領域から外側へ対象物の距離W/2まで張り出した実質的な背後領域も隠蔽位置として設定される。
ここで、近傍領域を本実施形態のような一次元領域ではなく、基準面上にて注目位置を包含する二次元領域、例えば、注目位置を中心とする径がW/2の円や楕円などとすることもできる。しかし、両者にて得られる実質的な背後領域には大きな違いはないのに対し、処理負荷は一次元領域の方が小さい。そこで、本実施形態では上述のように投影線に直交する線分を各注目位置の近傍領域の隠蔽位置と設定する構成としている。
ステップS7にて投影線上に設置物位置がないと判断された場合(S7にて「NO」の場合)、注目位置は隠蔽位置ではないとされ、注目設置物と対応するビットは初期化された時点の値“0”のままとされる。
隠蔽マップ作成部50は設置物位置を除く基準面内の位置すべてが処理済になるまでステップS5〜S8を繰り返す(S9にて「NO」の場合)。一方、或る設置物について処理済みとなると(S9にて「YES」の場合)、未処理の設置物があればステップS2に戻ってステップS3〜S8を実行し(S10にて「NO」の場合)、一方、全ての設置物について処理済みとなると(S10にて「YES」の場合)隠蔽マップ42の生成処理を終了する。
隠蔽マップ42の生成が終了すると、さらに事前処理としてモデル投影部51が設置物モデル像44の生成処理S11〜S14、及び対象物モデル像43の生成処理S15〜S18を実行する。
モデル投影部51は各設置物を順次、注目設置物に設定して(S11)、監視空間に対応する仮想空間に注目設置物の設置物モデルのみを配置した三次元モデル40を生成する(S12)。そして、生成した三次元モデル40をカメラパラメータ41を用いて監視画像の撮像面に投影し、設置物モデル像44を生成する(S13)。設置物モデル像44は、投影像内と投影像外とで異なる画素値を設定した監視画像と同形同大の2値画像であり、得られた設置物モデル像44は注目設置物の識別子と対応付けて記憶部4に記憶させる。
モデル投影部51は未処理の設置物が残っている場合(S14にて「NO」の場合)、設置物モデル像の生成処理S11〜S13を繰り返し、全ての設置物について処理済みとなると(S14にて「YES」の場合)、対象物モデル像43の生成処理に移行する。
モデル投影部51は基準面内の各位置を順次、注目位置に設定し(S15)、監視空間に対応する仮想空間における注目位置に1つの対象モデルのみを配置した三次元モデル40を生成する(S16)。そして、生成した三次元モデル40をカメラパラメータ41を用いて監視画像の撮像面に投影し、対象物モデル像43を生成する(S17)。対象物モデル像43は、投影像内と投影像外とで異なる画素値を設定した監視画像と同形同大の2値画像であり、得られた対象物モデル像43は注目位置と対応付けて記憶部4に記憶させる。
モデル投影部51は基準面内にて注目位置として未処理の位置が残っている場合(S18にて「NO」の場合)、対象物モデル像の生成処理S15〜S17を繰り返し、全ての位置を注目位置として処理が終わると(S18にて「YES」の場合)、対象物モデル像43の生成処理を終了する。これにより、事前処理が完了する。
図3は、三次元モデル40の一例を模式的に示す斜視図であり、N×M画素の基準面100、カメラ位置101、対象物モデル102、及び設置物#1,#2の設置物モデル103,104の配置例を示している。
図4は、隠蔽マップ作成部50による設置物#1に対応する隠蔽位置の判定処理を説明する模式図であり、設置物#1の設置物モデル103のみが配置された三次元モデル40を基準面100に投影した画像200を示している。図4(a)には、図4(b)に拡大して示す部分領域201、設置物#1の設置物位置202、基準面上でのカメラ位置203、注目位置204、投影線205が示されており、図4(b)には注目位置204の近傍領域である線分206が示されている。上述した隠蔽マップ作成処理により、カメラ位置203から注目位置204への投影線205が算出され、投影線205が設置物位置202を通ることが判定され、これにより注目位置204は設置物#1の背後領域(本来背後領域)に位置し隠蔽位置であると判定される。また、当該注目位置204にて投影線205に直交し注目位置204を中心とする長さWの線分206が注目位置204の近傍領域として隠蔽位置と判定される。すなわち、線分206は本来背後領域である注目位置に関する実質背後領域に相当する。
図5は、図3の三次元モデル40に対応して作成された隠蔽マップ42の模式図である。図5において、横線部は設置物#1のみに隠蔽される隠蔽位置であり、画素値(00000001)を設定される。また、縦線部は設置物#2のみに隠蔽される隠蔽位置であり、画素値(00000010)を設定され、縦横線部は設置物#1と設置物#2の両方に隠蔽される隠蔽位置であり、画素値は(00000011)となる。
図6は、図3の三次元モデル40から作成された対象物モデル像43の模式図である。対象物モデル像43はN×M画素の基準面100の各画素に対象物モデルを配置して生成され、図6には、対象物モデル像43を示す画像と、対象物モデルの位置(代表位置を通る中心軸が基準面にて交差する画素のXY座標(X,Y))とを対応付けて示している。ここで、画素のX座標は0〜N−1、Y座標は0〜M−1なる整数と定義している。本実施形態では画像の白抜き部分が対象物モデルの投影像であり画素値“1”を付与され、それ以外の斜線部分は画素値“0”を付与される。
図7は、図3の三次元モデル40から作成された設置物モデル像44の模式図である。設置物モデル像44は設置物ごとに生成され、図3の三次元モデル40では設置物#1に対応する設置物モデル像44−1と設置物#2に対応する設置物モデル像44−2とが生成される。本実施形態では画像の白抜き部分が設置物モデルの投影像であり画素値“1”を付与され、それ以外の斜線部分は画素値“0”を付与される。
なお、本実施形態では対象物の代表位置を中心軸上の点としているので、実質背後領域の張り出し量は対象物の幅Wの半分に抑えることが可能である。一方、対象物の代表位置を中心軸から外れた位置に設定する場合は実質背後領域の張り出し量をW/2より大きく設定すればよいが、代表位置を対象物内に設定する限り、張り出し量はW以下で足りる。
[移動物体追跡装置1の動作]
次に、移動物体追跡装置1の追跡動作を説明する。図8は移動物体追跡装置1の追跡処理の概略のフロー図である。
撮像部2は、監視空間を撮像するたびに監視画像を制御部5に入力する(S20)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。
現画像は変化画素抽出部52により背景画像と比較され、変化画素抽出部52は変化画素を抽出する(S21)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部4に記憶させ、便宜的に変化画素なしとする。
また、予測位置設定部53は追跡中の各対象物に対して動き予測に基づきP個の予測位置を設定する(S22)。なお、後述するステップS37にて新規出現であると判定された対象物の予測位置は動き予測不能なため出現位置を中心とする広めの範囲にP個の予測位置を設定する。また、後述するステップS37にて消失と判定された対象物の予測位置は削除する。
制御部5は、ステップS21にて変化画素が抽出されず、かつステップS22にて予測位置が設定されていない(追跡中の対象物がない)場合(S23にて「YES」の場合)はステップS20に戻り、次の監視画像の入力を待つ。
一方、ステップS23にて「NO」の場合は、ステップS24〜S37の処理を行う。まず、隠蔽状態推定部54が対象物の前後関係を判定する(S24)。具体的には、対象物ごとに予測位置の重心(平均値)とカメラ位置との距離を算出し、距離の昇順に対象物の識別子を並べた前後関係リストを作成する。
制御部5は前後関係リストの先頭から順に各対象物を順次、注目物体に設定する(S25)。続いて、制御部5は注目物体の各予測位置を順次、注目位置に設定する(S26)。但し、監視画像の視野外である予測位置は注目位置の設定対象から除外し、当該予測位置の非隠蔽領域は推定せず、尤度を0に設定する。
隠蔽状態推定部54は注目位置に対応する対象物モデル像43を記憶部4から読み出し、当該対象物モデル像43を注目物体の注目位置における非隠蔽領域の初期状態として設定する(S27)。続いて、隠蔽状態推定部54は隠蔽マップ42における注目位置の画素値を読み出し(S28)、注目位置が隠蔽位置か否かを判定する(S29)。
隠蔽状態推定部54は読み出した画素値が“0”でなければ注目位置が隠蔽位置であると判定し(S29にて「YES」の場合)、画素値により特定される設置物の識別子に対応する設置物モデル像44の領域を非隠蔽領域から除き、非隠蔽領域を更新する(S30)。一方、注目位置が隠蔽位置でなければ(S29にて「NO」の場合)、非隠蔽領域は更新されない。
隠蔽状態推定部54は、前後関係リストを参照して注目物体より手前の対象物があれば(S31にて「YES」の場合)、手前の対象物の物体位置に対応する対象物モデル像43の領域を非隠蔽領域から除き、非隠蔽領域を更新する(S32)。なお、手前に複数の対象物があれば、それら全てについて除外処理を試みてもよいし、それらのうちカメラ位置から物体位置への投影線が注目物体への投影線となす角度が幅Wに相当する角度未満の対象物のみに絞って除外処理を実行してもよい。一方、手前に対象物がなければ(S31にて「NO」の場合)、除去処理は行われない。
図9は隠蔽マップ42及び基準面内での対象物及びカメラの位置を示す模式図、図10は隠蔽状態の推定処理を説明する模式図である。対象物Aに対し設定された予測位置の1つを予測位置300、同時刻において別の対象物Bに対し設定された予測位置の1つを予測位置301とする。隠蔽状態推定部54は隠蔽マップ42を参照し、対象物Aに関する予測位置300は設置物#1のみに隠蔽される隠蔽位置であると判定し、対象物Bに関する予測位置301は設置物#2のみに隠蔽される隠蔽位置であると判定する。また、カメラ位置203と予測位置300との距離及びカメラ位置203と予測位置301との距離を算出して比較することで、対象物Aが手前、対象物Bが後ろであると判定される。隠蔽状態推定部54は、まず、距離が近い予測位置300に対応する対象物モデル像43−3(白抜き部分)から設置物#1に対応する設置物モデル像44−1(白抜き部分)を除くことで、予測位置300における対象物Aの非隠蔽領域310(白抜き部分)を推定する(図10(a))。次に、距離が遠い予測位置301に対応する対象物モデル像43−4(白抜き部分)から距離が近い予測位置300に対応する対象物モデル像43−3(白抜き部分)及び設置物#2に対応する設置物モデル像44−2(白抜き部分)を除くことで、予測位置301における対象物Bの非隠蔽領域311(白抜き部分)を推定する(図10(b))。このように隠蔽状態の推定処理が三次元座標から二次元座標への投影処理を行うことなく実現されるので、その処理に要する演算量が少なくて済み、処理の高速化が図れる。
設置物及び手前の対象物による隠蔽領域を除去して注目位置での非隠蔽領域が求められると、尤度算出部55は当該注目位置に対する尤度を算出する(S33)。
制御部5は、尤度が算出されていない予測位置が残っている場合(S34にて「NO」の場合)、ステップS26〜S33を繰り返す。P個全ての予測位置について尤度が算出されると(S34にて「YES」の場合)、物体位置算出部56が注目物体の各予測位置と当該予測位置のそれぞれについて算出された尤度とを用いて注目物体の物体位置を算出する(S35)。現時刻について算出された物体位置は1時刻前までに記憶部4に記憶させた注目物体の物体位置と対応付けて追記される。なお、新規出現した対象物の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物体位置なしと判定する。
制御部5は未処理の対象物が残っている場合(S36にて「NO」の場合)、当該対象物について物体位置を判定する処理S25〜S35を繰り返す。一方、全ての対象物について物体位置を判定すると、物体の新規出現と消失を判定する(S37)。具体的には、制御部5は各物体位置に対して推定された非隠蔽領域を合成して、変化画素抽出部52により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが対象物とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部4に記録する。また、物体位置なしの対象物があれば当該対象物が消失した旨を記憶部4に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS2へ戻る。
上記実施形態では移動物体追跡装置1は1つの撮像部2を用いて対象物の隠蔽推定及び対象物の追跡を行った。別の実施形態として、同期制御された複数の撮像部2により撮像された監視画像を処理して対象物の隠蔽推定及び対象物の追跡を行う構成とすることもできる。この場合、カメラパラメータ41は各撮像部2に対して設定され、撮像部2ごとに事前処理が行われて撮像部2ごとに対象物モデル像43と設置物モデル像44が作成され記憶される。三次元モデル40及び予測位置は複数の撮像部2間で共有する。隠蔽推定及び尤度算出は各撮像部2の監視画像、対象物モデル像43及び設置物モデル像44を用いて撮像部2ごとに行われる。撮像部2ごとに算出された尤度のうち同じ予測位置に関する尤度が統合されて各予測位置の統合尤度が算出され、統合尤度に基づき物体位置が判定される。
上記実施形態では隠蔽マップ作成部50は設置物モデルとカメラ位置を基準面に投影してから基準面上で二次元的に本来背後領域を算出した。この方法では、隠蔽状態推定処理が奥行き方向の位置算出誤差の影響を受けにくいが、背後領域が冗長な分だけ隠蔽状態推定が余分に発生する。そこで、余分な処理の発生回避を重視して三次元的に本来背後領域を算出することで、本来背後領域の冗長性を排除することもできる。この実施形態において隠蔽マップ作成部50は、例えば、図2のステップS2とS3の間で各設置物モデルを順次配置した三次元モデル40上でカメラ位置からの投影線のうち当該設置物モデルを通過するものが基準面と交わる点の集合を本来背後領域として求め、図2のステップS7において投影線上に設置物位置があるか否かを判定する代わりに注目位置が本来背後領域内であるか否かを判定する。なお、この場合の図2のステップS8における近傍領域は対象物が占める領域(図4の円領域)となる。これにより隠蔽マップ42から隠蔽位置の冗長設定が排除されて隠蔽状態推定処理がより簡単化・高速化される。
また、撮像部2に近くて(例えば、俯角が所定の閾値以上となる位置で)見越せる範囲が大きく奥行き方向の位置算出誤差が生じにくい設置物に関しては三次元的に本来背後領域を算出し、撮像部2から遠くて(例えば、俯角が閾値より小さい位置で)見越せる範囲が小さく奥行き方向の位置算出誤差が生じやすい設置物に関しては二次元的に本来背後領域を算出して隠蔽マップ42を求めることで、高速化と精度とのバランスをとることも可能である。
1 移動物体追跡装置、2 撮像部、3 設定入力部、4 記憶部、5 制御部、6 出力部、40 三次元モデル、41 カメラパラメータ、42 隠蔽マップ、43 対象物モデル像、44 設置物モデル像、50 隠蔽マップ作成部、51 モデル投影部、52 変化画素抽出部、53 予測位置設定部、54 隠蔽状態推定部、55 尤度算出部、56 物体位置算出部、57 異常判定部、100 基準面、101 カメラ位置、102 対象物モデル、103,104 設置物モデル、202 設置物位置、203 カメラ位置、204 注目位置、205 投影線、206 近傍領域(実質背後領域)。

Claims (5)

  1. 予め定められた投影条件で所定の三次元空間を投影した二次元画像における対象物の像の存在を判定する対象物画像判定装置であって、
    前記三次元空間内での前記対象物の位置のうち前記二次元画像において前記対象物が前記三次元空間内の設置物により隠蔽される隠蔽位置を予め特定した隠蔽マップ、前記投影条件にて前記設置物の立体モデルを予め前記二次元画像の座標系に投影した設置物モデル像、及び前記三次元空間内の各位置での前記対象物の立体モデルを前記投影条件にて予め前記二次元画像の座標系に投影した対象物モデル像を記憶した記憶部と、
    前記対象物が存在し得る前記三次元空間内の候補位置を入力され、前記隠蔽マップを参照して前記候補位置が前記隠蔽位置か否かを判定し、前記候補位置が前記隠蔽位置であれば当該候補位置に対応する前記記憶部の対象物モデル像から前記設置物モデル像の領域を除いて対象物可視領域とし、前記候補位置が前記隠蔽位置でなければ当該候補位置に対応する対象物モデル像の領域を対象物可視領域とする可視領域推定部と、
    前記二次元画像における前記対象物可視領域の画像特徴から前記対象物の像の存在を判定する対象物判定部と、
    を有することを特徴とする対象物画像判定装置。
  2. 請求項1に記載の対象物画像判定装置において、
    前記隠蔽位置は、前記三次元空間の水平面座標系で表された二次元位置であること、を特徴とする対象物画像判定装置。
  3. 請求項1又は請求項2に記載の対象物画像判定装置において、
    前記候補位置は、前記対象物に設定される代表点の座標で定義し、
    前記隠蔽マップは、前記二次元画像にて死角となる前記設置物の背後領域及び、当該背後領域から外側へ前記対象物の代表サイズの距離まで張り出した実質背後領域を前記隠蔽位置に設定すること、
    を特徴とする対象物画像判定装置。
  4. 請求項3に記載の対象物画像判定装置において、
    前記候補位置は、前記対象物の垂直中心軸の位置によって定義し、
    前記対象物の代表サイズは、前記対象物の立体モデルの最大幅の半分であること、
    を特徴とする対象物画像判定装置。
  5. 請求項1から請求項4のいずれか1つに記載の対象物画像判定装置において、
    前記隠蔽マップは、前記隠蔽位置と、当該隠蔽位置にて隠蔽を生じさせ得る一又は複数の前記設置物とを対応付けた情報を含み、
    前記可視領域推定部は、前記候補位置が前記隠蔽位置である場合に、当該候補位置と対応する前記対象物モデル像から、前記隠蔽マップにて当該隠蔽位置に対応付けられた前記各設置物の前記設置物モデル像の領域を除いて前記対象物可視領域を求めること、
    を特徴とする対象物画像判定装置。
JP2010254654A 2010-11-15 2010-11-15 対象物画像判定装置 Active JP5667846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010254654A JP5667846B2 (ja) 2010-11-15 2010-11-15 対象物画像判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010254654A JP5667846B2 (ja) 2010-11-15 2010-11-15 対象物画像判定装置

Publications (2)

Publication Number Publication Date
JP2012108574A JP2012108574A (ja) 2012-06-07
JP5667846B2 true JP5667846B2 (ja) 2015-02-12

Family

ID=46494147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010254654A Active JP5667846B2 (ja) 2010-11-15 2010-11-15 対象物画像判定装置

Country Status (1)

Country Link
JP (1) JP5667846B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6022330B2 (ja) * 2012-12-05 2016-11-09 セコム株式会社 カメラシステム
JP6381189B2 (ja) * 2013-08-19 2018-08-29 キヤノン株式会社 監視装置
JP6554820B2 (ja) * 2015-02-27 2019-08-07 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP2018142907A (ja) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP7441608B2 (ja) 2019-03-22 2024-03-01 セコム株式会社 移動先設定装置、移動先設定方法、移動先設定プログラム及びロボット

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148077A (ja) * 1999-11-19 2001-05-29 Fujitsu General Ltd 侵入者検出装置
US20050163355A1 (en) * 2002-02-05 2005-07-28 Mertens Mark J.W. Method and unit for estimating a motion vector of a group of pixels
JP4555987B2 (ja) * 2004-07-09 2010-10-06 財団法人生産技術研究奨励会 画像における移動物体追跡方法及び装置
US7835542B2 (en) * 2005-12-29 2010-11-16 Industrial Technology Research Institute Object tracking systems and methods utilizing compressed-domain motion-based segmentation
EP1980994A1 (en) * 2007-04-13 2008-10-15 Mitsubishi Electric Information Technology Centre Europe B.V. Method for tracking multiple objects with occlusions
JP5027741B2 (ja) * 2008-06-18 2012-09-19 セコム株式会社 画像監視装置
JP5027758B2 (ja) * 2008-08-19 2012-09-19 セコム株式会社 画像監視装置
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム

Also Published As

Publication number Publication date
JP2012108574A (ja) 2012-06-07

Similar Documents

Publication Publication Date Title
CN105678748B (zh) 三维监控系统中基于三维重构的交互式标定方法和装置
EP3251090B1 (en) Occlusion handling for computer vision
JP6622894B2 (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
JP6554169B2 (ja) 物体認識装置及び物体認識システム
JP5687082B2 (ja) 移動物体追跡装置
WO2019225547A1 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US20110187703A1 (en) Method and system for object tracking using appearance model
JP5667846B2 (ja) 対象物画像判定装置
JP5366258B2 (ja) 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP5687035B2 (ja) 人物追跡装置
JP5027758B2 (ja) 画像監視装置
JP5101429B2 (ja) 画像監視装置
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
JP6240706B2 (ja) グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
JP6189116B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR102082277B1 (ko) 파노라마 영상 생성 방법 및 그 장치
JP5213883B2 (ja) 合成表示装置
JP7426611B2 (ja) 校正方法および校正装置
JP2012155595A (ja) 対象物画像判定装置
JPWO2019016879A1 (ja) 物体検出装置、及び、物体検出手法
JP6548683B2 (ja) 対象物画像推定装置および対象物画像判定装置
JP6548682B2 (ja) 対象物画像判定装置
JP6984583B2 (ja) 情報処理装置および情報処理方法
CN113763545A (zh) 图像确定方法、装置、电子设备和计算机可读存储介质
JP2013211739A (ja) 画像監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141215

R150 Certificate of patent or registration of utility model

Ref document number: 5667846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250