実施形態に係る特定人物検知システムは、画像データから抽出した特徴量に最も類似した特定人物部に記録されている人物を取得し、他の画像データから抽出した特徴量と当該人物との類似度を算出し、類似度が高い人物の中から角度情報が当該人物と最も類似している人物を照合結果として出力する。
実施形態に係る特定人物検知システムによれば、より高い検知精度を得ることが可能となる。
以下、実施例について、図面を用いて説明する。ただし、以下の説明において、同一構成要素には同一符号を付し繰り返しの説明を省略することがある。
第1の実施例に係る特定人物検知システムの装置構成について図1を用いて説明する。特定人物検知システム10は、ネットワーク100に、撮像装置101、録画装置102、検知装置103、端末装置104が接続され、互いに通信可能な状態で構成される。
ネットワーク100は、各装置を相互に接続しデータ通信を行う専用線やイントラネット、インターネット、無線LAN等の通信線である。
撮像装置101は、遠近制御やピント制御が可能なズームレンズや、CCDやCMOS等の撮像素子、アナログ信号をデジタル変換するA/D変換回路、RAM等の一時記憶メモリ、データ伝送バス、タイミング回路、外部入出力インタフェース、電源回路、パンやチルト等を行う雲台、可視光ライトや近赤外LED等の照明等を備える監視カメラ等の装置である。
撮像装置101は、レンズを通った光を、撮像素子で電気信号に変換し、変換した電気信号をA/D変換回路でデジタル値に変換し、変換したデジタル値を一時記憶メモリに画像データとして格納する。格納された画像データは、外部入出力インタフェースに入力された外部からの映像要求やタイミング回路からの指示等に応じて、外部入出力インタフェースからネットワーク100に出力される。また、同様に外部入出力インタフェースに入力された外部からの制御命令に応じて、撮影の向きやレンズの遠近やピント、照明の量等を変える。
録画装置102は、RAM等の一時記憶メモリ、HDD等の記録媒体、データ伝送バス、タイミング回路、外部入出力インタフェース、電源回路等を備えるネットワークデジタルレコーダ等の装置である。
録画装置102は、ネットワーク100から外部入出力インタフェースに入力された撮像装置101からの画像データをHDD等の記録媒体にその画像時刻とともに記録する。記録された画像データは、外部入出力インタフェースに入力された外部からの映像要求やタイミング回路からの指示等に応じて、外部入出力インタフェースからネットワーク100に出力される。映像要求は画像時刻を含んで構成され、録画装置102は映像要求に含まれる画像時刻の画像データを出力する。
本実施例において、録画装置102は、撮像装置101の映像を常時録画しているものとする。
検知装置103は、CPU等の演算回路や、RAM等の一時記憶メモリ、HDD等の記録媒体、データ伝送バス、外部入出力インタフェース、電源回路等を備える、コンピュータ等の装置である。
検知装置103は、ネットワーク100から外部入出力インタフェースに入力された撮像装置101からの画像データを一時記憶メモリに格納する。格納された画像データに対し、演算回路を使い特定人物検知に関わる各種演算を行う。記録媒体には、ソフトウェア一式や、OS(オペレーションシステム)、特定人物の画像(人物特徴量)一式等が格納されている。特定人物検知の結果は、外部入出力インタフェースからネットワーク100に出力される。
端末装置104は、CPU等の演算回路や、RAM等の一時記憶メモリ、HDD等の記録媒体、データ伝送バス、外部入出力インタフェース、電源回路、液晶ディスプレイ等の画面、キーボードやマウス等のユーザ入力機器を備える、コンピュータ等の装置である。また、端末装置104には、例えば、ブザーや音声アナウンス機器、LED発光機器等を加えて構成されてもよい。
端末装置104は、ネットワーク100から外部入出力インタフェースに入力された撮像装置101からの画像データや、検知装置103からの特定人物検知結果を一時記憶メモリに格納する。格納された画像データや特定人物検知結果に対し、演算回路を使い、表示に適した形態に変換を加え、画面表示する。記録媒体には、ソフトウェア一式や、OS等が格納されている。また、端末装置104に対するユーザ操作は、ユーザ入力機器に対して行われる。
図2に示すように、検知装置103は、特定人物記録部200、画像受信部201、人物検出部202、人物角度算出部203、人物特徴量算出部204、特定人物判定部205、判定結果保管部206、特定人物統合判定部207、検知通知部208、制御指示部209の各処理部にて構成される。
特定人物記録部200は、特定人物の画像登録の際に、その人物の画像や人物特徴量、その人物ID(姓名や人物固有に与えた識別情報)等を記録媒体に記録しておく処理部であり、例えば、データベースである。データは、事前に与えられておくものとし、その与え方はどのようであってもよい。特定人物記録部における記録データの態様については、後述する。
画像受信部201は、装置外部からの画像入出力を行う処理部であり、本実施例では、撮像装置101や録画装置102からの入力画像データの受信を行う。
人物検出部202は、画像受信部201への入力画像データに対し画像認識技術を用いた人物検出を行い、登場人物の存在判定をし、画像中に人物が存在する場合にはその領域座標出力を行う処理部である。
人物角度算出部203は、人物検出部202で検出した画像中の人物領域に対して画像認識技術を用いて角度算出を行う処理部である。
人物特徴量算出部204は、人物検出部202で検出した画像中の人物領域に対して画像認識技術を用いて特徴量算出を行う処理部である。
特定人物判定部205は、人物検出部202で検出した登場人物に対する特定人物該非を、人物特徴量算出部204で求めた特徴量を用いて1次判定する処理部である。
判定結果保管部206は、特定人物判定部205で判定した結果等を一時記憶メモリに格納し、保管する処理部である。判定結果保管部における保管データの態様については、後述する。
特定人物統合判定部207は、特定人物判定部205にて判定を行い、判定結果保管部206に保管された判定結果について、複数の判定結果から2次判定を行う処理部である。
検知通知部208は、特定人物統合判定部207にて、特定人物を検知した際に、その結果通知の入出力を行う処理部であり、端末装置104への特定人物検知結果データの送信を行う。
制御指示部209は、各処理部への指示を行う処理部である。
図3に示すように、特定人物記録部201における記録データ320は、例えば人物1名の情報を1個のレコードとして記録し、特定人物5名の情報、すなわち5個のレコードが記録され、レコード300〜304で構成される。
レコード300〜304のそれぞれは、レコード番号セル310、人物IDセル311、特徴量セル312、角度セル313、人物画像セル314で構成される。
レコード番号セル310は、レコード番号を格納する領域である。レコード番号は、レコードの管理をするために用いる番号であり、例えば、レコード毎にユニークに振られる連続整数値である。
人物IDセル311は、特定人物の人物IDを格納する領域である。本実施例では、人物名称としての文字列が格納された例を示すが、人物固有に与えた識別情報であれば、整数値等を用いるようにしてもよい。
特徴量セル312は、特定人物の人物特徴量を格納する領域である。本実施例では、説明の容易さのため、1次元値としての小数値が格納された例を示すが、多次元値を用いるようにしてもよい。
角度セル313は、特定人物の撮影角度を格納する領域である。
人物画像セル314は、特定人物の画像を格納する領域である。本実施例では、人物画像そのものを格納した例を示すが、代わりに画像を別途格納した領域のアドレスを16進数で格納するようにしてもよい。
本実施例では、人物1名あたりに特徴量、角度、画像を1組ずつ格納する構成を示したが、人物1名あたりに特徴量、角度、画像を複数組ずつ格納する構成であってもよい。
検知装置103における処理の流れについて図4A〜4Cを用いて説明する。
ステップ400:制御指示部209は、次に取得する画像の時刻(T)を算出する。特定人物検知を数フレームおきに実施する場合、現在時刻から数フレーム先の時刻を算出し画像の時刻(T)とする。そして、画像受信部201は、撮像装置101に対し、画像(T)の出力を要求する。
ステップ401:画像受信部201は、画像受信待機を行う。撮像装置101からの画像着信を検知すると処理はステップ402に進む。
ステップ402:画像受信部201は、撮像装置101からの画像を受信する。この受信した時刻(T)の画像を画像(T)とする。
ステップ403:人物検出部202は、受信した画像データに対して人物検出を行う。人物検出は、例えば、背景画像との差分により動体検出を行い、さらにその動体領域の面積や形状、移動速度等にて人物判定をする方法や、予め学習させ用意しておいた人物の画像特徴パターンを有する領域の有無を画像内探索を使って探す方法等により行う。本実施例では人物検出はいずれの方法であってもよく、また人物検出が人物全体を対象とした検出であっても、人物特定の代表的な部位である顔のような部分領域を対象とした検出であってもよい。上記の結果、人物が検出された場合、処理をステップ404に進め、検出されなかった場合には、処理をステップ400に戻す。
ステップ404:人物検出部202は、ステップ403で検出された人物の人物領域座標を算出する。
ステップ405:人物角度算出部203は、ステップ404で算出した人物の領域画像に対して、撮影角度を算出する。人物の撮影角度の算出は、例えば、領域画像中から目や鼻、口などの各器官を検出し、それらの配置関係から求める方法や角度が既知である画像を予め用意しその画像との類似性から求める方法等により行う。本実施例発明ではいずれの方法であってもよい。
ステップ406:人物特徴量抽出部204は、ステップ404で算出した人物の領域画像に対して、その人物特徴量を算出する。ここで算出する人物特徴量には、例えば、人物の輪郭の形状や方向、頭髪や皮膚の色、歩容、あるいは、顔の輪郭の形状や方向、目や鼻、口といった主要構成要素の大きさ・形状や配置関係等々の画像特徴量が挙げられるが、本実施例においては使用する特徴量の種類や数はいずれであってもよい。
ステップ407:特定人物判定部205は、人物特徴量の全照合を行う。具体的には、ステップ406で算出した人物特徴量を、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量全てを対象に順番に照合(一致度算出)していき、最も一致性の高い特徴量を探し出す。この特徴量を持つ人物を最類似人物とする。ここで、一致度とは、画像(画像特徴量)同士の近さを示す数値であり、その算出方法については、例えば、「大規模な画像集合のための表現モデル」(廣池敦他、日本写真学会誌2003年66巻1号P93−P101)のような論文を参照することができる。本実施例における一致度は、値が小さいほど一致性が高いものとする。本実施例において、照合順番の決定方法や、一致度の算出方法はどのようであってもよい。
ステップ408:特定人物判定部205は、特定人物の検知判定(1次検知)を行う。検知判定は、ステップ407で求めた最類似人物についてその一致度とある一定値(第1の閾値)との関係において、一致度が閾値以下であった場合にその人物を特定人物として検知したと判定する。検知と判定された場合には、処理をステップ409に進め、それ以外の場合には、処理をステップ400に戻す。
ステップ409:判定結果保管部206は、画像(T)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ408で求めた最類似人物の一致度と人物ID、ステップ405で求めた角度、ステップ404で算出した人物領域の座標を含む。保管データの態様については後述する。
ステップ410:制御指示部209はカウンタ(L)を1にリセットする。
ステップ411:制御指示部209はカウンタ(L)と予め設定した制限値(M)の大小関係を比較する。LがM未満の場合には、処理をステップ412に進め、LがM以上となった場合、処理をステップ421に進める。ここで、Mは、例えば4とする。
ステップ412:画像受信部201は、録画装置102に対し、画像(T)のLフレーム前の画像(T−L)の出力を要求する。
ステップ413:画像受信部201は、録画装置102からの画像(T−L)を受信する。
ステップ414:人物検出部202は、受信した画像データに対して、ステップ403にて検出した人物と同一人物の検出を行う。その際、カウンタ(L)が1の場合にはステップ404、それ以外の場合には前回のステップ414にて算出された人物の領域画像の近傍領域のみを検出対象として行う。人物の検出の方法については、ステップ403と同様である。ステップ403にて検出した人物と本ステップにて検出した人物との同定は、例えば、ステップ403で求めた人物領域と、本ステップで求めた人物領域との重なり面積を求め、その値が一定値以上であった場合に同一とする方法等により行う。上述の一定値は、人物の画像中での見かけの移動量を勘案し、事前に与えておくものとする。上記の結果、同一人物が検出された場合、処理をステップ415に進め、検出されなかった場合には、処理をステップ421に進める。
ステップ415:人物検出部202は、ステップ414で検出された人物の人物領域座標を算出する。
ステップ416:人物角度算出部203は、ステップ415で算出した人物の領域画像に対して、撮影角度を算出する。角度算出の方法については、ステップ405と同様である。
ステップ417:人物特徴量抽出部204は、ステップ415で算出した人物の領域画像に対して、その人物特徴量を算出する。人物特徴量算出の方法については、ステップ406と同様である。
ステップ418:特定人物判定部205は、人物特徴量の照合を行う。具体的には、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量の中からステップ407にて求めた最類似人物の特徴量を取り出し、ステップ417で算出した人物特徴量と照合を行い、一致度を算出する。一致度算出の方法については、ステップ407と同様である。
ステップ419:判定結果保管部206は、画像(T−L)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ418で求めた一致度、ステップ416で求めた角度、ステップ415で算出した人物領域の座標を含む。
ステップ420:制御指示部209はカウンタLを1加算し、制御をステップ411に戻す。本例においては、加算量を1、すなわち、連続するフレームを利用する事例を示したが、画像内における人物の移動速度に対して撮像装置101の撮影フレームレートが高い場合などについては、加算量を2以上とし、離散なフレームを利用してもよい。以降も同様である。
ステップ421:制御指示部209はカウンタ(L)を1にリセットする。
ステップ422:制御指示部209はカウンタ(L)と予め設定した制限値(N)の大小関係を比較する。LがN未満の場合には、処理をステップ423に進め、LがN以上となった場合、処理をステップ432に進める。ここで、Nは、例えば4とする。
ステップ423:画像受信部201は、録画装置102に対し、画像(T)のLフレーム次の画像(T+L)の出力を要求する。
ステップ424:画像受信部201は、録画装置102からの画像(T+L)を受信する。
ステップ425:人物検出部202は、受信した画像データに対して、ステップ403にて検出した人物と同一人物の人物検出を行う。その際、カウンタ(L)が1の場合にはステップ404、それ以外の場合には前回のステップ425にて算出された人物の領域画像の近傍領域のみを検出対象として行う。人物の検出の方法については、ステップ403と同様である。ステップ403にて検出した人物と本ステップにて検出した人物との同定については、ステップ414と同様である。上記の結果、同一人物が検出された場合、処理をステップ426に進め、検出されなかった場合には、処理をステップ432に進める。
ステップ426:人物検出部202は、ステップ425で検出された人物の人物領域座標を算出する。
ステップ427:人物角度算出部203は、ステップ426で算出した人物の領域画像に対して、撮影角度を算出する。角度算出の方法については、ステップ405と同様である。
ステップ428:人物特徴量抽出部204は、ステップ426で算出した人物の領域画像に対して、その人物特徴量を算出する。人物特徴量算出の方法については、ステップ406と同様である。
ステップ429特定人物判定部205は、人物特徴量の照合を行う。具体的には、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量の中からステップ407にて求めた最類似人物の特徴量を取り出し、ステップ428で算出した人物特徴量と照合を行い、一致度を算出する。一致度算出の方法については、ステップ407と同様である。
ステップ430:判定結果保管部206は、画像(T+L)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ429で求めた一致度、ステップ425で求めた角度、ステップ426で算出した人物領域の座標を含む。
ステップ431:制御指示部209はカウンタ(L)を1加算し、制御をステップ422に戻す。
ステップ432:特定人物統合判定部207は、ステップ409、419、430で判定結果保管部206に保管した結果を用いて、統合判定を行う。統合判定は、特定人物記録部200に予め記録しておいた各特定人物の撮影角度の中からステップ407にて求めた最類似人物の撮影角度を取り出し、その角度と判定結果保管部206に保管した結果の中で、最も近い角度の結果を探し出し、その結果の一致度とある一定値(第2の閾値)との関係において、一致度が閾値以下であった場合にその人物を特定人物として検知したと統合判定する。第2の閾値は第1の閾値より小さな値を設定する。検知と判定された場合には、処理をステップ433に進め、それ以外の場合には、処理をステップ434に進める。
ステップ433:検知通知部208は、特定人物通知を端末装置104に送信する。送信データは、特定人物のIDやその人物画像等を含んで構成される。
ステップ434:判定結果保管部206は、保管していた結果を全て削除する。保管していた結果を削除せず、上書きをしてもよい。削除完了後、処理をステップ400に戻す。
図5に示すように、判定結果保管部206における保管データ520は、例えば照合結果を1レコードとして保管され、最大で7個のレコード、すなわち7回分の照合結果が保管できるようになっており、レコード500〜506で構成される。図5はどのレコードも空である状態を示している。
レコード500〜506のそれぞれは、レコード番号セル510、人物IDセル511、一致度セル512、角度セル513、人物領域座標セル514で構成される。
レコード番号セル510は、レコード番号を格納する領域である。レコード番号は、レコードの管理をするために用いる番号であり、例えば、レコード毎にユニークに振られる連続整数値である。
人物IDセル511は、最類似人物の人物IDを格納する領域である。人物IDは、人物を識別するために用いる情報であり、例えば、人物名称を表す文字列や、人物固有に割り振られた整数値列、記号列、それらの組合せ等である。
一致度セル512は、一致度を格納する領域である。
角度セル513は、登場人物の撮影角度を格納する領域である。
人物領域座標セル514は、登場人物の画像領域の座標を格納する領域である。
ここで、一人の人物の登場から退場までの動作について、より具体的に説明する。ここでこの登場人物は検知対象、すなわち特定人物の人物Eであるとする。
特定人物記録部200には、図3に示したデータが予め記録されているものとする。また、説明の簡略化のため、人物Eの登場から退場まで人物E以外の人物は現れないものとする。撮像装置101は10フレーム/秒で撮像し、録画装置102は撮像装置101の映像を10フレーム/秒で録画しているものとする。また、検知装置103は、撮像装置101の映像を1フレーム/秒でサンプリングしながら処理を実施するものとする。
図6のタイミング図は、横軸600が時系列を表し、右が未来側である。横軸600上に縦線にて刻み表記するタイミング610〜630は、撮像装置101が撮像し、録画装置102が録画している画像のタイミングを表す。そのうち、横軸600下に△印を表記するタイミング610、620、630は、検知装置103が定常的にサンプリングしながら処理を実施している画像のタイミングも表す。ここで、タイミング620を時刻(T)とする。また、人物Eは、タイミング614に登場し、タイミング627に退場する、すなわち、登場区間はタイミング614〜626であるとする。
時刻(T)における処理の内容について図7A、7Bを用いて説明する。図3や図5と同一の符号は、それぞれ同一であることを示す。
画像700は、時刻(T)、すなわちタイミング620の画像(T)である。
検知装置103は、撮像装置101から、画像(T)を取得する(ステップ400〜402)。そして、この画像の全領域に対し、人物検出などを行う(ステップ403〜404)。検出領域701は、ステップ404で得られた人物領域を示す。また領域座標702は、検出領域701の画像中における座標値を示す。本実施例においては、検出領域701の左上座標と右下座標を用いた例を示す。原点は図において検出領域701の左上に位置する。
次に、検知装置103は、検出領域701に対して撮影角度を算出する(ステップ405)。角度703は、ここで算出された値を示す。
次に、検知装置103は、検出領域701に対して人物特徴量を算出する(ステップ406)。人物特徴量704は、ここで算出された値を示す。人物特徴量には、多次元量が用いられるのが通常であるが、本実施例においては、説明の簡略化のため、1次元の小数値を用いた例を示す。以降も同様である。
次に、検知装置103は、人物特徴量704を用いて、特定人物記録部200の記録データ320に対して、全照合を行う(ステップ407)。照合710〜714は、記録データ320の各レコードと照合を行っている様子を示し、一致度720〜724は、各照合において算出した一致度を示す。一致度は値が小さいほど、似ている度合が高いとされる値である。全照合の結果、最も小さな一致度は、一致度724であることから、最類似人物は、レコード304に記録されている、人物Eであると判定される。一致度には、多次元量である人物特徴量空間におけるベクトルのスカラー値が使われることが多いが、本実施例においては、説明の簡略化のため、人物特徴量の差分の絶対値を用いた例を示す。以降も同様である。
次に、検知装置103は、上記で求めた最類似人物である人物Eの一致度724と予め設定しておいた第1の閾値との大小比較を行う。本実施例では第1の閾値を1.00とする。一致度724は、0.90であり、閾値以下であるので、この登場人物が特定人物の一人であり、人物Eであると一次判定される(ステップ408)。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード500に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度724の値を、角度セル513に該当するセルに角度703の値を、人物領域座標セル514に該当するセルに領域座標702の値をそれぞれ格納する(ステップ409)。図7Bの保管データ520は、本時点での格納データの状態を示す。
画像700における一連の処理は、以上である。
時刻(T−1)における処理の内容について図8A、8Bを用いて説明する。
画像800は、時刻(T−1)、すなわち、タイミング619の画像(T−1)である。
検知装置103は、録画装置102から、画像(T−1)を取得する(ステップ412〜413)。そしてこの画像(T−1)に対し、人物検出などを行う。その際、検出領域701の近傍領域801のみに対して実施する。ここで近傍領域とは、検出領域701を含み、検出領域701の上下左右に領域を拡げた領域である。拡げる量は、画像に映る人物の見かけの移動速度に合わせて適切な値を予め与えるものとする。本実施例では検出領域702と同一の領域を近傍領域801として与える例を示す。検出領域802は、ステップ415にて得られた人物領域を示す。また、領域座標803は、検出領域802の画像中における座標値を示す。
次に、検知装置103は、検出領域802に対して人物角度を算出する(ステップ416)。角度804は、ここで算出された値を示す。
次に、検知装置103は、検出領域802に対して人物特徴量を算出する(ステップ417)。人物特徴量805は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量805を用いて、特定人物記録部200の記録データ320に対して、照合を行う(ステップ418)。この際、照合を行うのは、照合810に示すように、人物Eのレコードのみである。一致度820は、照合810により算出された一致度である。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード501に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度820の値を、角度セル513に該当するセルに角度804の値を、人物領域座標セル514に該当するセルに領域座標803の値をそれぞれ格納する(ステップ419)。図8Bの保管データ520は、本時点での格納データの状態を示す。
画像800に関わる一連の処理は、以上である。
検知装置103は、上記の処理をタイミング617の画像(T−3)まで、または、ステップ414で人物が非検出となるまで、遡って実施する。
ステップ422〜432における処理の内容について図9A、9Bを用いて説明する。
画像900は、時刻(T+3)、すなわち、タイミング623の画像(T+3)である。
検知装置103は、録画装置102から、画像(T+3)を取得する(ステップ423〜424)。そしてこの画像に対し、人物検出などを行う。その際、近傍領域901のみに対して実施する。検出領域902は、ステップ426にて得られた人物領域を示す。また、領域座標903は、検出領域902の画像中における座標値を示す。
次に、検知装置103は、検出領域902に対して人物角度を算出する(ステップ427)。角度904は、ここで算出された値を示す。
次に、検知装置103は、検出領域902に対して人物特徴量を算出する(ステップ428)。人物特徴量905は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量905を用いて、特定人物記録部200の記録データ320に対して、照合を行う(ステップ429)。この際、照合を行うのは、照合910に示すように、人物Eのレコードのみである。一致度920は、照合910により算出された一致度である。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード506に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度920の値を、角度セル513に該当するセルに角度904の値を、人物領域座標セル514に該当するセルに領域座標903の値をそれぞれ格納する(ステップ419)。図9Bの保管データ520は、本時点での格納データの状態を示す。
画像900に関わる一連の処理は、以上である。
次に、検知装置103は、特定人物記録部200に予め記録しておいた人物Eの角度の値を取り出し、保管データ520に格納された結果の中から、最も近い角度の結果を探す。本実施例では、レコード501となる。そして、レコード501に格納された一致度を取り出す。取り出した一致度と、予め設定しておいた第2の閾値との大小比較を行う。本実施例では第2の閾値を0.60とする。取り出した一致度は0.20であり、閾値以下であるので、この登場人物が特定人物の一人であり、人物Eであると統合判定される(ステップ432)。
以上が、検知に至る一連の処理の説明となる。
ここまでに示したように、本実施例では、特定人物記録部200に予め記録しておいた角度に最も近い画像にて照合を行う。一般的に角度が近い画像ほど、精度が高い。従って、本実施例により、特定人物検知システムにおいて、より高い検知精度を得ることを可能とした。また、本実施例では事前に様々な角度の人物画像を登録できなかった場合にもより高い検知精度を得ることができる。また、本実施例では常時の照合を高フレームレートにしない場合においても、より高い検知精度を得ることができる。
ここまでの説明においては、説明の簡略化のため、撮像装置や検知装置、録画装置、端末装置は各1台の構成で示したが、これらはネットワークに対し、複数台の接続が可能である。
また同様に、撮像装置と検知装置、あるいは録画装置と検知装置は、各1台が対向で動作するように示したが、複数の撮像装置や録画装置に対し1台の検知装置で対応させることも可能であり、また逆に1台の撮像装置や録画装置に対し複数台の検知装置で対応させることも可能である。
また同様に、検知装置と端末装置は各1台が対向で動作するように示したが、複数の検知装置に対し1台の端末装置で対応させることも可能であり、また逆に1台の検知装置に対し複数台の端末装置で対応させることも可能である。
また同様に、撮像装置や録画装置と検知装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしてもよい。
また同様に、検知装置と端末装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしてもよい。
また同様に、特定人物検知システムを対象に示したが、特定人物だけでなく特定車両や他の特定物体などの検知システムを対象に実施するようにしてもよい。
次に、第2の実施例に係る特定人物検知システムの装置構成について図10を用いて説明する。図1と同一の符号は、同一の装置であることを示す。
特定人物検知システム20は、ネットワーク100に、撮像装置1001〜1003、録画装置102、検知装置103、端末装置104が接続され、互いに通信可能な状態で構成される。
撮像装置1001〜1003は、撮像装置101と同一の装置である。本実施例ではシステムに撮像装置が3台接続されているものとする。撮像装置1001〜1003は、同一地点を別の角度から撮影するように設置する。検知装置103は同一地点を撮影している撮像装置1001〜1003の対応情報を記憶装置に記憶させている。これにより、検知装置103は同一地点を撮影している撮像装置はどれかを把握することができる。
本実施例において、録画装置102は、撮像装置1001〜1003の映像を常時録画しているものとする。
検知装置103における処理の流れについて図11A〜11Cを用いて説明する。
ステップ1100:制御指示部209は、次に取得する画像時刻(T)を算出する。特定人物検知を数フレームおきに実施する場合、現在時刻から数フレーム先の時刻を算出し画像時刻(T)とする。そして、画像受信部201は、撮像装置1001に対し、画像(T)の出力を要求する。
ステップ1101:画像受信部201は、画像受信待機を行う。撮像装置1001からの画像着信を検知すると処理はステップ1102に進む。
ステップ1102:画像受信部201は、撮像装置1001からの画像を受信する。この受信した時刻(T)の画像を画像(T)とする。
ステップ1103:人物検出部202は、受信した画像データに対して人物検出を行う。人物検出については、ステップ403と同様である。上記の結果、人物が検出された場合、処理をステップ1104に進め、検出されなかった場合には、処理をステップ1100に戻す。
ステップ1104:人物検出部202は、ステップ1103で検出された人物の人物領域座標を算出する。
ステップ1105:人物角度算出部203は、ステップ1104で算出した人物の領域画像に対して、角度を算出する。人物の角度の算出は、ステップ405と同様である。
ステップ1106:人物特徴量抽出部204は、ステップ1104で算出した人物の領域画像に対して、その人物特徴量を算出する。人物特徴量については、ステップ406と同様である。
ステップ1107:特定人物判定部205は、人物特徴量の全照合を行う。具体的には、ステップ1106で算出した人物特徴量を、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量全てを対象に順番に照合(一致度算出)していき、最も一致度の小さい特徴量を探し出す。この特徴量を持つ人物を最類似人物とする。一致度については、ステップ407と同様である。
ステップ1108:特定人物判定部205は、特定人物の検知判定を行う。検知判定については、ステップ408と同様である。検知と判定された場合には、処理をステップ1109に進め、それ以外の場合には、処理をステップ1100に戻す。
ステップ1109:判定結果保管部206は、画像(T)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ1108で求めた最類似人物の一致度と人物ID、ステップ1105で求めた角度、ステップ1104で算出した人物領域の座標を含む。保管データの態様については図5と同様である。
ステップ1110:画像受信部201は、録画装置102に対し、撮像装置1002の画像(T)の出力を要求する。
ステップ1111:画像受信部201は、録画装置102から、撮像装置1002の画像(T)を受信する。
ステップ1112:人物検出部202は、受信した画像データに対して、ステップ1103にて検出した人物と同一人物の検出を行う。人物の検出の方法については、ステップ1103と同様である。ステップ1103にて検出した人物と本ステップにて検出した人物との同定は、ステップ414と同様である。但し、本実施例においては、撮像装置1001と撮像装置1002の撮影位置が異なるので、それぞれの設置位置関係を求めておき、幾何計算にて、それぞれの画像座標間の対応を事前求めておくこととする。上記の結果、同一人物が検出された場合、処理をステップ1113に進め、検出されなかった場合には、処理をステップ1108に進める。人物検出部202は、ステップ1112で検出された人物の人物領域座標を算出する。
ステップ1114:人物角度算出部203は、ステップ1113で算出した人物の領域画像に対して、角度を算出する。角度算出の方法については、ステップ405と同様である。
ステップ1115:人物特徴量抽出部204は、ステップ1113で算出した人物の領域画像に対して、その人物特徴量を算出する。人物特徴量算出の方法については、ステップ406と同様である。
ステップ1116:特定人物判定部205は、人物特徴量の照合を行う。具体的には、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量の中からステップ1107にて求めた最類似人物の特徴量を取り出し、ステップ1115で算出した人物特徴量と照合を行い、一致度を算出する。一致度算出の方法については、ステップ407と同様である。
ステップ1117:判定結果保管部206は、撮像装置1002の画像(T)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ1116で求めた一致度、ステップ1114で求めた角度、ステップ1113で算出した人物領域の座標を含む。
ステップ1118:画像受信部201は、録画装置102に対し、撮像装置1003の画像(T)の出力を要求する。
ステップ1119:画像受信部201は、録画装置102から、撮像装置1003の画像(T)を受信する。
ステップ1120:人物検出部202は、受信した画像データに対して、ステップ1103にて検出した人物と同一人物の検出を行う。人物の検出の方法については、ステップ1103と同様である。ステップ1103にて検出した人物と本ステップにて検出した人物との同定は、ステップ414と同様である。但し、本実施例においては、撮像装置1001と撮像装置1003の撮影位置が異なるので、それぞれの設置位置関係を求めておき、幾何計算にて、それぞれの画像座標間の対応を事前求めておくこととする。上記の結果、同一人物が検出された場合、処理をステップ1121に進め、検出されなかった場合には、処理をステップ1126に進める。
ステップ1121:人物検出部202は、ステップ1120で検出された人物の人物領域座標を算出する。
ステップ1122:人物角度算出部203は、ステップ1121で算出した人物の領域画像に対して、角度を算出する。角度算出の方法については、ステップ405と同様である。
ステップ1123:人物特徴量抽出部204は、ステップ1121で算出した人物の領域画像に対して、その人物特徴量を算出する。人物特徴量算出の方法については、ステップ406と同様である。
ステップ1124:特定人物判定部205は、人物特徴量の照合を行う。具体的には、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量の中からステップ1107にて求めた最類似人物の特徴量を取り出し、ステップ1123で算出した人物特徴量と照合を行い、一致度を算出する。一致度算出の方法については、ステップ407と同様である。
ステップ1125:判定結果保管部206は、撮像装置1003の画像(T)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ1124で求めた一致度、ステップ1122で求めた角度、ステップ1121で算出した人物領域の座標を含む。
ステップ1126:特定人物統合判定部207は、ステップ1109、や1117、1125で判定結果保管部206に保管した結果を用いて、統合判定を行う。統合判定は、特定人物記録部200に予め記録しておいた各特定人物の人物角度の中からステップ1107にて求めた最類似人物の角度を取り出し、その角度と判定結果保管部206に保管した結果の中で、最も近い角度の結果を探し出し、その結果の一致度とある一定値(第2の閾値)との関係において、一致度が閾値以下であった場合にその人物を特定人物として検知したと統合判定する。第2の閾値は第1の閾値より小さな値を設定する。検知と判定された場合には、処理をステップ1127に進め、それ以外の場合には、処理をステップ1128に進める。
ステップ1127:検知通知部208は、特定人物通知を端末装置104に送信する。送信データは、特定人物のIDやその人物画像等を含んで構成される。
ステップ1128:判定結果保管部206は、保管していた結果を全て削除する。保管していた結果を削除せず、上書きをしてもよい。削除完了後、処理をステップ1100に戻す。
時刻(T)における処理の内容について図12A、12Bを用いて説明する。図3や図5と同一の符号は、それぞれ同一であることを示す。
画像1200は、時刻(T)の撮像装置1001の画像(T)である。
検知装置103は、撮像装置1001から、画像(T)を取得する(ステップ1100〜1102)。そして、この画像の全領域に対し、人物検出などを行う(ステップ1103〜1104)。検出領域1201は、ステップ1104で得られた人物領域を示す。また領域座標1202は、検出領域1201の画像中における座標値を示す。本実施例においては、検出領域1201の左上座標と右下座標を用いた例を示す。
次に、検知装置103は、検出領域1201に対して人物角度を算出する(ステップ1105)。角度1203は、ここで算出された値を示す。
次に、検知装置103は、検出領域1201に対して人物特徴量を算出する(ステップ1106)。人物特徴量1204は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量1204を用いて、特定人物記録部200の記録データ320に対して、全照合を行う(ステップ1107)。照合1210〜1214は、記録データの各レコードと照合を行っている様子を示し、一致度1220〜1224は、各照合において算出した一致度を示す。一致度は値が小さいほど、似ている度合が高いとされる値である。全照合の結果、最も小さな一致度は、一致度1224であることから、最類似人物は、レコード304に記録されている、人物Eであると判定される。
次に、検知装置103は、上記で求めた最類似人物である人物Eの一致度1224と予め設定しておいた第1の閾値との大小比較を行う。本実施例では第1の閾値を1.00とする。一致度1224は、0.90であり、閾値以下であるので、この登場人物が特定人物の一人であり、人物Eであると一次判定される(ステップ1108)。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード500に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度1224の値を、角度セル513に該当するセルに角度1203を、人物領域座標セル514に該当するセルに領域座標1202の値をそれぞれ格納する(ステップ1109)。図12Bの保管データ520は、本時点での格納データの状態を示す。
ステップ1100〜1109における一連の処理は、以上である。
ステップ1110〜1117における処理の内容について図13A、13Bを用いて説明する。
画像1300は、時刻(T)の撮像装置1002の画像(T)である。
検知装置103は、録画装置102から、撮像装置1002の画像(T)を取得する(ステップ1110〜1111)。この画像の全領域に対し、人物検出などを行う(ステップ1112〜1113)。検出領域1301は、ステップ1113にて得られた人物領域を示す。また、領域座標1302は、検出領域1301の画像中における座標値を示す。
次に、検知装置103は、検出領域1301に対して人物角度を算出する(ステップ1114)。角度1303は、ここで算出された値を示す。
次に、検知装置103は、検出領域1301に対して人物特徴量を算出する(ステップ1115)。人物特徴量1304は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量1304を用いて、特定人物記録部200の記録データ320に対して、照合を行う(ステップ1116)。この際、照合を行うのは、照合1310に示すように、人物Eのレコードのみである。一致度1320は、照合1310により算出された一致度である。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード501に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度1320の値を、角度セル513に該当するセルに角度1303を、人物領域座標セル514に該当するセルに領域座標1302の値をそれぞれ格納する(ステップ1117)。図13Bの保管データ1330は、本時点での格納データの状態を示す。
ステップ1110〜1117における一連の処理は、以上である。
ステップ1118〜1126における処理の内容について図14A、14Bを用いて説明する。
画像1400は、時刻(T)の撮像装置1003の画像(T)である。
検知装置103は、録画装置102から、撮像装置1003の画像(T)を取得する(ステップ1118〜1119)。この画像の全領域に対し、人物検出などを行う(ステップ1120〜1121)。検出領域1401は、ステップ1121にて得られた人物領域を示す。また、領域座標1402は、検出領域1401の画像中における座標値を示す。
次に、検知装置103は、検出領域1401に対して人物角度を算出する(ステップ1122)。角度1403は、ここで算出された値を示す。
次に、検知装置103は、検出領域1401に対して人物特徴量を算出する(ステップ1123)。人物特徴量1404は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量1404を用いて、特定人物記録部200の記録データ320に対して、照合を行う(ステップ1124)。この際、照合を行うのは、照合1410に示すように、人物Eのレコードのみである。一致度1420は、照合1410により算出された一致度である。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード502に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度1420の値を、角度セル513に該当するセルに角度1403を、人物領域座標セル514に該当するセルに領域座標1402の値をそれぞれ格納する(ステップ1125)。図14Bの保管データ520は、本時点での格納データの状態を示す。
次に、検知装置103は、特定人物記録部200に予め記録しておいた人物Eの角度を取り出し、保管データ1430に格納された結果の中から、最も近い角度の結果を探す。本実施例では、レコード501となる。そして、レコード501に格納された一致度を取り出す。取り出した一致度と、予め設定しておいた第2の閾値との大小比較を行う。本実施例では第2の閾値を0.60とする。取り出した一致度は0.20であり、閾値以下であるので、この登場人物が特定人物の一人であり、人物Eであると統合判定される(ステップ1126)。
以上が、検知に至る一連の処理の説明となる。
ここまでに示したように、本実施例では、特定人物記録部200に予め記録しておいた角度に最も近い画像にて照合を行う。一般的に角度が近い画像ほど、精度が高い。従って、本実施例により、特定人物検知システムにおいて、より高い検知精度を得ることを可能とした。また、本実施例では事前に様々な角度の人物画像を登録できなかった場合にもより高い検知精度を得ることができ、複数の撮像装置間の撮影角度の差異を歩行人物の向き変動幅よりも大きくなるように撮像装置を設置することにより、実施例1よりも大きな効果が得られる。また、本実施例では常時の照合を高フレームレートにしない場合においても、より高い検知精度を得ることができる。
ここまでの説明においては、説明の簡略化のため、同一地点における撮像装置について3台の構成で示したが、3台以外の複数台構成にて実施するようにしてもよい。
また同様に、撮像装置や録画装置と検知装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしてもよい。
また同様に、検知装置と端末装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしてもよい。
また同様に、特定人物検知システムを対象に示したが、特定人物だけでなく特定車両や他の特定物体などの検知システムを対象に実施するようにしてもよい。
次に、第3の実施例に係る特定人物検知システムの装置構成について図15を用いて説明する。図1と同一の符号は、同一の装置であることを示す。
特定人物検知システム30は、ネットワーク100に、撮像装置1501〜1504、録画装置102、検知装置103、端末装置104、検索装置1505が接続され、互いに通信可能な状態で構成される。
撮像装置1501〜1504は、撮像装置101と同一の装置である。本例ではシステムに撮像装置が4台接続されているものとする。
検索装置1505は、CPU等の演算回路や、RAM等の一時記憶メモリ、HDD等の記録媒体、データ伝送バス、外部入出力インタフェース、電源回路等を備える、コンピュータ等の装置である。
検索装置1505は、ネットワークから外部入出力インタフェースに入力された録画装置102からの画像データを一時記憶メモリに格納する。格納された画像データに対し、演算回路を使い類似画像検索に関わる各種演算を行う。記録媒体には、類似画像検索を行うソフトウェア一式や、OS(オペレーションシステム)、類似画像検索を行うための特徴量を格納するためのデータベース等が格納されている。類似画像検索の結果は、外部入出力インタフェースからネットワーク100に出力される。
本実施例において、録画装置102は、撮像装置1501〜1504の映像を常時録画しているものとする。また、検索装置1505は、録画装置102に録画された、撮像装置1501〜1504の映像を常時収集し、データベース化を行い、類似画像検索を実施可能な状態にしているものとする。検索装置1505の詳細については後述する。
上記4台の撮像装置の設置の位置関係について一例を図16に示す。
図16に示すように、通路1600は、人物が歩行できる通路を示し、経路1601は人物Eが歩行した経路を示す。地点1611〜1614は、それぞれ撮像装置1501〜1504が設置されている位置を示し、撮影エリア1621〜1624はそれぞれ撮像装置1501〜1504が撮影している範囲を示す。人物Eは、経路1601を撮影エリア1621、1622、1623の順に歩行したとする。
撮影エリア間の距離は、撮像装置の設置時に予め測定されて、検知装置103の制御指示部209にて保管されている。
制御指示部209における撮影エリア間距離データの態様について図17を用いて説明する。
距離データ1700は、撮影エリア間の距離を総当たりで格納する。本実施例は、4つの撮像エリア間の距離を格納した例を示す。行1701には撮影エリア1621についての他の撮影エリア間との距離を、行1702には撮影エリア1622についての他の撮影エリア間との距離を格納する。行1703や1704についても同様である。セル1711には、撮影エリア1621と1622間の距離を格納する。本実施例では、距離値にエリア間を歩行する所要時間としての秒を用いた例を示す。以降も同様である。セル1712には、撮影エリア1621と1623間の距離を、セル1713には、撮影エリア1621と1624間の距離をそれぞれ格納する。本実施例では、格納する距離値に所要時間を用いた例を示したが、道のり(長さ)を用いる等をしてもよい。
検知装置103における処理の流れについて図18A、18Bを用いて説明する。
ステップ1800において、検知装置103の制御指示部209は、撮像装置1501から次に取得する画像時刻(T)を算出する。特定人物検知を数フレームおきに実施する場合、現在時刻から数フレーム先の時刻を算出し画像時刻(T)とする。そして、画像受信部201は、撮像装置1501に対し、画像(T)の出力を要求する。
ステップ1801:画像受信部201は、画像受信待機を行う。撮像装置1501からの画像着信を検知すると処理はステップ1802に進む。
ステップ1802:画像受信部201は、撮像装置1501からの画像を受信する。この受信した時刻(T)の画像を画像(T)とする。
ステップ1803:人物検出部202は、受信した画像データに対して人物検出を行う。人物検出については、ステップ403と同様である。上記の結果、人物が検出された場合、処理をステップ1804に進め、検出されなかった場合には、処理をステップ1800に戻す。
ステップ1804:人物検出部202は、ステップ1803で検出された人物の人物領域座標を算出する。
ステップ1805:人物角度算出部203は、ステップ1804で算出した人物の領域画像に対して、撮影角度を算出する。人物の撮影角度の算出は、ステップ405と同様である。
ステップ1806:人物特徴量抽出部204は、ステップ1804で算出した人物の領域画像に対して、その人物特徴量を算出する。人物特徴量については、ステップ406と同様である。
ステップ1807:特定人物判定部205は、人物特徴量の全照合を行う。具体的には、ステップ1806で算出した人物特徴量を、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量全てを対象に順番に照合(一致度算出)していき、最も一致度の小さい特徴量を探し出す。この特徴量を持つ人物を最類似人物とする。一致度については、ステップ407と同様である。
ステップ1808:特定人物判定部205は、特定人物の検知判定を行う。検知判定については、ステップ408と同様である。検知と判定された場合には、処理をステップ1809に進め、それ以外の場合には、処理をステップ1800に戻す。
ステップ1809:判定結果保管部206は、画像(T)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ1808で求めた最類似人物の一致度と人物ID、ステップ1805で求めた角度、ステップ1804で算出した人物領域の座標を含む。保管データの態様については図5と同様である。
ステップ1810:制御指示部209は距離データ1700を参照し、画像(T)を取得した撮像装置1501の近接撮影エリアを算出する。ここで近接撮影エリアとは、画像(T)を取得した撮像装置1501との距離がある一定値以下の近距離関係にある撮影エリアとする。近接撮影エリアは、複数個存在する場合もある。また、図18には図示しないが、ステップ1810で近接撮影エリアが存在しなかった場合には、処理をステップ1822に進める。
ステップ1811:ステップ1803にて検出した人物のステップ1810で求めた近接撮影エリアの中から最も距離の遠い撮影エリアへの到達予想時刻(TF)を算出する。最遠到達予想時刻は、距離データ1700に格納された距離値から計算で求める。
ステップ1812:制御指示部209は、時刻(TF)まで待機する。時刻(TF)到達後、処理を1813に進める。
ステップ1813:制御指示部209は、検索装置1505に対し、画像(T)のステップ1804で算出した人物領域に対する類似画像検索の実施を要求する。その際、撮影時刻に関する条件として、時刻(T)以降、かつ、時刻(TF)以前であること、撮像エリアに関する条件として、ステップ1810で求めた近接撮影エリアであること、類似度が予め定めた一定値以上であることを類似画像検索の絞込条件として与える。
ステップ1814:制御指示部209は、検索装置1505からの検索結果を受信する。検索結果は、画像(R)とその画像における人物領域の座標を含んで構成される。ここでRは、例えば、検索結果に含まれる画像数が5つである場合にはR=1〜5となるような整数値であるとする。また、Rの最大値である5を検索結果数Sとして保管する。
ステップ1815:制御指示部209は、カウンタ(R)を0にリセットする。
ステップ1816:制御指示部209はカウンタ(R)と検索結果数(S)の大小関係を比較する。RがS未満の場合には、処理をステップ1817に進め、RがS以上となった場合、処理を1822に進める。
ステップ1817:人物角度算出部203は、ステップ1814で取得した画像(R)とその人物領域座標から得られる人物領域に対して、撮影角度を算出する。角度算出の方法については、ステップ405と同様である。
ステップ1818:人物特徴量抽出部204は、ステップ1814で取得した画像(R)とその人物領域座標から得られる人物領域に対して、その人物特徴量を算出する。人物特徴量算出の方法については、ステップ406と同様である。
ステップ1819:特定人物判定部205は、人物特徴量の照合を行う。具体的には、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量の中からステップ1807にて求めた最類似人物の特徴量を取り出し、ステップ1818で算出した人物特徴量と照合を行い、一致度を算出する。一致度算出の方法については、ステップ407と同様である。
ステップ1820:判定結果保管部206は、画像(R)に対して求めた結果を格納し、保管する。ここで、格納の対象となるデータには、ステップ1819で求めた一致度、ステップ1817で求めた撮影角度を含む。
ステップ1821:制御指示部209はカウンタ(R)Lを1加算し、制御をステップ1816に戻す。
ステップ1822:特定人物統合判定部207は、ステップ1809、1820で判定結果保管部206に保管した結果を用いて、統合判定を行う。統合判定は、特定人物記録部200に予め記録しておいた各特定人物の撮影角度の中からステップ1807にて求めた最類似人物の撮影角度を取り出し、その撮影角度と判定結果保管部206に保管した結果の中で、最も近い撮影角度の結果を探し出し、その結果の一致度とある一定値(第2の閾値)との関係において、一致度が閾値以下であった場合にその人物を特定人物として検知したと統合判定する。第2の閾値は第1の閾値より小さな値を設定する。検知と判定された場合には、処理をステップ1823に進め、それ以外の場合には、処理をステップ1824に進める。
ステップ1823:検知通知部208は、特定人物通知を端末装置104に送信する。送信データは、特定人物のIDやその人物画像等を含んで構成される。
ステップ1824:判定結果保管部206は、保管していた結果を全て削除する。保管していた結果を削除せず、上書きをしてもよい。削除完了後、処理をステップ1800に戻す。
ここで、検知対象、すなわち特定人物の人物Eが、通路1600を経路1601にて、歩行した際の動作について、より具体的に説明する。ここで、人物Eは、撮影エリア1621に時刻(T)に登場したものとする。また、特定人物記録部200には、図3に示したデータが予め記録されているものとする。また、説明の簡略化のため、人物Eの登場から退場まで人物E以外の人物は現れないものとする。
時刻(T)における処理の内容について図19A、19Bを用いて説明する。図3や図5と同一の符号は、それぞれ同一であることを示す。
画像1900は、時刻(T)における撮像装置1501が撮影エリア1621を撮影した画像(T)である。
検知装置103は、撮像装置1501から、画像(T)を取得する(ステップ1800〜1802)。そして、この画像の全領域に対し、人物検出などを行う(ステップ1803〜1804)。検出領域1901は、ステップ1804で得られた人物領域を示す。また領域座標1902は、検出領域1901の画像中における座標値を示す。本実施例においては、検出領域1901の左上座標と右下座標を用いた例を示す。
次に、検知装置103は、検出領域1901に対して撮影角度を算出する(ステップ1805)。撮影角度1903は、ここで算出された値を示す。
次に、検知装置103は、検出領域1901に対して人物特徴量を算出する(ステップ1806)。人物特徴量1904は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量1904を用いて、特定人物記録部200の記録データ320に対して、全照合を行う(ステップ1807)。照合1910〜1914は、記録データの各レコードと照合を行っている様子を示し、一致度1920〜1924は、各照合において算出した一致度を示す。一致度は値が小さいほど、似ている度合が高いとされる値である。全照合の結果、最も小さな一致度は、一致度1924であることから、最類似人物は、レコード304に記録されている、人物Eであると判定される。
次に、検知装置103は、上記で求めた最類似人物である人物Eの一致度1924と予め設定しておいた第1の閾値との大小比較を行う。本実施例では第1の閾値を1.00とする。一致度1924は、0.90であり、閾値以下であるので、この登場人物が特定人物の一人であり、人物Eであると一次判定される(ステップ1808)。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード500に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度1924の値を、角度セル513に該当するセルに角度1903をそれぞれ格納する(ステップ1809)。図19Bの保管データ520は、本時点での格納データの状態を示す。
ステップ1800〜1809における一連の処理は、以上である。
次に、検知装置103は、撮影エリア1621の近接撮影エリアを算出する。ここでは、距離データ1700のうち、撮影エリア1621との距離を格納した行1701を、セル1711〜1713の順に参照し、格納値を取得する。取得した格納値を予め決めておく閾値と比較して、閾値以下、すなわち、近距離に存在する近接撮影エリアを求める。近接撮影エリアは複数になることもある。本実施例では閾値を20とし、結果、近接撮影エリアとして、撮影エリア1622、1623、1624が選ばれる(ステップ1810)。そして、選ばれた3つの撮影エリアの中で最も距離の遠い撮影エリアである撮影エリア1624の格納値と時刻(T)との合計である(T+18)が到達予想時刻(TF)となる(ステップ1811)。本実施例では、単純に撮影エリア1624の格納値を加算した例を示したが、さらに余裕度を加算する等してもよい。
次に、検知装置103は、時刻(T+18)まで待機する(ステップ1812)。
時刻(T+18)における処理の内容について図20Aから20Cを用いて説明する。図3や図5と同一の符号は、それぞれ同一であることを示す。
検知装置103は、検索装置1505に対し、類似画像検索の実施を要求する。その際の検索キーは、検出領域1901である。撮影時刻に関する絞込条件として、時刻(T)以降、時刻(T+18)以前を与える。また、撮影エリアに関する絞込条件として、ステップ1810で選んだ撮影エリア1622、1623、1624を与える(ステップ1813)。
検索結果2000は、ステップ1814で受信した検索結果を示す。本実施例では、検索結果が2つの画像とそれぞれの画像における人物領域の座標を含んで構成される場合を示す。画像2010は、検索結果の1つ目の画像であり、画像2020は、検索結果の2つ目の画像である。また、人物領域2011は、画像2010における人物領域、人物領域2021は、画像2020における人物領域を表す。
次に、検知装置103は、人物領域2011に対して撮影角度を算出する(ステップ1817)。撮影角度2012は、ここで算出された値を示す。
次に、検知装置103は、人物領域2011に対して人物特徴量を算出する(ステップ1818)。人物特徴量2013は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量2013を用いて、特定人物記録部200の記録データ320に対して、照合を行う(ステップ1819)。この際、照合を行うのは、照合2030に示すように、人物Eのレコードのみである。一致度2040は、照合2030により算出された一致度である。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード501に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度2040の値を、角度セル513に該当するセルに角度2012をそれぞれ格納する(ステップ1820)。図20Bの保管データ520は、本時点での格納データの状態を示す。
次に、検知装置103は、人物領域2021に対して撮影角度を算出する(ステップ1817)。撮影角度2022は、ここで算出された値を示す。
次に、検知装置103は、人物領域2021に対して人物特徴量を算出する(ステップ1818)。人物特徴量2023は、ここで算出された値を示す。
次に、検知装置103は、人物特徴量2023を用いて、特定人物記録部200の記録データに対して、照合を行う(ステップ1819)。この際、照合を行うのは、照合2060に示すように、人物Eのレコードのみである。一致度2070は、照合2060により算出された一致度である。
次に、検知装置103は、判定結果保管部206の保管データ520のレコード502に対し、人物IDセル511に該当するセルに検知した人物IDである「E」、一致度セル512に該当するセルに一致度2070の値を、角度セル513に該当するセルに角度2022をそれぞれ格納する(ステップ1820)。図20Cの保管データ520は、本時点での格納データの状態を示す。
次に、検知装置103は、特定人物記録部200に予め記録しておいた人物Eの角度を取り出し、図20Cの保管データ5200に格納された結果の中から、最も近い角度の結果を探す。本実施例では、レコード501となる。そして、レコード501に格納された一致度を取り出す。取り出した一致度と、予め設定しておいた第2の閾値との大小比較を行う。本実施例では第2の閾値を0.60とする。取り出した一致度は0.20であり、閾値以下であるので、この登場人物が特定人物の一人であり、人物Eであると統合判定される(ステップ1822)。
以上が、検知に至る一連の処理の説明となる。
図21に示すように、検索装置1505は、画像記録部2101、画像特徴量記録部2102、画像特徴量抽出部2103、画像類似度判定部2104、顔探索部2105の部位を備えている。
画像記録部2101は、撮像装置1501〜1504または録画装置102から入力された画像データを、図示しないHDD等の記録媒体へ記録する部位である。画像記録部2101は、画像データを記録する際には、後で画像データを取り出すための情報、例えば、録画装置内でユニークになるように録画開始からフレーム単位で順に割り振ったフレーム番号を同時に記録する。このフレーム番号とは、映像等の動画像のように、所定の期間毎に画像が連続的に記憶される際に、順番に割り振られるような番号のことをいう。また、画像記録部2101は、画像が何時に撮像されたものであるか識別するための情報、例えば、画像時刻も同時に記録する。この際の、画像時刻は、例えば、録画装置102に内蔵している時計から出力される装置時刻や、撮像装置1501〜1504にそれぞれ内蔵している時計から出力される装置時刻である。また、画像記録部2101は、画像がどの撮像装置で撮像されたかものであるか識別するための情報、例えば、撮像装置のIPアドレスも同時に記録する。
画像特徴量記録部2102は、画像特徴量を記録媒体へ記録する部位である。画像特徴量記録部2102は、まず、画像記録部2101により記録された画像データを顔探索部2105に出力することにより、顔画像データを取得する。そして、画像特徴量記録部2102は、この顔画像データを画像特徴量抽出部2103に出力することにより、画像特徴量を取得する。画像特徴量記録部2102は、画像特徴量を記録する際には、顔探索部2105に入力された画像データに対応するフレーム番号も同時に記録する。この記録により生成されるフレーム番号と画像特徴量で構成されるリストデータを、以下で「画像特徴量リストデータ」と呼ぶ。
画像特徴量抽出部2103は、顔探索部2105から入力された顔画像データの特徴量を画像認識技術を用いて算出する部位である。ここで画像特徴量とは、例えば、画像の色分布やエッジパターンの構図分布やそれらの組合せを用いる。
画像類似度判定部2104は、画像検索を行い、検索結果を出力する部位である。画像類似度判定部2104は、以下で説明する検索画像の画像特徴量と、画像記録部2101の記録媒体に記録されている画像データの顔画像の画像特徴量とから類似度を算出し、算出された類似度の大小から検索結果を生成する。ここで、検索画像は、入力された、類似度を判定するために参照される雛形の画像として検知装置103の制御指示部209が指定した画像である。この検索画像は、検索要求信号の中に含まれているデータとして入力する。具体的には、画像のフレーム番号等により指定することができる。なお、検索画像の画像特徴量は、画像類似度判定部2104が、顔探索部2105に出力することで取得する。また、記録媒体に記録されている顔画像データの画像特徴量は、画像特徴量記録部2102に記録された上述の画像特徴量リストデータから取得する。また、画像、類似度の算出方法については、「大規模な画像集合のための表現モデル」(廣池敦他、日本写真学会誌2003年66巻1号P93−P101)のような論文を参照して構築することができる。
検索装置1505の制御部は、検知装置103の制御指示部209からの検索要求信号を受信すると、検知装置103の制御指示部209が指定した検索画像を顔探索部2105に入力し、顔を探索する。顔が検出された場合、画像特徴量抽出部2103にてその検索画像に含まれる顔領域の画像特徴量を抽出する。そして、画像類似度判定部2104にて、右記の画像特徴量と、予め登録処理により抽出された画像特徴量リストデータの特徴量とを比較し、画像特徴量を基に画像の類似性を判定し、画像特徴量リストデータに含まれるフレーム情報等を用いて、録画装置の記録画像からユーザが探したい人物の画像を検索処理の実行ごとに探し出す。このような従来の登録処理により、監視画像を対象とした類似顔画像検索を実現することができる。
ここまでに示したように、本実施例では、特定人物記録部200に予め記録しておいた角度に最も近い画像にて照合を行う。一般的に角度が近い画像ほど、精度が高い。従って、本実施例により、特定人物検知システムにおいて、より高い検知精度を得ることを可能とした。また、本実施例では事前に様々な角度の人物画像を登録できなかった場合にもより高い検知精度を得ることができ、実施例2のように、同一地点を複数の撮像装置で撮影できなかった場合にも、多地点の撮像装置を組み合わせて利用することにより、実施例2とほぼ同等の大きな効果が得られる。
ここまでの説明においては、説明の簡略化のため、撮像装置について4台の構成で示したが、4台以外の複数台構成にて実施するようにしてもよい。
また同様に、撮像装置や録画装置と検知装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしてもよい。
また同様に、検知装置と検索装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしてもよい。
また同様に、検知装置と端末装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしてもよい。
また同様に、特定人物検知システムを対象に示したが、特定人物だけでなく特定車両や他の特定物体などの検知システムを対象に実施するようにしてもよい。
以上、本発明者によってなされた発明を実施形態および実施例に基づき具体的に説明したが、本発明は、上記実施形態および実施例に限定されるものではなく、種々変更可能であることはいうまでもない。