JP2010257450A - 人物検索装置、人物検索方法、及び人物検索プログラム - Google Patents

人物検索装置、人物検索方法、及び人物検索プログラム Download PDF

Info

Publication number
JP2010257450A
JP2010257450A JP2010084174A JP2010084174A JP2010257450A JP 2010257450 A JP2010257450 A JP 2010257450A JP 2010084174 A JP2010084174 A JP 2010084174A JP 2010084174 A JP2010084174 A JP 2010084174A JP 2010257450 A JP2010257450 A JP 2010257450A
Authority
JP
Japan
Prior art keywords
person
search
screen
information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010084174A
Other languages
English (en)
Inventor
Masaki Murakawa
正貴 村川
Takehiro Mabuchi
健宏 馬渕
Takuo Moriguchi
拓雄 森口
Satoshi Futami
聡 二見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2010084174A priority Critical patent/JP2010257450A/ja
Publication of JP2010257450A publication Critical patent/JP2010257450A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行う。
【解決手段】撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置において、前記映像に含まれる時系列の各画像に対して人物特徴情報を蓄積する蓄積手段と、前記蓄積手段に対して予め設定される条件に基づいて該当する人物を検索する検索手段と、前記検索手段により得られる検索結果に対応する情報を前記蓄積手段により抽出し、抽出した内容を表示するための画面を生成する画面生成手段と、前記画面生成手段により生成された画面を出力する出力手段とを有し、前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することにより、上記課題を解決する。
【選択図】図1

Description

本発明は、人物検索装置、人物検索方法、及び人物検索プログラムに係り、特に撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うための人物検索装置、人物検索方法、及び人物検索プログラムに関する。
従来、カメラ等の撮像手段により撮影された映像に対して画像処理等を行い、その映像を構成する画像中に含まれる人物を自動的に検出する手法が存在している。その中でも画像中から人物の顔を検出する技術が急速に発達しており、例えば顔の判別精度を向上させるために、入力画像から肌色領域を抽出し、その肌色領域に基づいて、頭頂部、目、口等の顔の特徴点の位置を検出して、その検出結果から肌色領域が顔か否かを判定する画像処理装置が存在している(例えば、特許文献1参照。)。
また、このような顔検出技術は、例えば銀行や百貨店、コンビニエンスストア等の警備対象施設内に設置された監視カメラにより得られる映像に対して処理がなされ、犯罪時の迅速な人物特定や、不審者か否かを検出して犯罪を未然に防止するため等に用いられる。
更に、検出された顔情報を特徴情報と共に蓄積しておき、検索したい人物の顔の特徴を検索条件として指定することで、指定された特徴を有する顔画像を検索する手法が存在する(例えば、特許文献2参照。)。
特開2004−5384号公報 特開2006−318375号公報
ところで、上述した従来の手法により検出された人物は、画像検索処理において効率的に高精度な検索が行えるように、カメラから読み取れる多種の情報を蓄積しておくことが好ましい。しかしながら、人物の顔情報のみからでは、抽出できる情報に限りがあり、例えばその人物が不審者等の特定の人物であるか否かを判定する場合や、映像中から不審者等の特定人物を検出する場合等には、より詳細な人物情報が必要となる。また、膨大な量を検索対象とするため、その検索条件やデータの蓄積及び検索等について、検索者が簡単な操作で効率的に高精度な人物検索を実現し、更にその結果を効果的に出力するように構築する必要がある。
本発明は、上記の問題点に鑑みてなされたものであって、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うための人物検索装置、人物検索方法、及び人物検索プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
本発明では、撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置において、前記映像に含まれる時系列の各画像に対して人物特徴情報を蓄積する蓄積手段と、前記蓄積手段に対して予め設定される条件に基づいて該当する人物を検索する検索手段と、前記検索手段により得られる検索結果に対応する情報を前記蓄積手段により抽出し、抽出した内容を表示するための画面を生成する画面生成手段と、前記画面生成手段により生成された画面を出力する出力手段とを有し、前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする。これにより、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。
また本発明では、撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置において、前記撮像手段からリアルタイムに取得された映像に含まれる時系列の各画像に対して、人物特徴情報を抽出し、抽出された前記人物特徴情報と、予め設定される検索条件に基づいて、該当する人物を検索する検索手段と、前記検索手段により得られる検索結果を表示するための画面を生成する画面生成手段と、前記画面生成手段により生成された画面を出力する出力手段とを有し、前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする。これにより、リアルタイムで撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。
また本発明では、前記画面生成手段は、前記検索手段により検索された人物に対応する人物特徴情報を用いて検索結果をスコアリングし、スコアリングされた結果に基づいて、表示順序をリアルタイムに変更して表示すると共に、ユーザからの指示により一時停止することを特徴とする。
また本発明では、前記画面生成手段は、前記検索手段により検索された人物が撮影されている映像を表示する映像表示領域と、前記映像の再生中における人物の行動を文字表示するテキスト表示領域とを有することを特徴とする。
また本発明では、前記出力手段は、生成された画面を表示すると共に、印刷出力又はファイル出力することを有することを特徴とする。
また本発明では、前記映像に含まれる人物に対して、顔領域を検出する顔領域検出手段と、前記映像に含まれる人物に対して、人体領域を検出する人体領域検出手段と、前記顔領域検出手段により得られる検出結果と、前記人体領域検出手段により得られる検出結果とを用いて時間の異なる複数の画像の人物を同定する同定手段と、前記同定手段により得られる人物の動作を追跡する追跡手段と、前記追跡手段により得られる追跡結果から不審者を検出する不審者検出手段と、前記同定手段により同定された人物の特徴情報を統合する人物情報統合手段と、前記人物情報統合手段により得られる統合結果を、前記映像を構成する画像フレーム毎に生成するフレーム情報生成手段とを有することを特徴とする。
更に本発明では、撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示するための人物検索方法において、前記映像に含まれる時系列の各画像に対して人物特徴情報を蓄積手段に蓄積する蓄積手順と、前記蓄積手段に対して予め設定される条件に基づいて該当する人物を検索する検索手順と、前記検索手順により得られる検索結果に対応する情報を前記蓄積手段により抽出し、抽出した内容を表示するための画面を生成する画面生成手順と、前記画面生成手順により生成された画面を出力する出力手順とを有し、前記画面生成手順は、前記検索手順により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする。これにより、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。
また本発明では、撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索方法において、前記撮像手段からリアルタイムに取得された映像に含まれる時系列の各画像に対して、人物特徴情報を抽出し、抽出された前記人物特徴情報と、予め設定される検索条件に基づいて、該当する人物を検索する検索手順と、前記検索手順により得られる検索結果を表示するための画面を生成する画面生成手順と、前記画面生成手順により生成された画面を出力する出力手順とを有し、前記画面生成手順は、前記検索手順により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする。これにより、リアルタイムで撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。
また本発明では、前記画面生成手順は、前記検索手順により検索された人物に対応する人物特徴情報を用いて検索結果をスコアリングし、スコアリングされた結果に基づいて、表示順序をリアルタイムに変更して表示すると共に、ユーザからの指示により一時停止することを特徴とする。
また本発明では、前記画面生成手順は、前記検索手段により検索された人物が撮影されている映像を表示する映像表示領域と、前記映像の再生中における人物の行動を文字表示するテキスト表示領域とを有することを特徴とする。
また本発明では、前記出力手順は、生成された画面を表示すると共に、印刷出力又はファイル出力することを特徴とする。
また本発明では、前記映像に含まれる人物に対して、顔領域を検出する顔領域検出手順と、前記顔領域検出手順により得られる顔領域を用いて人体領域を検出する人体領域検出手順と、前記顔領域検出手順により得られる検出結果と、前記人体領域検出手順により得られる検出結果とを用いて時間の異なる複数の画像の人物を同定する同定手順と、前記同定手順により得られる人物の動作を追跡する追跡手順と、前記追跡手順により得られる追跡結果から不審者を検出する不審者検出手順と、前記同定手順により同定された人物の特徴情報を統合する人物情報統合手順と、前記人物情報統合手順により得られる統合結果を、前記映像を構成する画像フレーム毎に生成するフレーム情報生成手順とを有することを特徴とする。
更に本発明では、撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置における人物検索プログラムにおいて、コンピュータを、前記映像に含まれる時系列の各画像に対して人物特徴情報を蓄積する蓄積手段、前記蓄積手段に対して予め設定される条件に基づいて該当する人物を検索する検索手段、前記検索手段により得られる検索結果に対応する情報を前記蓄積手段により抽出し、抽出した内容を表示するための画面を生成する画面生成手段、及び、前記画面生成手段により生成された画面を出力する出力手段として機能させ、前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする。これにより、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物検索処理を容易に実現することができる。
また本発明では、撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置における人物検索プログラムにおいて、コンピュータを、前記撮像手段からリアルタイムに取得された映像に含まれる時系列の各画像に対して、人物特徴情報を抽出し、抽出された前記人物特徴情報と、予め設定される検索条件に基づいて、該当する人物を検索する検索手段、前記検索手段により得られる検索結果を表示するための画面を生成する画面生成手段、及び、前記画面生成手段により生成された画面を出力する出力手段として機能させ、前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする。これにより、リアルタイムで撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物検索処理を容易に実現することができる。
また本発明では、前記画面生成手段は、前記検索手段により検索された人物に対応する人物特徴情報を用いて検索結果をスコアリングし、スコアリングされた結果に基づいて、表示順序をリアルタイムに変更して表示すると共に、ユーザからの指示により一時停止することを特徴とする。
また本発明では、前記画面生成手段は、前記検索手段により検索された人物が撮影されている映像を表示する映像表示領域と、前記映像の再生中における人物の行動を文字表示するテキスト表示領域とを有することを特徴とする。
また本発明では、前記出力手段は、生成された画面を表示すると共に、印刷出力又はファイル出力する出力手段とを有することを特徴とする。
また本発明では、前記映像に含まれる人物に対して、顔領域を検出する顔領域検出手段と、前記映像に含まれる人物に対して、人体領域を検出する人体領域検出手段と、前記顔領域検出手段により得られる検出結果と、前記人体領域検出手段により得られる検出結果とを用いて時間の異なる複数の画像の人物を同定する同定手段と、前記同定手段により得られる人物の動作を追跡する追跡手段と、前記追跡手段により得られる追跡結果から不審者を検出する不審者検出手段と、前記同定手段により同定された人物の特徴情報を統合する人物情報統合手段と、前記人物情報統合手段により得られる統合結果を、前記映像を構成する画像フレーム毎に生成するフレーム情報生成手段とを有することを特徴とする。
本発明によれば、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。
本実施形態における人物検索装置の概略構成の一例を示す図である。 顔領域検出手段及び人体領域検出手段における付加機能を説明するための一例の図である。 本実施形態におけるフレーム情報の一例を示す図である。 本実施形態における検索用人物特徴を取得するまでの概要を説明するための図である。 本実施形態における検索手法を説明するための一例の図である。 本実施形態における画面遷移例を示す図である。 本実施形態における初期画面の一例を示す図である。 本実施形態における日時指定画面を示す図である。 本実施形態における特徴・行動条件指定画面を示す図である。 カラーマップの一例を示す図である。 本実施形態における検索結果表示画面を示す図である。 検索結果表示領域を具体的に説明するための図である。 本実施形態における映像再生画面を示す図である。 本実施形態における共有画面を示す図である。 本実施形態における人物検索処理が実現可能なハードウェア構成の一例を示す図である。 本実施形態における蓄積処理手順の一例を示すフローチャートである。 本実施形態における検索処理手順の一例を示すフローチャートである。
<本発明について>
本発明は、例えばカメラ等の撮影手段により取得し、予め蓄積された膨大な量の映像、又は撮影手段からのリアルタイム映像から、検索者が意図する人物像に近い人物が撮影された時刻の映像を容易に検索、確認可能にする。具体的には、映像検索の際には、人物の特徴や行動を基準に映像を検索する。例えば、身長等といった数値や、サングラスの有無、服の色等のように主観に依存する情報等、これまでは組み合わせることができなかった様々な種別の人物特徴や行動を組み合わせて検索する。なお、本発明における撮像手段としては、例えば、予め設定された壁や天井等に設置される固定型のものや、警備ロボット等に搭載された移動型のものがある。その何れにも対応した適切な人物検出手法を提供する。
以下に、本発明における人物検索装置、人物検索方法、及び人物検索プログラムを好適に実施した形態について、図面を用いて説明する。
<人物検索装置の概略構成例>
図1は、本実施形態における人物検索装置の概略構成の一例を示す図である。図1に示す人物検索装置10は、入力手段11と、出力手段12と、蓄積手段13と、顔領域検出手段14と、人体領域検出手段15と、同定手段16と、追跡手段17と、不審者検出手段18と、人物情報統合手段19と、フレーム情報生成手段20と、検索手段21と、画面生成手段22と、通知手段23と、送受信手段24と、制御手段25とを有するよう構成されている。なお、送受信手段24には、人物情報を抽出するための人物を撮影するカメラ等の撮像手段26が接続されており、撮像手段26により撮影された映像に含まれる時系列の各画像を取得することができる。また、撮像手段26は、人物検索装置10と一体に構成されていてもよい。
入力手段11は、ユーザ等からの顔領域検出指示や、人体領域検出指示、同定指示、追跡指示、不審者検出指示、人物情報統合指示、フレーム情報生成指示、検索指示、画面生成指示、通知指示、送受信指示等の各種指示を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等からなる。
出力手段12は、入力手段11により入力された指示内容や、各指示内容に基づいて生成された制御データや顔領域検出手段14、人体領域検出手段15、同定手段16、追跡手段17、不審者検出手段18、人物情報統合手段19、フレーム情報生成手段20、検索手段21、画面生成手段22、通知手段23、送受信手段24等の各構成により実行された経過又は結果により得られる各種情報の内容を表示したり、その音声を出力する。なお、出力手段12は、ディスプレイ等の画面表示機能やスピーカ等の音声出力機能等を有する。
更に、出力手段12は、後述する検索手段21により得られた検索結果や画面生成手段22により生成された画面に表示された情報等を外部機器に出力する。つまり、出力手段12は、外部機器への出力として、例えば、プリンタに出力したり、ファイルを生成してデータベース等の記録装置や記録媒体に出力したり、警備ロボットに対して検索結果に基づき生成された制御信号を出力したり、警備対象施設内のセンサのON/OFFやライトの点灯/消灯を切り替えたり、警備員が所持する携帯端末に対して検索結果に基づく関連情報(異常があった場所や内容等)を表示するための制御信号を出力するといった印刷・出力機能等を有する。また、出力手段12は、上述した1又は複数の外部機器に同時に出力することができる。
蓄積手段13は、上述した本実施形態を実現するための様々な情報を蓄積することができ、必要に応じて読み出しや書き込みが行われる。具体的には、蓄積手段13は、顔の認証や、性別・年代等を推定するのに使用される各種特徴量データや、顔領域検出手段14における顔領域検出結果、人体領域検出手段15における人体領域検出結果、同定手段16における人物同定結果、追跡手段17における追跡結果、不審者検出手段18における不審者検出結果、人物情報統合手段19における人物情報統合結果、フレーム情報生成手段20におけるフレーム情報生成結果、送受信手段24における送受信情報、制御手段25により制御された情報、エラー発生時のエラー情報、ログ情報、本発明を実現するためのプログラム等の各情報が蓄積される。
顔領域検出手段14は、カメラ等の撮像手段26等により撮影されたリアルタイム映像や蓄積手段13に既に蓄積されている膨大な量の監視映像に対して、その映像中の画像に人物が含まれていると判断した場合、その人物の顔領域を検出する。つまり、顔領域検出手段14は、カメラ等の撮像手段26等により撮影された映像を、送受信手段24を介して取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)について1又は複数の人物の顔を検出する。
具体的には、顔領域検出手段14は、例えば撮影された画像に含まれる顔における目や鼻、口等の位置情報からその顔の特徴量を取得し、予め設定された顔として検出されるための特徴量の照合パターンを用いたマッチング処理等を行うことにより人物の顔を検出する。また、顔領域検出手段14は、上述の顔検出処理に限定されず、例えばエッジ検出や形状パターン検出による顔検出、色相抽出又は肌色抽出による顔検出等を用いることができる。なお、顔領域検出手段14は、顔検出後、画像中の顔の縦幅、横幅からなる矩形の顔領域等を検出する。
また、顔領域検出手段14は、顔領域の中心座標(位置情報)、及び領域の画像上の大きさ(サイズ)を検出し、その顔領域を所定形状により元の画像に合成して顔領域が明確に分かるように画面表示するための各種情報を取得し、蓄積手段13に蓄積させる。なお、顔領域の形状は、本発明においては、矩形や円形、楕円形、他の多角形、人物の顔の外形形状から所定倍率で拡大させたシルエット形状等であってもよい。また、顔領域検出手段14は、上述した内容の他に幾つかの付加機能を有するがその内容については後述する。
人体領域検出手段15は、カメラ等の撮像手段26等により撮影されたリアルタイム映像や蓄積手段13に既に蓄積されている膨大な量の監視映像に対して、その映像中の画像に人物が含まれていると判断した場合、その人物の人体領域を検出する。つまり、人体領域検出手段15は、カメラ等の撮像手段26等により撮影された映像を、送受信手段24を介して取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)について1又は複数の人体領域を検出する。
具体的には、人体領域検出手段15は、例えば連続する画像フレーム同士を比較して、色情報(輝度、色度等)が所定時間内に変化する場所が存在し、更にその場所で囲まれる領域が所定の領域以上のもの、又は経時的な移動範囲が所定の範囲内のものを人体領域として検出する。なお、人体検出手法については、本発明においてはこれに限定されない。
また、人体領域検出手段15は、人体領域の中心座標、及び人体領域の画像上の大きさを検出し、その人体領域を所定形状により元の画像に合成して人体領域が明確に分かるように画面表示するための各種情報を取得し、蓄積手段13に蓄積させる。なお、人体領域の形状は、上述した顔領域と同様に、矩形や円形、楕円形、他の多角形、人物の外形形状から所定倍率で拡大させたシルエット形状等であってもよい。また、人体領域検出手段15は、上述した内容の他に幾つかの付加機能を有するがその内容については後述する。
同定手段16は、同一のカメラで異なる時間に撮影された映像から抽出された2つの画像から検出される1又は複数の人物に対して、同一人物が含まれているか否かの同定処理を行う。具体的には、同定手段16は、例えば撮影中に含まれる人物が今まで撮影された人であるか、又は新規人物であるかを判断する方法として、例えばその前の映像に人物がいるか否かを判断し、人物がいた場合にその人物に予め設定された移動可能範囲に含まれているか否かを判断し、更には前後の顔の特徴量同士の比較による類似性の有無により同一人物がふくまれているか否かを判断することができる。
また、同定手段16は、顔領域検出手段14において検出された顔のパターンと、蓄積手段13に予め蓄積されている人物情報(氏名、性別、年齢、どの芸能人(人物)に似ている等)を含む顔のパターンとを比較して、その顔が誰の顔であるか、すなわち、人物が誰であるかを判定することができる。更に、同定手段16は、その顔が誰にどの程度類似しているかといった類似度を取得することもできる。これにより、後述する画面生成手段22等において、ある人物に対する類似度の高い人が表示されている画像を類似度の高い順に所定の数だけ表示させていくことができる。
なお、同定手段16は、その画像の状況に応じた特徴量の取捨選択手法により適切なパラメータを用いて人物の同定を行ってもよい。例えば、同定手段16は、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩容(歩幅、歩く速度、姿勢等を含む)、体型、性別、服の色、髪の色等)を人物同定に使用することができる。更に、同定手段16は、使用する特徴量のみについて分離度を算出し、その分離度に基づいて重み付けを行い、人物同定に対する特徴量毎の寄与率を変化させる。これにより、状況に応じた特徴量を用いて高精度な人物判定を行うことができる。
また、同定手段16においては、人体領域検出手段15における人体検出結果と、顔領域検出手段14における顔検出結果とが異なる場合がある。このような場合には、同定手段16は、検出情報選択手段16が、途中で処理を切り替えた場合に、比較しても一致しないため、同定により同一人物であると判定することができない場合も考えられる。そこで、同定手段16は、取得された映像に対して、例えば切り替える前後等において、顔領域検出手段14における顔検出と人体領域検出手段15における人体検出とを両方行い、それぞれの検出結果について上述したように同一人物であるか否かの対応付けを行っておく。これにより、同定手段16で同定処理を行う際、検出情報が切り替わっても容易に人物同定処理を行うことができる。
追跡手段17は、同定手段16により同定された同一人物の挙動を撮影された映像を用いて経時的に追跡する。なお、追跡手段17は、映像に含まれる複数の人物に対して平行して経時的に追跡することができる。また、追跡手段17は、映像に含まれる人物を経時的に追跡する場合、画像中から取得されるその人物の向き、姿勢、今までの行動等から、次の移動可能範囲を推測することもできる。この場合、追跡手段17は、その移行可能範囲を画像に合成するための情報を生成し、後述する画面生成手段22に出力することもできる。
ここで、追跡手段17は、画像中に含まれる人体領域の足、頭の位置とその特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人物の一部が、建物等で隠蔽されたか否かを判断する。なお、隠蔽される人物の一部とは、例えば下半身や上半身、頭、腕、胴体等である。つまり、本実施形態では、少なくとも1度画面上で足のつま先から頭部までの人体の身長に関する情報が取得できた場合、その後、頭及び足の両方が同時に隠蔽されていなければ、隠蔽部分を推定して人物を追跡することができる。
不審者検出手段18は、追跡手段17による追跡結果を、蓄積手段13に蓄積された予め設定される経時的な不審行動パターンや挙動データ等と照合することで、撮像手段26により撮影された1又は複数の人物のうち、不審者に該当する人物を検出する。
つまり、不審者検出手段18は、追跡対象人物が遮蔽物に隠れたり、カメラを所定時間以上気にしてみていたり、きょろきょろしていたり、長時間滞在している等の不審行動が少なくとも1つある場合には、その人物を不審者として検出する。更に、不審者検出手段18は、追跡対象人物がマスクをしていたり、サングラスをかけていることで、顔を隠している場合にも不審者として検出する。
また、不審者検出手段18は、不審者を検出した場合に、どの不審行動に該当したのかの情報も含めてその全ての内容を蓄積手段13に蓄積しておく。これにより、検索時におけるキーワードとして「不審者に相当するもの」が指定された場合に検索者の簡単な操作で容易に抽出されるようにしておく。更に、不審者検出手段18は、不審者を検出した段階で画面生成手段22にその旨の内容を通知する画面を生成させてもよい。
人物情報統合手段19は、顔領域と人体領域とを同一人物として対応付けて、その人物の特徴を統合する。具体的には、人物情報統合手段19は、画像中における顔領域の重心座標を取得し、取得した座標を包含する人体領域があった場合、その顔領域及び人体領域は、同一人物によるものであるとして対応付けを行う。
更に、人物情報統合手段19は、1つの人体領域が2つ以上の顔領域を包含する場合、全ての顔領域に同じ人体領域を対応付けておく。これにより、追跡処理等において映像の途中で複数の人物が画面上で一時的に重なった場合にも、途切れることなく継続して追跡することができる。なお、人物の管理はID等の識別情報を用いて行う。なお、上述した人体領域と顔領域とを同一人物のものとして対応付ける処理については、本発明においてはこれに限定されるものではなく、例えば人物の姿勢や向き等を抽出し、抽出した情報を用いて対応付けを行ってもよい。
フレーム情報生成手段20は、上述した人物情報統合手段19により統合された人物毎の人物情報を、映像に含まれる画像の1フレーム毎に格納したフレーム情報を生成し、生成した検索用人物特徴データを蓄積手段13にデータベース等として蓄積する。これにより、フレーム単位で人物の特徴を管理することができる。また、フレーム毎にその撮影された時間情報が付与されているので、検索の際に、どの時間にどのような人物が何人いるか等、多種の検索キーワードを用いて様々な検索を高精度に実現することができる。なお、本実施形態における具体的なフレーム情報の構成等については、後述する。
検索手段21は、カメラ等の撮像手段26等により撮影されたリアルタイム映像や、蓄積手段13に既に蓄積されている監視映像等の各種情報に対して、本実施形態により検索者が指定する選択可能な所定のキーワードや抽出条件等を設定し、又は予め不審者を検出するための不審者検出条件を設定して、対応する人物が含まれる画像等の検索結果を抽出する。
また、検索手段21は、その検索結果に対して自動的に顔や服装(衣類だけでなく帽子、マスク、眼鏡等も含む)等の特徴、行動等の抽出条件等を設定し、当該検索結果に類似する人物の検索を行う類似検索を行い、類似度の高い順に所定の数だけ検索結果を出力するといった処理を行うこともできる。
また、検索手段21は、後述するように監視ロボットを用いて迷子等の捜索をリアルタイムで行う場合等には、監視ロボットに備えられた撮像手段26からの映像に対して、予め設定された条件(身長、洋服の色、場所情報等)を満たす人物が表示されている画像を検索し、その結果を画面生成手段22によりリアルタイムに表示させるといった機能も有する。
また、検索手段21における検索画面やその結果表示される出力結果等は、画面生成手段22により対応する画面が生成され、出力手段12により出力される。これにより、本実施形態では、予め蓄積された映像やリアルタイム映像に基づいて所定の条件を満たす検索を行い、その検索結果を表示させることができる。なお、検索手段21における検索手法については、後述する。
画面生成手段22は、撮像手段26により撮影された映像や顔領域検出手段14により検出された顔領域や、人体領域検出手段15により検出された人体領域、本実施形態における人物検索を行うためのメニュー画面、検索手段21により検索で使用される入力画面、検索結果画面等、通知手段23における通知結果等を出力するための画面を生成する。このとき、画面生成手段22は、例えば撮影された人物の領域に対応する位置情報等の数値化されたデータ等を表示させることもできる。
また、画面生成手段22は、映像に含まれる人物を追跡する際に用いられる移動可能範囲や追跡手段18により得られる追跡ルート等の各種データを監視し易いように画面を生成して表示させることができる。更に、画面生成手段22は、予め設定される不審者の行動パターンに該当する場合には、その旨の内容を通知するための画面を生成する。
更に、画面生成手段22は、検索手段21により得られる検索結果を表示する際、その検索結果をリアルタイムで表示するような場合には、その検索結果の更新表示等を一時的に停止することができる。これにより、例えば、検索結果をリアルタイムで随時更新表示させているような場合には、一時停止することで、情報を確認し忘れることなく、必要な情報を表示させておくことができる。また、画面生成手段22は、上述したように一時停止した表示内容を、その続きから継続して表示させることができる。
また、画面生成手段22は、映像に含まれる人物の特徴或いは行動を表示するだけでなく、例えば撮像手段26を設けた1又は複数の警備ロボットが警備対象施設内を巡回しているような場合には、その警備ロボット毎に監視映像と共に送信された巡回位置情報(3次元座標、緯度、経度等)を表示することもできる。これにより、警備ロボット毎の現在位置を正確に把握することができる。
なお、画面生成に必要な各種情報は、蓄積手段13に予め蓄積されている情報等から必要な情報を適宜読み出して使用することができる。また、画面生成手段22は、生成された画面等を出力手段12としてのディスプレイに表示したり、スピーカ等により音声等を出力することができる。
通知手段23は、不審者検出手段18により得られる不審者として検出された画像と、その画像に関する情報(検出日時、検出場所、その前の所定時間分の映像等)を画面生成手段22により生成させて、出力手段12により表示させる。また、通知手段23は、そのような不審行動検出における問題発生信号に対応させて、管理者や警備会社におけるそのビルの担当警備員、監視員、代表責任者、警備ロボット等に通知を行うアラート機能を有する。
なお、通知手段23は、例えば警備ロボット等に通知を行う場合には、その警備ロボットが対象者と対面しているか又は警備ロボットの撮像手段26により対象者が撮影されるほど接近した位置にいるため、警備ロボットから対象者に対して音声メッセージを出力させたり、警報ランプや非常音等により周囲に対して注意を促すような処理を行わせるような警備ロボットに対する制御信号を通知することもできる。
送受信手段24は、LAN(Local Area Network)やインターネット等の通信ネットワーク等を介して1又は複数の撮像手段26からの監視映像を受信する。なお、送受信手段24は、撮像手段26から直接監視映像を受信しなくてもよく、例えば予め撮像手段26で取得した映像をどこかに一時的に保存しておき、その保存された情報を用いて本実施形態における人体検出を行ってもよい。
また、送受信手段24は、人物検索装置10を構成する他の端末に送信したり、他の端末から各種データを受信するための通信インタフェースとして用いることができる。
制御手段25は、人物検索装置10における各機能構成全体の制御を行う。具体的には、制御手段25は、入力手段11により入力されたユーザからの入力情報に基づいて、顔領域検出を行ったり、人体領域検出を行ったり、同定処理を行ったり、追跡処理を行ったり、不審者検出処理を行ったり、人物情報統合処理を行ったり、フレーム情報を生成したり、検索処理を行ったり、画面生成を行ったり、通知制御を行ったり、送受信制御を行う等の各種制御を行う。
また、制御手段25は、例えば警備ロボットに警備対象施設内を巡回させている場合には、その警備ロボットに対して巡回経路や対象者発見時の動作等について制御を行う。具体的には、制御手段25は、対象者発見時に通知手段23により対象者やその周囲について、音声メッセージや警報等の出力を行わせたり、対象者発見後に警備ロボットの巡回を強制終了させ、帰還経路を設定する等の制御を行う。つまり、警備ロボットが対象者を発見した時点で巡回を終了させ、管理室等の所定の場所まで対象者を案内させるという経路設定が可能になる。
更に、制御手段25は、警備ロボットから得られる警告信号(例えば、火災、漏水、人物検知等)に対応して、警備ロボットに緊急時の動作等を行わせる制御信号を生成し、その制御信号を、出力手段12や送受信手段24等を介して警備ロボット等に送信し、警備ロボットを制御することができる。
<顔領域検出手段14、人体領域検出手段15における付加機能>
次に、顔領域検出手段14及び人体領域検出手段15における付加機能について図を用いて説明する。図2は、顔領域検出手段及び人体領域検出手段における付加機能を説明するための一例の図である。なお、図2(a)は顔領域検出手段14における機能構成例を示し、図2(b)は人体領域検出手段15における機能構成例を示している。
顔領域検出手段14は、図2(a)に示すようにトラッキング手段31と、顔認証手段32と、性別・年代推定手段33と、顔隠し判定手段34とを有している。トラッキング手段31は、検出された顔領域を用いて人物追跡を行い、その際、画像フレーム中に含まれる複数の顔領域をそれぞれ識別して蓄積するために識別情報(トラッキングID)を割り当てる。また、トラッキング手段31は、割り当てたトラッキングIDについて、トラッキングの状態等により、例えば「未使用」、「フレームイン」、「フレームアウト」、「追跡中」の4種の状態を出力する。
顔認証手段32は、検出された顔領域から目や鼻、口等の各配置情報からなる顔の特徴量を取得し、取得した特徴量と、予め蓄積手段13等にデータベース(DB)等として蓄積された既に登録されている人物(登録人物)や芸能人等の人物の顔の特徴量とを用いて顔認証処理を行い、認証された人物の識別情報(ID)を出力する。また、顔認証手段32は、蓄積手段13に蓄積された顔画像のIDを、人物(登録人物・芸能人)の名前に変換して出力してもよい。
性別・年代推定手段33は、検出された顔領域から、顔の特徴量を取得し、取得した顔の特徴量と、蓄積手段13により性別、年代を推定し、結果を出力する。
顔隠し判定手段34は、検出された顔領域に対し、マスクやサングラス等の顔を隠すための処理が行われているか否かを検出する。具体的には、顔隠し判定手段34は、顔領域から推測される目領域、口領域の色情報を取得し、目領域の色情報がサングラスを着用していると想定される色(例えば黒系)であるときには、サングラスにより顔が隠されていると判定し、口領域がマスクをそれぞれについて着用していると想定される色(例えば白系)であるときには、マスクにより顔が隠されていると判定し、その判定結果を出力する。
また、人体領域検出手段15は、図2(b)に示すように身長推定手段35と、色情報抽出手段36と、人物位置推定手段37とを有している。
身長推定手段35は、検出された人体領域、顔領域それぞれに対して、人物の身長を算出する。例えば、身長推定手段35は、画像中に含まれる1又は複数の人物を検出し、その人物がいた場合に新規の人物であるか否かを判断し、新規人物である場合、その人体領域の足の先と、その画像に対応する消失点とから実空間上の人物の位置を算出し、画像上の見かけ上の大きさを併せて、実際の人物の身長を推定する。なお、消失点は、画像中に含まれる場合もあるが、カメラのアングル等により画像中に含まれない場合もある。この場合には、仮想的な空間上に消失点を設定し、その消失点を利用する。なお、身長推定手法については、本発明においてはこれに限定されない。
色情報抽出手段36は、検出された人体領域及び顔領域のそれぞれの領域情報の位置関係を用いて、人物の頭部領域や肌領域、上半身領域、下半身領域を推定し、各領域の色情報を抽出する。具体的には、頭髪、上衣、下衣等の色情報を抽出し、抽出した色情報の代表色(平均色等)を頭髪、上衣、下衣等の色情報として決定する。
なお、上述した各領域の色情報の算出では、各領域の総画素数・色の出現頻度をカウントし、例えば上位10色についてのRGB値を出力する。ここで、上述した各領域は、具体的には、顔領域の上部から頭部領域、顔領域の左右から頬(肌)領域、人体領域の中心よりも上部で顔領域よりも下部から上半身領域、人体領域の中心より下部或いは地面から上部で下半身領域を抽出する。また、上述した各領域は、例えば顔領域の位置や大きさ(例えば、顔領域を矩形領域で表した場合の1辺長さ)等を基準として設定してもよい。なお、抽出される領域の設定内容は、本発明においてはこれに限定されない。更に、色情報抽出手段36は、顔領域、人体領域、頭部領域、肌領域、上半身領域、下半身領域の少なくとも1つの領域の画像データをそのまま切り取って出力することもできる。
人物位置推定手段37は、検出された人体領域、顔領域それぞれに対して、人物の実空間上での位置座標を算出する。この場合、人物位置推定手段37は、カメラから撮影された画像から得られる2次元座標に対して予め設定される変換式により3次元の実空間上での位置座標(X,Y,Z)を取得する。
<フレーム情報生成手段20におけるフレーム情報の構成例>
次に、上述したフレーム情報生成手段20におけるフレーム情報の構成例について説明する。図3は、本実施形態におけるフレーム情報の一例を示す図である。フレーム情報生成手段20は、1フレーム毎に処理を行い検出された人物について、図3に示す情報が抽出される。ここで、図3に示すフレーム情報としては、例えば共通の項目として「ファイル名」、「検出日時」があり、顔領域から抽出される情報として「人物位置座標(X,Y,Z)」、「身長情報」、「各種色情報」、「登録者情報」、「似ている芸能人情報」、「年代情報」、「性別情報」、「顔の向き(PAN,TILT)」、「マスク」、「サングラス」、「取得顔画像情報」、があり「人物位置座標(X,Y,Z)」、「身長情報」、「各種色情報」等がある。
「ファイル名」には、現在処理をしている映像ファイルのファイル名が格納される。また、「検出日時」には、人物が検出された日時が格納される。なお、「検出日時」としては、映像ファイル名が実際の録画開始時刻と対応しているため、撮影開始時刻と映像内での時刻を加算し、実際の時刻が格納される。
また、顔領域から抽出される「人物位置座標(X,Y,Z)」には、カメラ位置のXY座標と地面を原点とした実空間上での人物足元のXYZ座標が格納される。つまり、「人物位置座標(X,Y,Z)」には、顔領域から算出した人物の実空間上での位置座標が格納される。また、「身長情報」には、顔領域から算出した身長が格納される。また、「各種色情報」には、顔領域から算出した頭部・上半身の総画素数・色上位10色・頻度が格納される。
なお、頭部の色情報としては、顔領域から算出した頭部についての頻度1位から10位までのRGBの数値と頻度が格納される。また、頭部の総画素数としては、顔領域から算出した頭部領域の総画素数が格納される。また、上半身の色情報としては、顔領域から算出した上半身についての頻度1位から10位までのRGBの数値と頻度が格納される。更に、上半身の総画素数としては、顔領域から算出した上半身領域の総画素数が格納される。
また、「登録者情報」には、登録人物DBと照合した結果、最も近い人物名と認証スコアが設定される。具体的には、登録人物DBとの照合により、登録者として(認証閾値を上回った)認証された場合、該当登録者の名前が上位10名分格納される。認証されなかった場合は、「未登録者」が格納される。また、認証結果スコアは、上位10名分の認証スコアが0から1000までの整数値で示され、照合の結果、「未登録者」であった場合は−1が格納される。
また、「似ている芸能人情報」には、芸能人を登録したDBと照合した結果、最も近い人物名と認証スコアが格納される。具体的には、芸能人DBとの照合により、認証スコアが最も高く、かつ、閾値よりも上の場合に、該当芸能人の名前が格納される。認証がされなかった場合、「似ていない」を格納する。また、認証結果スコアは、上述と同様である。
また、「年代情報」には、検出人物の年代・信頼度が格納される。また、「性別情報」には、男女何れかの性別と信頼度が格納される。また、「顔の向き」には、パン、チルト等のカメラワークに対するカメラを原点とした、顔向き角度が格納される。具体的には、カメラを原点とし、カメラから見た顔の角度が格納され、カメラから見て上方向と左方向が+となる。
また、「マスク」には、マスク等で口の周辺が隠れているかどうかが格納され、具体的には「あり」、「なし」、「不明」の何れかが格納される。また、「サングラス」には、サングラス等で目の周辺が隠れているかどうかが格納され、具体的には「あり」、「なし」、「不明」の何れかが格納される。
また、「取得顔画像情報」には、検出された顔画像へのファイルパスと信頼度が格納され、具体的には、このフレームで検出された顔画像が蓄積されている場所へのファイルパスと、検出された顔領域の一辺の長さ、認証スコアが閾値以上で最も高い認証結果名、その信頼度等が格納される。
また、人体領域から抽出される「人物位置座標(X,Y,Z)」には、カメラ位置のXY座標と地面を原点とした実空間上での人物足元のXYZ座標が格納され、人体領域から算出された、人物の実空間上での位置座標が格納される。
また、「身長情報」には、人体領域・顔領域から算出した身長が格納される。また、「各種色情報」には、人体領域から算出した頭部・上半身・下半身の総画素数・色上位10色・頻度が格納され、具体的には頭部についての頻度1位から10位までのRGBの数値と頻度、頭部領域の総画素数、上半身についての頻度1位から10位までのRGBの数値と頻度、上半身領域の総画素数、下半身についての頻度1位から10位までのRGBの数値と頻度、及び下半身領域の総画素数のうち少なくとも1つが格納される。
本実施形態では、上述したような情報を各種処理の結果として、フレーム単位で出力される。なお、人物領域、顔領域共に検出されない場合は何も出力されない。また、人物領域、顔領域の検出状態によっては、出力されない情報もある。その場合には、「不明」を示す値が出力される。
また、本実施形態では、上述した情報がフレーム毎に生成され、フレーム情報を出力された各データにはタグを付与する。これにより、各データが何の情報に対応するかを明確にすることができる。また、1フレーム内に複数の人物が検出された場合には、人物毎に別々のトラッキングID(識別情報)が割り振られ、トラッキングID毎に同日付、同時刻を付与し、複数行のフレーム情報が出力される。
また、図4は、本実施形態における検索用人物特徴を取得するまでの概要を説明するための図である。図4に示す図は、上述した顔領域検出や人体領域検出により得られる人物特徴から検索用人物特徴データを生成するための図である。なお、人物特徴データがフレーム情報生成手段20等により生成され、蓄積手段13にデータベース等により蓄積される。
具体的に説明すると、図4(a)では、フレーム情報生成において、各フレーム(F)において検出された人物(例えば、人物A、人物B等)に対する特徴(例えば、身長、サングラスの有無等)が取得され、これらの人物特徴を図4(b)に示すように人物毎に纏めて人物特徴をカウントする。つまり、図4(b)では、全てのデータを離散化して出現回数をカウントしており、具体的には、図4(b)において、人物Aは、映像中の3フレームで抽出され、そのうち、身長が170cmと推定された場合が2回、175cmと推定された場合が1回あり、更にサングラスの着用ありと検出された場合が2回、着用なしと検出された場合が1回ある等とカウントされる。なお、上述の例では、身長を5cm毎に離散化しているが、本発明においてはこれに限定されない。
次に、図4(c)に示すように、各フレーム数で正規化を行い、このデータを検索に使用する。具体的には、検索用人物特徴データの作成する際、様々な特徴や行動の組み合わせで人物を検索するために、例えば、身長、性別、服の色のHSV値等の様々な形態により出力される人物情報を下記の式に従い、統一的に記述する。
例えば、ある人物Aにおける特徴Xについてのデータを作成する場合、特徴Xがデジタル値(性別(男・女)、サングラス(有・無)、マスク(有・無)等)の際には、以下に示す(1)式により頻度値Xの人物Aについての総頻度FAXを算出する。
Figure 2010257450
また、特徴Xがアナログ値(身長、認証スコア、服の色のHSV値等)の際には、以下に示す(2)式により連続値X内特定範囲dの人物Aについての総頻度を算出する。
Figure 2010257450
これにより、人物の全ての情報をヒストグラムへと変換することができる。なお、このままでは人物間の比較に用いることができないため、各人物の検出フレーム数で正規化することで、正規化ヒストグラムへと変換し、以下に示す(3)式により人物Aの特徴Xについての信頼度PAXを算出する。
Figure 2010257450
これにより、図4(c)に示すように検索用人物特徴データを取得することができる。
<本実施形態における検索手法>
次に、上述した検索手段21における本発明における検索手法について、図を用いて説明する。本実施形態における検索手法では、上述した人物特徴データを用いた検索スコアリング手法により、映像に映っている人物を、様々な人物の特徴や行動の組み合わせで、検索することができる。また、どの組み合わせにおいても、検索要求との一致度が高い順番に検索結果を出力することができる。
ここで、図5は、本実施形態における検索手法を説明するための一例の図である。本実施形態では、図5(a)に示すように検索者が入力した検索要求「サングラスをしている175cmの人」を、上述した特徴量へと変換し、正規化ヒストグラム上の最大値(=1)を検索要求特徴量とする(図5(b))。また、検索要求特徴量に該当する特徴を参照して抽出し(図5(c))と、その該当特徴との距離を算出し、その距離を検索スコアとし(図5(d))、スコアの高い人物順に検索結果を出力する。
なお、本実施形態における検索に適した色情報の取り扱いとしては、人物特徴の中でも、服や髪の毛の色は、特に重要な要素であるが、色の表現は主観により変化するため、主観による変動を吸収できるようにする。具体的には、人が感じる色に検索結果を適合させるため、例えば、HSV空間等の予め人の視覚特性に基づき設定された色空間で処理を行う。なお、上述した色空間は、本発明においてはHSVに限定されず、例えばHLS、LUV、LAB等を用いることができる。更に、色解像度を低下させることで、主観による変動を吸収する。
また、フリーワードによる検索を行う際には、入力された語句を検索要求へと変換し、検索処理を行う。なお、従来では、検索キーワードとして例えば「赤い 上着 青い ズボン」のように入力した場合、どの形容詞と、どの名詞とが修飾関係にあるかが理解できないという問題があった。そのため、本実施形態では、入力された語句の修飾関係を考慮して、検索要求へと変換することで、検索精度をより向上させることができる。
なお、本実施形態では、検索要求の入力の際には、人物を表現するフリーワード入力や、検索可能な人物特徴一覧から選択することができる。
これにより、蓄積された膨大な量の映像から、検索者が意図する人物像に近い人物が撮影された時刻の映像を容易に検索し、その検索結果を取得することができる。また、本実施形態では、映像確認の際には、人物映像に加えて、その人物の見た目の特徴と行動が文字で表記される。また、所望の人物については、不審者情報として各種媒体へ出力することができる。これにより、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。
<画面生成手段22において生成される画面例>
次に、画面生成手段22において生成される画面例について図を用いて説明する。図6は、本実施形態における画面遷移例を示す図である。図6に示す画面例では、初期画面41と、日時指定画面42と、特徴・行動条件指定画面43と、検索結果表示画面44と、映像再生画面45と、共有画面46とを有するよう構成されている。本実施形態に係るシステム起動時には、最初に初期画面41が表示される。また、図6に示す各画面への遷移は、図6に示すように予め所定の画面に遷移する遷移ボタンを設定し、その遷移ボタンを選択することで、それぞれの画面がディスプレイ等の出力手段12に出力される。次に、上述した各画面について、以下に具体的に説明するが、本発明における画面生成される画面例はこれに限定されず、また以下に示す画面レイアウトや表示内容についてもこれに限定されるものではない。
<初期画面41>
図7は、本実施形態における初期画面の一例を示す図である。図7に示す初期画面41からの検索方法には、来店者検索領域51、不審者検索領域52、キーワード検索領域53)と、条件指定検索(人物特徴から検索)領域54−1と、リアルタイム捜索領域54−2との5種類がある。
図7において、上述した撮像手段26が設置された対象設備内(例えば商店に来店した人物を確認する場合には、来店者検索領域51の「来店者検索ボタン」を押下することで日時指定画面42へと遷移する。また、初期画面41において、不審者を検索する場合には、不審者検索領域52の「検索」ボタンを押下することで日時指定画面42へと遷移する。
また、初期画面41において、キーワード検索を行う場合には、キーワード検索領域53のエディットボックス内に検索対象のキーワードを入力し、「キーワード検索」ボタンを押下することで、予め設定された日時や場所情報等と、エディットボックス内に入力された検索用の文字をキーワード(検索要求の変換処理)として検索手段21により検索がなされると同時に、画面が検索結果表示画面44へと遷移して、その検索結果が表示される。
また、初期画面41において、人物の特徴から検索する場合には、条件指定検索領域54−1の「人物特徴から検索」ボタンを押下することで、特徴・行動条件指定画面43へと遷移する。
更に、初期画面において、監視ロボットによる迷子等のリアルタイム捜索を行う場合には、リアルタイム捜索領域54−2の「リアルタイム捜索ボタン」を押下することで、特徴・行動条件指定画面43へと遷移する。
<日時指定画面42>
図8は、本実施形態における日時指定画面を示す図である。上述した初期画面41において、「検索」内の各ボタンが押された場合、日時指定画面42にて日時条件を指定する。また、図8に示す日時指定画面42では、検索場所条件を指定することもできる。これにより、例えば、警備ロボット等の移動型の撮像手段により得られる映像を対象とした場合にも、その映像と共に得られる警備ロボットの巡回位置情報等に基づいて、対象とする場所により得られる映像のみを対象として効率よく検索することができる。なお、この場所指定は、例えば、固定型の撮像手段からの映像を対象とする場合にも、検索対象の映像を限定することができるため有効である。
次に、指定された日時条件や場所条件を、検索処理に渡し、検索処理が終了したら検索結果を呼び出して検索結果表示画面44へ遷移する。
なお、図8に示す日時指定画面42は、ラジオボタン・日時指定ボックス55−1、場所指定ボックス55−2、検索実行ボタン群56、及びハイパーリンク表示領域57を有している。ラジオボタン・日時指定ボックス55−1では、初期状態は、「本日の画像から」となっており、日時指定のボックスは半透明の網がけがされ、操作ができない状態となっている。ここで、ラジオボタンで「時間を指定する」が選択された場合には、日時指定のボックスが操作可能となる。また、場所指定ボックス55−2では、予め設定された場所や範囲を指定する。なお、指定される場所としては、例えば地名や郵便番号、商店や商業施設等の名称、フロアの階数等でもよく、更に、その映像を撮影した警備ロボットから半径100m以内等の地域範囲として指定することもできる。
検索実行ボタン群56には、「OKボタン」と「キャンセルボタン」とを有し、「OKボタン」の部分が、初期画面41により渡された、遷移元情報(押されたボタン)によって表示が変化する。それぞれ表示は、「来店者検索」「不審者検索」「キーワード検索」となる。また、それぞれのボタンが押された時に、日時情報や場所情報を格納用変数へ格納し、日時指定情報や場所指定情報を引数として、検索処理関数を呼び出す。また、検索処理が終了次第(逐次処理)、検索結果表示画面44へと遷移する。なお、上述のラジオボタン・日時指定ボックス55−1で「本日の画像から」が選択された場合、引数でフラグを指定し、検索処理関数を呼び出す。また、ハイパーリンク表示領域57では、文字が表示された部分を選択することで、最初の画面(初期画面41)に遷移する。
<特徴・行動条件指定画面43>
図9は、本実施形態における特徴・行動条件指定画面を示す図である。上述した初期画面41において、「人物特徴から検索」又は「リアルタイム捜索」が選択された場合、特徴・行動条件指定画面43にて検索条件を指定する。全ての条件について、格納関数を呼び出す。また、検索ボタンが押されると、検索処理関数を呼び出し、検索結果表示画面44へ遷移する。
なお、特徴・行動条件指定画面43には、日付指定領域58、場所指定領域59−1、身長指定領域59−2、色情報指定領域60、性別指定領域61、マスク指定領域62、サングラス指定領域63、年代指定領域64、登場人物指定領域65、似ている芸能人指定領域66、検索実行ボタン群67、及びハイパーリンク表示領域68を有している。
日付指定領域58では、検索対象日時の設定を行う。なお、開始と終了時刻の大小エラーチェックを行いエラー時には検索者にその旨を通知する。また、場所指定領域59−1では、対象の人物を検索する場所の設定を行う。具体的には、映像が撮影された撮像手段26の位置情報に基づいて検索対象の場所情報を指定する。なお、位置情報は、撮像手段26が固定型であれば、映像データに含まれるその撮像手段26の識別情報により容易に取得することができ、更に監視ロボット等の移動型である場合には、映像データに含まれるその監視ロボットの巡回位置情報を利用する。
また、身長指定領域59−2では、検索対象となる人物の身長の設定を行う。なお、最小値(例えば、100)と最大値(例えば、200)の閾値を設定しておき、その範囲に含まれない数値が指定された場合や数値以外の文字が入力された場合には検索者にその旨を通知する。
また、色情報指定領域60では、検索対象の人物の頭部の色、上衣(上半身の衣類)の色、下衣(下半身の衣類)の色を設定する。なお、本実施形態では、図9に示すようにカラーマップにより指定を行う。ここで、図10は、カラーマップの一例を示す図である。本実施形態では、カラーマップによりRGB各値(0〜255)をHSV値へ変換し、H(0〜360)を外円環に、SV(0〜1)を内部矩形にプロットしたものを用いる。また、外円環は、BMPを貼り付けるのみで角度情報のみを取得する。また、外側の円ボタンによってH値を選択し、Hの値に従ったSVマップが内部矩形に表示される。つまり、Hの値と矩形内部の円ボタンの位置(SV値)とをRGBに変換することで、検索したい色情報(RGB値)を出力する。なお、内・外部の円ボタンには現在選択している色が表示される。上述したカラーマップを使用することで、検索者は多種の色情報を容易に設定することができる。なお、色情報の指定を行わない場合には、HSV値を「−1」とする。
また、性別指定領域61では、「男性」、「女性」、「どちらでもない」の何れかを設定する。また、マスク指定領域62では、マスクの着用について「している」、「していない」、どちらでも」の何れかを設定する。サングラス指定領域63では、サングラスの着用について「している」、「していない」、「どちらでも」の何れかを設定する。
また、年代指定領域64では、例えば「〜9歳」、「10〜19歳」、「20〜39歳」、「40〜59歳」、「60歳〜」のように予め設定された年代のうち、何れかを設定する。また、登場人物指定領域65では、予め蓄積されている登録人物情報にしたがって、リスト中から登録人物名を設定する。また、似ている芸能人指定領域66では、予め蓄積されている芸能人情報にしたがって、リスト中から芸能人名を設定する。
検索実行ボタン群67では、「この条件に合う人物を検索ボタン」と「クリアボタン」とを有し、「この条件に合う人物を検索ボタン」を押下した場合、初期画面41で指示された「人物特徴から検索」又は「リアルタイム捜索」に対応する全ての条件に関しての格納関数を順次呼び出す。また、最後に検索関数を呼び出して検索処理を実行し、処理が終了後、検索結果表示画面44へ遷移する。なお、条件に合わない入力があった場合には、例えば「もう一度入力してください」というメッセージが通知される。また、検索実行ボタン群67の「クリアボタン」が押下された場合には、特徴・行動条件指定画面43上の各種条件の設定がクリア(初期化)される。また、ハイパーリンク表示領域68では、文字が表示された部分を選択することで、最初の画面(初期画面41)に遷移する。
<検索結果表示画面44>
図11は、本実施形態における検索結果表示画面を示す図である。上述した初期画面41、日時指定画面42、特徴・行動条件指定画面43において、各種検索条件を指定し、検索結果表示画面44にて検索結果を表示する。また、所定の検索結果出力関数を呼び出し、各種情報を表示する。なお、図11の例では、1ページあたりの表示上限数を5としているが、本発明においてはこれに限定されず、必要に応じて任意に設定することができる。
また、図11に示す検索結果表示画面44は、各種検索領域69、検索結果数表示領域70、該当人物出現時の画像表示領域71、該当人物の顔画像72、検索結果表示領域73、映像確認ボタン74、ページ選択アイコン75、及びハイパーリンク表示領域76を有している。
各種検索領域69では、初期画面41等で選択したイベントに従い、そのイベントに対応する各種ボタンを押下することで、検索処理と画面遷移を行う。なお、各種検索領域69には、「一時停止ボタン」が設けられているが、このボタンは、例えば、リアルタイム捜索等におけるリアルタイムな検索結果の出力を更新せずに一時的に停止するためのものである。具体的には、例えば、リアルタイム捜索の場合には、検索結果表示領域73に迷子等の捜索の対象となる人物との類似性が高いものから随時表示されたり、ある一定以上の類似性を有する結果が随時表示されるため、表示内容が更新され、これにより画面の表示されている内容を見逃す恐れがある。そのため、検索結果の更新表示を一時停止することにより、検索結果を正確に確認することができる。
また、検索結果数表示領域70では、検索した結果数と、現在表示中の件数を表示する(例えば、「検索結果62件中1−5件目」等)。また、該当人物出現時の画像表示領域71では、該当人物出現時のサムネイル用人体画像を表示する。また、該当人物の顔画像72では、該当人物のサムネイル用顔画像を表示する。なお、該当人物出現時の画像表示領域71及び該当人物の顔画像72において、表示対象画像ない場合は表示しない(「NO IMAGE」表示等)。
また、検索結果表示領域73は、検索の結果、該当する人物の情報(見た目の特徴・行動)、又は警備ロボットによる検知等に対応するアイコンを表示する。ここで、図12は、検索結果表示領域を具体的に説明するための図である。図12における検索結果表示領域には、撮影時間・人物情報73−1、アイコン表示領域73−2、撮影場所情報73−3、検索スコア情報73−4が検索結果毎に表示されている。
撮影時間・人物情報73−1では、検索により抽出された映像の撮影時間と、その人物が登録者である場合にはその登録者人物名、登録者でない場合には、未登録者であることを表示する。また、アイコン表示領域73−2には、一例として8種類のアイコンが表示されており、それぞれ左から「年代」、「身長」、「サングラスの有無」「似ている芸能人」、「マスクの有無」、「きょろきょろしている」、「長時間滞在」、「カメラを確認」、「警備ロボットにおける検知」等の条件を容易に視認し易いアイコンが所定の位置で固定に配置されている。
なお、アイコン表示領域73−2に示す警備ロボットのアイコンは、撮像手段26と連携する巡回中の警備ロボットのアイコンを示している。そのため、アイコン表示領域73−2には、警備ロボットのアイコン表示の他に、その警備ロボットの位置情報を表示させてもよい。また、アイコン表示領域73−2に表示されるアイコンの種類や数についてはこれに限定されるものではなく、撮像手段26と連携する各種センサや防犯設備等の機器のアイコンを表示してもよい。
また、上述のアイコンは、上述の各条件に対応して予め設定されており、更に「赤」、「黒」、「グレー」等の予め設定された色で分けて表示することができる。ここで、「赤」で表示されている場合は、検索条件に含まれていたものを示し、「黒」で検索条件には含まれていないが、上記条件に該当する映像であるものと示し、「グレー」は検索条件及び映像の解析結果で該当しなかったものを示している。なお、色の種類については本発明においては特に制限はなく、他の色でもよく、また点滅や斜線等により区別して強調表示させることもできる。なお、アイコン表示領域73−2には、アイコンではなく文字そのものを表示することもでき、この場合には、例えば文字のフォントの種類や大きさ、太さ、下線等の形式を変更したり、点滅させたり、色を変える等により区別させることができる。
また、撮影場所情報73−3には、検索により抽出された映像の撮影場所が表示され、検索スコア情報73−4には、上述した検索手段21により得られる検索スコアリング結果が表示される。つまり、検索結果表示領域73では、この検索スコアが高いものから表示することができる。これにより、様々な条件における検索結果を、検索要求との一致度順に出力することにより、容易に要求する人物の確認ができる。なお、本発明においては検索スコア順に表示する手法に限定されず、例えば撮影日時順に表示させることもできる。
更に、検索結果表示領域73のアイコン表示領域73−2にカーソルを移動させ、所定時間(例えば、0.5秒)停止させると、予め設定されるアイコンに対応する付加情報73−5がポップアップ表示される。
また、映像確認ボタン74では、ボタンをクリックすると映像再生処理を呼び出し、映像再生画面45へ遷移する。また、ページ選択アイコン75では、検索結果が複数ページに及ぶ場合に、それぞれのページにジャンプする。また、ハイパーリンク表示領域76では、文字が表示された部分を選択することで、最初の画面(初期画面41)に遷移する。上述した画面により、検索者に対して抽出された検索結果がどの条件に該当しているかを容易に把握させることができる。
つまり、検索結果表示画面44において、人物の特徴や行動といった情報や、撮像手段26と連携した機器等をアイコンによって表示することにより、容易に要求する人物の確認ができる。
<映像再生画面45>
図13は、本実施形態における映像再生画面を示す図である。上述した検索結果表示画面44において、映像確認ボタン74を押した際に、映像再生画面45にて該当映像を表示する。ここで、図13に示す映像再生画面45には、映像表示領域77、テキスト表示領域78、特徴表示領域79、及びボタン領域80を有している。
映像表示領域77では、入力されたファイルパス、再生開始時間、再生終了時間を映像再生処理の引数として、映像を再生・表示する。また、映像表示領域77には、スライダ、再生ボタン、停止ボタン等があり、映像を見たい場所から見たり、映像の再生、停止を容易に行うことができる。また、映像表示領域77で表示されるデータは、AVIファイルの他、MPEG2、MPEG4、H.264、WMV、MP4等のファイル形式のデータを表示することができ、またJPEG、GIF、TIFF、BMP等の画像データも表示させることができる。
また、テキスト表示領域78には、映像再生の時間がテキスト内の時間になった際に、映像に対応する行動の文章を赤文字や太字等の強調文字により表示する。また、過去の情報はそのまま表示し、新たな情報が表示された場合、過去の情報は黒文字へ変化させる。これにより、現在の行動と今までの行動履歴を容易に把握することができる。
また、特徴表示領域79には、表示されている映像に含まれる人物の特徴情報が表示される。なお、複数人が撮影されている場合には、それぞれの特徴情報が表示される。
また、ボタン領域80では、「共有ボタン」と「類似検索ボタン」とが設けられている。「共有ボタン」を押下すると共有画面46に遷移する。なお、この場合、映像表示領域における映像再生は、装置の負荷を軽減するために停止する。また、「類似検索ボタン」を押下すると、表示された人物の特徴等に基づいて他の映像からの類似検索を行い、他のカメラで撮影されていないかをチェックし、その結果を上述した検索結果表示画面44に遷移した後に出力する。
つまり、映像再生画面45では、検索結果表示画面44より渡されたテキスト内に、映像中の人物の行動と、時間が記述されているため、映像表示領域77にて映像が表示中に、映像の時間が、テキストに対応する時間になった時に、テキスト表示領域78により該当テキストを赤く表示する(強調表示)。その後、新たな情報がある場合、過去の情報は黒文字で表示する。
<共有画面46>
図14は、本実施形態における共有画面を示す図である。上述した映像再生画面45において、ボタン領域80の「共有ボタン」を押下した際に、共有画面46にて人物情報を表示する。
ここで、共有画面46は、画像表示領域81、テキスト表示領域82、及びコメント入力領域83を有している。画像表示領域81では、該当人物出現時の画像、及び該当人物の顔画像が表示される。また、テキスト表示領域82では、赤文字等の強調文字で不審情報を表示し、その他に時刻情報(日付、入店時間、退店時間等)、特徴(身長、性別、年別等)が表示される。コメント入力領域83では、入力手段11により、コメントが入力される。なお、コメント入力領域83はデフォルト表示として「コメントを入力してください。」と表示し、入力手段11により検索者等により文字の入力を受け付けることができる。これにより、検索者が独自の観点で人物情報を設定し管理することができる。
更に、共有画面46に表示される各種の内容をプリンタに出力したり、ファイルを生成して所定の携帯電話にメール送信する印刷・出力機能を有する。これにより、映像表示画面において、人物についての情報を、文字と映像の両方から確認でき、更に印刷物の形態等により外部機器に出力可能とすることで、容易に要求する人物の確認と、情報伝達(共有)ができる。
<ハードウェア構成例>
ここで、上述した人物検索装置10は、上述した機能を有する専用の装置構成により制御を行うこともできるが、各機能をコンピュータに実行させることができる実行プログラム(人物検索プログラム)を生成し、例えば、汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における人物検索処理を実現することができる。
本実施形態における人物検索処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図15は、本実施形態における人物検索処理が実現可能なハードウェア構成の一例を示す図である。
図15におけるコンピュータ本体には、入力装置91と、出力装置92と、ドライブ装置93と、補助記憶装置94と、メモリ装置95と、各種制御を行うCPU(Central Processing Unit)96と、ネットワーク接続装置97とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
入力装置91は、使用者等が操作するキーボード及びマウス等のポインティングデバイスを有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。
出力装置92は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するモニタを有し、CPU96が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
なお、入力装置91と出力装置92とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合には使用者等の指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体98等により提供される。プログラムを記録した記録媒体98は、ドライブ装置93にセット可能であり、記録媒体68に含まれる実行プログラムが、記録媒体98からドライブ装置93を介して補助記憶装置94にインストールされる。
補助記憶装置94は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
メモリ装置95は、CPU96により補助記憶装置94から読み出された実行プログラム等を格納する。なお、メモリ装置95は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。
CPU96は、OS(Operating System)等の制御プログラム、及びメモリ装置95により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。プログラムの実行中に必要な各種情報等は、補助記憶装置94から取得することができ、また実行結果等を格納することもできる。
ネットワーク接続装置97は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果、又は本発明における実行プログラム自体を他の端末等に提供することができる。上述したようなハードウェア構成により、本発明における人物検索処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物検索処理を容易に実現することができる。次に、人物検索処理の具体的な内容について説明する。
<人物検索処理>
次に、本発明における実行プログラム(人物検索プログラム)で実行される人物検索処理手順についてフローチャートを用いて説明する。なお、以下の説明では、検索用の人物特徴情報を蓄積するまでの蓄積処理手順と、その蓄積されたデータを用いた検索処理手順とについて説明する。
<人物検索処理:蓄積処理手順>
図16は、本実施形態における蓄積処理手順の一例を示すフローチャートである。図16において、まずカメラ等の撮像手段により撮影された映像を入力する(S01)。次に、その映像に含まれる各画像に1又は複数の人物がいた場合、顔領域検出処理(S02)及び人体領域検出処理(S03)を行う。なお、S03の処理において、人物がいるか否かの判断は、例えば時系列画像フレーム間の比較において、色情報が変化している領域が所定の大きさ以上あるか否か等により判断することができ、また、S02の処理と併せて、顔領域の検出ができたか否かによって判断することもできる。
また、S02及びS03の処理が終了後、上述したように同定処理を行い(S04)、更に同定された人物を追跡し(S05)、追跡結果から得られる人物の行動等により不審者を検出する(S06)
次に、上述した処理を行った後、人物情報の統合処理を行い(S07)、その統合情報からフレーム情報を生成し(S08)、生成した情報を蓄積する(S09)。なお、上記の蓄積処理手順は、リアルタイムで検索するような場合には実施されなくてもよい。
<人物検索処理:検索処理手順>
図17は、本実施形態における検索処理手順の一例を示すフローチャートである。図17において、まず本システムを起動して検索画面を表示させる(S11)。ここで、検索指示があるか否かを判断し(S12)、検索指示があった場合(S12において、YES)、入力された検索条件により上述した検索手法を用いて予め蓄積されている映像又はリアルタイム映像に対して検索を実行し(S13)、検索結果に対応する出力内容を蓄積手段等から抽出する(S14)。また、抽出した内容から上述した検索者に表示する画面を生成し(S15)、生成した画面を出力する(S16)。ここで、検索を終了するか否かを判断し(S17)、検索を終了しない場合(S17において、NO)、S12に戻り、後続の処理を行う。また、検索を終了する場合(S17において、YES)、検索画面を閉じて人物検索処理を終了する。
上述したように、本発明によれば、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。
また、人物検索については、予め蓄積された映像に対して人物検索する場合や、リアルタイムで得られた映像に対して人物検索する場合があり、また、その映像を撮影する撮像手段としては、予め設定された壁や天井等に設置される固定型のものや、警備ロボット等に搭載された移動型のものがあるが、本発明によれば、その何れにも対応した適切な人物検索を実現することができる。
また、本発明によれば、例えば上述した検索スコアリング手法により、蓄積映像又はリアルタイム映像に映っている人物を、様々な人物の特徴や行動の組み合わせで検索することができる。また、どの組み合わせにおいても、検索要求との一致度が高い順番に検索結果が出力される。これにより、検索結果を効果的に出力し、映像確認の作業を大幅に軽減することができる。更に、本発明によれば、各映像間における人物の類似検索を行い、その結果を表示させることができる。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
10 人物検索装置
11 入力手段
12 出力手段
13 蓄積手段
14 顔領域検出手段
15 人体領域検出手段
16 同定手段
17 追跡手段
18 不審者検出手段
19 人物情報統合手段
20 フレーム情報生成手段
21 検索手段
22 画面生成手段
23 通知手段
24 送受信手段
25 制御手段
26 撮像手段
31 トラッキング手段
32 顔認証手段
33 性別・年代推定手段
34 顔隠し判定手段
35 身長推定手段
36 色情報抽出手段
41 初期画面
42 日時指定画面
43 特徴・行動条件指定画面
44 検索結果表示画面
45 映像再生画面
46 共有画面
51 来店者検索領域
52 不審者検索領域
53 キーワード検索領域
54−1 条件指定検索(人物特徴から検索)領域
54−2 リアルタイム捜索領域
55−1 ラジオボタン・日時指定ボックス
55−2 場所指定ボックス
56 検索実行ボタン群
57 ハイパーリンク表示領域
58 日付指定領域
59−1 場所指定領域
59−2 身長指定領域
60 色情報指定領域
61 性別指定領域
62 マスク指定領域
63 サングラス指定領域
64 年代指定領域
65 登場人物指定領域
66 似ている芸能人指定領域
67 検索実行ボタン群
68 ハイパーリンク表示領域
69 各種検索領域
70 検索結果数表示領域
71 該当人物出現時の画像表示領域
72 該当人物の顔画像
73 検索結果表示領域
74 映像確認ボタン
75 ページ選択アイコン
76 ハイパーリンク表示領域
77 映像表示領域
78 テキスト表示領域
79 特徴表示領域
80 ボタン領域
81 画像表示領域
82 テキスト表示領域
83 コメント入力領域
91 入力装置
92 出力装置
93 ドライブ装置
94 補助記憶装置
95 メモリ装置
96 CPU(Central Processing Unit)
97 ネットワーク接続装置
98 記録媒体

Claims (18)

  1. 撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置において、
    前記映像に含まれる時系列の各画像に対して人物特徴情報を蓄積する蓄積手段と、
    前記蓄積手段に対して予め設定される条件に基づいて該当する人物を検索する検索手段と、
    前記検索手段により得られる検索結果に対応する情報を前記蓄積手段により抽出し、抽出した内容を表示するための画面を生成する画面生成手段と、
    前記画面生成手段により生成された画面を出力する出力手段とを有し、
    前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする人物検索装置。
  2. 撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置において、
    前記撮像手段からリアルタイムに取得された映像に含まれる時系列の各画像に対して、人物特徴情報を抽出し、抽出された前記人物特徴情報と、予め設定される検索条件に基づいて、該当する人物を検索する検索手段と、
    前記検索手段により得られる検索結果を表示するための画面を生成する画面生成手段と、
    前記画面生成手段により生成された画面を出力する出力手段とを有し、
    前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする人物検索装置。
  3. 前記画面生成手段は、
    前記検索手段により検索された人物に対応する人物特徴情報を用いて検索結果をスコアリングし、スコアリングされた結果に基づいて、表示順序をリアルタイムに変更して表示すると共に、ユーザからの指示により一時停止することを特徴とする請求項1又は2に記載の人物検索装置。
  4. 前記画面生成手段は、
    前記検索手段により検索された人物が撮影されている映像を表示する映像表示領域と、前記映像の再生中における人物の行動を文字表示するテキスト表示領域とを有することを特徴とする請求項1乃至3の何れか1項に記載の人物検索装置。
  5. 前記出力手段は、
    生成された画面を表示すると共に、印刷出力又はファイル出力することを有することを特徴とする請求項1乃至4の何れか1項に記載の人物検索装置。
  6. 前記映像に含まれる人物に対して、顔領域を検出する顔領域検出手段と、
    前記映像に含まれる人物に対して、人体領域を検出する人体領域検出手段と、
    前記顔領域検出手段により得られる検出結果と、前記人体領域検出手段により得られる検出結果とを用いて時間の異なる複数の画像の人物を同定する同定手段と、
    前記同定手段により得られる人物の動作を追跡する追跡手段と、
    前記追跡手段により得られる追跡結果から不審者を検出する不審者検出手段と、
    前記同定手段により同定された人物の特徴情報を統合する人物情報統合手段と、
    前記人物情報統合手段により得られる統合結果を、前記映像を構成する画像フレーム毎に生成するフレーム情報生成手段とを有することを特徴とする請求項1乃至5の何れか1項に記載の人物検索装置。
  7. 撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示するための人物検索方法において、
    前記映像に含まれる時系列の各画像に対して人物特徴情報を蓄積手段に蓄積する蓄積手順と、
    前記蓄積手段に対して予め設定される条件に基づいて該当する人物を検索する検索手順と、
    前記検索手順により得られる検索結果に対応する情報を前記蓄積手段により抽出し、抽出した内容を表示するための画面を生成する画面生成手順と、
    前記画面生成手順により生成された画面を出力する出力手順とを有し、
    前記画面生成手順は、前記検索手順により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする人物検索方法。
  8. 撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索方法において、
    前記撮像手段からリアルタイムに取得された映像に含まれる時系列の各画像に対して、人物特徴情報を抽出し、抽出された前記人物特徴情報と、予め設定される検索条件に基づいて、該当する人物を検索する検索手順と、
    前記検索手順により得られる検索結果を表示するための画面を生成する画面生成手順と、
    前記画面生成手順により生成された画面を出力する出力手順とを有し、
    前記画面生成手順は、前記検索手順により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする人物検索方法。
  9. 前記画面生成手順は、
    前記検索手順により検索された人物に対応する人物特徴情報を用いて検索結果をスコアリングし、スコアリングされた結果に基づいて、表示順序をリアルタイムに変更して表示すると共に、ユーザからの指示により一時停止することを特徴とする請求項7又は8に記載の人物検索方法。
  10. 前記画面生成手順は、
    前記検索手段により検索された人物が撮影されている映像を表示する映像表示領域と、前記映像の再生中における人物の行動を文字表示するテキスト表示領域とを有することを特徴とする請求項7乃至9の何れか1項に記載の人物検索方法。
  11. 前記出力手順は、
    生成された画面を表示すると共に、印刷出力又はファイル出力することを特徴とする請求項7乃至10の何れか1項に記載の人物検索方法。
  12. 前記映像に含まれる人物に対して、顔領域を検出する顔領域検出手順と、
    前記顔領域検出手順により得られる顔領域を用いて人体領域を検出する人体領域検出手順と、
    前記顔領域検出手順により得られる検出結果と、前記人体領域検出手順により得られる検出結果とを用いて時間の異なる複数の画像の人物を同定する同定手順と、
    前記同定手順により得られる人物の動作を追跡する追跡手順と、
    前記追跡手順により得られる追跡結果から不審者を検出する不審者検出手順と、
    前記同定手順により同定された人物の特徴情報を統合する人物情報統合手順と、
    前記人物情報統合手順により得られる統合結果を、前記映像を構成する画像フレーム毎に生成するフレーム情報生成手順とを有することを特徴とする請求項7乃至11の何れか1項に記載の人物検索方法。
  13. 撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置における人物検索プログラムにおいて、
    コンピュータを、
    前記映像に含まれる時系列の各画像に対して人物特徴情報を蓄積する蓄積手段、
    前記蓄積手段に対して予め設定される条件に基づいて該当する人物を検索する検索手段、
    前記検索手段により得られる検索結果に対応する情報を前記蓄積手段により抽出し、抽出した内容を表示するための画面を生成する画面生成手段、及び、
    前記画面生成手段により生成された画面を出力する出力手段として機能させ、
    前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする人物検索プログラム。
  14. 撮像手段により撮影された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置における人物検索プログラムにおいて、
    コンピュータを、
    前記撮像手段からリアルタイムに取得された映像に含まれる時系列の各画像に対して、人物特徴情報を抽出し、抽出された前記人物特徴情報と、予め設定される検索条件に基づいて、該当する人物を検索する検索手段、
    前記検索手段により得られる検索結果を表示するための画面を生成する画面生成手段、及び、
    前記画面生成手段により生成された画面を出力する出力手段として機能させ、
    前記画面生成手段は、前記検索手段により得られた人物に対応して予め設定された人物特徴或いは行動、又は前記撮像手段と連携した機器をアイコンによって表示することを特徴とする人物検索プログラム。
  15. 前記画面生成手段は、
    前記検索手段により検索された人物に対応する人物特徴情報を用いて検索結果をスコアリングし、スコアリングされた結果に基づいて、表示順序をリアルタイムに変更して表示すると共に、ユーザからの指示により一時停止することを特徴とする請求項13又は14に記載の人物検索プログラム。
  16. 前記画面生成手段は、
    前記検索手段により検索された人物が撮影されている映像を表示する映像表示領域と、前記映像の再生中における人物の行動を文字表示するテキスト表示領域とを有することを特徴とする請求項13乃至15の何れか1項に記載の人物検索プログラム。
  17. 前記出力手段は、
    生成された画面を表示すると共に、印刷出力又はファイル出力することを特徴とする請求項13乃至16の何れか1項に記載の人物検索プログラム。
  18. 前記映像に含まれる人物に対して、顔領域を検出する顔領域検出手段と、
    前記映像に含まれる人物に対して、人体領域を検出する人体領域検出手段と、
    前記顔領域検出手段により得られる検出結果と、前記人体領域検出手段により得られる検出結果とを用いて時間の異なる複数の画像の人物を同定する同定手段と、
    前記同定手段により得られる人物の動作を追跡する追跡手段と、
    前記追跡手段により得られる追跡結果から不審者を検出する不審者検出手段と、
    前記同定手段により同定された人物の特徴情報を統合する人物情報統合手段と、
    前記人物情報統合手段により得られる統合結果を、前記映像を構成する画像フレーム毎に生成するフレーム情報生成手段とを有することを特徴とする請求項13乃至17の何れか1項に記載の人物検索プログラム。
JP2010084174A 2009-03-31 2010-03-31 人物検索装置、人物検索方法、及び人物検索プログラム Pending JP2010257450A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010084174A JP2010257450A (ja) 2009-03-31 2010-03-31 人物検索装置、人物検索方法、及び人物検索プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009088565 2009-03-31
JP2010084174A JP2010257450A (ja) 2009-03-31 2010-03-31 人物検索装置、人物検索方法、及び人物検索プログラム

Publications (1)

Publication Number Publication Date
JP2010257450A true JP2010257450A (ja) 2010-11-11

Family

ID=43318235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084174A Pending JP2010257450A (ja) 2009-03-31 2010-03-31 人物検索装置、人物検索方法、及び人物検索プログラム

Country Status (1)

Country Link
JP (1) JP2010257450A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210968A (ja) * 2012-03-30 2013-10-10 Canon Inc 物体検出装置及びその方法、プログラム
JP2015228564A (ja) * 2014-05-30 2015-12-17 株式会社日立国際電気 監視カメラシステム
JP2021081880A (ja) * 2019-11-15 2021-05-27 株式会社Patic Trust 情報処理装置、情報処理方法、プログラム及びカメラシステム
JP7314048B2 (ja) 2019-12-26 2023-07-25 綜合警備保障株式会社 学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001093079A (ja) * 1999-09-24 2001-04-06 Sumitomo Electric Ind Ltd 交通状況表示装置
JP2002344946A (ja) * 2001-05-16 2002-11-29 Oki Electric Ind Co Ltd 監視装置
JP2003046911A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 監視記録装置及びその方法
JP2008108151A (ja) * 2006-10-27 2008-05-08 Funai Electric Co Ltd 監視システム
JP2008113331A (ja) * 2006-10-31 2008-05-15 Aplix Corp 電話システム、電話機、サーバ装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001093079A (ja) * 1999-09-24 2001-04-06 Sumitomo Electric Ind Ltd 交通状況表示装置
JP2002344946A (ja) * 2001-05-16 2002-11-29 Oki Electric Ind Co Ltd 監視装置
JP2003046911A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 監視記録装置及びその方法
JP2008108151A (ja) * 2006-10-27 2008-05-08 Funai Electric Co Ltd 監視システム
JP2008113331A (ja) * 2006-10-31 2008-05-15 Aplix Corp 電話システム、電話機、サーバ装置およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210968A (ja) * 2012-03-30 2013-10-10 Canon Inc 物体検出装置及びその方法、プログラム
JP2015228564A (ja) * 2014-05-30 2015-12-17 株式会社日立国際電気 監視カメラシステム
JP2021081880A (ja) * 2019-11-15 2021-05-27 株式会社Patic Trust 情報処理装置、情報処理方法、プログラム及びカメラシステム
US11494942B2 (en) 2019-11-15 2022-11-08 Patic Trust Co., Ltd. Information processing device, information processing method, program, recording medium, and camera system
JP7314048B2 (ja) 2019-12-26 2023-07-25 綜合警備保障株式会社 学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラム

Similar Documents

Publication Publication Date Title
JP5523900B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP5590945B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP5674406B2 (ja) 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
JP6525229B1 (ja) デジタルサーチ・セキュリティシステム、方法及びプログラム
JP4168940B2 (ja) 映像表示システム
JP5478928B2 (ja) 人物同定装置、人物同定方法、及び人物同定プログラム
JP5645646B2 (ja) 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム
KR20120062609A (ko) 영상 검색 장치 및 영상 검색 방법
WO2011111129A1 (ja) 画像検索装置
JP5091095B2 (ja) 動作検出装置および動作検出方法
Sokolova et al. A fuzzy model for human fall detection in infrared video
JP6440327B2 (ja) 防犯システム、防犯方法、及びロボット
JP5718632B2 (ja) 部位認識装置、部位認識方法、及び部位認識プログラム
JP2009252215A (ja) 警備装置および情報表示方法
JP2010257450A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
KR20130122262A (ko) 영상 검색 시스템 및 영상 분석 서버
JPH09307868A (ja) コミュニケーション装置及びコミュニケーション方法
JP2019153920A (ja) 情報処理装置、情報処理装置の制御方法、被写体検出システム、及び、プログラム
JP5431830B2 (ja) 部品検出装置、部品検出方法、プログラムおよび記録媒体
US20220277642A1 (en) Investigation assistance system and investigation assistance method
JP2010244090A (ja) 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム
KR102544147B1 (ko) 영상분석 기반 1인 낙상 감지 시스템 및 방법
JP2018195992A (ja) 人物グループ追跡装置および人物グループ追跡方法
JP6022625B2 (ja) 部位認識装置、部位認識方法、及び部位認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140520