JP6139364B2 - 人物特定装置、人物特定方法及びプログラム - Google Patents

人物特定装置、人物特定方法及びプログラム Download PDF

Info

Publication number
JP6139364B2
JP6139364B2 JP2013207575A JP2013207575A JP6139364B2 JP 6139364 B2 JP6139364 B2 JP 6139364B2 JP 2013207575 A JP2013207575 A JP 2013207575A JP 2013207575 A JP2013207575 A JP 2013207575A JP 6139364 B2 JP6139364 B2 JP 6139364B2
Authority
JP
Japan
Prior art keywords
person
unit
specific target
image
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013207575A
Other languages
English (en)
Other versions
JP2015072578A (ja
Inventor
助川 寛
寛 助川
馬場 賢二
賢二 馬場
洋一 島田
洋一 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013207575A priority Critical patent/JP6139364B2/ja
Publication of JP2015072578A publication Critical patent/JP2015072578A/ja
Application granted granted Critical
Publication of JP6139364B2 publication Critical patent/JP6139364B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、人物特定装置、人物特定方法及びプログラムに関する。
災害時等において、人物の安否や被災状態を確認する技術がある(例えば、特許文献1〜4を参照)。これらのシステムは、GPS(Global Positioning System)機能を備える端末や入退室管理システムに基づいて人物の所在を確認するものである。また、カメラを用いて人物の移動軌跡を取得し、当該人物を特定する技術がある(例えば、特許文献5を参照)。
特開2007−213207号公報 特開2006−323719号公報 特開2008−140284号公報 特開平10−336329号公報 特開2009−152733号公報
しかしながら、災害地など特定の場所に探索対象となる人物がいるか否かを判定するには、当該人物がGPS機能を備える端末を有してることや、入退室管理システムを利用しているなど、所定の条件を満たしている必要があった。つまり、所定の装置やシステムを利用していない人物の安否を確認することが困難であった。また、カメラを用いて人物の特定を行う場合、探索対象となる人物の数が多くなるほど顔検出処理の対象が増えるために処理時間がかかることが想定される。
本発明が解決しようとする課題は、所定の装置やシステムを利用しているか否かに関わらず効率的に人物の特定を行うことができる人物特定装置、人物特定方法及びプログラムを提供することである。
実施形態の人物特定装置は、特定対象画像に写った特定対象人物を特定する人物特定装置である。人物特定装置は、移動パターン推定部と、存在場所推定部と、存在人物推定部と、人物特定部とを備える。移動パターン推定部は、複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、当該撮像画像に写った人物の移動パターンを推定する。存在場所推定部は、撮像画像に写った人物の移動パターンと特定対象画像の撮像時刻とに基づいて特定対象画像の撮像時刻に当該人物が存在する蓋然性が高い場所を推定する。存在人物推定部は、存在場所推定部の推定結果に基づいて、特定対象画像の撮像時刻に特定対象画像の撮像場所に存在した蓋然性が高い人物を推定する。人物特定部は、存在人物推定部が推定した人物の情報に基づいて、撮像画像に写った人物と特定対象人物とを比較することで、特定対象人物を特定する。
少なくとも1つの実施形態に係る人物特定システムの一例を示すシステム図である。 第1の実施形態に係る人物特定装置の構成を示す概略ブロック図である。 画像データベースが記憶する情報の例を示す図である。 第1の実施形態に係る人物特定装置に画像データが入力された時の動作を示すフローチャートである。 第1の実施形態に係る人物特定装置に探索対象人物の情報が入力された時の動作を示すフローチャートである。 第1の実施形態に係る人物特定装置に特定開始指示が入力された時の動作を示すフローチャートである。 探索対象人物の移動軌跡の表示例を示す図である。 第2の実施形態に係る人物特定装置の構成を示す概略ブロック図である。 第3の実施形態に係る人物特定装置の構成を示す概略ブロック図である。 エリアの人員構成を示す情報の表示例を示す図である。 第4の実施形態に係る人物特定装置の構成を示す概略ブロック図である。 少なくとも1つの実施形態に係るコンピュータ0の構成を示す概略ブロック図である。
《第1の実施形態》
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、少なくとも1つの実施形態に係る人物特定システムの一例を示すシステム図である。
第1の実施形態に係る人物特定システムは、複数の撮像装置10と人物特定装置11とを備える。複数の撮像装置10は、地理的領域である複数のエリアに分散して配置される。図1によれば、複数の撮像装置10は、MエリアとKエリアに配置されている。Mエリアは、オフィスビルが立ち並ぶビル街を含むエリアである。Kエリアは、住宅街を含むエリアである。
複数の撮像装置10は、それぞれ、視野に捉えた画像を撮像して画像データを生成する。なお、画像データは、静止画像であっても動画像であっても良い。複数の撮像装置10は、それぞれ生成した画像データを人物特定装置11に送信する。なお、本実施形態の人物特定システムが備える撮像装置10は、TCP/IP(Transmission Control Protocol / Internet Protocol)を用いたネットワークカメラである。なお、撮像装置10が画像データをネットワークを介して人物特定装置11に送信することで、ネットワークのトラフィックが増大する可能性がある。そのため、本実施形態では、撮像装置10が内蔵するCPU(Central Processing Unit)により必要な処理を実施し、処理後の情報のみを人物特定装置11に送信する。
人物特定装置11は、複数の撮像装置10から受信した画像データに基づいて各画像データに写った人物についての統計処理を行う。人物特定装置11は、災害発生などにより管理者によって特定開始指示が入力されると、統計処理の結果を用いて、複数の撮像装置10から受信した画像データに写った人物を、予め記憶していた探索対象人物の中から特定する。これにより、人物特定装置11は、災害発生時などに、探索対象となる人物がどこにいるのか、及び画像データに写った特定対象の人物が何者であるのかを特定することができる。なお、人物特定装置11は、クラウドコンピューティングリソースとして、人物特定機能を提供する装置であり、災害時にも稼働できるよう、遠隔に離れた複数のコンピュータによって二重化される。これにより、人物特定装置11の冗長性を確保することができる。
図2は、第1の実施形態に係る人物特定装置11の構成を示す概略ブロック図である。
人物特定装置11は、画像取得部101と、人物検出部102と、特徴抽出部103と、人物情報データベース104と、人物情報入力部105と、人物特定部106と、画像記録部107と、画像データベース108と、指示入力部109と、統計処理部110と、統計情報データベース111と、存在場所推定部112と、存在人物推定部113と、読み出し部114と、通知部115とを備える。
画像取得部101は、複数の撮像装置10から当該撮像装置10が撮像した画像データと、当該画像データの撮像場所と、当該画像データの撮像時刻とを取得する。つまり、撮像装置10は、撮像時の時刻と自装置の設置位置を画像データと共に記録する構成を有する。撮像時刻の記録については、撮像装置10のタイムスタンプ機能を用いることなどによって実現することができる。他方、設置位置の記録については、撮像装置10にGPS機能を搭載することや、撮像装置10の設置位置を装置IDに関連付けて手動でデータベースに記録しておくことなどによって、実現することができる。
当該画像データは、撮像装置10からリアルタイムに送信されるものであっても良いし、図示しない画像蓄積装置に記録されたのち、当該画像蓄積装置から送信されるものであっても良い。画像蓄積装置は、撮像装置10が撮像した画像をMPEG2、MotionJPEG、H.264などの映像フォーマットによりハードディスクドライブに記録されたもののように、画像データを記録する装置であれば、どのような手段であっても良い。
また、画像取得部101は、予め配置された撮像装置10以外に、携帯電話端末や車載カメラなどの可動式の撮像装置10からも、画像データ、撮像時刻及び撮像場所を取得する。つまり、画像取得部101は、ウェザーニュース形式でボトムアップの情報を取得することができる。これにより、人物特定装置11は、網羅的に人物の特定をすることができる。また、画像取得部101は、無線・衛星通信を用いて撮像装置10から情報を取得しても良い。これにより人物特定装置11は、災害時など、停電や通信インフラが使えない状態であっても、情報を取得することができる。なお、画像取得部101と撮像装置10との通信は、映像の流出や改ざんを防ぐために暗号化手段によって暗号化されても良い。なお、本実施形態において可動式の撮像装置10は、移動中に画像データを蓄積しておき、移動が終了した時に当該画像データを人物特定装置11に送信する。
また、複数の撮像装置10が撮像した画像データを全てネットワークを通じて人物特定装置11に入力される場合、計算量が膨大になる可能性がある。そのため、本実施形態では、クラウドコンピューティングにおけるスケールアウトやスケールダウンといった手法を用いることで、人物特定装置11のパフォーマンスを動的に拡張する。
また、撮像装置10から、NTSC(National Television System Committee)やその他の規格のアナログ映像が入力された場合、画像取得部101は、当該アナログ映像を所定のデジタルフォーマットに変換することで、画像データを取得することができる。なお、画像蓄積装置が画像データのコピー伝送、磁気テープを利用するものであっても、画像取得部101は、同様にフォーマット変換を行うことで、対応することができる。
人物検出部102は、画像取得部101が取得した画像データから人物を検出する。本実施形態では、人物検出部102は顔認識技術を用いて人物の検出を行う。具体的には、人物検出部102は、画像データの輝度情報を用いて矩形の顔領域の座標を特定することで、人物の検出を行う。なお、本実施形態では、処理を簡単にするために、顔領域として矩形領域を用いるが、他の実施形態では、顔領域として任意の形状の領域を特定しても良い。人物検出部102は、画像取得部101が取得した画像データが動画像である場合、連続する複数のフレームに写った人物が同一の人物として検出する。本実施形態では、人物検出部102は、オプティカルフローに基づいて、連続する2つのフレームにおいて検出した顔領域の座標を対応付ける。なお、他の実施形態では、人物検出部102が、画像データの複数のフレームから検出された人物の顔領域について、座標や大きさなどの情報を統合して対応付けを行うことで、当該人物を同一の人物として検出する。なお、他の実施形態では、人物検出部102は、同一人物として対応付けられた複数フレームの顔領域の画像データの中から検索をするのに適切な少なくとも1枚の画像データを用いて人物を検出しても良い。また、他の実施形態では、人物検出部102は、同一人物として対応付けられた複数フレームの顔領域の画像データの中から任意の枚数の画像データを用いて人物を検出しても良い。
特徴抽出部103は、人物検出部102が検出した人物の画像情報から当該人物の特徴情報を抽出する。本実施形態では、特徴抽出部103は、人物検出部102が検出した人物の画像情報を3次元の顔モデルに反映させ、顔の向きや状態を変動させた画像を生成することで、顔特徴情報を取得する。また、特徴抽出部103は、人物検出部102が複数のフレームに写った人物を検出した場合、検出された複数の人物の画像情報を用いて計算を行うことで、精度よく特徴情報を抽出することができる。例えば、特徴抽出部103は、以下のような手法で、複数のフレームの画像データから人物の特徴情報を抽出することができる。まず、特徴抽出部103は、画像取得部101が連続して取得した複数の画像から顔領域を含む所定の大きさの画像を切り出す。次に、特徴抽出部103は、切り出したデータから特徴ベクトルの相関行列を求め、そのK−L展開による正規直交ベクトルを求めることで、部分空間を求める。部分空間は、固有値に対応する固有ベクトルを、固有値が大きい順に所定数選択し、当該選択した固有ベクトルを並べた行列によって表現される。なお、固有ベクトルの行列は、例えば、相関行列を特徴ベクトルから求め、当該相関行列を対角化することで求めることができる。相関行列をCdとおくと、Cd=ΦdΛdΦdとしたときのΦdが、固有ベクトルである。なお、上付きのTは行列の転置を示す。
また、特徴抽出部103は、人物検出部102が検出した人物の画像情報からマスクや防止の着用の有無や年齢、性別などの属性情報を抽出する。具体的には、特徴抽出部103は、各属性の特徴情報を基準に類似度を計算することで、人物の特徴情報を抽出する。また、特徴抽出部103は、人物の画像情報とカメラの画角情報を用いることで、当該人物の身長を算出する。
人物情報データベース104は、探索対象となる人物(探索対象人物)ごとに、当該探索対象人物を識別する識別情報である個人IDと、当該探索対象人物の特徴情報、属性情報、及び通知先を関連付けて記憶する。本実施形態に係る人物情報データベース104は、特徴情報として、特徴抽出部103が画像情報から抽出した特徴情報を記憶する。本実施形態に係る人物情報データベース104は、属性情報として探索対象人物の顔を含む画像、名前、性別、年齢、身長等の情報を記憶する。本実施形態に係る人物情報データベース104は、通知先として探索対象人物または当該人物を探索する利用者の住所、電話番号、電子メールアドレスの情報を記憶する。
人物情報入力部105は、人物特定装置11の利用者から探索対象人物の情報が入力されると、当該情報を人物情報データベース104に記録する。探索対象人物の情報の入力は、例えば、利用者による手入力、自治体や行政で管理する住民基本台帳、旅券や免許証等の読み取り、ソーシャルネットワーキングサービスのアカウントへのアクセスなどによって行われる。手入力される画像は、例えば、携帯電話端末を用いて撮像した画像や、捜索依頼と共に提供される写真をスキャンして得られる画像などが挙げられる。人物特定装置11は、これらの情報を用いて人物の探索を行うことで、人物特定の精度を向上することができる。
人物特定部106は、特徴抽出部103が抽出した特徴情報と、人物情報データベース104に記録された人物の特徴情報との比較により、人物検出部102が検出した人物の個人IDを特定する。具体的には、人物特定部106は、人物情報データベース104に記録された特徴情報の中から、人物検出部102が検出した人物の特徴情報との類似度が最も高い人物の個人IDを、人物検出部102が検出した人物の個人IDとする。人物特定部106は、特徴情報が示す行列の距離を求めることで、類似度を計算する。つまり、距離が短いほど類似度が高いことが分かる。行列の距離としては、コサイン距離、ユークリッド距離、マハラノビス距離などを用いることができる。
画像記録部107は、特徴抽出部103が抽出した特徴情報を、画像取得部101が取得した画像データ、撮像場所及び撮像時刻と、撮像装置10の装置IDとに関連付けて、画像データベース108に記録する。画像記録部107は、人物特定部106が個人IDを特定した場合、当該個人ID及び当該個人IDに関連付けて人物情報データベース104が記憶する属性情報及び通知先を、さらに画像データベース108に記録する。他方、画像記録部107は、人物特定部106が個人IDを特定しなかった場合、特徴抽出部103が抽出した属性情報を、さらに画像データベース108に記録する。
図3は、画像データベース108が記憶する情報の例を示す図である。
画像データベース108は、図3に示すように、撮像装置10が撮像した画像データに関連付けて、当該画像データに含まれる人物の個人ID、特徴情報、属性情報及び通知先、並びに当該画像データを撮像した撮像装置10の装置ID、撮像場所及び撮像時刻を、関連付けて記憶する。なお、本実施形態では、画像データベース10が記憶する特徴情報は特徴ベクトルであるが、これに限られず、他の実施形態では、特徴情報として、部分空間やK−L展開前の相関行列、顔画像データそのものであっても良い。なお、本実施形態では、画像データベース108は、撮像時刻として、人物が検出されたフレームの時刻を記憶する。しかしながら、これに限られず、他の実施形態では画像データベース108は、撮像時刻として、人物の検出が終了したフレームの時刻、その中間の時刻などを記憶しても良い。なお、本実施形態では、検出された人物が探索対象人物でない場合、個人IDを「UNKNOWN」とする。また、本実施形態では、画像データベース108が属性情報として記憶する顔画像は、画像データから複数検出された顔画像のうち最も顔向きが正面に近いものである。他方、他の実施形態では、画像データベース108が属性情報として記憶する顔画像は、最も解像度が高いものであっても良い。なお、画像データが動画像である場合、画像データベース108は、顔画像に代えて、最も顔向きが正面に近いときのタイムスタンプを記憶しても良い。また、画像データベース108が、属性情報として自由記述の文字列を記憶することで、テキストベースの検索を行えるようにしても良い。
指示入力部109は、管理者などから入力された指示に基づいて、図示しない記憶部に当該指示を示す情報を記録する。指示入力部109は、管理者などから特定開始指示が入力された場合、画像データに含まれる人物の特定を開始することを示す情報を、図示しない記憶部に記録する。これにより、人物特定装置11は、撮像装置10が撮像した画像データに含まれる人物の特定の開始を受け付ける。つまり、本実施形態における特定対象画像は、特定開始指示が入力された以降に撮像された画像データである。また、本実施形態における特定対象人物は、特定開始指示が入力された以降に撮像された画像データに写った人物である。
なお、特定開始指示は、災害の発生時などに管理者から入力される情報である。他方、指示入力部109は、管理者などから特定終了指示が入力された場合、画像データに含まれる人物の特定を開始することを示す情報を、図示しない記憶部から削除する。これにより、人物特定装置11は、撮像装置10が撮像した画像データに含まれる人物の特定の終了を受け付ける。
統計処理部110は、指示入力部109に特定開始指示が入力されると、画像データベース108が記憶する過去の撮像画像に基づいて統計処理を行う。統計処理部110は、少なくとも人物の移動軌跡を推定する移動軌跡推定部121と、人物の移動パターンを推定する移動パターン推定部122とを備える。
移動軌跡推定部121は、画像データベース108が記憶する複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、人物の移動軌跡を推定する。具体的には、移動軌跡推定部121は、画像データベース108が同一の個人IDに関連付けて記憶する撮像時刻及び撮像場所を読み出し、当該撮像場所を時系列に並べることで、当該個人IDが示す人物の移動軌跡を推定する。
移動パターン推定部122は、画像データベース108が記憶する複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、人物の移動パターンを推定する。具体的には、移動パターン推定部122は、画像データベース108が同一の個人IDに関連付けて記憶する撮像時刻及び撮像場所を読み出し、当該撮像場所を日付単位で時系列に並べることで、当該個人IDが示す人物の各日付における移動軌跡を推定する。移動パターン推定部122は、複数の移動軌跡を曜日及び天候で分類し、当該分類において最頻の移動軌跡を、当該人物の移動パターンとして推定する。
統計情報データベース111は、統計処理部110による統計処理の結果を記憶する。統計情報データベース111は、人物の移動軌跡を格納する移動軌跡テーブルと人物の移動パターンを格納する移動パターンテーブルとを記憶する。移動軌跡テーブルは、個人IDに関連付けて当該個人IDが示す人物の移動軌跡を記憶する。移動パターンテーブルは、個人IDと曜日及び天候に関連付けて、当該曜日及び天候の日における当該個人IDが示す人物の移動パターンを記憶する。
存在場所推定部112は、統計情報データベース111が各個人IDに関連付けて記憶する移動軌跡及び移動パターンに基づいて、特定開始指示の入力以降に撮像装置10が撮像した画像データ(特定対象画像)の撮像時刻に当該個人IDが示す人物が存在する蓋然性が高い場所を推定する。
存在人物推定部113は、存在場所推定部112の推定結果に基づいて、特定対象画像の撮像時刻にその撮像場所に存在した蓋然性が高い人物を推定する。具体的には、本実施形態に係る存在人物推定部113は、各個人IDについて、存在場所推定部112が推定した場所と特定対象画像の撮像場所との距離が所定の距離以内である場合に、当該個人IDが示す人物が、特定対象画像の撮像時刻にその撮像場所に存在した蓋然性が高いと推定する。なお、距離以外の尺度として、特徴情報が部分空間を示す場合、部分空間間類似度を類似の尺度に用いても良い。また、予め同一人物と分かる複数の人物画像をまとめて部分空間へ射影して本人であるかを識別しておくことで、存在人物推定部113による推定の精度を向上させることができる。
なお、存在人物推定部113は、所定の属性情報(例えば、性別)で絞り込んで探索対象人物を検索しても良い。
読み出し部114は、人物特定部106が特定した人物の個人IDに関連付けられた属性情報及び通知先を、人物情報データベース104から読み出す。
通知部115は、読み出し部114が読み出した通知先に、探索の依頼があること及び本システムにより探索されたことを通知する。なお、通知部115は、通知先として人物情報データベース104に電話番号が記録されている場合、当該電話番号に発呼して音声合成機能により合成された音声を出力することで通知を行う。また、通知部115は、通知先として人物情報データベース104に電子メールアドレスが記録されている場合、当該電子メールアドレスに所定の文書を送信することで通知を行う。また、通知部115は、ソケット通信によって通知を行っても良い。
まず、特定開始指示の入力がなされるまでの人物特定装置11の動作について説明する。
図4は、第1の実施形態に係る人物特定装置11に画像データが入力された時の動作を示すフローチャートである。
人物特定装置11の画像取得部101が、撮像装置10から画像データを取得すると(ステップS1)、人物検出部102は、当該画像データに人物が写っているか否かを判定する(ステップS2)。人物検出部102は、画像データに人物が写っていないと判定した場合(ステップS2:NO)、処理を終了する。
他方、人物検出部102は、画像データに人物が写っていると判定した場合(ステップS2:YES)、当該人物の領域を特定する(ステップS3)。人物検出部102が人物の領域を特定すると、特徴抽出部103は、人物検出部102が検出した領域から人物の特徴情報及び属性情報を抽出する(ステップS4)。
特徴抽出部103が特徴情報及び属性情報を抽出すると、人物特定部106は、人物情報データベース104が記憶する各探索対象人物の特徴情報と、特徴抽出部103が抽出した特徴情報との類似度を算出する(ステップS5)。次に、人物特定部106は、算出した類似度のうち最も高いものが、所定の閾値以上であるか否かを判定する(ステップS6)。当該閾値は、特徴情報同士が類似しているか否かを判定するための閾値である。なお、類似度が閾値以上であるということは、行列間の距離が対応する閾値以下であるということと等価である。人物特定部106は、最も高い類似度が所定の閾値以上であると判定した場合(ステップS6:YES)、最も高い類似度の算出に用いた特徴情報に関連付けられた個人ID、属性情報及び通知先を、人物情報データベース104から読み出す(ステップS7)。次に、画像記録部107は、画像取得部101が取得した画像データと、特徴抽出部103が抽出した特徴情報と、人物特定部106が特定した個人ID、属性情報及び通知先を、関連付けて画像データベース108に記録し、処理を終了する(ステップS8)。
他方、ステップS6において、人物特定部106によって、最も高い類似度が所定の閾値未満であると判定された場合(ステップS6:NO)、画像記録部107は、画像取得部101が取得した画像データと、特徴抽出部103が抽出した特徴情報及び属性情報を、関連付けて画像データベース108に記録し、処理を終了する(ステップS9)。
上述した処理により、人物特定装置11は、撮像装置10が撮像した画像データごとに、当該画像データに写った人物の情報が、画像データベース108に記録することができる。
図5は、第1の実施形態に係る人物特定装置11に探索対象人物の情報が入力された時の動作を示すフローチャートである。
人物特定装置11の人物情報入力部105は、人物特定システムの利用者から新たな探索対象人物の情報が入力されると(ステップS11)、当該情報を人物情報データベース104に記録する(ステップS12)。具体的には、利用者は、探索対象人物の情報として、当該人物の顔が含まれた画像データ、当該人物の属性情報、及び当該人物または当該利用者の通知先を人物特定装置11に入力する。
人物情報データベース104に新たな探索対象人物の情報が記録されると、特徴抽出部103は、当該探索対象人物の画像データから特徴情報を抽出する(ステップS13)。次に、人物特定部106は、特徴抽出部103が抽出した特徴情報に基づいて、入力された探索対象人物が既に人物情報データベース104に記録されているか否かを判定する(ステップS14)。具体的には、人物特定部106は、特徴情報同士の類似度及び属性情報同士の類似度が高いする場合に、入力された探索対象人物が既に人物情報データベース104に記録されていると判定する。
人物特定部106は、入力された探索対象人物が人物情報データベース104に記録されていると判定した場合(ステップS14:YES)、ステップS12で記録した情報を、人物情報データベース104から削除し(ステップS15)、処理を終了する。このとき、人物特定装置11は、利用者に対し、当該人物が既に探索対象となっている旨を通知しても良い。
他方、人物特定部106は、入力された探索対象人物が人物情報データベース104に記録されていると判定した場合(ステップS14:NO)、特徴抽出部103が抽出した特徴情報と画像データベース108に記録された各特徴情報との類似度を算出する(ステップS16)。次に、人物特定部106は、特徴情報との類似度が所定の閾値以上である特徴情報に関連付けられた個人ID及び属性情報を、新たな探索対象人物の個人ID及び属性情報に書き換えて画像データベース108に記録する(ステップS17)。
上述した処理により、人物特定装置11は、探索対象人物が追加されるたびに、画像データベース108が記憶する情報を更新することができる。
次に、特定開始指示の入力がなされたときの人物特定装置11の動作について説明する。
図6は、第1の実施形態に係る人物特定装置11に特定開始指示が入力された時の動作を示すフローチャートである。
人物特定装置11の指示入力部109に、特定開始指示が入力されると(ステップS21)、移動軌跡推定部121は、画像データベース108が記憶する複数の撮像画像の撮像時刻及び撮像場所と個人IDとに基づいて、各探索対象人物の移動軌跡を推定する(ステップS22)。次に、移動軌跡推定部121は、各探索対象人物の移動軌跡を統計情報データベース111の移動軌跡テーブルに記録する。また、移動パターン推定部122は、画像データベース108が記憶する複数の撮像画像の撮像時刻及び撮像場所と個人IDとに基づいて、人物の移動パターンを推定する(ステップS23)。次に、移動パターン推定部122は、各探索対象人物の移動パターンを統計情報データベース111の移動パターンテーブルに記録する。
次に、画像取得部101が、撮像装置10から画像データ(特定対象画像)を取得すると(ステップS24)、人物検出部102は、当該画像データに人物が写っているか否かを判定する(ステップS25)。人物検出部102は、画像データに人物が写っていると判定した場合(ステップS25:YES)、当該人物の領域を特定する(ステップS26)。人物検出部102が人物の領域を特定すると、特徴抽出部103は、人物検出部102が検出した領域から人物の特徴情報及び属性情報を抽出する(ステップS27)。
他方、画像取得部101が画像データを取得すると、存在場所推定部112は、探索対象人物を1人ずつ選択し、選択した探索対象人物について以下に示すステップS29〜ステップS31の処理を実行する(ステップS28)。
まず、存在場所推定部112は、選択した探索対象人物に関連付けられた移動軌跡を統計情報データベース111の移動軌跡テーブルから読み出す。次に、存在場所推定部112は、読み出した移動軌跡の終点位置に探索対象人物が存在した時刻を特定する(ステップS29)。次に、存在場所推定部112は、特定対象画像の撮像時刻と特定した時刻との差が所定の時間(例えば、3時間)以上であるか否かを判定する(ステップS30)。存在場所推定部112は、時刻の差が所定の時間未満であると判定した場合(ステップS30:NO)、移動軌跡の終点位置が、ステップS28で選択した探索対象人物が特定対象画像の撮像時刻に存在する蓋然性が高い場所であると推定する(ステップS31)。
なお、ステップS24で取得される画像データは、特定開始指示の入力後に撮像されたものである。また、統計情報データベース111が記憶する移動軌跡は、特定開始指示の入力前に撮像された画像データに基づいて計算されたものである。したがって、探索対象人物が移動軌跡の終点位置に存在した時刻と特定対象画像の撮像時刻との差が小さい場合、当該終点位置は、特定対象画像の撮像時刻に当該探索対象人物が存在する蓋然性が高い場所であるといえる。
存在場所推定部112は、時刻の差が所定の時間以上であると判定した場合(ステップS30:YES)、特定対象画像が撮像された日の曜日及び天候と、ステップS28で選択した探索対象人物とに関連付けられた移動パターンを、統計情報データベース111の移動パターンテーブルから読み出す。次に、存在場所推定部112は、読み出した移動パターンから、特定対象画像の撮像時刻に、探索対象人物が存在する蓋然性が高い場所を推定する(ステップS32)。移動パターンは、1日の各時刻における探索対象人物の位置を示す情報である。そのため、存在場所推定部112は、特定対象画像が撮像された時刻に関連付けられた位置を移動パターンから読み出すことで、探索対象人物が存在する蓋然性が高い場所を推定することができる。
存在場所推定部112が、ステップS28〜ステップS32の処理により、探索対象人物それぞれについて存在する蓋然性が高い場所を推定すると、存在人物推定部113は、探索対象人物のうち、特定対象画像の撮像時刻に特定対象画像の撮像場所に存在した蓋然性が高い人物を推定する(ステップS33)。具体的には、存在人物推定部113は、存在場所推定部112が推定した場所と特定対象画像の撮像場所との距離が所定の距離以内となる人物を、特定対象画像の撮像時刻に特定対象画像の撮像場所に存在した蓋然性が高い人物として推定する。なお、存在人物推定部113は、撮像場所に存在した蓋然性が高い人物として複数の人物を推定しても良いし、撮像場所に存在した蓋然性が高い人物がいないと推定しても良い。
次に、人物特定部106は、存在人物推定部113が推定した各人物の特徴情報とステップS27で特徴抽出部103が抽出した特徴情報との類似度を算出する(ステップS34)。次に、人物特定部106は、算出した類似度のうち最も高いものが、第1の閾値以上であるか否かを判定する(ステップS35)。第1の閾値は、探索対象人物が撮像場所に存在した蓋然性が高い場合に、特徴情報同士が類似しているか否かを判定するための閾値である。第1の閾値は、探索対象人物が撮像場所に存在した蓋然性が高くない場合に用いる閾値である第2の閾値より低い値である。
人物特定部106は、最も高い類似度が第1の閾値未満であると判定した場合(ステップS35:NO)、人物情報データベース104に記録された探索対象人物のうち、存在人物推定部113によって推定されなかった各人物の特徴情報とステップS27で特徴抽出部103が抽出した特徴情報との類似度を算出する(ステップS36)。次に、人物特定部106は、算出した類似度のうち最も高いものが、第2の閾値以上であるか否かを判定する(ステップS37)。
人物特定部106が、ステップS35またはステップS37において、類似度が閾値以上のものがあると判定した場合(ステップS35:YES、ステップS37:YES)、読み出し部114は、最も高い類似度の算出に用いた特徴情報に関連付けられた情報を、人物情報データベース104から読み出す(ステップS38)。つまり、読み出し部114は、特定対象人物である蓋然性が高い人物の情報を、人物情報データベース104から読み出す。次に、通知部115は、読み出し部114が読み出した情報に含まれる通知先に、当該探索対象人物の探索の依頼があること、及び当該探索対象人物が本システムにより探索されたことを通知する(ステップS39)。
なお、ステップS25において、人物検出部102が、画像データに人物が写っていないと判定した場合(ステップS25:NO)、またはステップS34及びステップS36において、人物特定部106が、類似度が閾値以上のものがないと判定した場合(ステップS36:NO)、画像データに探索対象人物が写っていないため、通知部115による通知は行われない。
ステップS38で通知部115が通知を行った場合、または画像データに探索対象人物が写っていないために通知部115が通知を行わなかった場合、人物特定装置11は、指示入力部109に特定終了指示が入力されたか否かを判定する(ステップS40)。人物特定装置11は、特定終了指示が入力されていないと判定した場合(ステップS40:NO)、ステップS24に戻り、画像取得部101が次に取得する画像データについての処理を行う。他方、人物特定装置11は、特定終了指示が入力されたと判定した場合(ステップS40:YES)、処理を終了する。
上述したように、人物検出部102は、撮像場所に存在した蓋然性が高い人物と特定対象人物とを比較した後に、撮像場所に存在した蓋然性が高くない人物と特定対象人物とを比較する。撮像場所に存在した蓋然性が高い人物が特定対象人物である蓋然性は、撮像場所に存在した蓋然性が高くない人物が特定対象人物である蓋然性より高い。そのため、人物検出部102は、特定対象人物を特定する速度を速めることができる。
また、上述したように、撮像場所に存在した蓋然性が高い人物と特定対象人物との比較に用いる第1の閾値は、撮像場所に存在した蓋然性が高くない人物と特定対象人物との比較に用いる第2の閾値より低い値である。これは、撮像場所に存在した蓋然性が高い人物を特定対象人物とする蓋然性が、撮像場所に存在した蓋然性が高くない人物が特定対象人物である蓋然性より高いためである。これにより、人物検出部102は、特定対象人物である蓋然性が高い人物を、確実に特定対象人物として特定することができる。
このように、本実施形態に係る人物特定装置11は、撮像場所に存在した蓋然性が高い人物の情報を用いて人物の特定を行う。これにより、人物特定装置11は、効率よく人物の特定を行うことができる。
また、本実施形態に係る人物特定装置11は、撮像装置10が撮像した画像データに基づいて人物の特定を行う。これにより、人物特定装置11は、網羅的に人物の特定を行うことができる。
本実施形態に係る人物特定システムの利用者は、統計処理部110が記憶する情報を参照することができる。具体的には、利用者は、PC(Personal Computer)や携帯電話端末などの端末装置を用いてネットワークを介して人物特定装置11にアクセスすることで、当該端末装置のディスプレイに統計情報を表示させることができる。なお、探索対象人物の統計情報を閲覧する場合、利用者は、探索対象人物の個人IDや顔画像を人物特定装置11に入力することで、統計情報の表示の対象となる探索対象人物を指定することができる。
図7は、探索対象人物の移動軌跡の表示例を示す図である。
人物特定装置11は、探索対象人物の移動軌跡をディスプレイに表示させる場合、図7に示すように、探索対象人物の属性情報と、移動軌跡を時系列に並べた表と、移動軌跡を描画した地図情報と、移動軌跡の終点で撮像された画像データとを、ディスプレイに表示させる。これにより、人物特定システムの利用者は、探索対象人物の情報を把握することができる。なお、統計処理部110が記憶する情報の出力は、これに限られない。他の実施形態では、端末装置に内蔵されるスピーカーから音声により情報を出力しても良い。また、これにより、利用者は任意の時刻における探索対象人物の居場所を把握することができる。
なお、本実施形態では、人物検出部102が、画像上の輝度情報を利用して顔領域を特定する場合について説明したが、これに限られない。例えば、他の実施形態では、人物検出部102が、人物の顔のテンプレート画像と画像部が取得した画像データの部分画像との相関度が所定の閾値以上である領域を顔領域として特定しても良い。また、他の実施形態では、人物検出部102が、固有空間法や部分空間法を用いて顔領域を特定しても良い。
また、本実施形態では、人物特定部106が、顔領域の特定により人物を抽出する場合について説明したが、これに限られない。他の実施形態では、人物検出部102は、画像の中から共起率が高い2つの画素範囲の組を検出し、当該画素範囲の組の特徴量と人物の特徴量とを比較することで、人物の全身を検出しても良い。
また、本実施形態では、人物特定装置11が画像データに基づいて人物の特定及び探索を行う場合について説明したが、これに限られない。例えば、画像データに基づく特定に加え、携帯電話端末の位置情報やクレジットカードの利用情報、入退室管理システムの出入り記録情報等の他の情報を併せて利用することより、さらに精度よく人物の特定及び探索を行うことができる。これらの情報を、画像データベース108に画像データに記録しておくことで、統計処理部110は、これらの情報を用いて統計処理を行うことができる。また、他の実施形態では、人物特定装置11は、探索対象人物の洋服の特徴などを活用して人物を特定しても良い。この場合、特徴抽出部103は、顔認識処理によって検出された顔座標の位置から、相対的に洋服や帽子などの着用物、把持している所有物、かばんや腕時計などの身に着けた所有物を、事前に学習した辞書との判別により特定することで、これらの特徴を抽出しておく。
また、本実施形態では、人物情報が入力されたときに、画像データベース108の更新を行う場合について説明したが、これに限られない。他の実施形態では、人物特定装置11の負荷が小さいときに画像データベース108の更新を行っても良い。
《第2の実施形態》
次に、第2の実施形態について説明する。
図8は、第2の実施形態に係る人物特定装置12の構成を示す概略ブロック図である。
第2の実施形態に係る人物特定装置12は、第1の実施形態の構成に加え、統計処理部210がグループ特定部223を備える。また、第2の実施形態に係る統計情報データベース211は、第1の実施形態と記憶する情報が異なる。また、第2の実施形態に係る人物特定装置12は、第1の実施形態と存在場所推定部212の動作が異なる。
グループ特定部223は、画像データベース108に記録されている情報に基づいて、探索対象人物が属するグループを特定する。本実施形態におけるグループとは、撮像装置10よって同時に撮像される確率が高い探索対象人物のまとまりである。具体的には、グループ特定部223は、同一の撮像場所において撮像された画像データのうち、撮像時刻の差が所定の閾値以内の画像データの組に、複数の個人IDが関連付けられているか否かを判定する。次に、グループ特定部223は、当該複数の個人ID同士の関連性に所定の評価値を加算する。そして、グループ特定部223は、評価値が所定の閾値以上となった場合に、当該複数の個人IDが同一のグループに属していると判定する。グループ特定部223は、グループのIDと当該グループに属する人物を示す個人IDとを関連付けて、統計情報データベース211のグループテーブルに記録する。
存在場所推定部212は、上述したステップS30において、特定対象画像の撮像時刻と特定した時刻との差が所定の時間以上であると判定した場合に、ステップS28で選択した探索対象人物と同一のグループに属する他の人物がいるか否かを判定する。そして、存在場所推定部212は、同一のグループに属する他の人物がいる場合、当該人物が撮像時刻に存在した蓋然性が高い場所を、探索対象人物が存在した蓋然性が高い場所として特定する。
このように、本実施形態に係る存在場所推定部212は、探索対象人物が撮像装置10によって撮像されなかった場合にも、当該探索対象人物と行動を共にする蓋然性が高い人物が存在した場所を、当該探索対象人物が存在した場所と推定する。これにより、人物特定装置12は、網羅的に人物の特定を行うことができる。
《第3の実施形態》
次に、第3の実施形態について説明する。
図9は、第3の実施形態に係る人物特定装置13の構成を示す概略ブロック図である。
第3の実施形態に係る人物特定装置13は、第1の実施形態の構成に加え、統計処理部310が人員構成推定部324を備える。また、第3の実施形態に係る統計情報データベース311は、第1の実施形態と記憶する情報が異なる。
人員構成推定部324は、撮像装置10が配置されたエリアの人員構成を推定し、エリアごとの人員構成を示す情報を、統計情報データベース311の人員構成テーブルに記録する。具体的には、人員構成推定部324は、同一のエリアに配置された撮像装置10に関連付けられた属性情報及び撮像時刻を画像データベース108から読み出す。そして、人員構成推定部324は、単位時間毎に、属性情報ごとの人数を算出する。例えば、人員構成推定部324は、1月1日12時0分から1月1日13時0分までの時刻に関連付けられた属性情報から、年齢と性別の組み合わせ別に人数を算出する。そして、利用者は、PCや携帯電話端末などの端末装置を用いて人物特定装置13にアクセスすることにより、人員構成を示す情報を閲覧することができる。これにより、利用者は、例えば災害発生時に避難所となるエリアの人数や、性別、年齢の構成を把握することができる。このように、本実施形態によれば、個人特定に必要な顔画像の登録がない場合にも、特定のエリアにいる人員の構成を利用者に把握させることができる。
図10は、エリアの人員構成を示す情報の表示例を示す図である。
人物特定装置13は、エリアの人員構成を示す情報を端末装置のディスプレイに表示させる場合、図10に示すように、対象となるエリアの時系列の人員構成を示すグラフと、エリアの場所及び撮像装置10の配置場所を示す地図情報と、撮像装置10が最後に撮像した画像データと、当該撮像装置10の情報とを、ディスプレイに表示させる。また、当該エリアに探索対象人物が存在する場合、当該探索対象人物の個人名のリストも、ディスプレイに表示させる。これにより、人物特定システムの利用者は、所定のエリアの情報を把握することができる。
また、人員構成推定部324は、エリアに出入りして同一人物を重複して集計してしまうことを防ぐため、特徴情報を用いることで、既に集計したか否かを判定することができる。また、エリアの入口と出口とにそれぞれ撮像装置10が配置されている場合、人員構成推定部324は、出入りにあわせて集計値を増減させることで、より精度よく人員構成の推定を行うことができる。具体的には、人員構成推定部324は、過去にエリアに入ったN名の人物の特徴情報を保存しておき、N+1人目が検知されたときに、過去のN個の特徴情報との類似度計算を行い、類似度が所定の閾値以上の場合には、同一人物を重複カウントしているとしてカウントを行わないようにする。
また、人員構成推定部324が推定した人員構成の情報は、災害発生時以外にも活用することができる。人員構成推定部324が推定した人員構成の情報に基づいて、曜日や時間等によってそのエリアにどのぐらいの人数がいるのか、その人数のうち男女はどのぐらいの割合か、年齢構成の調査を行うことができるため、この情報を、マーケティングなどに利用することができる。すなわち、人員構成推定部324が推定した情報に基づいて、店内の来客人数の集計や、来客人数に対する年代や性別の割合の調査、来客の動線の情報を収集することができる。また、人員構成推定部324が推定した情報を、不審者の検索、迷子の創作、VIPの検知、万引き犯の移動軌跡の推定などに利用することもできる。
また、統計情報データベース311に、災害の発生がない平常時における人員構成の情報を収集しておくことで、当該情報を非常食や防災グッズの配置計画にも用いることができる。
《第4の実施形態》
次に、第4の実施形態について説明する。
図11は、第4の実施形態に係る人物特定装置14の構成を示す概略ブロック図である。
第4の実施形態に係る人物特定装置14は、第1の実施形態の構成に加え、文字列抽出部416と、音声認識部417とを備える。また、第4の実施形態に係る人物特定装置14は、第1の実施形態と人物情報入力部405の動作が異なる。なお、本実施形態における人物情報入力部405は、人物記録部の一例である。
文字列抽出部416は、画像取得部101が取得した画像データから文字列を抽出する。また、文字列抽出部416は、抽出した文字列が存在する画像データ上の座標を特定する。文字列抽出部416は、OCR(Optical Character Recognition)などの文字列認識技術により、文字列の抽出及び座標の特定を行う。
音声認識部417は、撮像装置10に内蔵されたマイクまたは撮像装置10と共に設けられたマイクから取得した音声データから、音声認識処理により文字列を生成する。
人物情報入力部405は、文字列抽出部416が抽出した文字列及び音声認識部417が生成した文字列を解析し、当該文字列が人名を示すか否かを判定する。人物情報入力部405は、文字列抽出部416が抽出した文字列が人名を示すと判定した場合、当該文字列の座標と人物検出部102が検出した人物が存在する領域の座標との距離が所定の距離以内であるか否かを判定する。人物情報入力部405は、人名を示す文字列の座標と人物が存在する領域の座標との距離が所定の距離以内である場合に、当該画像データから生成された特徴情報と文字列とを人物情報データベース104に記録する。これにより、人物情報入力部405は、被災などにより端末装置の利用ができない環境下にあっても、利用者の名前を記載した紙などを撮像装置10に撮像させることで、人物情報データベース104へに利用者自身を探索対象人物として登録することができる。
また、人物情報入力部405は、音声認識部417が生成した文字列が人名を示すと判定した場合、当該人名が含まれる音声の取得時刻に撮像された画像データから生成された特徴情報と文字列とを人物情報データベース104に記録する。これにより、人物情報入力部405は、被災などにより端末装置の利用ができない環境下にあっても、マイクに利用者の名前を発音することで、人物情報データベース104へに利用者自身を探索対象人物として登録することができる。
また、人物情報入力部405は、人物検出部102によって検出された人物が所定のジェスチャをしている場合に、当該人物の情報を人物情報データベース104に記録しても良い。
以上述べた少なくとも1つの実施形態の人物特定装置14によれば、人物特定部106は、ある画像データに写った人物を特定する際に、当該画像データの撮像時刻に、当該画像データの撮像場所に存在した蓋然性が高い人物の情報を用いる。これにより、人物特定装置14は、所定の装置やシステムを利用しているか否かに関わらず効率的に人物の特定を行うことができる。
以上、いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
図12は、少なくとも1つの実施形態に係るコンピュータ90の構成を示す概略ブロック図である。
コンピュータ90は、CPU901、主記憶装置902、補助記憶装置903、インタフェース904を備える。
上述の人物特定装置14は、コンピュータ90に実装される。そして、上述した各処理部の動作は、プログラムの形式で補助記憶装置903に記憶されている。CPU901は、プログラムを補助記憶装置903から読み出して主記憶装置902に展開し、当該プログラムに従って上記処理を実行する。また、CPU901は、プログラムに従って、上述した各記憶部に対応する記憶領域を主記憶装置902に確保する。
なお、少なくとも1つの実施形態において、補助記憶装置903は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース904を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ90に配信される場合、配信を受けたコンピュータ90が当該プログラムを主記憶装置902に展開し、上記処理を実行しても良い。
また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置903に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
10…撮像装置 11…人物特定装置 101…画像取得部 102…人物検出部 103…特徴抽出部 104…人物情報データベース 105…人物情報入力部 106…人物特定部 107…画像記録部 108…画像データベース 109…指示入力部 110…統計処理部 111…統計情報データベース 112…存在場所推定部 113…存在人物推定部 114…読み出し部 115…通知部 121…移動軌跡推定部 122…移動パターン推定部 12…人物特定装置 210…統計処理部 223…グループ特定部 211…統計情報データベース 212…存在場所推定部 13…人物特定装置 310…統計処理部 324…人員構成推定部 311…統計情報データベース 14…人物特定装置 405…人物情報入力部 416…文字列抽出部 417…音声認識部 90…コンピュータ 901…CPU 902…主記憶装置 903…補助記憶装置 904…インタフェース

Claims (13)

  1. 特定対象画像に写った特定対象人物を特定する人物特定装置であって、
    複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、当該撮像画像に写った人物の移動パターンを推定する移動パターン推定部と、
    前記撮像画像に写った人物の移動パターンと前記特定対象画像の撮像時刻とに基づいて前記特定対象画像の撮像時刻に当該人物が存在する蓋然性が高い場所を推定する存在場所推定部と、
    前記存在場所推定部の推定結果に基づいて、前記特定対象画像の撮像時刻に前記特定対象画像の撮像場所に存在した蓋然性が高い人物を推定する存在人物推定部と、
    前記存在人物推定部が推定した人物の情報に基づいて、前記撮像画像に写った人物と前記特定対象人物とを比較することで、前記特定対象人物を特定する人物特定部と
    を備えることを特徴とする人物特定装置。
  2. 特定対象画像に写った特定対象人物を特定する人物特定装置であって、
    複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、当該撮像画像に写った人物の移動軌跡を推定する移動軌跡推定部と、
    前記撮像画像に写った人物の移動軌跡と前記特定対象画像の撮像時刻とに基づいて前記特定対象画像の撮像時刻に当該人物が存在する蓋然性が高い場所を推定する存在場所推定部と、
    前記存在場所推定部の推定結果に基づいて、前記特定対象画像の撮像時刻に前記特定対象画像の撮像場所に存在した蓋然性が高い人物を推定する存在人物推定部と、
    前記存在人物推定部が推定した人物の情報に基づいて、前記撮像画像に写った人物と前記特定対象人物とを比較することで、前記特定対象人物を特定する人物特定部と
    を備えることを特徴とする人物特定装置。
  3. 前記複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、当該撮像画像に写った人物の移動軌跡を推定する移動軌跡推定部を備え、
    前記存在場所推定部は、前記撮像画像に写った人物の移動軌跡と前記特定対象画像の撮像時刻とに基づいて前記特定対象画像の撮像時刻に当該人物が存在する蓋然性が高い場所を推定し、前記移動軌跡に基づいて存在する蓋然性が高い場所を推定できなかった人物について、当該人物の移動パターンと前記特定対象画像の撮像時刻とに基づいて前記特定対象画像の撮像時刻に当該人物が存在する蓋然性が高い場所を推定する
    ことを特徴とする請求項1に記載の人物特定装置。
  4. 前記人物特定部は、前記存在人物推定部が推定した人物と前記特定対象人物との比較を行った後に、前記撮像画像に写った他の人物と前記特定対象人物との比較を行う
    ことを特徴とする請求項1から請求項3の何れか1項に記載の人物特定装置。
  5. 前記人物特定部は、前記存在人物推定部が推定した人物の特徴情報と前記特定対象人物の特徴情報との比較により得られる類似度が第1の閾値より高い場合に、前記特定対象人物が当該人物であると特定し、前記撮像画像に写った他の人物の特徴情報と前記特定対象人物の特徴情報との比較により得られる類似度が第1の閾値より高い第2の閾値より高い場合に、前記特定対象人物が当該人物であると特定する
    ことを特徴とする請求項1から請求項4の何れか1項に記載の人物特定装置。
  6. 前記撮像画像に写った人物の特徴情報と当該人物を識別する識別情報とを関連付けて記憶する記憶装置の中から、前記人物特定部が特定した人物に関連付けられた識別情報を読み出す読み出し部を備える
    ことを特徴とする請求項1から請求項5の何れか1項に記載の人物特定装置。
  7. 前記識別情報は、通知先を示す情報を含み、
    前記読み出し部が読み出した前記識別情報に含まれる通知先への通知を行う通知部
    を備えることを特徴とする請求項6に記載の人物特定装置。
  8. 前記撮像画像から人物を検出する人物検出部と、
    前記撮像画像から文字列を抽出する文字列抽出部と、
    前記撮像画像において、前記人物検出部が検出した人物が存在する座標と前記文字列抽出部が抽出した文字列が存在する座標との距離が所定の距離以下である場合に、当該文字列を当該人物の識別情報として、前記記憶装置に記録する人物記録部と
    を備えることを特徴とする請求項6または請求項7に記載の人物特定装置。
  9. 前記撮像画像から人物を検出する人物検出部と、
    前記撮像画像の撮像場所の音声を収集する音声収集装置が収集した音声を文字列に変換する音声認識部と、
    前記撮像画像において、前記人物検出部が抽出した人物が所定のジェスチャをしたときに前記音声認識部が認識した文字列を、当該人物の識別情報として、前記記憶装置に記録する人物記録部と
    を備えることを特徴とする請求項6または請求項7に記載の人物特定装置。
  10. 複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、当該撮像画像に写った複数の人物を含むグループを特定するグループ特定部と、
    前記存在場所推定部は、前記グループ特定部が特定したグループのある人物が存在する蓋然性が高い場所、を当該グループに含まれる他の人物が存在する蓋然性が高い場所に基づいて推定する
    ことを特徴とする請求項1から請求項9の何れか1項に記載の人物特定装置。
  11. 前記存在場所推定部の推定結果に基づいて、前記特定対象画像の撮像時刻における前記撮像画像の撮像場所の人員構成を推定する人員構成推定部
    を備えることを特徴とする請求項1から請求項10の何れか1項に記載の人物特定装置。
  12. 特定対象画像に写った特定対象人物を特定する人物特定方法であって、
    人物特定装置が、複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、当該撮像画像に写った人物の移動パターンを推定し、
    前記人物特定装置が、前記撮像画像に写った人物の移動パターンと前記特定対象画像の撮像時刻とに基づいて前記特定対象画像の撮像時刻に当該人物が存在する蓋然性が高い場所を推定し、
    前記人物特定装置が、推定結果に基づいて、前記特定対象画像の撮像時刻に前記特定対象画像の撮像場所に存在した蓋然性が高い人物を推定し、
    前記人物特定装置が、推定した前記人物の情報に基づいて、前記撮像画像に写った人物と前記特定対象人物とを比較することで、前記特定対象人物を特定する
    ことを特徴とする人物特定方法。
  13. コンピュータを、
    複数の撮像画像と当該撮像画像の撮像時刻及び撮像場所とに基づいて、当該撮像画像に写った人物の移動パターンを推定する移動パターン推定部、
    前記撮像画像に写った人物の移動パターンと前記特定対象画像の撮像時刻とに基づいて特定対象画像の撮像時刻に当該人物が存在する蓋然性が高い場所を推定する存在場所推定部、
    前記存在場所推定部の推定結果に基づいて、前記特定対象画像の撮像時刻に前記特定対象画像の撮像場所に存在した蓋然性が高い人物を推定する存在人物推定部、
    前記存在人物推定部が推定した人物の情報に基づいて、前記撮像画像に写った人物と特定対象画像に写った特定対象人物とを比較することで、前記特定対象人物を特定する人物特定部
    として機能させるためのプログラム。
JP2013207575A 2013-10-02 2013-10-02 人物特定装置、人物特定方法及びプログラム Active JP6139364B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013207575A JP6139364B2 (ja) 2013-10-02 2013-10-02 人物特定装置、人物特定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013207575A JP6139364B2 (ja) 2013-10-02 2013-10-02 人物特定装置、人物特定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015072578A JP2015072578A (ja) 2015-04-16
JP6139364B2 true JP6139364B2 (ja) 2017-05-31

Family

ID=53014902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013207575A Active JP6139364B2 (ja) 2013-10-02 2013-10-02 人物特定装置、人物特定方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6139364B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308151B2 (en) 2019-02-22 2022-04-19 Nec Corporation Search system, search method, and program recording medium

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6573311B2 (ja) * 2015-06-15 2019-09-11 パナソニック株式会社 顔認識システム、顔認識サーバ及び顔認識方法
JP6393424B2 (ja) * 2015-07-29 2018-09-19 株式会社日立製作所 画像処理システム、画像処理方法及び記憶媒体
JP6923011B2 (ja) * 2015-12-16 2021-08-18 日本電気株式会社 移動時間記憶システム、移動時間記憶方法および移動時間記憶プログラム
JP6776700B2 (ja) * 2016-07-28 2020-10-28 凸版印刷株式会社 災害用情報管理システム、および、災害用情報管理方法
JP2018022203A (ja) * 2016-08-01 2018-02-08 応用地質株式会社 安否確認システム
JP7145589B2 (ja) * 2017-06-14 2022-10-03 清水建設株式会社 情報提供システム
JP6922768B2 (ja) * 2018-02-02 2021-08-18 オムロン株式会社 情報処理装置
JP2019185237A (ja) * 2018-04-05 2019-10-24 矢崎エナジーシステム株式会社 解析システム
JP2020042391A (ja) * 2018-09-07 2020-03-19 大日本印刷株式会社 データ処理装置及びプログラム
CN111079473B (zh) * 2018-10-19 2024-08-02 北京奇虎科技有限公司 性别识别方法、装置、电子设备及计算机可读存储介质
JP2020086659A (ja) 2018-11-19 2020-06-04 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US20220156349A1 (en) * 2019-03-26 2022-05-19 Nec Corporation Authentication method, authentication device, program
WO2020261508A1 (en) * 2019-06-27 2020-12-30 Nec Corporation Image processing device, person search system, image processing method, and non-transitory computer readable medium
CN110334120A (zh) * 2019-06-28 2019-10-15 深圳市商汤科技有限公司 档案应用方法及装置、存储介质
CN111104927B (zh) * 2019-12-31 2024-03-22 维沃移动通信有限公司 一种目标人物的信息获取方法及电子设备
EP3893144A1 (en) * 2020-04-06 2021-10-13 Deutsche Post AG Unique object face id

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274389A (ja) * 2002-03-15 2003-09-26 Ntt Advanced Technology Corp 移動体追跡装置及びその方法、並びに移動体追跡プログラム
WO2006011804A1 (en) * 2004-07-30 2006-02-02 Eagle Vision Systems B.V. System and method for the detection of persons
JP4069932B2 (ja) * 2005-05-23 2008-04-02 オムロン株式会社 人間検知装置および人間検知方法
JP2007219948A (ja) * 2006-02-17 2007-08-30 Advanced Telecommunication Research Institute International ユーザ異常検出装置、及びユーザ異常検出方法
JP2007241377A (ja) * 2006-03-06 2007-09-20 Sony Corp 検索システム、撮像装置、データ保存装置、情報処理装置、撮像画像処理方法、情報処理方法、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308151B2 (en) 2019-02-22 2022-04-19 Nec Corporation Search system, search method, and program recording medium

Also Published As

Publication number Publication date
JP2015072578A (ja) 2015-04-16

Similar Documents

Publication Publication Date Title
JP6139364B2 (ja) 人物特定装置、人物特定方法及びプログラム
US10579669B2 (en) System, apparatus, method, program and recording medium for processing image
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
US8315463B2 (en) User interface for face recognition
US9076069B2 (en) Registering metadata apparatus
JP6172551B1 (ja) 画像検索装置、画像検索システム及び画像検索方法
JP7405200B2 (ja) 人物検出システム
US20070195344A1 (en) System, apparatus, method, program and recording medium for processing image
WO2014148395A1 (ja) 映像監視システム、映像監視方法、および映像監視装置
JP2009003415A (ja) 地図データ更新方法および装置
JP2012048550A (ja) 人物検知システム
JP2022518459A (ja) 情報処理方法および装置、記憶媒体
CN105659279B (zh) 信息处理设备和信息处理方法
KR20220098030A (ko) 타깃 운동 궤적 구축 방법, 기기 및 컴퓨터 저장 매체
JP7103229B2 (ja) 不審度推定モデル生成装置
EP3035225B1 (en) Information processing device, authentication system, authentication method, and program
JP5289211B2 (ja) 画像検索システム、画像検索プログラムおよびサーバ装置
JP6485978B2 (ja) 画像処理装置および画像処理システム
JP2015228626A (ja) 画像出力装置、画像管理システム、画像処理方法及びプログラム
JP2019083532A (ja) 画像処理システム、画像処理方法および画像処理プログラム
KR101720685B1 (ko) 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치 및 방법
JP7145589B2 (ja) 情報提供システム
JP5708868B1 (ja) プログラム、情報処理装置及び方法
JP6982168B2 (ja) 顔照合システム
JPWO2017061239A1 (ja) 監視システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R151 Written notification of patent or utility model registration

Ref document number: 6139364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151