JP5248236B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP5248236B2
JP5248236B2 JP2008206099A JP2008206099A JP5248236B2 JP 5248236 B2 JP5248236 B2 JP 5248236B2 JP 2008206099 A JP2008206099 A JP 2008206099A JP 2008206099 A JP2008206099 A JP 2008206099A JP 5248236 B2 JP5248236 B2 JP 5248236B2
Authority
JP
Japan
Prior art keywords
person
face
unique
image data
face position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008206099A
Other languages
English (en)
Other versions
JP2010044448A (ja
Inventor
祥裕 中野渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008206099A priority Critical patent/JP5248236B2/ja
Publication of JP2010044448A publication Critical patent/JP2010044448A/ja
Application granted granted Critical
Publication of JP5248236B2 publication Critical patent/JP5248236B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物捜査を支援する等のために、監視カメラで撮影した画像データを処理する画像処理装置および画像処理方法に関する。
近年、監視カメラで撮影した画像データを記録する監視カメラシステムが広く普及し、記録された画像データは人物捜査等に役立てられる。監視カメラシステムに人物の顔画像を検索キーとして用意することにより、ユーザは、検索キーを用いて被捜索者を設定すれば、その人物が監視対象エリア内に現れたこと、あるいは、その履歴を抽出すること等を行うことができる。
最近の監視カメラシステムは、記録可能な画像データの容量が大規模なものとなっているため、大量の画像データの中から、被捜索者およびその被捜索者に関連のある人物を特定し、これらの人物に関する必要な情報を短時間で抽出することが求められる。
人物の特定には、顔認証技術が利用される(非特許文献1参照)。特許文献1には、顔認証技術等を用いて、監視カメラに撮影された画像(以下、「撮影画像」という)の中に映っている複数の人物の中から被捜索者を捜し出す技術が開示されている。
ただし、特許文献1においては、被捜索者とその被捜索者とともに撮影画像に映っている人物(以下、「関係者」という)との関連性に関する情報を抽出することについては開示されていない。
被捜索者とその関係者との関連性については、例えば、撮影画像において当該2名が向き合っているか否かにより知ることができる。そして、当該2名が向き合っているか否かを推定するために、各人物の顔向きを推定する顔向き推定技術(非特許文献2)と人物間の位置関係を検出するための距離測定技術とが用いられる。
特開2005−234765号公報 Weak Orthogonalization of Face and Perturbation, CVPR 1998, Kenji Nagao, Masaki Sohma Real-Time Combined 2D+3D Active Appearance Models J. Xiao, S. Baker, I. Matthews, and T. Kanade Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, June, 2004
しかしながら、従来の距離測定技術は、2次元的なものであるため、2次元画像上で顔が向き合っていると推定されても、実際には向き合っていない場合もあり、被捜索者の関係者に関する情報に用いるには精度が不十分である。
本発明はかかる点に鑑みてなされたものであり、被捜索者の関係者に関する情報を高い精度で表示することができる画像処理装置および画像処理方法を提供することを目的とする。
本発明の画像処理装置は、人物が映っている領域である人物領域を撮影画像から検出し、前記人物領域に対して固有IDを割り当て、顔位置の画像データを切り出す人物切り出し手段と、前記顔位置の画像データから第1特徴量を抽出する人物特定情報抽出手段と、各フレームの撮影画像に映っている人物が同一であるか否かを前記第1特徴量に基づいて判断し、同一人物に同一の追跡IDを割り当て、前記固有ID、前記追跡IDおよび前記第1特徴量からなる人物特定情報に前記顔位置の画像データを対応付けて第1のデータベースに格納する人物追跡手段と、前記人物領域に係る人物の3次元空間上での顔位置を求める位置情報抽出手段と、前記顔位置の画像データの顔向きを推定する顔向き推定手段と、前記人物の3次元空間上での顔位置と前記顔向きとを用いて同一フレームの撮影画像に映っている人物間で互いに向かい合っているか否かを決定し、決定結果に応じて属性値を割り当て、それぞれの人物の固有IDおよび属性値を紐付けて第2のデータベースに格納する人物間相対情報抽出手段と、を具備する構成を採る。
本発明の画像処理方法は、人物が映っている領域である人物領域を撮影画像から検出し、前記人物領域に対して固有IDを割り当て、顔位置の画像データを切り出す人物切り出し工程と、前記顔位置の画像データから第1特徴量を抽出する人物特定情報抽出工程と、各フレームの撮影画像に映っている人物が同一であるか否かを前記第1特徴量に基づいて判断し、同一人物に同一の追跡IDを割り当て、前記固有ID、前記追跡IDおよび前記第1特徴量からなる人物特定情報に前記顔位置の画像データを対応付けて第1のデータベースに格納する人物追跡工程と、前記人物領域に係る人物の3次元空間上での顔位置を求める位置情報抽出工程と、前記顔位置の画像データの顔向きを推定する顔向き推定工程と、前記人物の3次元空間上での顔位置と前記顔向きとを用いて同一フレームの撮影画像に映っている人物間で互いに向かい合っているか否かを決定し、決定結果に応じて属性値を割り当て、それぞれの人物の固有IDおよび属性値を紐付けて第2のデータベースに格納する人物間相対情報抽出工程と、を具備する。
本発明によれば、検索キーによって被捜索者を特定し、被捜索者の関係者に関する情報を自動的に抽出し、表示することができる。
さらに、本発明によれば、被捜索者とその関係者とが向き合っているか否かを3次元的に解析することができるので、被捜索者の関係者に関する情報を高い精度で表示することができる。
以下、本発明の実施の形態について図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。図1に示す画像処理装置100は、人物切り出し部101と、人物特定情報抽出部102と、人物追跡部103と、人物検索データベース104と、位置情報抽出部105と、顔向き推定部106と、人物間相対情報抽出部107と、人物関連性データベース108と、人物設定部109と、人物推定部110と、関係者抽出部111と、人物サムネイル抽出部112と、から主に構成される。
人物切り出し部101は、撮影画像から人物が映っている領域(以下、「人物領域」という)を検出し、検出した人物領域に対して固有IDを割り当てる。なお、人物領域の検出は、既存の方法を用いることにより実現される。例えば、人物切り出し部101は、入力した撮影画像の過去フレームの画像データ(背景情報)と現フレームの画像データとの差分に基づいて人物領域を検出する。
また、人物切り出し部101は、検出した人物領域における人物の顔位置を検出し、顔位置の画像データを切り出す。そして、人物切り出し部101は、顔位置の画像データおよび固有IDを人物特定情報抽出部102および顔向き推定部106に出力する。また、人物切り出し部101は、固有IDおよび人物領域の位置を示す情報を位置情報抽出部105に出力する。
人物特定情報抽出部102は、人物切り出し部101から出力された顔位置の画像データについて顔認証用の特徴量を抽出する。なお、顔認証用の特徴量の抽出は、上記の非特許文献1に記載された方法等、既存の方法を用いることにより実現される。そして、人物特定情報抽出部102は、顔位置の画像データ、固有IDおよび特徴量を人物追跡部103に出力する。
人物追跡部103は、複数フレームに渡って人物の追跡を行い、人物特定情報抽出部102で抽出された特徴量に基づいて同一人物であるか否かを判断し、同一人物に対してフレーム間で同じID(以下、「追跡ID」という)を割り当てる。なお、固有ID、追跡IDおよび特徴量を合わせて人物特定情報とする。人物追跡部103は、人物特定情報および顔位置の画像データを対応付けて人物検索データベース104に格納する。
位置情報抽出部105は、撮影画像の中から、人物切り出し部101で検出された人物領域に係る人物の3次元空間上での顔位置を求める。そして、位置情報抽出部105は、各人物の3次元空間上での顔位置を示す情報を固有IDとともに人物間相対情報抽出部107に出力する。なお、位置情報抽出部105の処理の詳細については後述する。
顔向き推定部106は、人物切り出し部101で検出された顔位置の画像データについて、ワールド座標系(横軸x、縦軸y、奥行きz)における顔向き(法線ベクトル)を推定する。そして、顔向き推定部106は、推定した各人物の顔向きを示す情報を固有IDとともに人物間相対情報抽出部107に出力する。なお、顔が見える場合の顔向きの推定は、非特許文献2に記載された方法等、既存の方法を用いることにより実現される。また、顔向き推定部106は、顔が見えず、顔検出を行うことができない場合には、カメラの光軸に沿って、カメラとは反対方向を向いているものと推定する。
人物間相対情報抽出部107は、位置情報抽出部105で決定した3次元空間上での顔位置と顔向き推定部106で推定した顔向きとを用いて同一フレームの撮影画像に映っている人物間で向かい合っているか否かを決定し、決定結果に応じて属性値を割り当てる。例えば、人物間相対情報抽出部107は、2人の人物が向かい合っていると決定した場合に属性値「0」を割り当て、2人の人物が向かい合っていないと決定した場合に属性値「1」を割り当てる。
なお、顔が見えていない人物は正確な顔向きを決定することができない。そこで、人物間相対情報抽出部107は、顔が見えていない場合には、垂直角、鉛直角ともに±90度までを関連付ける対象範囲とする。一方、人物間相対情報抽出部107は、顔が見えている場合には、Yaw角、Pitch角に基づいて、関連付ける対象範囲内にあるか否かを判定する。そして、人物間相対情報抽出部107は、2人の人物がそれぞれ関連付ける対象範囲内にいる場合、向き合っているものと推定する。
そして、人物間相対情報抽出部107は、同一フレームの撮影画像に映っている人物間について、それぞれの人物の固有IDおよび属性値を紐付けて、人物関連性データベース108に格納する。なお、人物間相対情報抽出部107の処理の詳細については後述する。
人物設定部109は、人物の顔画像を検索キーとして用意し、ユーザの検索キー操作による指示に基づいて、ユーザが検索したい人物(被捜索者)を設定し、その顔認証用の特徴量を抽出する。なお、検索キーとして用意される人物の顔画像は、人物検索データベース104に既に登録されているものであっても良く、新たに用意されたものであっても良い。そして、人物設定部109は、設定した人物の顔認証用の特徴量を人物推定部110に出力する。
人物推定部110は、人物設定部109から出力された特徴量と人物検索データベース104の特徴量との照合を行い、特徴量が最も近い人物をユーザが検索したい人物として推定する。そして、人物推定部110は、推定した人物の追跡IDと同一の追跡IDを持つ全ての人物特定情報を関係者抽出部111に出力する。また、人物推定部110は、推定した人物の固有IDを人物サムネイル抽出部112に出力する。
関係者抽出部111は、人物推定部110から出力された各人物特定情報の固有IDと紐付けられている他方の固有IDを人物関連性データベース108の中から選択する。そして、関係者抽出部111は、選択した固有IDの中から、これに対応する属性値が、ユーザのキー入力による関連性に関する条件と一致するものを抽出する。例えば、関係者抽出部111は、関連性の条件が「友好」である場合には、2人の人物が向き合っていることを示す属性値「0」である固有IDを抽出し、関連性の条件が「敵対」である場合には、2人の人物が向き合っていないことを示す属性値「1」である固有IDを抽出する。そして、関係者抽出部111は、抽出した固有IDを人物サムネイル抽出部112に出力する。
人物サムネイル抽出部112は、人物設定部109で設定した人物の固有IDに対応付けられた顔位置の画像データを人物検索データベース104の中から抽出し、検索画面上の被捜索者の欄にサムネイル表示する。また、人物サムネイル抽出部112は、関係者抽出部111で抽出された関係者の固有IDに対応付けられた顔位置の画像データを人物検索データベース104の中から抽出し、検索画面上の関係者の欄にサムネイル表示する。なお、人物サムネイル抽出部112は、検索画面上に、ユーザのキー入力による関連性に関する条件を表示しても良い。
次に、位置情報抽出部105が行う処理について数式を用いて詳細に説明する。まず、位置情報抽出部105は、あらかじめ、3次元で表される点を、画像上で観測される点に変換するための式(1)の透視投影行列Pを、カメラキャリブレーションにより算出しておく。なお、式(1)では、Pが3×4の行列である場合を示す。
Figure 0005248236
次に、位置情報抽出部105は、人物切り出し部101で検出された人物領域の接地点の検出を行う。具体的には、位置情報抽出部105は、画面上のy軸を鉛直上向きとし、人物領域の最下部を接地点とする。
次に、位置情報抽出部105は、以下の式(2)において、画像上の接地点(u,v)およびY=0を代入し、X,Zについて解き、接地面上の座標(X,Z)を求める。これにより、位置情報抽出部105は、接地面上の3次元空間における座標を取得することができる。
Figure 0005248236
次に、位置情報抽出部105は、上記式(2)において、求めた接地面上の座標(X,Z)と画像上の顔位置(u,v)を代入し、Yについて解くことにより、人物の顔中心の3次元高さを求める。
そして、位置情報抽出部105は、接地面上の座標(X,Z)と人物の顔中心の3次元高さYから、3次元空間上での顔位置(X,Y,Z)を抽出する。
次に、人物間相対情報抽出部107が行う処理について図2を用いて詳細に説明する。
まず、人物間相対情報抽出部107は、同一フレームの撮影画像に映っている人物の中から2人(図2では、人物Aおよび人物B)を選択し、当該2人の、位置情報抽出部105で検出された接地点(X,0,Z)、(X,0,Z)を結ぶ(直線201)。
次に、人物間相対情報抽出部107は、顔向きを判定する人物Aの顔中心(X,Y,Z)と対象となる人物Bの顔中心(X,Y,Z)とを通る水平な軸を設定する(直線202)。
次に、人物間相対情報抽出部107は、人物Aの顔中心(X,Y,Z)を中心とした3軸の直交な直線202,203,204を新たな座標系とし、顔向き推定時に定義したワールド座標系からこの新たな座標系への回転量を求める。なお、直線203は、(X,Y,Z)と(X,0,Z)とを通る直線である。直線204は、(X,Y,Z)を通り、直線202および203と直交する直線である。
次に、人物間相対情報抽出部107は、顔向き推定部106で推定した人物Aの顔向き(法線ベクトル)を新たな座標系に変換し、直線202に対するYaw角、Pitch角を求める。
そして、人物間相対情報抽出部107は、Yaw角、Pitch角に基づいて、人物Bの顔が、あらかじめ定義した人物Aの視野範囲内にあるか否かを判定する。人物Bの顔が人物Aの視野範囲内にあれば、人物間相対情報抽出部107は、人物Aが人物Bの方を向いていると推定する。
次に、本実施の形態における、撮影画像から必要な情報を作成してデータベースに登録するまでの処理の流れについて、図3のフロー図を用いて説明する。
まず、ステップST301において、人物切り出し部101が、撮影画像から第i人物の顔位置の画像データを切り出す(iは自然数であり、固有IDに対応する)。
次に、ステップST302において、人物特定情報抽出部102が、第i人物の顔位置の画像データについて顔認証用の特徴量を抽出する。
次に、ステップST303において、人物追跡部103が、複数フレームに渡って第i人物の追跡を行い、追跡結果に基づいて追跡IDを割り当てる。
次に、ステップST304において、人物追跡部103が、第i人物について、固有ID、追跡IDおよび特徴量からなる人物特定情報と、顔位置の画像データとを対応付けて人物検索データベース104に登録する。
次に、ステップST305において、位置情報抽出部105が、第i人物の顔の3次元位置を抽出し、ステップST306において、顔向き推定部106が、第i人物の顔向きを推定する。なお、ステップST305とステップST306の処理は、並行して行われても良い。
そして、撮影画像中にまだ切り出していない人物が存在する場合には(ステップST307:YES)、ST301からST306のステップを繰り返す。
一方、撮影画像中の全ての人物を切り出した場合には(ステップST307:NO)、ステップST308において、人物間相対情報抽出部107が、の人物の組み合わせについて、向かい合っているか否かを判断し、属性値k(kは「0」または「1」)を割り当てる。
そして、ステップST309において、人物間相対情報抽出部107が、各組み合わせについて、第i人物の固有ID、第j人物の固有ID(jは自然数であり、i≠j、固有IDに対応する)および属性値kを対応付けて人物関連性データベース108に登録する。
次に、本実施の形態における、データベースに登録された情報を使って被捜索者およびその関係者を検索して表示するまでの処理の流れについて、図4のフロー図を用いて説明する。
まず、ステップST401において、ユーザが、画像処理装置100に対して、検索キー操作により検索したい人物を設定し、キー入力操作により関連性に関する条件を設定する。
次に、ステップST402において、人物設定部109が、ユーザが検索したい人物の顔認証用の特徴量を抽出する。
次に、ステップST403において、人物推定部110が、検索キー操作により特定された人物と特徴量が最も近い第m人物(mは自然数であり、追跡IDに対応する、iは自然数であり、固有IDに対応する)を人物検索データベース104の中から取得する。
次に、ステップST404において、関係者抽出部111が、ステップST403で取得された第m人物と属性値kで関連する第n人物(nは自然数であり、追跡IDに対応する、jは自然数であり、iの固有IDに紐付けられた固有IDに対応する)を人物関連性データベース108の中から取得する。
次に、ステップST405において、人物サムネイル抽出部112が、第m人物の顔位置の画像データを人物検索データベース104から抽出し、画面上の被捜索者の欄にサムネイル表示する。また、人物サムネイル抽出部112が、第n人物の顔位置の画像データを人物検索データベース104から抽出し、画面上の関係者の欄にサムネイル表示する。
次に、本実施の形態における、撮影画像、データベースに登録される情報、および、検索画面の表示画像の関係について、図5から図8を用いて具体的に説明する。
図5は、画像処理装置100に入力される撮影画像の一例を示す図である。図5の例では、フレーム1およびフレーム2の2つの撮影画像が示されている。
画像処理装置100は、各フレームから人物領域511、512、521、522を検出し、検出した各人物領域に対して固有ID(F1001、F1002、F2001、F2002)を割り当てる。
さらに、画像処理装置100は、各人物領域の中から顔位置の画像データ(561、562、571、572)を切り出し、各顔位置の画像データについて顔認証用の特徴量を抽出する。
また、画像処理装置100は、複数フレームに渡って人物の追跡を行い、人物領域毎に追跡ID(T1001、T1002、T2002)を割り当てる。なお、同一人物には、同一の追跡IDが割り当てられる。
また、画像処理装置100は、各人物について、3次元空間上での顔位置を求め、顔向きを推定する。そして、画像処理装置100は、3次元空間上での顔位置と顔向きとに基づいて同一フレームの撮影画像に映っている人物間で向かい合っているか否かを決定し、決定結果に応じて属性値を割り当てる。図5の例では、フレーム1の撮影画像に映っている人物511と人物512とは向かい合っているため属性値「0」を割り当てる。同様に、フレーム2の撮影画像に映っている人物521と人物522とは向かい合っているため属性値「0」を割り当てる。
そして、画像処理装置100は、図6に示すように、人物検索データベース104の中に、人物毎に、固有ID、追跡IDおよび特徴量からなる人物特定情報と、顔位置の画像データとを対応づけて登録する。
また、画像処理装置100は、図7に示すように、人物関連性データベース108の中に、同一フレームの撮影画像に映っている2人の人物間毎に、各人物の固有IDと属性値とを対応づけて登録する。
そして、画像処理装置100は、ユーザから被捜索者の検索を指示された場合、被捜索者およびその関係者の顔位置の画像データを人物検索データベース104の中から抽出し、図8に示すように、検索画面上の所定の欄にサムネイル表示する。なお、図8の例では、固有IDがF1001が被捜索者の場合が示されている。
このように、本実施の形態によれば、検索キーによって被捜索者を特定し、被捜索者の関係者に関する情報を自動的に抽出し、表示することができる。
さらに、本実施の形態によれば、被捜索者とその関係者とが向き合っているか否かを3次元的に解析することができるので、被捜索者の関係者に関する情報の精度を向上させることができる。
(実施の形態2)
図9は、本発明の実施の形態2に係る画像処理装置の構成を示すブロック図である。なお、図9に示す画像処理装置900において、図1に示した画像処理装置100と共通する構成部分については、図1と共通する符号を付してその説明を省略する。
図9に示す画像処理装置900は、図1に示した画像処理装置100に対して、累積時間計算部901を追加した構成を採る。また、図9に示す画像処理装置900の人物サムネイル抽出部902の処理内容が、図1に示した画像処理装置100の人物サムネイル抽出部112のものと異なる。
人物推定部110は、推定した人物の固有IDを人物サムネイル抽出部902に出力する。関係者抽出部111は、抽出した固有IDを累積時間計算部901に出力する。
累積時間計算部901は、関係者抽出部111で抽出された関係者の固有IDに対応付けられた追跡IDを人物検索データベース104の中から抽出し、当該追跡IDを有するフレーム数を関係者の累積時間として算出し、関係者の固有IDと累積時間を人物サムネイル抽出部902に出力する。
人物サムネイル抽出部902は、人物設定部109で設定した人物の固有IDに対応付けられた顔位置の画像データを人物検索データベース104の中から抽出し、検索画面上の被捜索者の欄にサムネイル表示する。また、人物サムネイル抽出部902は、累積時間計算部901から出力された関係者の固有IDに対応付けられた顔位置の画像データを人物検索データベース104の中から抽出し、検索画面上の関係者の欄にサムネイル表示する。さらに、人物サムネイル抽出部902は、累積時間計算部901から出力された関係者の累積時間を検索画面上の累積時間の欄にサムネイル表示する。なお、人物サムネイル抽出部902は、検索画面上に、ユーザのキー入力による関連性に関する条件を表示しても良い。
次に、本実施の形態における、データベースに登録された情報を使って被捜索者およびその関係者を検索して表示するまでの処理の流れについて、図10のフロー図を用いて説明する。なお、図10に示すフロー図において、図4に示したフロー図と共通するステップについては、図4と共通する符号を付してその説明を省略する。
図10に示すフロー図は、ステップST401からステップST404までは、図4に示したフロー図と同一である。
ステップST404の次に、ステップST1001において、累積時間計算部901が、ステップST404で取得された第n人物が記録されている累積時間を算出する。
次に、ステップST1002において、人物サムネイル抽出部902が、第m人物の顔位置の画像データを人物検索データベース104から抽出し、画面上の被捜索者の欄にサムネイル表示する。また、人物サムネイル抽出部902が、第n人物の顔位置の画像データを人物検索データベース104から抽出し、画面上の関係者の欄にサムネイル表示する。さらに、人物サムネイル抽出部902が、累積時間を検索画面上の累積時間の欄にサムネイル表示する。
次に、本実施の形態における検索画面の表示画像について、図11を用いて具体的に説明する。なお、本実施の形態における、撮影画像およびデータベースに登録される情報は、実施の形態1と同一であるので、説明を省略する。
画像処理装置900は、ユーザから被捜索者の検索を指示された場合、被捜索者およびその関係者の顔位置の画像データを人物検索データベース104の中から抽出し、図11に示すように、検索画面上の所定の欄にサムネイル表示する。さらに、画像処理装置900は、関係者が記録されている累積時間を検索画面上の所定の欄にサムネイル表示する。
このように、本実施の形態によれば、被捜索者の関係者に関する情報として累積時間を自動的に計算して表示することができるので、さらに、被捜索者の関係者に関する情報の精度を向上させることができる。
なお、上記各実施の形態では、人物検索データベース104に顔位置の画像データを格納する場合について説明したが、本発明はこれに限られず、人物領域全体の画像データを人物検索データベース104に格納しても良い。さらに、検索画面上に人物領域全体の画像データを表示しても良い。
また、上記各実施の形態では、属性値が、2人の人物が向かい合っている場合と、2人の人物が向かい合っていない場合の2種類である例を用いて説明したが、本発明はこれに限られず、属性値を3種類以上用意することもできる。例えば、2人の人物が向かい合っている場合に属性値「0」、2人の人物のうち第i人物が第j人物の方を向いているが第j人物が第i人物の方を向いていない場合に属性値「1」、2人の人物とも相手の方を向いていない場合には属性値「2」を割り当てる、ようにしても良い。
本発明は、監視カメラで撮影した画像データを処理し、所望の画像データを表示する画像処理装置に用いるに好適である。
本発明の実施の形態1に係る画像処理装置の構成を示すブロック図 本発明の実施の形態1に係る画像処理装置の人物間相対情報抽出部が行う処理を説明する図 本発明の実施の形態1に係る画像処理装置における撮影画像から必要な情報を作成してデータベースに登録するまでの処理を示すフロー図 本発明の実施の形態1に係る画像処理装置におけるデータベースに登録された情報を使って被捜索者およびその関係者を検索して表示するまでの処理を示すフロー図 本発明の実施の形態1に係る画像処理装置に入力される撮影画像の一例を示す図 本発明の実施の形態1に係る画像処理装置の人物検索データベースに登録される情報の一例を示す図 本発明の実施の形態1に係る画像処理装置の人物関連性データベースに登録される情報の一例を示す図 本発明の実施の形態1に係る画像処理装置が表示する検索画面の一例を示す図 本発明の実施の形態2に係る画像処理装置の構成を示すブロック図 本発明の実施の形態2に係る画像処理装置におけるデータベースに登録された情報を使って被捜索者およびその関係者を検索して表示するまでの処理を示すフロー図 本発明の実施の形態2に係る画像処理装置が表示する検索画面の一例を示す図
符号の説明
100、900 画像処理装置
101 人物切り出し部
102 人物特定情報抽出部
103 人物追跡部
104 人物検索データベース
105 位置情報抽出部
106 顔向き推定部
107 人物間相対情報抽出部
108 人物関連性データベース
109 人物設定部
110 人物推定部
111 関係者抽出部
112、902 人物サムネイル抽出部
901 累積時間計算部

Claims (7)

  1. 少なくとも2人の人物が映っている撮影画像から前記各々の人物の顔位置の画像データを切り出す人物切り出し手段と、
    前記各々の人物の顔位置の画像データの3次元空間上での顔位置を求める位置情報抽出手段と、
    前記顔位置の画像データの顔向きを推定する顔向き推定手段と、
    前記3次元空間上での各々の顔位置を結ぶ直線を求め、前記直線と前記推定された顔向きから各々の人物が互いの視野範囲にあるか否かを判定し、前記各々の人物の視野範囲に相手の顔があると判定されたとき前記人物同士が互いに向かい合っていると推定する人物間相対情報抽出手段と、
    を具備する画像処理装置。
  2. 前記位置情報抽出手段は、3次元で表される点を画像上で観測される点に変換するための透視投影変換行列を求め、前記人物の領域の最下部を接地点として求め、前記透視投影変換行列を用いて前記接地点に基づいて接地面上の座標を求め、前記接地面上の座標と前記画像上の顔位置に基づいて、前記人物の顔中心の3次元高さを求め、前記接地面上の座標と前記人物の顔中心の3次元高さから3次元空間上での顔位置を抽出する、
    請求項1に記載の画像処理装置。
  3. 前記人物間相対情報抽出手段は、同一フレームの撮影画像に映っている人物の中から2人を選択し、顔向きを判定する第1人物の顔中心と対象となる第2人物の顔中心とを通る第1の直線を取得し、前記第1人物の顔中心と接地点とを通る第2の直線を取得し、前記第1の直線および前記第2の直線と直交する第3の直線を取得し、前記顔向き推定手段が推定した第1人物の顔向きを、前記第1の直線、前記第2の直線および前記第3の直線に基づく座標系に変換し、前記第1の直線に対するYaw角およびPitch角に基づいて前記第1人物の視野範囲に前記第2の人物があるか否か判定し、前記第2の人物が前記視野範囲に入っているとき、前記第1の人物が前記第2人物の方を向いていると推定する、
    請求項2に記載の画像処理装置。
  4. 人物が映っている領域である人物領域を撮影画像から検出し、前記人物領域に対して固有IDを割り当て、顔位置の画像データを切り出す人物切り出し手段と、
    前記顔位置の画像データから第1特徴量を抽出する人物特定情報抽出手段と、
    前記固有IDおよび前記第1特徴量からなる人物特定情報に前記顔位置の画像データを対応付けて第1のデータベースに格納する人物追跡手段と、
    前記人物領域に係る人物の3次元空間上での顔位置を求める位置情報抽出手段と、
    前記顔位置の画像データの顔向きを推定する顔向き推定手段と、
    前記人物の3次元空間上での顔位置と前記顔向きとを用いて同一フレームの撮影画像に映っている人物間で互いに向かい合っているか否かを決定し、決定結果に応じて属性値を割り当て、それぞれの人物の固有IDおよび属性値を紐付けて第2のデータベースに格納する人物間相対情報抽出手段と、
    被捜索者の第2特徴量を設定する人物設定手段と、
    前記第1特徴量と前記第2特徴量との照合結果に基づいて、前記撮影画像に映っている人物の中から前記被捜索者を推定し、前記被捜索者の固有IDと同一の固有IDを持つ全ての人物特定情報を前記第1のデータベースから取得する人物推定手段と、
    前記人物推定手段が取得した全ての人物特定情報の固有IDと紐付けられている他方の固有IDを前記第2のデータベースの中から選択し、選択した固有IDの中からこれに対応する属性値が関連性に関する条件と一致するものを前記被捜索者の関係者の固有IDとして抽出する関係者抽出手段と、
    前記被捜索者の固有IDに対応する顔位置の画像データおよび前記関係者の固有IDに対応する顔位置の画像データを画面に表示させる表示手段と、
    を具備する画像処理装置。
  5. 前記関係者の固有IDに対応付けられた追跡IDを有するフレーム数を前記関係者の累積時間として算出する累積時間計算手段をさらに具備し、
    前記表示手段は、前記関係者の累積時間を前記画面に表示させる、
    請求項4に記載の画像処理装置。
  6. 少なくとも2人の人物が映っている撮影画像から前記各々の人物の顔位置の画像データを切り出す人物切り出し工程と、
    前記各々の人物の顔位置の画像データの3次元空間上での顔位置を求める位置情報抽出工程と、
    前記顔位置の画像データの顔向きを推定する顔向き推定工程と、
    前記3次元空間上での各々の顔位置を結ぶ直線を求め、前記直線と前記推定された顔向きから各々の人物が互いの視野範囲にあるか否かを判定し、前記各々の人物の視野範囲に相手の顔があると判定されたとき前記人物同士が互いに向かい合っていると推定する人物間相対情報抽出工程と、
    を具備する画像処理方法。
  7. 人物が映っている領域である人物領域を撮影画像から検出し、前記人物領域に対して固有IDを割り当て、顔位置の画像データを切り出す人物切り出し工程と、
    前記顔位置の画像データから第1特徴量を抽出する人物特定情報抽出工程と、
    前記固有IDおよび前記第1特徴量からなる人物特定情報に前記顔位置の画像データを対応付けて第1のデータベースに格納する人物追跡工程と、
    前記人物領域に係る人物の3次元空間上での顔位置を求める位置情報抽出工程と、
    前記顔位置の画像データの顔向きを推定する顔向き推定工程と、
    前記人物の3次元空間上での顔位置と前記顔向きとを用いて同一フレームの撮影画像に映っている人物間で互いに向かい合っているか否かを決定し、決定結果に応じて属性値を割り当て、それぞれの人物の固有IDおよび属性値を紐付けて第2のデータベースに格納する人物間相対情報抽出工程と、
    被捜索者の第2特徴量を設定する人物設定工程と、
    前記第1特徴量と前記第2特徴量との照合結果に基づいて、前記撮影画像に映っている人物の中から前記被捜索者を推定し、前記被捜索者の固有IDと同一の固有IDを持つ全ての人物特定情報を前記第1のデータベースから取得する人物推定工程と、
    前記人物推定工程において取得された全ての人物特定情報の固有IDと紐付けられている他方の固有IDを前記第2のデータベースの中から選択し、選択した固有IDの中からこれに対応する属性値が関連性に関する条件と一致するものを前記被捜索者の関係者の固有IDとして抽出する関係者抽出工程と、
    前記被捜索者の固有IDに対応する顔位置の画像データおよび前記関係者の固有IDに対応する顔位置の画像データを画面に表示させる表示工程と、
    を具備する請求項6に記載の画像処理方法。
JP2008206099A 2008-08-08 2008-08-08 画像処理装置および画像処理方法 Expired - Fee Related JP5248236B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008206099A JP5248236B2 (ja) 2008-08-08 2008-08-08 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008206099A JP5248236B2 (ja) 2008-08-08 2008-08-08 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2010044448A JP2010044448A (ja) 2010-02-25
JP5248236B2 true JP5248236B2 (ja) 2013-07-31

Family

ID=42015804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008206099A Expired - Fee Related JP5248236B2 (ja) 2008-08-08 2008-08-08 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP5248236B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10346688B2 (en) 2016-01-12 2019-07-09 Hitachi Kokusai Electric Inc. Congestion-state-monitoring system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP5960471B2 (ja) * 2012-03-30 2016-08-02 セコム株式会社 画像監視装置
JP6543062B2 (ja) * 2015-03-23 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法
JP6832504B2 (ja) * 2016-08-08 2021-02-24 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム
CN110378178B (zh) * 2018-09-30 2022-01-28 毫末智行科技有限公司 目标跟踪方法及装置
CN109685048A (zh) * 2019-03-04 2019-04-26 上海卓易科技股份有限公司 人体测量方法、装置、终端及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4198951B2 (ja) * 2002-07-17 2008-12-17 独立行政法人科学技術振興機構 グループ属性推定方法及びグループ属性推定装置
JP4438443B2 (ja) * 2004-02-18 2010-03-24 オムロン株式会社 画像取得装置及び捜索装置
JP4973188B2 (ja) * 2004-09-01 2012-07-11 日本電気株式会社 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10346688B2 (en) 2016-01-12 2019-07-09 Hitachi Kokusai Electric Inc. Congestion-state-monitoring system

Also Published As

Publication number Publication date
JP2010044448A (ja) 2010-02-25

Similar Documents

Publication Publication Date Title
JP5248236B2 (ja) 画像処理装置および画像処理方法
JP6430064B2 (ja) データを位置合わせする方法及びシステム
CN104756155B (zh) 合并多个地图以用于基于计算机视觉的跟踪的系统及方法
JP5722502B2 (ja) モバイルデバイスのための平面マッピングおよびトラッキング
EP3008694B1 (en) Interactive and automatic 3-d object scanning method for the purpose of database creation
JP6516832B2 (ja) 画像検索装置、システム及び方法
US20200005490A1 (en) Normalized metadata generation device, object occlusion detection device and method
CN104246793A (zh) 移动设备的三维脸部识别
TW201715476A (zh) 運用擴增實境技術之導航系統
JP5837848B2 (ja) 画像処理装置、画像処理システム、画像処理方法
Anagnostopoulos et al. Gaze-Informed location-based services
JP7106742B2 (ja) 顔認識方法、装置、電子機器及びコンピュータ不揮発性読み取り可能な記憶媒体
JP2017220085A (ja) 画像検索装置、画像検索システム及び画像検索方法
US11734338B2 (en) Image search in walkthrough videos
KR102464271B1 (ko) 포즈 획득 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN113240678B (zh) 平面信息检测方法及系统
JP6503079B2 (ja) 特定人物検知システム、特定人物検知方法および検知装置
KR102362470B1 (ko) 족부 정보 처리 방법 및 장치
Xue et al. A fast visual map building method using video stream for visual-based indoor localization
JP6037134B2 (ja) 特徴点対応付けシステム、特徴点対応付け方法、およびプログラム
JP5536124B2 (ja) 画像処理システム及び画像処理方法
US20210327160A1 (en) Authoring device, authoring method, and storage medium storing authoring program
JP2015230616A (ja) 画像処理方法および画像処理装置
JP3919722B2 (ja) 肌形状計測方法及び肌形状計測装置
JP2006113832A (ja) ステレオ画像処理装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130410

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees