JP2021177300A - 画像処理装置、画像処理装置の制御方法及びプログラム - Google Patents
画像処理装置、画像処理装置の制御方法及びプログラム Download PDFInfo
- Publication number
- JP2021177300A JP2021177300A JP2020082210A JP2020082210A JP2021177300A JP 2021177300 A JP2021177300 A JP 2021177300A JP 2020082210 A JP2020082210 A JP 2020082210A JP 2020082210 A JP2020082210 A JP 2020082210A JP 2021177300 A JP2021177300 A JP 2021177300A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- area
- collation
- person
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】人物の照合に必要な領域(例えば顔)が常に検出されるとは限らない状況において、ユーザに対する人物の照合結果の通知回数を低減する。【解決手段】映像を構成するフレーム画像を処理する画像処理装置であって、フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する追尾領域検出部と、フレーム画像における人物から人物の照合に使用する第2部分領域を照合領域として検出する照合領域検出部と、追尾領域と照合領域とを関連付ける関連付け部と、追尾領域に基づいてフレーム画像間で人物を追尾する追尾部と、照合領域と照合元画像とに基づいて各フレーム画像で人物の照合を行う照合部と、複数のフレーム画像に対する追尾部による追尾中に、少なくとも1つのフレーム画像において追尾領域と関連付けられた照合領域に対して人物の照合が行われた場合、当該照合の結果を追尾中の照合結果として出力する出力部とを備える。【選択図】 図2
Description
本発明は、画像処理装置、画像処理装置の制御方法及びプログラムに関する。
近年、撮影された画像を処理して画像データ内に写るオブジェクトの有用な情報を抽出する技術が多く提案されている。特に、人間の顔画像を認識して、入力された顔画像と、予め登録されている複数人物の顔画像とをそれぞれ照合して、入力された顔画像が誰であるか判定する顔認証技術が知られている。
顔認証技術の応用として、監視カメラを使った要注意人物検知や、重要顧客検知、迷子検知等がある。これらは監視カメラで撮影された映像内の人物の顔を検出し、予め登録された要注意人物などの顔画像と照合し、同一人物として判定した場合、ユーザに通知する仕組みである。
しかし、監視カメラ映像の全てのフレーム画像で照合結果の情報を通知すると、ユーザに通知される回数が膨大になる。そこで、特許文献1は、監視カメラの映像において顔を追尾し、顔が追尾されている区間をひとまとまりとして照合結果をユーザに通知することにより、ユーザへの通知頻度を減らす技術を開示している。
しかしながら、特許文献1に記載の技術では、顔で人物を追尾する場合、頭の向きによって顔が検出されない状況が発生し、顔が隠れるごとに追尾が途切れてしまう。そのため顔が一度検出されなくなった後にまた新たに同じ人物の顔が検出された場合は、その都度検出された顔の照合結果がユーザに通知されることになる。
本発明は、上記の課題に鑑みてなされたものであり、人物の照合に必要な領域(例えば顔)が常に検出されるとは限らない状況において、ユーザに対する人物の照合結果の通知回数を低減するための技術を提供することを目的とする。
上記の目的を達成する本発明に係る画像処理装置は、
映像を構成するフレーム画像を処理する画像処理装置であって、
前記フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する追尾領域検出手段と、
前記フレーム画像における前記人物から人物の照合に使用する第2部分領域を照合領域として検出する照合領域検出手段と、
前記追尾領域と前記照合領域とを関連付ける関連付け手段と、
前記追尾領域に基づいてフレーム画像間で前記人物を追尾する追尾手段と、
前記照合領域と照合元画像とに基づいて各フレーム画像で前記人物の照合を行う照合手段と、
複数のフレーム画像に対する前記追尾手段による追尾中に、少なくとも1つのフレーム画像において前記追尾領域と関連付けられた前記照合領域に対して人物の照合が行われた場合、当該照合の結果を前記追尾中の照合結果として出力する出力手段と、
を備えることを特徴とする。
映像を構成するフレーム画像を処理する画像処理装置であって、
前記フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する追尾領域検出手段と、
前記フレーム画像における前記人物から人物の照合に使用する第2部分領域を照合領域として検出する照合領域検出手段と、
前記追尾領域と前記照合領域とを関連付ける関連付け手段と、
前記追尾領域に基づいてフレーム画像間で前記人物を追尾する追尾手段と、
前記照合領域と照合元画像とに基づいて各フレーム画像で前記人物の照合を行う照合手段と、
複数のフレーム画像に対する前記追尾手段による追尾中に、少なくとも1つのフレーム画像において前記追尾領域と関連付けられた前記照合領域に対して人物の照合が行われた場合、当該照合の結果を前記追尾中の照合結果として出力する出力手段と、
を備えることを特徴とする。
本発明によれば、人物の照合に必要な領域(例えば顔)が常に検出されるとは限らない状況において、ユーザに対する人物の照合結果の通知回数を低減することができる。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(実施形態1)
<画像処理装置のハードウェア構成>
まず図1を参照して、本実施形態に係る画像処理装置のハードウェア構成の一例を説明する。画像処理装置100は単一のコンピュータ装置で実現してもよいし、必要に応じて複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数の画像処理装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続される。
<画像処理装置のハードウェア構成>
まず図1を参照して、本実施形態に係る画像処理装置のハードウェア構成の一例を説明する。画像処理装置100は単一のコンピュータ装置で実現してもよいし、必要に応じて複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数の画像処理装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続される。
図1において、101は画像処理装置100全体を制御するCentral Processing Unit(CPU)である。102は変更を必要としないプログラムやパラメータを格納するRead Only Memory(ROM)である。103は外部装置などから供給されるプログラムやデータを一時記憶するRandom Access Memory(RAM)である。104は画像処理装置100に固定して設置されたハードディスクやメモリカードである。あるいは、画像処理装置100から着脱可能なフレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含む外部記憶装置である。
105は、ユーザの操作を受けてデータを入力するポインティングデバイスやキーボードなどの入力デバイス109とのインタフェースである入力デバイスインタフェースである。106は画像処理装置100の保持するデータや供給されたデータやプログラムの実行結果を出力するためのモニタなどの出力デバイス110とのインタフェースである出力デバイスインタフェースである。107はインターネット111やカメラ112などに接続するための通信インタフェースである。カメラ112はインターネット111経由で画像処理装置100と接続しても構わない。108は101〜107の各ユニットを通信可能に接続するシステムバスである。
<画像処理装置の機能構成>
次に、図2を参照して、本実施形態に係る画像処理装置の機能構成の一例を説明する。202は、通信インタフェース107を介して取得した映像データから追尾領域を検出する追尾領域検出部である。すなわち、フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する。本実施形態において、追尾領域は、身体の方向に関わらず検出可能な人体の領域であり、例えば人物の首関節とし、首関節の中心を点で検出する。首関節は人物の向きや方向によらず検出がし易く、首関節を追尾領域検出部とすることで頻繁な追尾途切れを防ぐことができる。
次に、図2を参照して、本実施形態に係る画像処理装置の機能構成の一例を説明する。202は、通信インタフェース107を介して取得した映像データから追尾領域を検出する追尾領域検出部である。すなわち、フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する。本実施形態において、追尾領域は、身体の方向に関わらず検出可能な人体の領域であり、例えば人物の首関節とし、首関節の中心を点で検出する。首関節は人物の向きや方向によらず検出がし易く、首関節を追尾領域検出部とすることで頻繁な追尾途切れを防ぐことができる。
なお、本実施形態では追尾領域を首関節とするが、この例に限定するものではなく、例えば頭部や人体全身など他の部位でもよい。また、検出対象も点ではなく、矩形や多角形、円状であってもよい。本実施形態では、追尾領域検出部202は、画像内の各人物の首関節点を検出するように構成されたConvolutional Neural Network(以下、CNN)を保持しており、CNNは首関節点の座標点を出力する。なお、検出の方法はCNNに限定しなくてもよい。例えばHOG特徴量でSupport Vector Machine(以下、SVM)といった機械学習アルゴリズムを利用した検出方法などを利用してもよい。
203は、通信インタフェース107を介して取得した映像データから照合領域を検出する照合領域検出部である。本実施形態において、照合領域は人物の顔領域とし、顔の領域を矩形で検出する。なお、本特許は実施形態として検出領域を矩形としているが、円状や多角形などでもよい。また、本実施形態では照合領域検出部203は、画像内の各人物の顔領域を検出するように構成されたCNNを保持しており、顔領域の矩形左上の頂点座標と各辺の長さを算出する。なお、検出の方法はCNNに限定しなくてもよい。例えば前述のSVMといった機械学習アルゴリズムを利用した検出方法などを利用してもよい。
204は、追尾領域検出部202で検出された首関節領域と、照合領域検出部203で検出された顔領域とが、同一人物である場合に両者の関連付けを行う関連付け部である。関連付け部204についての詳細な処理に関しては、図4を用いて後述する。
205は、追尾領域検出部202で検出された時系列で並んだ各フレーム画像内の首関節領域が各フレーム間で同一人物の首関節領域であるかどうかを判定する追尾部である。本実施形態における追尾部205は、追尾を行う両フレーム画像間において追尾領域検出部202でそれぞれ検出された首関節領域の同一性を検出するように構成されたCNNを保持している。
そして、両フレーム画像間の首関節領域について同一人物として判定された両フレームの首関節領域には同一IDを付与する。これを映像の最後まで実施することで、首関節領域の追尾を実施する。なお、追尾の方法はCNNに限定しなくてもよい。例えば、ある領域内の色ヒストグラムなどの特徴量を抽出し、以降の映像に対して、当該領域近傍に存在する最も類似する特徴量を有する領域を特定することにより、物体を逐次的に追尾する手法を用いてもよい。
206は、照合領域検出部203で検出された顔領域と、事前に用意された照合用の人物顔画像とを照合する照合部である。照合部206は、照合領域検出部203で取得した矩形領域内の特徴量ベクトルを抽出し、さらに、照合元画像格納部210に格納された照合用の人物画像の特徴量ベクトルを抽出する。そして、抽出された両者の特徴ベクトルの類似性を確認することで、検出された顔領域と照合用人物画像との照合を行う。特徴量ベクトルの類似度は特徴量空間内での距離関数の逆数で算出することができ、特徴量空間内で距離が近いほど類似度が高くなるように算出する。算出した類似度が設定された閾値よりも高い特徴量ベクトル同士を同一人物として判定する。閾値よりも高い特徴量ベクトルが複数ある場合は、その中から最も類似度の高い特徴量ベクトル同士を同一人物として照合する。
また、照合元画像格納部210に格納された全ての照合用の人物画像との類似度が閾値を超えない場合は、該当者なしと判定する。本実施形態では、特徴量ベクトルはCNNで取得する。なお、特徴量ベクトルの取得方法はCNNに限定するものではなく、例えばLBP(Local Binary Pattern)特徴量など公知の技術を用いてもよい。また、本実施形態における特徴量空間内での距離計算は、ユークリッド距離を用いるものとする。
207は、関連付け部204で得られた首関節領域と顔領域との関連付け情報と、追尾部205で得られた首関節領域の追尾情報と、照合部206で得られた顔領域の照合情報とを、統合して統合追尾情報を取得する統合部である。統合部207についての詳細な処理に関しては図5を用いて後述する。208は、統合部207で得られた統合追尾情報を格納する統合追尾情報記録部である。209は、統合追尾情報記録部208に格納された統合追尾情報をユーザに提示するための映像を生成し、出力デバイスインタフェース106に出力する統合追尾情報出力部である。
<処理>
次に、図3のフローチャートを参照して、本実施形態に係る画像処理装置100が実施する処理の手順を説明する。まず、ステップS301では、通信インタフェース107は、カメラ112から映像データを取得する。ステップS302では、追尾領域検出部202は、ステップS301で取得した映像データから映像内の首関節領域を取得する。
次に、図3のフローチャートを参照して、本実施形態に係る画像処理装置100が実施する処理の手順を説明する。まず、ステップS301では、通信インタフェース107は、カメラ112から映像データを取得する。ステップS302では、追尾領域検出部202は、ステップS301で取得した映像データから映像内の首関節領域を取得する。
ステップS303では、照合領域検出部203は、ステップS301で取得した映像データから映像内の顔領域を取得する。ステップS304では、関連付け部204は、ステップS302で取得した首関節領域とステップS303で取得した顔領域との関連付け情報を取得する。
ここで、図4を用いて、ステップS304における関連付け部204の処理を説明する。図4において400と410は通信インタフェース107を介して取得した映像データ内で撮影された人物である。401と411は追尾領域検出部202で取得された首関節領域である。402aと412aは照合領域検出部203で取得された顔領域である。402bと412bはそれぞれの顔領域の左右中央かつ最下部の点である。
関連付け部204は、検出された首関節領域と顔領域とで同一人物のものを関連付ける。例えば、所定位置同士の距離が最も近い領域同士を関連付ける。人間の首は顔の最下点に存在するため、顔領域の最下点と最も近い位置にある首関節領域が最も同一人物としての相関が高い。図4においては、首関節領域401と最も近い顔領域の最下点は402bである。そして、首関節領域411と最も近い顔領域の最下点は412bである。よって、関連付け部204は、首関節領域401と顔領域402aとを関連付け、首関節領域411と顔領域412aとを関連付ける。人物が後ろを向くなどして顔領域が検出されず、首関節領域のみが検出される場合、首関節領域に関連付けられる顔領域は存在しない。反対に、顔領域だけ検出されて首関節が検出されない場合は、顔領域の左右中央、最下部の点を首関節領域として生成し、改めて顔領域との関連付けを行う。
ステップS305では、追尾部205は、ステップS302で取得した各フレーム画像内の首関節領域が各フレーム間で同一人物の首関節領域であるかどうかを判定して追尾情報を取得する。
ステップS306では、照合部206は、ステップS303で取得した顔領域と、事前に用意された照合用の人物顔画像との照合情報を取得する。ステップS307では、統合部207は、ステップS304で取得した関連付け情報と、ステップS305で取得した追尾情報と、ステップS306で取得した照合情報とを統合する。
ここで、図5を用いて、ステップS307における統合部207の処理を説明する。ステップS501では、統合部207は、追尾部205で取得した首関節領域のIDと、関連付け部204で取得した顔領域及び首関節領域の関連付け情報とを統合することで、顔領域に首関節領域と同じIDをフレーム画像毎に付与する。
ステップS502では、統合部207は、IDを付与された顔領域の中で同一IDをもつ顔領域画像のフレーム毎の照合情報をステップS306で取得した照合情報から抽出し、最も照合頻度の高い照合用の画像を算出する。例えば、同一IDを持つ顔領域画像が10フレーム存在し、そのうち8フレームでは人物Aと判定され、残りの2フレームで人物Bと判定された場合、そのIDの顔領域画像の照合結果は人物Aとする。なお、本実施形態では、照合結果の算出に照合頻度を用いるが、最大の類似度をもつ照合用の顔画像を照合結果としてもよいし、類似度がある閾値を超えた照合用の顔画像を全て照合結果としてもよい。
ステップS503では、統合部207は、算出された照合用の画像を、顔領域を含む追尾情報と関連付けて統合追尾情報として管理する。ここで、図6は、生成された統合追尾情報の一例である。図6において、フレーム番号1で顔領域が検出されたID番号1の人物はそれ以降顔領域が検出されていないが、首関節領域が検知されているため追尾が継続され、最終的に顔領域が再度検出されるフレーム番号1002まで照合結果が保持されている。
ステップS308では、統合追尾情報記録部208は、ステップS307で取得した統合追尾情報を記録する。ステップS309では、統合追尾情報出力部209は、統合追尾情報記録部208に記録された統合追尾情報をユーザに提示するための映像を通知画面として生成し、出力デバイスインタフェース106へ出力する。
ここで、図7は、統合追尾情報出力部209が生成する通知画面の一例である。通知ウィンドウ700には、照合元画像格納部210に格納されている照合用の要注意人物画像701と要注意人物画像711が表示されている。要注意人物画像701の横には、映像中で要注意人物画像701と照合した人物の画像702bと、撮影時刻702aが表と示されている。また、要注意人物画像711の横には、映像中で要注意人物画像711と照合した人物の画像712bと、撮影時刻712aとが表示されている。
それぞれが撮影された時刻702aと時刻712a中には、撮影された人物が後ろを向いていて顔を検知されていない区間も存在しうるが、首関節領域で追尾をすることで1つの区間としてユーザに通知することができている。通知ウィンドウ700は、要注意人物画像と映像内の人物の顔画像とが同一人物と判定されている場合のみ表示される。
本実施形態では、映像を一定区間に区切り、区間ごとに結果をユーザに表示する。この際、過去の区間で既に要注意人物画像と同一人物と判定されたIDの人物は、既にユーザに通知済みであるため通知ウィンドウ700を新規で作成した通知は行わない。これにより、ユーザへの照合結果の通知頻度の増加を抑えることができる。
ただし、この通知方法に限るわけではなく、ユーザへの通知は全ての映像の解析が終わった後にまとめて行ってもよいし、逐一リアルタイムに行ってもよい。以上で図3の一連の処理が終了する。
以上説明したように、本実施形態では、映像を構成する複数のフレーム画像に対する人物の追尾中に、少なくとも1つのフレーム画像における追尾領域(首関節領域等)と関連付けられた照合領域(顔領域等)に対して人物の照合が行われた場合、当該照合の結果を追尾中の照合結果として出力して表示する。
これにより、顔領域が検出されない区間が存在した場合にも、ユーザに頻繁に照合結果を通知する必要がなくなり、ユーザの利便性を向上させることができる。すなわち、常に顔が検出されるとは限らない状況において、ユーザに対する人物の照合結果の通知回数を低減することができる。
(実施形態2)
実施形態1では、追尾領域検出部202が首関節領域を検出する例を説明したが、本実施形態では頭部領域を検出する例を説明する。なお、装置構成については実施形態1で説明した構成と同様であるため、同様の構成については説明を省略する。
実施形態1では、追尾領域検出部202が首関節領域を検出する例を説明したが、本実施形態では頭部領域を検出する例を説明する。なお、装置構成については実施形態1で説明した構成と同様であるため、同様の構成については説明を省略する。
本実施形態では、追尾領域検出部202は、追尾領域の検出として頭部の中心を点で検出する。頭部は人体の上部に存在し、群衆などで人体が隠れた場合も露出がされやすく、検出がしやすい。さらに、本実施形態の照合対象である顔領域は頭部の一部であるため、関連付け処理において両者の相関も取りやすいという利点がある。なお、本実施形態では頭部の中心点を検出する例を説明するが、検出形状は点ではなく矩形や多角形、円状であってもよい。また、点で検出する場合、検出位置も頭部の中心位置である必要はなく、例えば頭頂部でも構わない。
次に、図8を参照して、本実施形態における関連付け部204の処理を説明する。関連付け部204は、頭部領域と顔領域との関連付けを行う。800と810は映像データ内で撮影された人物である。801と811は追尾領域検出部202で取得された頭部の中心点である。802と812は照合領域検出部203で取得された顔領域である。関連付け部204は検出された頭部の中心点と顔領域とで同一人物のものを関連付ける。頭部と顔は中心点同士の位置の相関が高い。頭部の中心点801と最も近い中心点をもつ顔領域は802である。そして、頭部の中心点811と最も近い中心点をもつ顔領域は812である。
よって、関連付け部204は、頭部の中心点801と顔領域802とを関連付け、頭部の中心点811と顔領域812とを関連付ける。なお、人物が後ろを向くなどして顔領域が検出されず、頭部の中心点のみ検出される場合、頭部の中心点に関連付けられる顔領域は存在しない。
以上説明したように、本実施形態によれば、顔領域が検出されない時間的区間が存在した場合も、人物の大半が隠れた状態でも追尾を行い、かつ頭部領域と顔領域との位置相関の高さによる精度の高い関連付けを行うことができる。よって、顔領域はより高い精度で同一人物の照合情報として処理されるので、ユーザに対する人物の照合結果の通知回数を低減することができる。
(実施形態3)
実施形態1では、追尾領域検出部202が首関節領域を検出する例を説明したが、本実施形態では追尾領域として人物の全身の領域を検出する例を説明する。なお、装置構成については実施形態1で説明した構成と同様であるため、同様の構成については説明を省略する。
実施形態1では、追尾領域検出部202が首関節領域を検出する例を説明したが、本実施形態では追尾領域として人物の全身の領域を検出する例を説明する。なお、装置構成については実施形態1で説明した構成と同様であるため、同様の構成については説明を省略する。
本実施形態では、追尾領域検出部202は、追尾領域の検出として人物の全身の領域を矩形で検出する。全身は衣服や背丈など個々人で特徴が異なるため、個人が同定し易く追尾が容易な場合がある。
図9を参照して、追尾領域を人物の全身の領域にした場合の関連付け部204の処理を説明する。関連付け部204は、全身領域と顔領域との関連付けを行う。900と910は映像データ内で撮影された人物である。901aと911aは追尾領域検出部202で取得された全身領域である。902と912は照合領域検出部203で取得された顔領域である。関連付け部204は、全身領域901aと911aそれぞれの横方向中央、縦方向上部1/8の位置である901b及び911bと、顔領域902及び顔領域912の中心位置とで最も近いもの同士を同一人物として関連付ける。全身領域内の点901bと最も近い中心点をもつ顔領域は902である。そして、全身領域内の点911bと最も近い中心点をもつ顔領域は912である。
よって、関連付け部204は、全身領域901と顔領域902とを関連付け、全身領域911と顔領域912とを関連付ける。顔は全身の上部に存在するため、全身領域の上部と相関が高い。なお、本実施形態では全身上部1/8の位置と顔中心位置との距離で関連付けを行ったが、1/8の比率に限定するものではない。顔が存在していそうな任意の位置を全身領域の所定位置として設定することができる。
以上説明したように、本実施形態によれば、顔領域が検出されない時間的区間が存在した場合にも、全身領域を追尾対象領域とすることで、より精度の高い追尾を行いながら、全身領域と顔領域とを関連付けることができる。よって、顔領域はより高い精度で同一人物の照合情報として処理されるので、ユーザに対する人物の照合結果の通知回数を低減することができる。
また、実施形態1乃至3では、関連付け部204は、人体構造の観点から追尾領域と照合領域との相関が高い位置を決め、両者の距離が最も近い組み合わせで関連付け行った。しかし、この関連付け処理は、機械学習などの学習によって取得されたアルゴリズムを用いて行ってもよい。
(実施形態4)
本実施形態では、ある人物が特定領域に侵入したことを判定する場合を例に説明を行う。本実施形態に係る画像処理装置のハードウェア構成は実施形態1と同様であるため説明を省略する。
本実施形態では、ある人物が特定領域に侵入したことを判定する場合を例に説明を行う。本実施形態に係る画像処理装置のハードウェア構成は実施形態1と同様であるため説明を省略する。
<画像処理装置の機能構成>
次に、図10を参照して、本実施形態に係る画像処理装置の機能構成の一例を説明する。本実施形態に係る画像処理装置100の機能構成は図2の構成とほぼ同様であるため、主に差異について説明する。本実施形態に係る画像処理装置100は、図2に示した構成要素に加えて、特定領域侵入判定部1001をさらに備えている。
次に、図10を参照して、本実施形態に係る画像処理装置の機能構成の一例を説明する。本実施形態に係る画像処理装置100の機能構成は図2の構成とほぼ同様であるため、主に差異について説明する。本実施形態に係る画像処理装置100は、図2に示した構成要素に加えて、特定領域侵入判定部1001をさらに備えている。
特定領域侵入判定部1001は、追尾領域検出部202から取得した首関節領域が特定領域に侵入したかどうかを判定する。判定結果は統合部207で、追尾情報、関連付け情報、照合情報と合わせて統合追尾情報として統合される。
ここで、図11(a)−図11(c)は、本実施形態で想定される監視映像である。1101は映像内を歩行する人物であり、1102は人物の侵入を検知する特定侵入領域である。図11(a)では人物1101の顔が検知されるが、図11(b)以降は顔後ろ向きになり検知されない。図11(c)で顔が検知されないまま人物1101が特定侵入領域1102に侵入する。この場合でも、統合追尾情報から顔の照合情報1103が呼び出されるため、特定領域への侵入した人物の特定が可能となる。すなわち、特定領域に侵入したと判定された追尾領域(首関節領域等)に対応する人物を照合に基づいて特定することができる。
以上説明したように、本実施形態によれば、顔領域が検出されていなくてもユーザに照合結果を通知することも可能であるため、特定領域への侵入時に顔が映っていない場合でも顔認証による侵入アラートをユーザに通知することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:画像処理装置、101:CPU、102:ROM、103:RAM、104:外部記憶装置、106:出力デバイスインタフェース、107:通信インタフェース、108:システムバス、110:出力デバイス、112:カメラ、202:追尾領域検出部、203:照合領域検出部、204:関連付け部、205:追尾部、206:照合部、207:統合部、208:統合追尾情報記録部、209:統合追尾情報出力部、210:照合元画像格納部、1001:特定領域侵入判定部
Claims (15)
- 映像を構成するフレーム画像を処理する画像処理装置であって、
前記フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する追尾領域検出手段と、
前記フレーム画像における前記人物から人物の照合に使用する第2部分領域を照合領域として検出する照合領域検出手段と、
前記追尾領域と前記照合領域とを関連付ける関連付け手段と、
前記追尾領域に基づいてフレーム画像間で前記人物を追尾する追尾手段と、
前記照合領域と照合元画像とに基づいて各フレーム画像で前記人物の照合を行う照合手段と、
複数のフレーム画像に対する前記追尾手段による追尾中に、少なくとも1つのフレーム画像において前記追尾領域と関連付けられた前記照合領域に対して人物の照合が行われた場合、当該照合の結果を前記追尾中の照合結果として出力する出力手段と、
を備えることを特徴とする画像処理装置。 - 前記第1部分領域は、身体の方向に関わらず検出可能な人体の領域であることを特徴とする請求項1に記載の画像処理装置。
- 前記第1部分領域は首関節領域であることを特徴とする請求項2に記載の画像処理装置。
- 前記第1部分領域は頭部領域であることを特徴とする請求項2に記載の画像処理装置。
- 前記第1部分領域は全身領域であることを特徴とする請求項2に記載の画像処理装置。
- 前記第2部分領域は顔領域であることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
- 前記関連付け手段は、前記第1部分領域における所定位置と前記第2部分領域における所定位置との距離が最も近い領域同士を前記追尾領域及び前記照合領域として関連付けることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
- 前記第1部分領域における所定位置及び前記第2部分領域における所定位置の各々は、前記第1部分領域と前記第2部分領域とを関連づけ可能な位置であることを特徴とする請求項7に記載の画像処理装置。
- 前記関連付け手段は、前記追尾領域と前記照合領域との関連付けを機械学習によって行うことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
- 前記追尾領域が特定領域に侵入したことを判定する判定手段をさらに備え、
前記出力手段は、複数のフレーム画像に対する前記追尾手段による追尾中に、少なくとも1つのフレーム画像において前記追尾領域と関連付けられた前記照合領域に対して人物の照合が行われた場合、前記特定領域に侵入したと判定された前記追尾領域に対応する人物を前記照合に基づいて特定するとともに、前記侵入に対するアラートを出力することを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。 - 前記出力手段は、前記照合元画像と、前記照合領域の画像と、前記人物が検出されたフレーム画像に対応する撮影時刻の情報とを含む画面を表示することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
- 映像を構成するフレーム画像を処理する画像処理装置であって、
前記フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する追尾領域検出手段と、
前記フレーム画像における人物から人物の照合に使用する第2部分領域を照合領域として検出する照合領域検出手段と、
前記追尾領域と前記照合領域とを関連付けて関連付け情報を取得する関連付け手段と、
前記追尾領域に基づいてフレーム画像間で前記人物を追尾して追尾情報を取得する追尾手段と、
前記照合領域と照合元画像とに基づいて前記人物の照合を行って照合情報を取得する照合手段と、
前記追尾情報と、前記照合情報と、前記関連付け情報とを統合して統合追尾情報を取得する統合手段と、
を備えることを特徴とする画像処理装置。 - 映像を構成するフレーム画像を処理する画像処理装置の制御方法であって、
前記フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する追尾領域検出工程と、
前記フレーム画像における前記人物から人物の照合に使用する第2部分領域を照合領域として検出する照合領域検出工程と、
前記追尾領域と前記照合領域とを関連付ける関連付け工程と、
前記追尾領域に基づいてフレーム画像間で前記人物を追尾する追尾工程と、
前記照合領域と照合元画像とに基づいて各フレーム画像で前記人物の照合を行う照合工程と、
複数のフレーム画像に対する前記追尾工程による追尾中に、少なくとも1つのフレーム画像において前記追尾領域と関連付けられた前記照合領域に対して人物の照合が行われた場合、当該照合の結果を前記追尾中の照合結果として出力する出力工程と、
を有することを特徴とする画像処理装置の制御方法。 - 映像を構成するフレーム画像を処理する画像処理装置の制御方法であって、
前記フレーム画像における人物から追尾に使用する第1部分領域を追尾領域として検出する追尾領域検出工程と、
前記フレーム画像における人物から人物の照合に使用する第2部分領域を照合領域として検出する照合領域検出工程と、
前記追尾領域と前記照合領域とを関連付けて関連付け情報を取得する関連付け工程と、
前記追尾領域に基づいてフレーム画像間で前記人物を追尾して追尾情報を取得する追尾工程と、
前記照合領域と照合元画像とに基づいて前記人物の照合を行って照合情報を取得する照合工程と、
前記追尾情報と、前記照合情報と、前記関連付け情報とを統合して統合追尾情報を取得する統合工程と、
を備えることを特徴とする画像処理装置の制御方法。 - コンピュータを、請求項1乃至12の何れか1項に記載の画像処理装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020082210A JP2021177300A (ja) | 2020-05-07 | 2020-05-07 | 画像処理装置、画像処理装置の制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020082210A JP2021177300A (ja) | 2020-05-07 | 2020-05-07 | 画像処理装置、画像処理装置の制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021177300A true JP2021177300A (ja) | 2021-11-11 |
Family
ID=78409487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020082210A Pending JP2021177300A (ja) | 2020-05-07 | 2020-05-07 | 画像処理装置、画像処理装置の制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021177300A (ja) |
-
2020
- 2020-05-07 JP JP2020082210A patent/JP2021177300A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6013241B2 (ja) | 人物認識装置、及び方法 | |
US7693310B2 (en) | Moving object recognition apparatus for tracking a moving object based on photographed image | |
US8761517B2 (en) | Human activity determination from video | |
US7376270B2 (en) | Detecting human faces and detecting red eyes | |
US8548203B2 (en) | Sequential event detection from video | |
US11915518B2 (en) | Facial authentication device, facial authentication method, and program recording medium | |
JP4743823B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
US9477876B2 (en) | Person recognition apparatus and method thereof | |
JP2006293644A (ja) | 情報処理装置、情報処理方法 | |
KR102167730B1 (ko) | 영상 마스킹 장치 및 영상 마스킹 방법 | |
WO2020195732A1 (ja) | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 | |
Poonsri et al. | Improvement of fall detection using consecutive-frame voting | |
CN106471440A (zh) | 基于高效森林感测的眼睛跟踪 | |
WO2020065954A1 (ja) | 認証装置、認証方法および記憶媒体 | |
JP2008009689A (ja) | 顔登録装置、顔認証装置および顔登録方法 | |
KR102063745B1 (ko) | 측면 프로파일링 기반 신원확인 장치 및 방법 | |
JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
EP4266242A1 (en) | Authentication method, information processing device, and authentication program | |
Foresti et al. | Face detection for visual surveillance | |
Yanakova et al. | Facial recognition technology on ELcore semantic processors for smart cameras | |
Kokila et al. | Face recognition based person specific identification for video surveillance applications | |
JP2021177300A (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JP7374632B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2022038702A1 (en) | Causal interaction detection apparatus, control method, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |