JP6671133B2 - 画像照合装置及び画像照合方法 - Google Patents

画像照合装置及び画像照合方法 Download PDF

Info

Publication number
JP6671133B2
JP6671133B2 JP2015187517A JP2015187517A JP6671133B2 JP 6671133 B2 JP6671133 B2 JP 6671133B2 JP 2015187517 A JP2015187517 A JP 2015187517A JP 2015187517 A JP2015187517 A JP 2015187517A JP 6671133 B2 JP6671133 B2 JP 6671133B2
Authority
JP
Japan
Prior art keywords
image data
weight
person
registered
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015187517A
Other languages
English (en)
Other versions
JP2017062633A (ja
Inventor
中嶋 康博
康博 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2015187517A priority Critical patent/JP6671133B2/ja
Publication of JP2017062633A publication Critical patent/JP2017062633A/ja
Application granted granted Critical
Publication of JP6671133B2 publication Critical patent/JP6671133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視カメラ等で撮影された入力画像データに含まれる人物や車両等の対象物と登録画像データに含まれる対象物の態様が異なる場合に、正確かつ効率的に画像照合を行う画像照合装置及び画像照合方法に関する。
従来、入力画像データに含まれる対象物と、あらかじめ登録された登録画像データに含まれる対象物とを色特徴を用いて照合することで、入力画像データから特定の対象物を検出する技術が知られている。
例えば、特許文献1には、物体の領域全体を高さ毎の領域に分割し、分割された各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて物体全体の高さ毎の色特徴分布を作成し、各物体の色特徴分布と比較すべき物体の色特徴分布との比較に基づいて物体と比較すべき物体の同定を行う物体の同定方法が開示されている。
また、特許文献2には、第1の撮影手段で撮影された登録画像データに基づいて人物の衣服特徴に関する情報を抽出してデータベース化しておき、他の環境において、1または2以上の第2の撮影手段で撮影された入力画像データに基づいて人物の衣服特徴に関する情報を抽出し、データベースとの照合を行って入力画像データに含まれる所定の人物を検索する人物検索システムが開示されている。
特開2005−250692号公報 特開2013−186546号公報
しかしながら、上記特許文献1及び2に代表される従来技術のものは、入力画像データに含まれる人物の向きや姿勢が登録画像データに含まれる人物の向きや姿勢と異なる場合には、人物を正確に同定できない可能性がある。人物の向きや姿勢が異なると、色特徴分布や衣服特徴が異なってしまうからである。
また、入力画像データに含まれる人物がカバンや杖などの所持品を所持しているにも関わらず、登録画像データに含まれる人物が所持品を所持していない場合には、同一人であっても色特徴分布や衣服特徴に差違が生じ、誤って他人であると判定される可能性がある。
これらのことから、入力画像データと登録画像データに含まれる人物等の向き、姿勢、所持品等の態様が異なる場合に、いかに正確かつ効率的に画像照合を行うかが重要な課題となっている。かかる課題は、人物を対象とする場合にのみ生ずる課題ではなく、車両等の他の対象物を対象とする場合にも同様に生ずる課題である。
本発明は、上記従来技術の課題を解決するためになされたものであって、入力画像データと登録画像データに含まれる対象物の態様が異なる場合であっても、正確かつ効率的に画像照合を行うことができる画像照合装置及び画像照合方法を提供することを目的とする。
上記の課題を解決するため、本発明は、人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置であって、前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部とを備え、前記重み決定部は、前記入力画像データに含まれる前記人物の身体像に体の中央が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記体の中央が存在する場合には、前記体の中央が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に体の中央が存在しない場合には、前記体の中央が含まれる前記重み対象領域に付与する重みを下げることを特徴とする。
また、本発明は、人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置であって、前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部とを備え、前記重み決定部は、前記入力画像データに含まれる前記人物の身体像に所持品が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記所持品が存在する場合には、前記所持品が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に前記所持品が存在しない場合には、前記所持品が含まれる前記重み対象領域に付与する重みを下げることを特徴とする。
また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる人物の身体像の態様と、前記登録画像データに含まれる人物の身体像の態様とが一致又は類似する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる人物の身体像の態様と、前記登録画像データに含まれる人物の身体像の態様とが類似しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。
また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる人物の身体像の向きと、前記登録画像データに含まれる人物の身体像の向きとが一致する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる人物の身体像の向きと、前記登録画像データに含まれる人物の身体像の向きとが一致しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。
また、本発明は、上記の発明において、前記照合処理部は、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データの重み付きヒストグラムをそれぞれ算定し、算定した重み付きヒストグラムに基づいて、前記入力画像データ及び前記登録画像データを照合処理することを特徴とする。
また、本発明は、人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置における画像照合方法であって、前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定ステップと、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、前記重み決定ステップにより決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップとを含み、前記重み決定ステップは、前記入力画像データに含まれる前記人物の身体像に体の中央が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記体の中央が存在する場合には、前記体の中央が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に体の中央が存在しない場合には、前記体の中央が含まれる重み対象領域に付与する重みを下げることを特徴とする。
また、本発明は、人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置における画像照合方法であって、前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定ステップと、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、前記重み決定ステップにより決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップとを含み、前記重み決定ステップは、前記入力画像データに含まれる前記人物の身体像に所持品が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記所持品が存在する場合には、前記所持品が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に所持品が存在しない場合には、前記所持品が含まれる前記重み対象領域に付与する重みを下げることを特徴とする。
本発明によれば、入力画像と登録画像に含まれる対象物の態様が異なる場合であっても、正確かつ効率的に画像照合を行うことができる。
図1は、実施例1に係る画像照合装置の特徴を説明するための説明図である。 図2は、実施例1に係る画像照合装置の構成を示す機能ブロック図である。 図3は、図1に示した画像照合装置の処理手順を示すフローチャートである。 図4は、図3に示した前処理の処理手順を示すフローチャートである。 図5は、図4に示した前処理を説明するための説明図である。 図6は、図4に示したヒストグラムの平坦化を説明するための説明図である。 図7は、ヒストグラムの平坦化の概念を説明するための説明図である。 図8は、図3に示した重み設定処理の処理手順を示すフローチャートである。 図9は、重み対象領域特定部による部位の推定についての説明図である。 図10は、重み対象領域の特定についての説明図である。 図11は、重み決定部による重みの決定についての説明図である。 図12は、図3に示した照合スコアSHSVの算定の処理手順を示すフローチャートである。 図13は、照合スコアSHSVの算定についての説明図である。 図14は、図3に示した照合スコアSSEGの算定の処理手順を示すフローチャートである。 図15は、照合スコアSSEGの算定についての説明図である。 図16は、実施例2に係る画像照合装置の特徴を説明するための説明図である。 図17は、実施例2に係る画像照合装置の構成を示す機能ブロック図である。 図18は、図17に示した画像照合装置の処理手順を示すフローチャートである。
以下、添付図面を参照して、本発明に係る画像照合装置及び画像照合方法の実施例を説明する。なお、以下に示す実施例1では、登録画像データ及び入力画像データにそれぞれ含まれる人物の向きを利用して重みを決定する場合について説明し、実施例2では、登録画像データ及び入力画像データにそれぞれ含まれる人物の所持品を利用して重みを決定する場合について説明することとする。
まず、本実施例1に係る画像照合装置の特徴について説明する。図1は、本実施例1に係る画像照合装置の特徴を説明するための説明図である。なお、ここでは登録画像データA及び入力画像データBを人物の洋服など外観上の色の一致度を用いて照合処理する場合を示すこととする。監視カメラから取得された画像データからは、十分な解像度を持った画像データが得られない場合があり、顔照合等の詳細な形状特徴に基づく照合処理を行えない場合があるためである。
図1(a)に示すように、登録画像データA1には人物の正面像が含まれ、入力画像データB1には人物の正面像が含まれている場合には、図中に斜線で示す人物の正面上部を特徴部分としてその重みを大きくする。図中に斜線で示す人物の正面上部は、特徴的な色合いが現れることが多いためである。ただし、人物の正面上部以外の他の部分を特徴部分とすることもできる。
一方、図1(b)に示すように、登録画像データA1には人物の正面像が含まれ、入力画像データB2には人物の側面像が含まれている場合には、図中に白領域で示す人物の特徴部分の重みを小さくする。入力画像データB2には人物の正面上部が現れないためである。
このように、登録画像データA及び入力画像データBを人物の向きに基づいて、特徴部分の重みを変化させることにより、特徴部分を考慮した正確な照合処理を行うことが可能となる。
次に、本実施例1に係る画像照合装置の構成について説明する。図2は、本実施例1に係る画像照合装置の構成を示す機能ブロック図である。図2に示すように画像照合装置20は、カメラ10、操作部30及び表示部40と接続される。
カメラ10は、周囲を撮像する監視カメラなどの撮像装置である。画像照合装置20は、カメラ10により撮像された撮像データから人物の像を含む領域を切り出して、入力画像データBとして用いる。カメラ10は、1つである必要は無く、複数の撮像装置をそれぞれカメラ10として利用することができる。
操作部30は、キーボード、マウス、専用の操作パネルなど、操作者の操作入力を受け付ける入力インタフェースである。表示部40は、液晶ディスプレイ等の表示出力を行う出力インタフェースである。
画像照合装置20は、その内部に記憶部21及び制御部22を有する。記憶部21は、ハードディスク装置や不揮発性メモリ等の記憶デバイスであり、登録データ21aを記憶する。また、記憶部21は、照合の過程において生成される候補画像リスト21bの記憶に用いられる。
登録データ21aは、複数の登録画像データAを有し、各登録画像データAには向きデータが対応付けられている。複数の登録画像データAは、例えば異なる人物についてそれぞれ生成したものであり、1つの登録画像データAには人物の像が1つ含まれている。向きデータは、対応する登録画像データAにおける人物の向きを示す。図2では、登録画像データA1に向きデータA1aを対応付けた状態を示している。
候補画像リスト21bは、後述する照合において、入力画像データBとの類似度がしきい値以上となる登録画像データAのリストである。すなわち、候補画像リスト21bは、入力画像データBに示された人物と一致する可能性のある人物の候補を示す。
制御部22は、画像照合装置20を全体制御する制御部であり、前処理部22a、重み対象領域特定部22b、重み決定部22c、トータルスコア算出部22d、判定処理部22e及び表示制御部22fを有する。実際には、これらの機能部に対応するプログラムを図示しないROMや不揮発性メモリに記憶しておき、これらのプログラムをCPU(Central Processing Unit)にロードして実行することにより、前処理部22a、重み対象領域特定部22b、重み決定部22c、トータルスコア算出部22d、判定処理部22e及び表示制御部22fにそれぞれ対応するプロセスを実行させることになる。
前処理部22aは、照合の前処理として、カメラ10により撮像された撮像データから入力画像データBを生成する処理部である。具体的には、前処理部22aは、撮像データから人物の像を検出し、人物の向きを推定し、人物の像を含む領域を人物領域として切り出す。そして、切り出した人物領域の大きさを正規化し、画素のヒストグラムを平坦化して入力画像データBを生成する。
重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について、人物の部位を推定し、推定した部位から重み対象領域を特定する処理部である。重み対象領域としては、人物の部位のうち、人物の特徴を多く含む特徴部分を用いる。例えば、人物の正面上部は、人物の特徴を多く含む特徴部分であり、この特徴部分を重み対象領域とする。
重み決定部22cは、登録画像データA及び入力画像データBの対応関係に基づいて、重み対象領域に付与する重みを決定する処理部である。ここで、重み決定部22cは、登録画像データA及び入力画像データBの対応関係に、人物の向きを利用する。
具体的には、重み決定部22cは、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きとが一致する場合には、重み対象領域に付与する重みを上げる。一方、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きとが一致しない場合には、重み対象領域に付与する重みを下げる。
トータルスコア算出部22dは、重み決定部22cにより決定された重みを重み対象領域に適用し、適用した重みに基づき入力画像データBと登録画像データAを照合処理し、一致度合を示すトータルスコアを算出する処理部である。
具体的には、トータルスコア算出部22dは、人物の部位毎に一致度合を評価した評価値である照合スコアSHSVと、色が類似する小領域毎に一致度合を評価した評価値である照合スコアSSEGとを算定し、照合スコアSHSVと照合スコアSSEGの合計をトータルスコアとして算出する。照合スコアSHSV及び照合スコアSSEGの具体的な算出処理については後述する。
判定処理部22eは、トータルスコアとしきい値とを比較することで、入力画像データBに示された人物と登録画像データAに示された人物とが同一人物である可能性が高いか否かを判定する処理部である。判定処理部22eは、判定の結果、トータルスコアがしきい値以上となった登録画像データAを候補画像リスト21bに登録する。
表示制御部22fは、候補画像リスト21bに登録された登録画像データAを表示部40に表示制御する処理部である。操作者は、この表示制御により、入力画像データBに示された人物と一致する人物の候補を確認することができる。
次に、画像照合装置20の処理手順について説明する。図3は、画像照合装置20の処理手順を示すフローチャートである。まず、カメラ10から撮像データを受け付けると(ステップS101)、画像照合装置20の前処理部22aは、撮像データに対して前処理を行い、入力画像データBを生成する(ステップS102)。
また、判定処理部22eは、複数の登録画像データAからいずれかを選択する(ステップS103)。重み対象領域特定部22b及び重み決定部22cは、ステップS102で生成された入力画像データBと、ステップS103で選択された登録画像データAとを用いて重み設定処理を行う(ステップS104)。
トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを人物の部位毎に照合し、照合スコアSHSVを算出する(ステップS105)。
また、トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを色が類似する小領域毎に照合し、照合スコアSSEGを算出する(ステップS106)。
トータルスコア算出部22dは、照合スコアSHSVと照合スコアSSEGとを合計し、トータルスコアSを算出する(ステップS107)。判定処理部22eは、トータルスコアSとしきい値Tとを比較する(ステップS107)。
その結果、トータルスコアSがしきい値T以上であるならば(ステップS108;Yes)、判定処理部22eは、ステップS103で選択された登録画像データAを候補画像リスト21bに登録する(ステップS109)。
ステップS109の後、若しくはトータルスコアSがしきい値T未満である場合(ステップS108;No)、判定処理部22eは、ステップS103で選択されていない未処理の登録画像データAが残っているか否かを判定する(ステップS110)。未処理の登録画像データAが残っているならば(ステップS110;Yes)、判定処理部22eは、ステップS103に移行し、未処理の登録画像データAからいずれかを選択する。
未処理の登録画像データAが残っていなければ(ステップS110;No)、表示制御部22fは、候補画像リスト21bに登録された登録画像データAを表示部40に表示し(ステップS111)、処理を終了する。
次に、図3のステップS102に示した前処理について詳細に説明する。図4は、図3に示した前処理の処理手順を示すフローチャートである。前処理部22aは、まず、撮像データから人物の像を検出し(ステップS201)、人物の向きを推定する(ステップS202)。人物の像の検出と人物の向きの推定には、例えば向きの異なる人物の形状をそれぞれモデル化した複数のテンプレートを用意し、パターンマッチングで対象を探せばよい。なお、パターンマッチングの手法については、SVMなどの機械学習や部分空間法など、任意の手法を用いることができる。
前処理部22aは、検出した人物の像を含む領域を人物領域として切り出し(ステップS203)、切り出した人物領域の大きさを正規化し(ステップS204)、画素のヒストグラムを平坦化する(ステップS205)。これらの処理により得られた画像データが入力画像データBであり、ステップS205の後、前処理部22aは前処理を終了して図3の処理に戻る。
図5は、図4に示した前処理を説明するための説明図である。図5に示した画像データC1は、カメラ10が撮像した撮像データに対応する。パターンマッチング等でこの画像データC1から人物領域を切り出して、大きさを正規化することにより、画像データC2が得られる。前処理部22aは、画像データC2から背景を除去して画像データC3を生成し、さらに画像データC3における画素のヒストグラムを平坦化することで画像データC4を生成する。この画像データC4が入力画像データBに対応する。
前処理部22aによるヒストグラムの平坦化についてさらに説明する。図6は、図4に示したヒストグラムの平坦化を説明するための説明図である。前処理部22aは、ヒストグラムの平坦化に際し、まず、画像データC3をHSV変換する。このHSV変換により、画像データC3の色相成分を示す画像データC3hと、画像データC3の彩度成分を示す画像データC3sと、画像データC3の明度成分を示す画像データC3vとが得られる。
前処理部22aは、画像データC3vの人物領域内の画素に対して次の変換を行って画像データC3v’を生成する。
Figure 0006671133
ここで、Vは変換前の画素値であり、V’は変換後の画素値である。また、HistはV成分のヒストグラムであり、SIZEは人物領域の画素数である。
その後、前処理部22aは、画像データC3h、画像データC3s及び画像データC3v’をRGB画像に変換することで、入力画像データBに対応する画像データC4を生成する。
図7は、ヒストグラムの平坦化の概念を説明するための説明図である。図7(a)は、平坦化前の画像データC3vにおける明度成分のヒストグラムであり、図7(b)は、平坦化後の画像データC3v’における明度成分のヒストグラムである。平坦化の前後を比較すると、平坦化前には明度値xが狭い範囲に偏っているのに対し、平坦化後には明度値xが偏り無く分布している。
このようにヒストグラムを平坦化することにより、入力画像データBにおける明るさの偏りを解消し、入力画像データBと登録画像データAとの間で明るさを揃えることができる。
次に、図3のステップS104に示した重み設定処理について詳細に説明する。図8は、図3に示した重み設定処理の処理手順を示すフローチャートである。まず、重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について人物の部位を推定する(ステップS301)。さらに、重み対象領域特定部22bは、推定した部位から重み対象領域を特定する(ステップS302)。
重み決定部22cは、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きに基づいて、重み対象領域に付与する重みを決定する(ステップS303)。この重みの決定により重み設定処理は終了し、図3の処理に戻る。
次に、重み対象領域特定部22bによる部位の推定について説明する。図9は、重み対象領域特定部22bによる部位の推定についての説明図である。まず、重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について、頭、体、足及び中心軸を推定する。なお、本実施例において「体」とは、身体のうち頭と足を除いた部分のことである。また、身体のうち頭と手足を除いた部分としてもよい。
図9(a)は、頭、体及び足の推定についての説明図である。重み対象領域特定部22bは、登録画像データA及び入力画像データBについて、足と体の境界を示すiTL、体と頭の境界示すiHLyをそれぞれ算出する。iTL及びiHLyは、登録画像データA及び入力画像データBにおける高さ方向、即ちY軸の値として求められる。
iTLyを算出する場合、重み対象領域特定部22bは、yをΔy内で走査しながら、σy1とσy2の間の以下の特徴Fを計算する。
F(y)=1−C(y,σ)+S(y,σ)
ここで、Δyは、登録画像データA及び入力画像データBにおいてiTLyが所在する可能性のある範囲を予め指定した指定範囲である。登録画像データA及び入力画像データBは人物領域として切り出されているため、足と体の境界が極端に高い位置や低い位置に所在することはない。そこで、足と体の境界が所在しない範囲を除外し、Δyを予め指定しているのである。
また、σy1及びσy2は、登録画像データA及び入力画像データBにおいて、部分的な特徴を検知できる程度の面積が含まれるよう設定された部分領域である。σy1及びσy2のx軸方向の幅は登録画像データA及び入力画像データBのx軸方向の幅に等しい。また、σy1のy軸方向の高さとσy2のy軸方向の高さとは同一である。そしてσy1は下端が変数yの値であり、変数yの上方に設定される。σy2は上端が変数yの値であり、変数yの下方に設定される。
C(y,σ)はHSV色空間におけるσy1とσy2との間のユークリッド距離である。S(y,σ)は、σy1内における人物部分とσy2内における人物部分の面積の差である。重み対象領域特定部22bは、F(y)が最小となるy座標を求め、そのy座標をiTLyとする。
iHLを算出する場合には、重み対象領域特定部22bは、iTLyと同様にyを指定範囲内で走査しながら、以下の特徴Fを計算する。
F(y)=S(y,σ)
そして、F(y)が最大となるy座標を求め、そのy座標をiHLとする。なお、iHLを算出する場合の指定範囲は、iHLが所在する可能性のある範囲を予め指定したものである。
図9(b)は、中心軸の推定についての説明図である。重み対象領域特定部22bは、体の中心軸jLR1と、足の中心軸jLR2とをそれぞれ求める。体の中心軸を求める場合には、対象範囲はiTLからiHLyまでであり、足の中心軸を求める場合には、対象範囲は下端(y=0)からiHLyまでである。jLR1及びjLR2は、登録画像データA及び入力画像データBにおける横方向、即ちx軸の値として求められる。
中心軸を算出する場合、重み対象領域特定部22bは、xを走査しながら、σx1とσx2の間の以下の特徴Fを計算する。
F(x)=C(x,σ)+S(x,σ)
そして、F(x)が最小となるx座標を中心軸とする。
ここで、σx1を変数xの左側の部分領域、σx2を変数xの右側の部分領域とする。図9(b)では、足の中心軸jLR2を求める場合のσx1及びσx2を示している。σx1及びσx2のy軸方向の高さは対象範囲の高さに等しい。また、σx1のx軸方向の幅とσx2のx軸方向の幅とは同一である。この幅は、対象範囲における人物部分の半分以上を含むように設定することが好適である。そしてσx1は右端が変数xの値であり、σx2は左端が変数xの値である。
重み対象領域特定部22bは、iTL、iHLy、jLR1、jLR2に加え、登録画像データA及び入力画像データBの向きを用いて重み対象領域を特定する。図10は、重み対象領域の特定についての説明図である。
まず、登録画像データAや入力画像データBにおける人物の向きが正面である場合には、重み対象領域特定部22bは、頭、足、体の左、体の中央、体の右の5つのエリアを設定する。一方、人物の向きが側面や背面である場合には、頭、足、体の3つのエリアを設定する。
図10(a)では、登録画像データA2の人物の向きが正面である。このため、エリアデータPA2に示すように、頭、足、体の左、体の中央、体の右の5つのエリアが設定される。一方、図10(b)では、入力画像データB3の人物の向きが背面である。このため、エリアデータPB3に示すように、頭、足、体の3つのエリアが設定される。
なお、体の部位を体の左、体の中央、体の右の3つに分割する位置は、体の中心軸jLR1から左右にwだけ離れた位置とする。ここで、wについては、画像データの幅と正規化された人物の大きさから、予め適切な値を設定しておく。
重み対象領域特定部22bは、設定したエリアから重み対象領域の選択を行う。例えば、体の中央は人物の特徴を多く含む特徴部分であり、重み対象領域として好適である。また、設定した全てのエリアを重み対象領域とし、各エリアに対して重み設定を行うことも可能である。
次に、重み決定部22cによる重みの決定について説明する。図11は、重み決定部22cによる重みの決定についての説明図である。重み決定部22cは、登録画像データA及び入力画像データBにおける人物の向きの組合せに基づいて重みを決定する。
図11には、人物の向きの組合せと重みとの対応関係を示している。なお、図11の斜線領域は重みを上げることで強調して特徴抽出を行うことを示し、白領域は重みを下げて特徴抽出を行うことを示す。
図11に示したように、重み決定部22cは、人物の向きの組合せが「正面−正面」である場合には、体の中央の重みを上げる。服のデザインやネクタイやスカーフの着用により、体の中央に特徴がある場合が多いためである。一方、人物の向きの組合せが「正面−側面」である場合には、体の中央の重みを下げる。また、人物の向きの組合せが「正面−背面」である場合には、体の中央と頭の重みを下げる。体の中央の特徴が側面や背面には現れない場合が多いためである。また頭は、正面と側面と背面の特徴は大きく異なるためである。そして人物の向きの組合せが「側面−背面」である場合には、頭の重みを下げる。なお、図示は省略したが、人物の向きの組合せが「背面−背面」である場合には、重みを付与しない。
図11では、人物の向きが正面であれば、体の部位を中央と左右にエリア分けして異なる重みを付け、人物の向きが正面以外であれば、体の部位全体を1つのエリアとして同一の重みを付けている。このエリア分けは重みを付与する範囲を定めるものであり、照合の単位として用いるものではない。すなわち、体の部位について照合を行う場合には、3つのエリアに分けられた体の部位と、1つのエリアである体の部位とが照合されることになる。
なお、本実施例では、正面、側面、背面それぞれの立位の3つの態様を用い、その組合せ毎に重み付けを定めたが、用いる態様は3つに限定されない。例えば、左斜め前方、右斜め前方などの方向や座位など姿勢について、さらに態様を追加することができる。その場合は、それぞれの態様に応じたテンプレートを用意して検出する。また、それぞれの態様の組合せ毎に、重み付けを定める。
このように、重み決定部22cは、特徴部分が登録画像データA及び入力画像データBの双方に含まれていれば重みを上げ、一方にしか含まれない場合には重みを下げる。特徴部分が登録画像データA及び入力画像データBの双方に含まれていれば、その特徴部分は照合精度の向上に寄与するが、一方にしか含まれていない特徴部分はむしろ照合の精度を低下させるおそれがあり、特徴部分以外に注目した方が照合精度の向上が期待できるためである。
次に、図3のステップS105に示した照合スコアSHSVの算定について詳細に説明する。図12は、図3に示した照合スコアSHSVの算定の処理手順を示すフローチャートである。
トータルスコア算出部22dは、まず、登録画像データAの部位毎に重み付き3次元HSVヒストグラムを算定する(ステップS401)。また、入力画像データBの部位毎に重み付き3次元HSVヒストグラムを算定する(ステップS402)。そして、各部位についてバチャタリヤ距離を算定し、その平均を照合スコアSHSVとして(ステップS403)、図3の処理に戻る。
ここで、3次元HSVヒストグラムを算定における重みは、重み決定部22cにより決定された重みと、中心軸からの距離に応じたガウス分布による重みを乗算したものを用いる。なお、向きが正面である場合には、体の部位が3つのエリアに分かれているが、体の部位について3次元HSVヒストグラムを算定する際にはその全てのエリアが用いられる。
また、ヒストグラムh1とヒストグラムh2のバチャタリヤ距離は、ヒストグラムのビン数をnとして以下の式により求められる。
Figure 0006671133
図13は、照合スコアSHSVの算定についての説明図である。図13では、登録画像データA2の人物の向きが正面であり、入力画像データB3の人物の向きが背面である。トータルスコア算出部22dは、登録画像データA2に対しては対応するエリアデータPA2を重み付けに用い、入力画像データB3に対しては対応するエリアデータPB3を重み付けに用いる。
トータルスコア算出部22dは、エリアデータPA2及びエリアデータPB3にもとづく重みをそれぞれ登録画像データA2と入力画像データB3とに適用し、登録画像データA2と入力画像データB3との部位別のヒストグラム照合を行い、照合スコアSHSVを算定する。
次に、図3のステップS106に示した照合スコアSSEGの算定について詳細に説明する。図14は、図3に示した照合スコアSSEGの算定の処理手順を示すフローチャートである。
トータルスコア算出部22dは、まず、登録画像データAを色領域に分割する(ステップS501)。色領域は、類似色で連続する画素からなる小領域である。同様に、トータルスコア算出部22dは、入力画像データBを色領域に分割する(ステップS502)。そして、色領域同士の照合スコアSSEGを算出し(ステップS503)、図3の処理に戻る。
色領域同士の照合スコアSSEGは、次の式により求められる。
Figure 0006671133
ここで、Sseg1は、
Figure 0006671133
であり、Sseg2は、
Figure 0006671133
である。なお、Tpは登録画像データAから分割した色領域の集合であり、Inは入力画像データBから分割した色領域の集合である。i,jは、色領域の選択に用いる変数である。Sseg1の算出時にはi∈In、j∈Tpとし、Sseg2の算出時にはi∈Tp、j∈Inとしている。すなわち、Sseg1及びSseg2は、wij(γdij y+(1−γ)dij c)が最小となるjを各iについて求めている。
また、登録画像データAから分割した色領域について、その重心をgj、平均RGB値をcj、gjが属するエリアに設定された重みをwjとする。同様に、入力画像データBから分割した色領域について、その重心をgi、平均RGB値をci、giが属するエリアに設定された重みをwiとする。
ij yは、重心のy座標の距離であり、
ij y=|giy-jy
により求める。
ij cは、平均RGBの距離であり、
ij c=|ci−cj
により求める。
ijは重みであり、
ij=1/min(wi,wj
を用いる。なお、γは所定のパラメータである。また、ninはSseg1において用いた重みの和であり、ntpはSseg2において用いた重みの和である。そして、numinは入力画像データBから分割した色領域の数であり、numtpは登録画像データAから分割した色領域の数である。
図15は、照合スコアSSEGの算定についての説明図である。図15では、登録画像データA2の人物の向きが正面であり、入力画像データB3の人物の向きが背面である。トータルスコア算出部22dは、登録画像データA2を色領域に分割して色領域データQA2を生成する。同様に、入力画像データB3を色領域に分割して色領域データQB3を生成する。
トータルスコア算出部22dは、色領域データQA2に対しては対応するエリアデータPA2を重み付けに用い、色領域データQB3に対しては対応するエリアデータPB3を重み付けに用いる。
トータルスコア算出部22dは、エリアデータPA2及びエリアデータPB3にもとづく重みを用いて、色領域データQA2と色領域データQB3との色領域同士の照合を行って、照合スコアSSEGを算定する。
次に、図3のステップS107に示したトータルスコアの算定について説明する。トータルスコア算出部22dは、照合スコアSHSVと照合スコアSSEGとを用い、トータルスコアSを
S=0.5×SHSV+0.5×SSEG
として算出する。ここでは、照合スコアSHSVと照合スコアSSEGにそれぞれ0.5を乗算した上で合計する場合を例示したが、この比率は適宜設定可能である。
上述してきたように、本実施例1に係る画像照合装置20は、登録画像データA及び入力画像データBから重み対象領域を特定し、登録画像データA及び入力画像データBに含まれる人物の向きの組合せに基づいて重み対象領域に付与する重みを決定し、決定された重みを重み対象領域に適用しつつ、登録画像データA及び入力画像データBを照合処理する。このため、登録画像データAと入力画像データBに含まれる人物の向きが異なる場合であっても、正確かつ効率的に画像照合を行うことができる。
実施例1では、登録画像データ及び入力画像データにそれぞれ含まれる人物の向きを利用して重みを決定する場合について説明したが、本実施例2では、登録画像データ及び入力画像データにそれぞれ含まれる人物の所持品を利用して重みを決定する場合について説明する。
図16は、本実施例2に係る画像照合装置の特徴を説明するための説明図である。なお、ここでは登録画像データA及び入力画像データBを人物の洋服や所持品の色の一致度を用いて照合処理する場合を示すこととする。
図16(a)に示すように、登録画像データA3に鞄を所持した人物の像が含まれ、入力画像データB4にも鞄を所持した人物の像が含まれている場合には、図中に斜線で示すように鞄に対応する領域を特徴部分としてその重みを大きくする。鞄などの所持品が同一であれば、同一人物である可能性が高く、その色合いを特徴部分とすることで照合精度を高めることができるためである。なお、鞄に限らず、他の所持品や帽子等を特徴部分とすることもできる。
一方、図16(b)に示すように、登録画像データA3には鞄を所持した人物の像が含まれ、入力画像データB5には鞄を持たない人物の像が含まれている場合には、図中に白領域で示すように鞄に対応する領域の重みを小さくする。鞄などの所持品は途中で手放す可能性があり、所持品が同一でないことは同一人物でないことの根拠とはならないので、所持品の特徴に注目して照合を行うとかえって照合精度が低下するおそれがあるためである。
このように、登録画像データA及び入力画像データBにおける人物の所持品の有無により、所持品に対応する領域の重みを変化させることで、所持品の特徴を有効に利用して正確な照合処理を行うことが可能となる。
次に、本実施例2に係る画像照合装置の構成について説明する。図17は、本実施例2に係る画像照合装置の構成を示す機能ブロック図である。図17に示すように画像照合装置50は、記憶部21に記憶される登録データ54が実施例1に示した登録データ21aと異なる。また、前処理部51、重み対象領域特定部52及び重み決定部53の動作が実施例1に示した前処理部22a、重み対象領域特定部22b及び重み決定部22cと異なる。その他の構成及び動作については、実施例1に示した画像照合装置20と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。
登録データ54は、複数の登録画像データAを有し、各登録画像データAには所持品データが対応付けられている。複数の登録画像データAは、例えば異なる人物についてそれぞれ生成したものであり、1つの登録画像データAには人物の像が1つ含まれている。所持品データは、対応する登録画像データAにおける人物の所持品を示す。図17では、登録画像データA3に所持品データA3bを対応付けた状態を示している。
前処理部51は、照合の前処理として、カメラ10により撮像された撮像データから入力画像データBを生成する処理部である。具体的には、前処理部51は、撮像データから人物の像を検出し、人物の所持品の有無を推定し、人物の像を含む領域を人物領域として切り出す。そして、切り出した人物領域の大きさを正規化し、画素のヒストグラムを平坦化して入力画像データBを生成する。なお、人物と所持品の像の検知には、任意の手法を用いることができる。例えば、連続して撮像された撮像データの差分から人物と所持品の双方を含む画像を切り出し、この画像に人物のパターンマッチングを行うことで人物の像を抽出することができる。そして、人物と所持品の双方を含む画像から人物の像を除外すれば、所持品の像が得られる。
重み対象領域特定部52は、登録画像データA及び入力画像データBに含まれる人物の像について、所持品がある場合には所持品に対応する領域を重み対象領域として特定する処理を行う。
重み決定部53は、登録画像データA及び入力画像データBの対応関係に基づいて、重み対象領域に付与する重みを決定する。ここで、重み決定部53は、登録画像データA及び入力画像データBの対応関係に、人物の所持品を利用する。具体的には、重み決定部53は、入力画像データBに含まれる人物について所持品があると推定され、かつ、登録画像データAに対応付けられた所持品データにより所持品があることが示されている場合には、重み対象領域に付与する重みを上げる。一方、入力画像データB又は登録画像データAの一方に所持品がない場合には、重み対象領域に付与する重みを下げる。
次に、画像照合装置50の処理手順について説明する。図18は、画像照合装置50の処理手順を示すフローチャートである。まず、カメラ10から撮像データを受け付けると(ステップS101)、画像照合装置50の前処理部51は、撮像データに対して前処理を行い、入力画像データBを生成する(ステップS602)。この前処理により、入力画像データBにおける所持品の有無が推定される。
また、判定処理部22eは、複数の登録画像データAからいずれかを選択する(ステップS103)。重み対象領域特定部52及び重み決定部53は、ステップS602で生成された入力画像データBと、ステップS103で選択された登録画像データAとを用いて重み設定処理を行う(ステップS604)。この重み設定では、所持品に対応する領域が重み対象領域として特定され、入力画像データBと登録画像データAにおける所持品の有無の組合せにより重みが決定されることになる。
トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを照合し、照合スコアSHSVを算出する(ステップS605)。ここで、入力画像データB及び登録画像データAは、所持品に対応する重み対象領域と所持品以外の人物領域とに分割され、トータルスコア算出部22dは、それぞれの領域について照合を行って照合スコアSHSVを算出することになる。以降の処理は、図3に示したフローチャートと同様であるので、説明を省略する。
上述してきたように、本実施例2に係る画像照合装置50は、登録画像データA及び入力画像データBから所持品に対応する重み対象領域を特定し、登録画像データA及び入力画像データBに含まれる人物の所持品の有無の組合せに基づいて重み対象領域に付与する重みを決定し、決定された重みを重み対象領域に適用しつつ、登録画像データA及び入力画像データBを照合処理する。このため、登録画像データAと入力画像データBに含まれる人物の所持品の有無に関わらず、正確かつ効率的に画像照合を行うことができる。
なお、上記の実施例1及び2では、人物の照合を例に説明を行ったが、本発明は人物の照合に限定されるものではなく、車両等の他の対象物を照合する場合にも適用することができる。
また、上記の実施例1及び2では、人物の外観上の色の一致度を用いて照合処理する場合を示したが、監視カメラ等の性能が向上し、解像度の高い画像データが取得できる場合は、例えば服の模様や装着物による形状特徴に基づく照合処理を行うことも可能である。本発明は、入力画像データと登録画像データ照合処理に際して、両画像の態様に応じた重み付けを行うものであり、照合処理の方式にはこだわらない。
また、上記の実施例2では、所持品を対象物の特徴部として用いる場合を例に説明を行ったが、帽子や杖、車両のオプションパーツなど、対象物の態様に影響を与え、かつ着脱等が比較的容易であれば、任意の特徴部を用いることができる。
また、本実施例に図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部または一部を各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
本発明に係る画像照合装置及び画像照合方法は、入力画像と登録画像に含まれる対象物の態様が異なるときに、正確かつ効率的に画像照合を行う場合に適している。
10 カメラ
20 画像照合装置
21 記憶部
21a,54 登録データ
21b 候補画像リスト
22 制御部
22a,51 前処理部
22b,52 重み対象領域特定部
22c,53 重み決定部
23d トータルスコア算出部
22e 判定処理部
22f 表示制御部
30 操作部
40 表示部
A,A1〜A3 登録画像データ
A1a 向きデータ
A1b 所持品データ
B,B1〜B5 入力画像データ

Claims (7)

  1. 人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置であって、
    前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、
    前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、
    前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部と
    を備え、
    前記重み決定部は、
    前記入力画像データに含まれる前記人物の身体像に体の中央が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記体の中央が存在する場合には、前記体の中央が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に前記体の中央が存在しない場合には、前記体の中央が含まれる前記重み対象領域に付与する重みを下げる
    とを特徴とする画像照合装置。
  2. 人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置であって、
    前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、
    前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、
    前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部と
    を備え、
    前記重み決定部は、
    前記入力画像データに含まれる前記人物の身体像に所持品が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記所持品が存在する場合には、前記所持品が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に前記所持品が存在しない場合には、前記所持品が含まれる前記重み対象領域に付与する重みを下げる
    ことを特徴とする画像照合装置。
  3. 前記重み決定部は、
    前記入力画像データに含まれる人物の身体像の態様と、前記登録画像データに含まれる人物の身体像の態様とが一致又は類似する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる人物の身体像の態様と、前記登録画像データに含まれる人物の身体像の態様とが類似しない場合には、前記重み対象領域に付与する重みを下げる
    ことを特徴とする請求項1又は2に記載の画像照合装置。
  4. 前記重み決定部は、
    前記入力画像データに含まれる人物の身体像の向きと、前記登録画像データに含まれる人物の身体像の向きとが一致する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる人物の身体像の向きと、前記登録画像データに含まれる人物の身体像の向きとが一致しない場合には、前記重み対象領域に付与する重みを下げる
    ことを特徴とする請求項1又は2に記載の画像照合装置。
  5. 前記照合処理部は、
    前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データの重み付きヒストグラムをそれぞれ算定し、算定した重み付きヒストグラムに基づいて、前記入力画像データ及び前記登録画像データを照合処理する
    ことを特徴とする請求項に記載の画像照合装置。
  6. 人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置における画像照合方法であって、
    前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定ステップと、
    前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、
    前記重み決定ステップにより決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップと
    を含み、
    前記重み決定ステップは、
    前記入力画像データに含まれる前記人物の身体像に体の中央が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記体の中央が存在する場合には、前記体の中央が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に体の中央が存在しない場合には、前記体の中央が含まれる重み対象領域に付与する重みを下げる
    とを特徴とする画像照合方法。
  7. 人物の身体像を含む入力画像データと、あらかじめ登録された人物の身体像を含む登録画像データとを照合処理する画像照合装置における画像照合方法であって、
    前記入力画像データ及び/又は前記登録画像データの人物の身体像の領域を分割し、分割した領域の一部をなし、かつ、前記人物の身体像の特徴部分を含む重み対象領域を特定する重み対象領域特定ステップと、
    前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、
    前記重み決定ステップにより決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップと
    を含み、
    前記重み決定ステップは、
    前記入力画像データに含まれる前記人物の身体像に所持品が存在し、かつ、前記登録画像データに含まれる前記人物の身体像に前記所持品が存在する場合には、前記所持品が含まれる前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に所持品が存在しない場合には、前記所持品が含まれる前記重み対象領域に付与する重みを下げる
    ことを特徴とする画像照合方法。
JP2015187517A 2015-09-24 2015-09-24 画像照合装置及び画像照合方法 Active JP6671133B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015187517A JP6671133B2 (ja) 2015-09-24 2015-09-24 画像照合装置及び画像照合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015187517A JP6671133B2 (ja) 2015-09-24 2015-09-24 画像照合装置及び画像照合方法

Publications (2)

Publication Number Publication Date
JP2017062633A JP2017062633A (ja) 2017-03-30
JP6671133B2 true JP6671133B2 (ja) 2020-03-25

Family

ID=58428844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187517A Active JP6671133B2 (ja) 2015-09-24 2015-09-24 画像照合装置及び画像照合方法

Country Status (1)

Country Link
JP (1) JP6671133B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11495057B2 (en) 2017-12-08 2022-11-08 Nec Corporation Person verification device and method and non-transitory computer readable media
CN111259183B (zh) 2020-02-21 2023-08-01 北京百度网讯科技有限公司 图像识图方法、装置、电子设备和介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4696857B2 (ja) * 2005-11-02 2011-06-08 オムロン株式会社 顔照合装置
JP5713655B2 (ja) * 2010-12-15 2015-05-07 キヤノン株式会社 映像処理装置、映像処理方法及びプログラム
JP6036335B2 (ja) * 2013-01-24 2016-11-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Also Published As

Publication number Publication date
JP2017062633A (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
US11915518B2 (en) Facial authentication device, facial authentication method, and program recording medium
US20130329970A1 (en) Image authentication apparatus, image processing system, control program for image authentication apparatus, computer-readable recording medium, and image authentication method
US20160203367A1 (en) Video processing apparatus, video processing method, and video processing program
US11380010B2 (en) Image processing device, image processing method, and image processing program
KR101035055B1 (ko) 이종 카메라를 이용한 객체 추적 시스템 및 방법
US9295415B2 (en) Foreign object determination device, foreign object determination method and foreign object determination program
JP2008146539A (ja) 顔認証装置
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP2017211938A (ja) 生体情報処理装置、生体情報処理方法および生体情報処理プログラム
US20150356346A1 (en) Feature point position detecting appararus, feature point position detecting method and feature point position detecting program
JP6265592B2 (ja) 顔特徴抽出装置および顔認証システム
JP6671133B2 (ja) 画像照合装置及び画像照合方法
JP2014021602A (ja) 画像処理装置及び画像処理方法
JP6497007B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2017084065A (ja) なりすまし検出装置
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム
JP6789676B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
KR101706674B1 (ko) 원거리 가시광선 영상과 열 영상에 기반한 성별 인식 방법 및 장치
US20240126806A1 (en) Image processing apparatus, and image processing method
JP3811474B2 (ja) 顔部品位置検出方法及び顔部品位置検出装置
JP2014075098A (ja) 顔特徴抽出装置および顔認証システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200303

R150 Certificate of patent or registration of utility model

Ref document number: 6671133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150