JP5910631B2 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP5910631B2
JP5910631B2 JP2013516474A JP2013516474A JP5910631B2 JP 5910631 B2 JP5910631 B2 JP 5910631B2 JP 2013516474 A JP2013516474 A JP 2013516474A JP 2013516474 A JP2013516474 A JP 2013516474A JP 5910631 B2 JP5910631 B2 JP 5910631B2
Authority
JP
Japan
Prior art keywords
face
feature
feature amount
face image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013516474A
Other languages
English (en)
Other versions
JPWO2012161346A1 (ja
Inventor
昭裕 早坂
昭裕 早坂
仁 今岡
仁 今岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2012161346A1 publication Critical patent/JPWO2012161346A1/ja
Application granted granted Critical
Publication of JP5910631B2 publication Critical patent/JP5910631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Description

本発明は、顔画像の照合技術に関する。
非特許文献1は、正面を向いていない人物の顔を表す画像(顔画像)を基に、その人物を正面から見た状態を表す顔画像を合成し、合成した顔画像に一般的な正面顔照合アルゴリズムを適用する手法を開示している。
しかし、非特許文献1に記載された技術においては、基となる顔画像が正面に対してなす角度が大きい場合に、正面を向いた顔画像を正しく合成できない場合がある。この問題を解決するため、非特許文献2では、人物の顔に関する細かい角度ごとの統計モデルを利用することにより、顔画像の照合結果を学習により統合している。
Ting Shan,Lovell,B.C.,Shaokang Chen,″Face Recognition Robust to Head Pose from One Sample Image,″ICPR 2006. Fu Jie Huang,Zhihua Zhou,Hong−Jiang Zhang,Tsuhan Chen,″Pose invariant face recognition,″Automatic Face and Gesture Recognition 2000.
[発明が解決しようとする課題]
しかしながら、上述したような関連技術では、角度ごとの統計モデルを学習する手間が大きいことが問題である。即ち、係る学習には、同一人物のさまざまな姿勢の顔画像が大量に必要となるため、データ収集が非常に困難であり、照合精度も低くなる。
本発明の目的は、上述の課題を解決する技術を提供することにある。
上記目的を達成するため、本発明に係る装置は、
1つの元顔画像に基づいて、その元顔画像に表されている顔に対応するところの、互いに向きの異なる顔を表す複数の顔画像を生成する生成手段と、
前記生成手段により生成された複数の顔画像に基づいて、それら顔画像に関する特徴量を抽出する第1特徴量抽出手段と、
前記特徴量抽出手段によって抽出された特徴量を合成することによって合成特徴量を生成する特徴量合成手段と、
前記合成特徴量に基づいて顔照合を行なう照合手段と、
を備える。
上記目的を達成するため、本発明に係る方法は、
1つの元顔画像に基づいて、その元顔画像に表されている顔に対応するところの、互いに向きの異なる顔を表す複数の顔画像を生成し、
前記生成した複数の顔画像に基づいて、それら顔画像に関する特徴量を抽出し、
前記抽出した特徴量を合成することによって合成特徴量を生成し、
前記生成した合成特徴量に基づいて顔照合を行なう。
上記目的は、上記構成に対応する装置または方法を、コンピュータに実現させるコンピュータ・プログラムによっても実現することができる。更に、上記目的は、係るコンピュータ・プログラムを格納したコンピュータ読み取り可能な記憶媒体によっても実現可能である。
本発明によれば、より精度の高い顔照合を実現することができる。
本発明の第1実施形態の情報処理装置の構成を示すブロック図である。 本発明の第2実施形態の情報処理装置の効果を示す図である。 本発明の第2実施形態の情報処理装置の構成を示すブロック図である。 本発明の第2実施形態の情報処理装置の動作を示すフローチャートである。 本発明の第2実施形態の情報処理装置の動作を説明する図である。 本発明の第3実施形態の情報処理装置の構成を示すブロック図である。 本発明の第3実施形態の生成部における顔画像生成による生成精度の低い顔領域を例示する図である。 本発明の第3実施形態の生成部における顔画像生成による生成精度の低い顔領域を例示する図である。 本発明の第4実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第5実施形態に係る情報処理装置の動作を示すブロック図である。 本発明の第1乃至第5の実施形態を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
[第1実施形態]
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、顔画像の照合を行なうことができる装置である。
図1に示すように、情報処理装置100は、生成部101と、特徴量抽出部102と、103と、特徴量合成部104と、照合部105とを含む。これら各部は、コンピュータとしての情報処理装置100によって実現する場合、当該各部を実現するソフトウェア・プログラム(コンピュータ・プログラム)の機能(処理)単位として捉えることができる。但し、図1に示した構成は、説明の便宜上の構成であり、実装に際しては係る構成(区分け)には限定されない(後述する各実施形態においても同様)。また、情報処理装置100を単体の装置として実現する場合のハードウェア資源に関しては、図10を参照して後述する。
生成部101は、1つの元顔画像110に基づいて、その元顔画像110に表されている顔に対応するところの、互いに向きの異なる顔を表す複数の顔画像を生成する。本実施形態では、説明の便宜上から、係る複数の顔画像として、第1および第2の顔画像(120、130)なる2つの顔画像を処理対象とする場合について説明する。この場合、生成部101は、1つの元顔画像110に基づいて、その元顔画像110に表されている人物の顔に対応するところの、互いに向きの異なる顔を表す第1顔画像120および第2顔画像130を生成する。元顔画像110は、当該人物の顔部分の画像だけでなく、顔を含む例えば上半身の画像であってもよい。この場合、例えば、生成部101は、入力された元顔画像110を基に、一般的な手法により、当該顔部分の画像だけを抽出してもよい。
特徴量抽出部102は、生成部101により生成された第1顔画像120を基に第1特徴量140を抽出する。一方、特徴量抽出部103は、生成部101により生成された第2顔画像130を基に第2特徴量150を抽出する。
特徴量合成部104は、第1特徴量140および第2特徴量150を合成することによって合成特徴量160を生成する。
照合部105は、合成特徴量160に基づいて顔照合を行なう。
以上の構成を有する情報処理装置100によれば、より精度の高い顔照合を実現することができる。
尚、上述した本実施形態に係る情報処理装置100は、顔画像を照合する画像処理装置として捉えることができる。或いはまた、係る画像処理装置は、専用のハードウェアによって実現してもよい。
また、情報処理装置100が扱う顔画像は、人物だけでなく、色々な動物や人形等の様々な照合対象に関しても適用可能である。
[第2実施形態]
図2は、本発明の第2実施形態としての情報処理装置の動作について説明する図である。本情報処理装置300は、1つの顔画像210を入力し、その顔画像210から、互いに顔の正面の向き(角度)が異なる2つの顔画像220、230を生成する。即ち、情報処理装置300は、元顔画像210に基づいて、照合対象である顔画像210に表された顔を、異なる2つの視点から捉えた画像に相当する顔画像220、230を生成する。
ここで、1つの顔画像から、その顔画像に表された顔の向きが異なる複数の画像を生成する手法については、現在では一般的な手法を採用することができるので、本実施形態における詳細な説明は省略する。
次に、第1顔画像220、第2顔画像230のそれぞれから、第1特徴量240、第2特徴量250を抽出し、これらの特徴量を合成することによって合成特徴量260を生成する。係る特徴量は、ベクトルを用いて表わすことができる。このため、以下の説明では、これらの特徴量を、特徴ベクトルとも称する場合がある。
ここで、特徴量の抽出手法としては、例えば、Gabor Filterを用いた特徴抽出手法や、Local Binary Patternを利用した特徴抽出手法など、既存の手法を利用してもよい。また、特徴量抽出部302で利用される特徴抽出手法は、同一の手法を用いてもよいし、元顔画像210に基づいて生成する2つの顔画像220、230が表す顔の向きに応じて、それぞれ適した特徴抽出手法を利用するようにしてもよい。
また、複数の顔画像の合成手法としては、例えば、顔特徴点の対応関係を利用した幾何学的画像変換や、顔の3次元形状情報を利用した3次元的幾何変換などの既存手法を利用してもよい。尚、顔画像の角度変更手法は、同一の手法を用いてもよいし、角度によってそれぞれ異なる手法を利用するようにしてもよい。
次に、情報処理装置300は、合成特徴量260を、射影変換行列(いわゆる変換辞書)を用いて射影変換することにより、より桁数の少ない(情報量の少ない)特徴量270を生成する。
本実施形態において、照合用データベース280には、照合対象の人物の顔画像に関する特徴量が予め登録されていることとする。この場合、情報処理装置300は、生成した特徴量270を用いて、照合用データベース280を参照することにより、例えば、顔画像210に対応する本人か否かを照合(判断)する。
本実施形態では、このように2つの顔画像を生成して特徴量を抽出するため、より精度の高い照合結果を得ることができる。さらに、本実施形態によれば、変換行列を用いて個人識別に適した合成特徴量260へ変換しているため、照合精度を高めるとともに、照合用データベース280のデータ量を抑えることができるという効果もある。
更に、本実施形態に係る情報処理装置300について詳細に説明する。図3は、第2の実施形態に係る情報処理装置300の機能構成について説明する図である。情報処理装置300は、画像入力部311と、顔検出部312と、生成部301と、特徴量抽出部302と、特徴量合成部304と、特徴量射影部314と、照合部305と、照合用データベース280とを有する。
画像入力部311は、外部より情報処理装置300に画像を入力することができる。具体的に、本実施形態において、画像入力部311は、実空間中の映像および静止画像を取得するデジタルカメラ330やビデオカメラ340などから、処理対象となる画像(画像データ、画像情報)を入手することができる。また、画像入力部311は、外部記録装置(不図示)に接続された場合、その外部記録装置に蓄積された映像および静止画像を入力することができる。顔検出部312は、画像入力部311によって入手された画像データから顔領域(元顔画像210)を検出する。顔領域の検出には、現在では一般的な手法を採用することができるので、本実施形態における詳細な説明は省略する(以下の実施形態においても同様)。
生成部301は、顔検出部312によって検出された元顔画像210を用いて、個々の顔画像に含まれる顔の向きが互いに異なる第1顔画像220及び第2顔画像230を生成する。以下の説明では、生成部301による元顔画像210に基づく複数の顔画像の生成処理を、「正規化」と称する場合がある。
そして、係る正規化を生成部301が実行するに際して、第1顔画像220に含まれる顔の向きと、第2顔画像230に含まれる顔の向きとがなす2つの角度は、予め設定した関係(パターン)を有する。より具体的に、生成部301が生成する第1顔画像220と第2顔画像230とからなるパターンとしては、例えば、以下の通りである。
・右15度方向を向いた顔を表す第1顔画像と、正面方向を向いた顔を表す第2顔画像、
・右15度方向を向いた顔を表す第1顔画像と、右5度方向を向いた顔を表す第2顔画像、
・左30度方向を向いた顔を表す第1顔画像と、左10度方向を向いた顔を表す第2顔画像。
上記パターンにおいて、当該2つの顔画像に表されている顔の向きがなす角度は、後段にある照合部305による顔の照合が可能な範囲を担保するという観点においては、大きな角度であるとよい。但しこの場合、図7A及び図7Bを参照して後述するように、注目する顔画像210を基に生成部301が所望のパターンに正規化を行うに際して、そのパターンをなす2つの顔画像の一部に、当該顔画像210に元々含まれていない部分が無いことが前提条件となる。
特徴量抽出部302は、第1顔画像220を基に第1特徴量240を抽出し、第2顔画像230を基に第2特徴量250を抽出する。
特徴量合成部304は、これらの第1、第2特徴量240、250を合成して合成特徴量260を生成する。特徴量合成部304は各特徴量としての特徴ベクトルを連結する方法で、合成特徴量(連結特徴ベクトル)を生成する(図5)。なお、識別辞書データの学習時には、特徴量合成部304にて生成した連結特徴ベクトルを利用する。連結特徴ベクトルに対して判別分析など既存手法を用いればよい。
特徴量射影部314は、合成特徴量260を基に射影特徴量を生成する。具体的には、例えば、特徴量射影部314は、特徴量合成部304にて生成された連結特徴ベクトルを識別辞書へ射影することによって、係る連結特徴ベクトルを、個人識別に最適な射影特徴ベクトルへと変換する。ここで、係る識別辞書は、学習データから生成される連結特徴ベクトルを利用し、既存手法などを用いて事前に学習し生成しておく。
照合部305は、生成された射影特徴量を用いて照合用データベース280を参照することにより、元顔画像210に含まれていた人物の顔の照合処理を行なう。
照合用データベース280は、複数人の射影特徴ベクトルを記憶しており、照合部305との通信手段を備える。また照合用データベース280は、同データベースに登録された人物ごとの連結特徴ベクトルと識別辞書データとを記録しておき、照合部305への通信前に、射影特徴ベクトルを生成するように構成してもよい。また、照合用データベース280は一人物につき複数の射影特徴ベクトルを記憶していてもよい。また、照合用データベース280には、複数人の連結特徴ベクトルと識別辞書データを記憶しておき、照合部305へ通信する際に射影特徴ベクトルを生成して通信するように構成してもよい。
本実施形態においては、説明の便宜上から、情報処理装置300の内部に照合用データベース280を備える構成を例に説明した。但し、情報処理装置300は、係る構成には限定されない。照合用データベース280は、照合部305と通信可能に接続されていれば、情報処理装置300の外部に設置される構成であってもよい。
照合部305は、特徴量射影部314で得られた射影特徴ベクトルと、照合用データベース280に記録されている射影特徴ベクトルとを照合し、照合結果に応じた照合スコアを算出する。この照合スコアは、特徴ベクトル間の正規化相関を利用する方法や、特徴ベクトル間の距離を利用する方法など、従来手法を用いればよい。
照合部305は、算出した照合スコアに基づいて、入力された顔画像の人物を識別する。そして、照合部305は、係る照合スコアとして正規化相関を利用した場合において、その照合スコアが特定の閾値以上であるときに、当該顔画像に表されている人物が照合対象である本人と判断する。或いは、照合部305は、係る照合スコアとして距離を利用した場合において、その照合スコアがある特定の閾値以下であったときに、当該本人と判断する。
(動作の説明)
図4は、本発明の第2の実施形態に係る情報処理装置300の処理の流れを説明するフローチャートである。
まず、画像入力部311は、デジタルカメラ330やビデオカメラ340により実空間中の静止画像または動画像を取得する(ステップS401)。または、画像入力部311は、記録媒体から静止画像または動画像を取得してもよい。
画像入力部311が画像を入力すると、顔検出部312は、入力画像から顔領域を検出する(ステップS403)。
生成部301は、検出した顔画像(顔領域の画像)から、あらかじめ定められた2姿勢(パターン)の顔画像(第1顔画像220と第2顔画像230)を生成する(ステップS407)。
特徴量抽出部302は、生成部301によって合成された特定の姿勢の顔画像を基に、個人識別に有効な特徴量を抽出する(ステップS409)。そして、特徴量合成部304は、それらの特徴量を連結する(ステップS413)。
図5は、その特徴量の連結の様子を概念的に示す図である。特徴量合成部304は、第1特徴量240(特徴ベクトルf1)と第2特徴量250(特徴ベクトルf2)とを、図5に示すように1つの特徴量(合成特徴量260:合成特徴ベクトルf12)に合成する。
尚、照合用データベース280に格納する識別辞書データの学習に際しては、例えば、特徴量合成部304にて生成した連結特徴ベクトルに対して、判別分析など既存手法を用いればよい。
特徴量射影部314は、特徴量合成部304にて生成された合成特徴量を、係る識別辞書へ射影する(ステップS415)。
照合部305は、照合用データベース280を用いた照合を行ない(ステップS417)、例えば、照合スコアが閾値以上であれば、元顔画像210に表された人物は、照合対象である本人と判定する(ステップS419にてYES、ステップS421)。一方、照合部305は、係る照合の結果、照合スコアが閾値以下であれば、元顔画像210に表された人物は、係る本人とは異なる他人であると判定する(ステップS419にてNO、ステップS423)。
以上、本実施形態によれば、入力画像から2種類の顔画像を生成して、それらの顔画像から個別に特徴量を抽出し、抽出した特徴量を用いて照合を行なう。このため、本実施形態によれば、より精度の高い照合結果を得ることができる。
[第3実施形態]
図6を用いて、本発明の第3実施形態に係る情報処理装置600について説明する。本実施形態に係る情報処理装置600は、図3に示した第2実施形態に係る情報処理装置300の構成に加えて、更に、顔特徴点検出部601、顔角度推定部602、および特徴量補正部603を備えている。他の構成および動作については、上記第2実施形態と同様であるため、同一の参照番号を付して表すことにより、本実施形態における詳しい説明を省略する。
顔特徴点検出部601は、顔検出部312によって検出された顔領域の中から、顔の特徴点を検出する。具体的には、例えばエッジ情報を用いた手法、AdaBoostアルゴリズムを用いた手法などを用いて顔特徴点を検出してもよい。生成部301は、顔特徴点検出部601によって検出された顔特徴点情報を利用して、当該顔画像を、ある特定の姿勢を表す顔画像(即ち、特定の方向を向く顔が表されている顔画像)へ正規化する。
顔角度推定部602は、顔特徴点検出部601によって検出された顔特徴点の情報から、元顔画像210に表される顔の向き(角度)を推定する。顔角度の推定手法としては、例えばAdaBoostベースの非正面顔検出手法において検出に通過した識別器から顔の角度を推定する手法や、検出した顔特徴点の幾何学的な位置関係から顔の向きを推定する手法のような手法を用いてもよい。また、顔角度の推定手法としては、生成部301における顔画像の正規化に顔角度推定部602で推定した姿勢情報を利用してもよい。
特徴量補正部603は、顔角度推定部602によって推定された姿勢情報と、生成部301によって正規化された姿勢情報とを基に、特徴量抽出部302によって抽出された特徴量を補正する。
入力される元顔画像210が表す顔の向き(角度)と、上述した如く所望のパターンに正規化後の顔画像(220,230)が表す顔の姿勢(角度)とが大きく異なる場合、元顔画像210の画像中に元々写っていない顔領域は、生成部301が正規化を行ったとしても、第1顔画像220及び第2顔画像230の少なくとも何れかの顔画像を正しく合成できない。即ち、顔の一部のテクスチャが崩れた顔画像が合成されることになる。このことについて図7A及び図7Bを参照して説明を補足する。
図7A及び図7Bは、本発明の第3実施形態の生成部における顔画像生成による生成精度の低い顔領域を例示する図である。例えば、図7Aに示すように、右向き30度方向を向いた顔を表す顔画像701(元顔画像210)を、正面方向を向いた顔を表す顔画像702(第1顔画像220、第2顔画像230)へ正規化する場合を考える。この場合、生成部301は、正規化に際して、元顔画像210に本来写っていない顔領域703については顔画像を正しく合成することができない。また例えば、図7Bに示すように、正面方向を向いた顔を表す顔画像704(元顔画像210)を、右向き30度方向を向いた顔を表す顔画像705(第1顔画像220、第2顔画像230)に正規化する場合を考える。この場合、生成部301が正規化を行うと、ベースとなる画像中に元々写っていない顔の右側面のテクスチャ706に背景などが混じる場合がある。また、顔の3次元形状を利用した正規化などでは、顔部分と背景部分とが異なる形態に変形するため、背景や顔輪郭部分のテクスチャが大きく崩れてしまう。そしてこのような領域から抽出された特徴量は、正しい個人識別の妨げになる。
そこで、本実施形態では、正しく生成されなかった顔領域の影響を低減するような補正を行なう。言い換えると、生成部301での生成精度が低い顔領域についての特徴量を小さくする補正を行う。具体的には、特徴量補正部603は、顔角度推定部602で推定した姿勢と、生成部301によって正規化する姿勢(第1顔画像220及び第2顔画像230)の角度の差を算出する。そして、特徴量補正部603は、求めた角度差の符号と大きさとに応じて、特徴量に乗じる重みを決定する。即ち、特徴量補正部603は、係る角度差の符号を基に入力画像が正規化後の姿勢(角度)を基準として左右どちらの方向なのかを判定する。次に、特徴量補正部603は、補正を加えるべき顔領域の位置を決定し、係る角度差の大きさを基に当該入力画像が正規化後の姿勢に対して向きがどの程度違うのかを判定する。これにより、特徴量補正部603は、補正を加えるべき顔領域の範囲を決定する。
補正するための重みは、補正領域内の特徴量をすべてゼロにするようにしてもよいし、姿勢を考慮して顔領域内部から外部に向かうにしたがって確率的に重みが変更するように構成してもよい。ただし、補正領域内の特徴量をすべてゼロにするような場合には、ゼロ特徴同士で特徴量間の相関が高くなるため、照合部305での照合スコア算出時に配慮が必要である。このようにして決定した重みをwとすると、係る重みwは、特徴量(特徴ベクトル)fと同じ次元となる。そして、重みwを対角成分とした重み行列をWとすると、補正後の特徴ベクトルf’は、次式(1)で表される。
f’=W・f ・・・・・・・・・・・(1),
即ち式(1)は、補正後の特徴ベクトルf’が、重み行列Wと、特徴ベクトルfとの積によって求められることを表す。または、係る補正後の特徴ベクトルf’は、係る式に限定されず、例えば、重みwと、特徴ベクトルfとの間における各要素同士の積をとって求めてもよい。
即ち、本実施形態において、特徴量補正部603は、以上のような補正処理を実行する。尚、特徴量抽出部302で抽出される特徴量が異なる場合には、重みを乗じる前にそれぞれの特徴量を正規化する処理を行なうように構成するとよい。
そして、本実施形態において特徴量合成部304は、特徴量補正部603によって補正された各特徴ベクトルを連結することにより、1つの連結特徴ベクトルを生成する。
以上説明したように、本実施形態に係る構成および処理によれば、情報処理装置600は、入力された顔画像を、正面を含む2以上のある特定の姿勢の顔(斜め向きの顔)へ正規化し、それら正規化した顔画像から抽出したそれぞれの特徴ベクトルに対し、入力した顔画像の姿勢情報(角度情報)を利用した補正を行なう。そして、情報処理装置600は、それぞれの特徴ベクトルを連結することによって得られる連結特徴ベクトルを利用した識別辞書学習を行なう。より具体的に、情報処理装置600は、まず入力した顔画像から、その顔画像に表されている顔の姿勢(向き、角度)を推定する。正規化する顔画像の姿勢と推定した姿勢の差が大きい場合には、上述したように、合成した画像が崩れる合成失敗領域が現れる。このため、本実施形態に係る情報処理装置600は、係る領域の関する特徴量の影響が小さくなるような補正を実行する。そして、情報処理装置600は、補正した各特徴ベクトルを連結することによって得られる連結特徴ベクトルを用いて学習を行なう。これにより、本実施形態では、ノイズなどの悪影響を低減した学習を実現することができる。また、本実施形態によれば、学習した識別辞書を利用することで、多くの姿勢の顔画像に対して高精度な照合が可能となる。
[第4実施形態]
本発明の第4実施形態について図8を用いて説明する。図8は、本発明の第4実施形態に係る情報処理装置の構成を示すブロック図である。本実施形態に係る情報処理装置800は、図6に示した情報処理装置600の構成に加えて、反転部801を更に有する点が上述した第3実施形態と異なる。その他の構成および動作は、上記第3実施形態と同様であるため、同一の参照番号を付して表すことにより、本実施形態における詳細な説明を省略する。
反転部801は、顔角度推定により得られた元顔画像に表されている顔の向きと、生成部301で正規化すべき顔の角度とを比較する。そして、反転部801は、係る比較の結果、入力画像の姿勢(元顔画像に表されている顔の向き)と、正規化すべき姿勢が正面方向に対して左右逆である場合には、係る入力画像を左右反転してから、顔画像の正規化以降の処理を行なう。
例えば、生成部301で、正規化処理として、正面方向の顔画像と、右30度方向の顔画像とを生成するパターンが設定されている状態を考える。このとき、本実施形態では、入力された元顔画像210に表されている顔の向きが左20度方向の場合には、右に20度と50度大きく角度変更する処理を行なう代わりに、反転部801によって左右反転処理を行なう。つまり左20度方向の顔が表されている顔画像を右20度方向に反転した後、右に10度だけ角度変更する処理を行うことによって右30度方向の顔が表されている顔画像を生成する。これにより、本実施形態によれば、生成部301での顔画像の生成を、より精度良く行なうことができ、結果として有効な特徴量を多く抽出することも可能になる。
[第5実施形態]
本発明の第5実施形態について図9を用いて説明する。図9は、本発明の第5実施形態に係る情報処理装置の動作を示すブロック図である。本実施形態に係る情報処理装置900は、上述した各実施形態とは異なり、特定の3つの姿勢(角度)をなす顔画像によって構成されたパターンへ入力顔画像を正規化する。このため、情報処理装置900は、図8に示した情報処理装置800の構成における生成部301、特徴抽出部302、特徴量補正部603、及び特徴量合成部304の代わりに、生成部901、特徴抽出部902、特徴量補正部903、及び特徴量合成部904を有する点が上記第4実施形態と異なる。その他の構成および動作は、上記第4実施形態と同様であるため、同一の参照番号を付して表すことにより、本実施形態における詳細な説明を省略する。
本実施形態において、生成部901は、元顔画像210に基づく正規化に際して、特定の3つの姿勢(角度)をなす顔が表されている3つの顔画像を生成する。これに応じて、特徴量抽出部902は、係る3つの顔画像に基づいて、上述した各実施形態と同様な手順により、3つの特徴量(240、250、255)を抽出する。特徴量補正部903は、これら3つの特徴量(特徴ベクトル)に基づいて、上述した第4の実施形態と同様な手順により、これら特徴量を適宜補正する。そして、特徴量合成部904は、補正後の3つの特徴量に基づいて、上述した第各の実施形態と同様な手順により、係る補正後の3つの特徴量(特徴ベクトル)を連結した連結特徴ベクトルを生成する。
本実施形態によれば、入力された顔画像を3つの特定の角度へ正規化することで、少ない情報から多くの姿勢の顔画像を照合することが可能となる。また、本実施形態によれば、顔画像から抽出した複数の特徴ベクトルに対して入力顔画像との角度の違いを考慮した補正を行うことで、姿勢の違いが大きいことによる顔画像の正規化を失敗する領域への影響を低減することができる。
また、本実施形態では、補正後の特徴ベクトルを連結した連結特徴ベクトルを利用し、各特徴ベクトルをより高次元な同一特徴空間で学習する。これにより、本実施形態によれば、複数の姿勢に対応する特徴ベクトルから、重要な次元を細かく選択することができるため、照合スコアレベルでは実現できないより最適な統合が実現する。一方、本実施形態によれば、複数の姿勢に対応する顔画像の照合を少数の識別辞書で実現できるため、データ容量の削減や照合処理時間を短縮することができる。
尚、本実施形態では、説明の便宜上から、3つの姿勢からなるパターンについて正規化を行う構成について説明した。しかしながら、本発明は、係る構成には限定されず、更に多くの複数の顔画像を利用する構成としてもよい。
[他の実施形態]
以上、本発明の実施形態について詳述したが、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラム(ソフトウェア・プログラム、コンピュータ・プログラム)が、複数のコンピュータからなるシステム、あるいは単体のコンピュータに対して、直接あるいは遠隔で供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。このような場合の具体例について、図10を参照して説明する。
<ハードウェアの構成例>
ここで、上述した各実施形態に係る装置を、単体のハードウェア資源において実現する場合の例について説明する。図10は、本発明の第1乃至第5の実施形態を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。
図10に示した情報処理装置(100、300、600、800、900)のハードウェアは、CPU11、通信インタフェース(I/F)12、入出力ユーザインタフェース13、ROM(Read Only Memory)14、RAM(Random Access Memory)15、記憶装置17、及び記憶媒体19のドライブ装置18を備え、これらがバス16を介して接続された構成を有する。入出力ユーザインタフェース13は、入力デバイスの一例であるキーボードや、出力デバイスとしてのディスプレイ等のマンマシンインタフェースである。通信インタフェース13は、上述した各実施形態に係る装置(図1,図3,図6,図8,図9)が、外部装置との間において、通信ネットワーク20を介して通信するための一般的な通信手段である。係るハードウェア構成において、CPU11は、各実施形態に係る情報処理装置の全体の動作を司る。
そして、上述した第1乃至第5の実施形態を例に説明した本発明は、その説明において参照したフローチャート(図4)の機能、或いは、図1,図3,図6,図8,図9に示したブロック図において当該装置内に示した各部(各ブロック)を実現可能なプログラムを、図10に示す情報処理装置に対して供給した後、そのプログラムを、CPU11に読み出して実行することによって達成される。また、係る情報処理装置内に供給されたプログラムは、読み書き可能な一時記憶メモリ(15)またはハードディスクドライブ等の不揮発性の記憶装置(17)に格納すれば良い。
即ち、記憶装置17において、プログラム群107は、例えば、上述した各実施形態におけるブロック図に示した各部の機能を実現可能なプログラムである(但し、少なくとも画像入力部311及び照合部305は、ハードウェアを伴う通信インタフェース12、入出力ユーザインタフェース13を併用することになる)。また、各種の記憶情報108は、例えば、上述した各実施形態において照合データベース280が格納していた学習結果、識別辞書、正規化に際しての特定のパターン(姿勢)を表す情報等である。
また、前記の場合において、当該装置内へのプログラムの供給方法は、CD−ROM、フラッシュメモリ等のコンピュータ読み取り可能な各種の記録媒体19を介して当該装置内にインストールする方法や、インターネット等の通信回線20を介して外部よりダウンロードする方法等のように、現在では一般的な手順を採用することができる。そして、このような場合において、本発明は、係るコンピュータ・プログラムを構成するコード(プログラム群107)或いは係るコードが格納された記憶媒体19によって構成されると認識することができる。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2011年5月24日に出願された日本出願特願2011−115852を基礎とする優先権を主張し、その開示の全てをここに取り込む。
11 CPU
12 通信インタフェース(I/F)
13 入出力インタフェース(I/F)
14 ROM
15 RAM
16 バス
17 記憶装置(記憶デバイス)
18 ドライブ装置
19 記憶媒体
20 通信ネットワーク
100,300,600,800,900 情報処理装置(コンピュータ)
101、301、901 生成部
102、103、302、902 特徴量抽出部
104、304、904 特徴量合成部
105、305 照合部
107 プログラム群
108 各種の記憶情報
110 元顔画像
120、220 第1顔画像
130、230 第2顔画像
140、240 第1特徴量
150、250 第2特徴量
160、260 合成特徴量
210 入力顔画像
255 第3特徴量
270 特徴量
280 照合用データベース
311 画像入力部
312 顔検出部
314 特徴量射影部
330 デジタルカメラ
340 ビデオカメラ
601 顔特徴点検出部
602 顔角度推定部
603、903 特徴量補正部
701、702、704、705 顔画像
703 顔領域
706 テクスチャ
801 反転部
903 特徴量補正部

Claims (10)

  1. 1つの元顔画像に基づいて、その元顔画像に表されている顔に対応するところの、互いに向きの異なる顔を表す複数の顔画像を生成する生成手段と、
    前記生成手段により生成された複数の顔画像に基づいて、それら顔画像に関する特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段によって抽出された特徴量を合成することによって合成特徴量を生成する特徴量合成手段と、
    前記合成特徴量に基づいて顔照合を行なう照合手段と、
    を備えた情報処理装置。
  2. 前記合成特徴量に対して射影変換を施すことにより、その合成特徴量の情報量を減らす特徴量射影手段をさらに備えた
    請求項1に記載の情報処理装置。
  3. 前記複数の顔画像における生成精度の低い顔領域についての特徴量を小さく補正する特徴量補正手段をさらに備えた
    請求項1または2に記載の情報処理装置。
  4. 前記特徴量補正手段は、
    前記元顔画像に表されている顔の向きと、前記生成手段によって生成された複数の顔画像に表されている顔の向きとの角度差に基づいて、それら複数の顔画像に関する特徴量を補正する
    請求項3に記載の情報処理装置。
  5. 入力画像から前記元顔画像を検出する検出手段をさらに備えた
    請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記元顔画像から顔特徴点を検出する特徴点検出手段をさらに備え、
    前記生成手段は、
    前記顔特徴点を用いて、前記複数の顔画像を生成する
    請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記元顔画像に表されている顔の向きと、前記生成手段が生成すべき複数の顔画像に表されている顔の向きがなす角度に応じて、前記元顔画像を反転する反転手段をさらに備えた
    請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記生成手段は、
    前記元顔画像に基づいて、前記複数の顔画像として、第1顔画像及び第2顔画像を生成し、
    特徴量抽出手段は、
    前記特徴量として、前記第1顔画像に関する第1特徴量と、前記第2顔画像に関する第2特徴量とを抽出し、
    前記特徴量合成手段は、
    前記第1特徴量と、前記第2特徴量とを合成することにより、前記合成特徴量を生成する
    請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 1つの元顔画像に基づいて、その元顔画像に表されている顔に対応するところの、互いに向きの異なる顔を表す複数の顔画像を生成し、
    前記生成した複数の顔画像に基づいて、それら顔画像に関する特徴量を抽出し、
    前記抽出した特徴量を合成することによって合成特徴量を生成し、
    前記生成した合成特徴量に基づいて顔照合を行なう
    情報処理方法。
  10. 1つの元顔画像に基づいて、その元顔画像に表されている顔に対応するところの、互いに向きの異なる顔を表す複数の顔画像を生成する生成機能と、
    前記生成機能により生成された複数の顔画像に基づいて、それら顔画像に関する特徴量を抽出する特徴量抽出機能と、
    前記特徴量抽出機能によって抽出された特徴量を合成することによって合成特徴量を生成する特徴量合成機能と、
    前記合成特徴量に基づいて顔照合を行なう照合機能と、
    をコンピュータに実行させるコンピュータ・プログラム。
JP2013516474A 2011-05-24 2012-05-24 情報処理装置、情報処理方法および情報処理プログラム Active JP5910631B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011115852 2011-05-24
JP2011115852 2011-05-24
PCT/JP2012/064011 WO2012161346A1 (ja) 2011-05-24 2012-05-24 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2012161346A1 JPWO2012161346A1 (ja) 2014-07-31
JP5910631B2 true JP5910631B2 (ja) 2016-04-27

Family

ID=47217406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013516474A Active JP5910631B2 (ja) 2011-05-24 2012-05-24 情報処理装置、情報処理方法および情報処理プログラム

Country Status (4)

Country Link
US (1) US20140093142A1 (ja)
EP (1) EP2717223A4 (ja)
JP (1) JP5910631B2 (ja)
WO (1) WO2012161346A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101165357B1 (ko) * 2011-02-14 2012-07-18 (주)엔써즈 이미지 특징 데이터 생성 장치 및 방법
US9405965B2 (en) * 2014-11-07 2016-08-02 Noblis, Inc. Vector-based face recognition algorithm and image search system
US10482336B2 (en) 2016-10-07 2019-11-19 Noblis, Inc. Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search
JP6897082B2 (ja) * 2016-12-13 2021-06-30 富士通株式会社 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法
TWI684918B (zh) * 2018-06-08 2020-02-11 和碩聯合科技股份有限公司 臉部辨識系統以及加強臉部辨識方法
AU2018429247B2 (en) * 2018-06-29 2022-07-07 Fujitsu Limited Specifying method, determination method, specifying program, determination program, and information processing apparatus
WO2021027440A1 (zh) 2019-08-15 2021-02-18 华为技术有限公司 一种人脸检索方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331207A (ja) * 1999-05-21 2000-11-30 Omron Corp ゲート装置
JP2006146323A (ja) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd 顔特徴照合装置、顔特徴照合方法、及びプログラム
JP2009043065A (ja) * 2007-08-09 2009-02-26 Panasonic Corp 顔認証装置
US20120230545A1 (en) * 2009-11-30 2012-09-13 Tong Zhang Face Recognition Apparatus and Methods

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US5913205A (en) * 1996-03-29 1999-06-15 Virage, Inc. Query optimization for visual information retrieval system
US6188776B1 (en) * 1996-05-21 2001-02-13 Interval Research Corporation Principle component analysis of images for the automatic location of control points
US6944319B1 (en) * 1999-09-13 2005-09-13 Microsoft Corporation Pose-invariant face recognition system and process
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
US7127087B2 (en) * 2000-03-27 2006-10-24 Microsoft Corporation Pose-invariant face recognition system and process
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US20050276452A1 (en) * 2002-11-12 2005-12-15 Boland James M 2-D to 3-D facial recognition system
US20040151349A1 (en) * 2003-01-16 2004-08-05 Milne Donald A. Method and or system to perform automated facial recognition and comparison using multiple 2D facial images parsed from a captured 3D facial image
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7587068B1 (en) * 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US7643684B2 (en) * 2003-07-15 2010-01-05 Samsung Electronics Co., Ltd. Apparatus for and method of constructing multi-view face database, and apparatus for and method of generating multi-view face descriptor
US7564994B1 (en) * 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
EP1748387B1 (en) * 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium
US7415152B2 (en) * 2005-04-29 2008-08-19 Microsoft Corporation Method and system for constructing a 3D representation of a face from a 2D representation
JP2007213182A (ja) * 2006-02-08 2007-08-23 Fujifilm Corp 対象物状態認識方法および装置並びにプログラム
WO2008144825A1 (en) * 2007-06-01 2008-12-04 National Ict Australia Limited Face recognition
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
TWI382354B (zh) * 2008-12-02 2013-01-11 Nat Univ Tsing Hua 臉部辨識方法
JP4752918B2 (ja) * 2009-01-16 2011-08-17 カシオ計算機株式会社 画像処理装置、画像照合方法、および、プログラム
EP2407933A1 (en) * 2009-03-13 2012-01-18 Nec Corporation Feature point generation system, feature point generation method, and feature point generation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331207A (ja) * 1999-05-21 2000-11-30 Omron Corp ゲート装置
JP2006146323A (ja) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd 顔特徴照合装置、顔特徴照合方法、及びプログラム
JP2009043065A (ja) * 2007-08-09 2009-02-26 Panasonic Corp 顔認証装置
US20120230545A1 (en) * 2009-11-30 2012-09-13 Tong Zhang Face Recognition Apparatus and Methods

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016007073; Rama,A. et al.: 'FACE RECOGNITION USING A FAST MODEL SYNTHESIS FROM A PROFILE AND A FRONTAL VIEW' IEEE International Conference on Image Processing , 2007, Pages IV-501 - IV-504, IEEE *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JPWO2012161346A1 (ja) 2014-07-31
WO2012161346A1 (ja) 2012-11-29
US20140093142A1 (en) 2014-04-03
EP2717223A1 (en) 2014-04-09
EP2717223A4 (en) 2015-06-17

Similar Documents

Publication Publication Date Title
JP5910631B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
Dibeklioglu et al. Like father, like son: Facial expression dynamics for kinship verification
JP4951995B2 (ja) 顔照合装置
US8515180B2 (en) Image data correction apparatus and method using feature points vector data
JP4321350B2 (ja) パラメタ推定方法、パラメタ推定装置および照合方法
Yang et al. Facial shape tracking via spatio-temporal cascade shape regression
TWI394093B (zh) 一種影像合成方法
JP4947769B2 (ja) 顔照合装置および方法並びにプログラム
US20110091113A1 (en) Image processing apparatus and method, and computer-readable storage medium
US11915518B2 (en) Facial authentication device, facial authentication method, and program recording medium
JP2009053916A (ja) 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP5777380B2 (ja) 画像認識装置、画像認識方法、及びプログラム
Ouanan et al. Facial landmark localization: Past, present and future
CN109858433B (zh) 一种基于三维人脸模型识别二维人脸图片的方法及装置
JP6492746B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
US20070046662A1 (en) Authentication apparatus and authentication method
Vonikakis et al. Identity-invariant facial landmark frontalization for facial expression analysis
Deng et al. Attention-aware dual-stream network for multimodal face anti-spoofing
JP6194880B2 (ja) 情報処理装置、情報処理方法および記録媒体
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
CN106407942B (zh) 一种图像处理方法及其装置
JP6544482B2 (ja) 物体認識装置、物体認識方法及び記憶媒体
JP4446383B2 (ja) 画像処理装置および画像認識装置
Dao et al. Face Recognition System for Unconstrained Condition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5910631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150