JP4780198B2 - 認証システム及び認証方法 - Google Patents

認証システム及び認証方法 Download PDF

Info

Publication number
JP4780198B2
JP4780198B2 JP2008543143A JP2008543143A JP4780198B2 JP 4780198 B2 JP4780198 B2 JP 4780198B2 JP 2008543143 A JP2008543143 A JP 2008543143A JP 2008543143 A JP2008543143 A JP 2008543143A JP 4780198 B2 JP4780198 B2 JP 4780198B2
Authority
JP
Japan
Prior art keywords
dimensional
face
feature amount
local
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008543143A
Other languages
English (en)
Other versions
JPWO2008056777A1 (ja
Inventor
宏 大和
雄一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2008543143A priority Critical patent/JP4780198B2/ja
Publication of JPWO2008056777A1 publication Critical patent/JPWO2008056777A1/ja
Application granted granted Critical
Publication of JP4780198B2 publication Critical patent/JP4780198B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、顔の認証を行う認証システム及び認証方法に関するものである。
近年、情報機器のネットワーク化が進み、電子化された様々なサービスが普及してきた。これに伴い、人に頼らない非対面での個人認証(本人認証)を行う技術のニーズが高まりつつある。これに関し、人物の生体的特徴により自動的に個人の識別を行うバイオメトリクス認証技術(生体認証技術)の研究が盛んに行われている。バイオメトリクス認証技術の一つとして、顔による認証を行う顔認証技術が知られている。この顔認証技術は、非接触型の認証方法であり、オフィス等においてはその利便性からニーズが高いものとなっている。
ところで、上記顔認証において、撮影条件の変化がその認証性能に大きな影響を及ぼす。これは、撮影条件の変化がしばしば、顔画像に被撮影者の識別情報を上回るほどの画像変動をもたらすことによる。認証性能に大きく影響を及ぼす主な原因は、「姿勢変動」、「光源変動」及び「表情変化」である。顔は、3次元形状を有している(凹凸や奥行きがある)ため、顔の姿勢や顔に対する光源光の照射角度が変動することにより、或いは顔の表情が変化して顔の形状が変化することにより、例えば頬や鼻の急峻な傾斜部分など顔に部分的な隠れ(影の部分、暗部)が生じてしまう(これをオクリュージョンという)。顔認証の方法としては、3次元形状情報(3次元情報)を用いた認証(3次元顔認証)が挙げられる。一般的に、この3次元顔認証では顔全体を使用するため、当該部分的な隠れの問題が生じる。すなわち、認証処理においてこの隠れが生じた箇所のデータが欠落してしまい、認証精度が低下するという問題は、解決されない。また、密な3次元情報を用いた場合には、認証処理に時間がかかるという問題もある。
これに関し、例えば、特許文献1には、次のような技術が開示されている。まず、顔表面の曲率の変化を調べることによって顔の基準点が抽出される。顔の基準点は、曲率の絶対値が最大となる点(例えば鼻頂点)や、顔の側面の中央付近で曲率の絶対値が最大となる点(例えば耳穴点)等である。次に、これら顔の基準点に基づいて基準姿勢を算出することによって顔の向き(傾き)、つまり顔の姿勢の補正が行われる。次に、当該補正された顔の3次元形状データを任意の大きさで曲面が平面に近似され、この平面の単位法線ベクトルと面積とが求められる。次に、単位法線ベクトルの大きさをこの面積で表した法線分布が特徴量とされ、認証が行われる。
しかしながら、この特許文献1に開示の技術では、3次元形状全体、所謂大局的パッチ情報を用いることが前提とされている。このため、顔の基準方向の決定が必要とされることから、上記姿勢変動等によって顔に部分的な隠れが生じた場合(オクリュージョン)に、この基準方向を決定することができず、認証処理が実行できなくなってしまう。
また、例えば、特許文献2には、次のような技術が開示されている。まず、カラー情報を用いて人物の顔部分のみの3次元形状情報とカラー情報とが抽出され、当該3次元形状情報とカラー情報とをセットにした顔データが求められる。次に、この顔データ(照合顔データ)と、予め用意しておいた辞書顔データとの3次元形状全体の重心が求められ、これら重心の位置が一致するように平行移動されるとともに、この一致させた重心回りに微小回転させて回転顔データが求められる。そして、この回転顔データと辞書顔データとの間における誤差を計算することによって最小誤差が求められ、この最小誤差に基づいて判定(認証)が行われる。
しかしながら、この特許文献2に開示の技術では、3次元形状全体の重心を求め、平行移動及び重心回りに微小回転させて最小誤差を求める処理に時間がかかってしまう。ましてや密な3次元形状データを用いる場合は、処理時間が大幅にかかり、さらに認証速度が遅くなってしまう。また、上記顔に部分的な隠れが生じた場合(オクリュージョン)には、認証精度が低下してしまう。また、計測された3次元形状そのものを保持しなければならないため、データベースの記憶容量が膨大になってしまう。
特開平5−215531号公報 特開平9−259271号公報
本発明は、上記事情に鑑みてなされたもので、認証精度の低下を軽減することができ、また、認証速度を向上させることができる認証システム及び認証方法を提供することを目的とする。
本発明にかかる認証システムおよび認証方法では、認証対象者における複数の局所的な3次元局所領域が決定され、これら各3次元局所領域における顔の3次元的な特徴量が3次元顔特徴量として算出され、そして、この3次元顔特徴量と予め用意された比較用の顔特徴量とを比較するによって、認証対象者に対する認証動作が行われる。
このような認証システムおよび認証方法では、顔全体の情報をそのまま用いるのではなく、顔の局所的な複数の領域が抽出され、これら抽出した局所的な複数の領域に基づいて認証が行われる。したがって、顔に部分的な隠れ等が生じたとしても、必ずしもこの隠れ等が生じた部分を用いることなく、この部分を除く局所領域の情報を用いて認証を行うことが可能となる。このため、認証精度の低下が軽減され、また認証速度を向上させることができる。
本発明の実施形態に係る認証システムの一例を示す概略構成図である。 上記認証システムにおけるコントローラの全体的な構成の一例を示す模式図である。 上記コントローラが備える顔認証の機能を説明するための機能ブロック図である。 顔の各特徴部位における特徴点の座標の一例を示す模式図である。 各特徴部位の3次元座標の算出について説明するための模式図である。 標準モデルの一例を示す模式図である。 Gaborフィルタについて概念的に説明するための立体グラフ図である。 3D顔部位形状データの各特徴点から矩形領域を設定する方法について説明するための模式図である。 図8において設定した矩形領域の情報を用いて、3D顔部位形状データから局所パッチ領域を抽出(決定)する方法について説明するための模式図である。 3D顔部位形状データの各特徴点から矩形領域を設定する方法について説明するための模式図である。 3D顔部位形状データにおける各3次元点及び各局所パッチ領域の一例を示す模式図である。 (A)(B)及び(C)は交差判定を説明するための図である。 3次元顔特徴量の抽出におけるベジェ曲面の一例を示す模式図である。 本実施形態に係る顔認証の動作の一例を示すフローチャートである。 図14のステップS9における動作の一例を示すフローチャートである。 他のコントローラが備える顔認証の機能を説明するための機能ブロック図である。 図16に示す認証システムの動作の一例を示すフローチャートである。
以下、本発明に係る実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。
図1は、本発明の実施形態に係る認証システム1の一例を示す概略構成図である。図2は、コントローラ10の全体的な構成の一例を示す模式図である。図3は、コントローラ10が備える顔認証の機能を説明するための機能ブロック図である。図4は、顔の各特徴部位における特徴点の座標の一例を示す模式図である。
図1に示すように認証システム1は、顔による個人認証(以下、顔認証という)を行うものであり、コントローラ10と2台の撮影カメラ(2次元カメラ;2Dカメラ)(以下、単に「カメラ」ともいう)CA1及びCA2とを備えている。
カメラCA1及びCA2は、認証対象者HMの顔位置に対してそれぞれ異なる位置(角度)から認証対象者HMの顔を撮影できるように配置されている。カメラCA1及びCA2によって認証対象者HMの顔画像が撮影されると、この撮影により得られる認証対象者HMの外観情報、すなわち2種類の顔画像が通信線を介してコントローラ10に送信される。なお、各カメラCA1、CA2とコントローラ10との間における画像データの通信方式は、有線方式に限定されず、無線方式であってもよい。また、上記顔画像は、顔部分の画像だけでなく背景画像をも含む画像であってもよい。
コントローラ10は、図2に示すように、例えばパーソナルコンピュータ(PC)等の情報処理装置によって具現化されており、CPU2と、記憶部3と、メディアドライブ4と、例えば液晶ディスプレイ等の表示部5と、キーボード6aおよび例えばポインティングデバイスであるマウス6b等の入力部6と、例えばネットワークカードなどの通信部7とを備えている。記憶部3は、例えばハードディスクドライブ(HDD)3a及びRAM(半導体メモリ)3bなどの複数の記憶媒体を備えている。また、メディアドライブ4は、例えばCD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disk)、フレキシブルディスク及びメモリカードなどの可搬性の記憶媒体8からその中に記録されている情報を読み出すことができる例えばCD−ROMドライブ装置、DVDドライブ装置、フレキシブルディスクドライブ装置及びメモリカードドライブ装置等のドライブ装置を備えている。なお、このコントローラ10に対して供給される情報は、記録媒体8を介して供給される場合に限定されず、LAN(Local Area Network)やインターネットなどのネットワークを介して供給されてもよい。なお、コントローラ10は、このシステム用に製作された専用のコントローラ(本体制御装置)であってもよく、以下に説明する機能を備えているものであればよい。
また、コントローラ10は、図3に示すように、画像入力部11と、顔領域検出部12と、顔部位検出部13と、顔部位3D計算部14と、姿勢・光源補正部15と、標準モデル記憶部16と、2次元認証部17と、顔領域3D計算部18と、3次元認証部19と、類似度計算部20と、登録データ記憶部21と、判定部22とを備えている。
画像入力部11は、カメラCA1及びCA2による撮影によって得られた認証対象者HMの顔画像をカメラCA1及びCA2から本コントローラ10に入力するものである。画像入力部11は、カメラCA1及びCA2に対応して、第1画像入力部11a及び第2画像入力部11bを備えており、それぞれに対してカメラCA1及びCA2から送信されてきた顔画像が入力される。したがって、カメラCA1及びCA2から合計2枚の顔画像が入力される。ここで、本実施形態の認証システム1は、入力された顔画像を用いて2次元認証(2D認証)と3次元認証(3D認証)とを行い(このことを多重認証するという)、これらの結果に基づいて判定を行う構成である。このため、本実施形態の認証システム1では、2次元画像(2D画像)と3次元形状データ(3D形状データ)とが必要となる。当該2D画像及び3D形状データを取得するための入力装置(2D画像・3次元(3D)計測の入力装置)は、一般的な2Dカメラ(ステレオカメラ)を複数台(2〜N台)用いる方法がある。この場合、2枚以上の2D画像から顔の3次元形状(3D形状)が算出される。
ただし、これに限らず、他の3D形状データ取得方法が採用可能である。例えば、3D形状データを取得する方法は、光切断方式による非接触3次元デジタイザのような3次元計測装置(3D計測装置;3Dカメラ)が用いられてもよい。本実施形態では2台のカメラCA1及びCA2を用いる構成であるため、2枚の2D画像(顔画像)から顔の3D形状を算出する必要があるが、上記非接触3次元デジタイザなどの3D計測装置を用いる(1台のカメラと1台の3D計測装置を用いる)場合は、3D計測装置により3D形状データが直接取得可能であり、2D画像から算出する必要はない。さらに、3D形状データ取得用のカメラと2D画像取得用のカメラとを兼用しているタイプの3D計測装置では、上述のように2D画像取得のためのカメラを別途用意する必要もなくなる。
顔領域検出部12は、画像入力部11に入力された顔画像から顔領域を検出(特定、抽出)するものである。顔領域検出部12は、画像入力部11の第1画像入力部11aおよび第2画像入力部11bに対応して、第1顔領域検出部12a及び第2顔領域検出部12bを備えており、それぞれ第1画像入力部11a及び第2画像入力部11bから送信されてきた顔画像から顔領域(顔領域画像)を検出する。より具体的には、顔領域検出部12は、例えば、予め用意された標準の顔画像を用いたテンプレートマッチングを行うことによって、顔画像から顔の存在している領域を抽出する(切り出す)処理を行う。
なお、顔領域の検出手法は、以下1.〜3.に示す方法が採用可能であり、また、その他の手法が用いられてもよい。
1.顔画像に対して、所定サイズのウィンドウ領域(矩形領域)を走査しつつ、このウィンドウ領域内に人の顔を表した領域が含まれるか否かの判定を該ウィンドウ領域内の画素値と所定のしきい値とを比較することで行う方法(例えば、特開2003−22441号公報、特開平8−339445号公報)。なお、この方法によれば、動き情報や色情報を必要としない顔発見アルゴリズムによって、複雑背景の中から高速且つ高い認証率で顔領域を検出することができる。
2.複数人の顔部位の画像をトレーニングさせてその結果を学習辞書として記憶しておき、新たに入力された顔画像と比較することによって顔領域検出の判定を行う所謂ニューラルネットを用いた方法(例えば、H.Rowley,S.Baluja, and T.Kanade.“Newral Network-Based Face Detection” In IEEE Patt.Anal.Mach.Intell,.volume
20,pages 22-38,1998.)。
3.Violaらの提案した検出器(Viola−Jones検出器)を用いた方法であって、様々な顔領域検出用の識別子を記憶しておき、これを段階的に用いてすなわち比較が進むにつれて使用する識別子の数を減少させていきながら顔領域検出の判定を行う方法(例えば、P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proc. Of IEEE conference on Computer Vision and Pattern Recognition, Kauai, HI, December 2001.)。なお、この方法によれば、顔と非顔との入り組んだ空間の識別関数を、簡単な画像特徴量を用いた単純な判別関数を複数組み合わせて構成することができる。
なお、顔領域検出部12は、第1顔領域検出部12a及び第2顔領域検出部12bが個別に顔領域をそれぞれ検出してもよいが、何れか一方のみが検出を行ってもよい。あるいは、顔領域検出部12は、第1顔領域検出部12a及び第2顔領域検出部12bが個別に顔領域をそれぞれ検出し、精度のよい検出結果を採用してもよい。顔領域の対応点探索処理によって精度のよい顔領域の検出が可能となる。顔部位検出部13も同様である。
顔部位検出部13は、顔領域検出部12によって検出した顔領域の画像から顔の特徴的な部位(特徴部位という)を検出(抽出、算出)するものである。顔の特徴的な部位を検出することを「顔部位検出」という。顔部位検出部13は、顔領域検出部12の第1顔領域検出部12aおよび第2顔領域検出部12bに対応して、第1顔部位検出部13a及び第2顔部位検出部13bを備えており、それぞれ第1顔領域検出部12a及び第2顔領域検出部12bから送信されてきた顔領域画像から上記特徴部位の位置(画像上の座標)を検出する。顔の特徴部位は、目(例えば瞳中心、目尻、目頭、瞳の上下部)、眉(例えば眉の両端部や中央部)、鼻(例えば小鼻の端、中央下部、或いは鼻孔)、口(例えば左右の口の端、唇中央部の上下部)又は下顎尖端部等の部位が挙げられる。本実施形態では、例えば、顔部位検出部13によって、図4に示されるような各特徴部位の特徴点Q1〜Q23の座標が算出される。特徴点Q1、Q3;Q2、Q4は、左右の目の両端部であり、特徴点Q7、Q5;Q8,Q6は、左右の瞳の上下部であり、特徴点Q9、Q13;Q10,Q14は、左右の眉の両端部であり、特徴点Q11、Q12は、左右の眉の略中央部であり、特徴点Q15、Q16;Q17、Q18は、小鼻の端部であり、特徴点Q19は、鼻の中央下部であり、特徴点Q20、Q21は、口の両端部であり、そして、特徴点Q22、Q23は、唇中央の上下部である。なお、抽出する特徴点の部位は、適宜に設定すればよく、必要に応じて増減可能である。また、この特徴部位の検出は、特徴部位の標準的なテンプレートを用いたテンプレートマッチング等、種々の方法で行うことが可能である。
上記算出される特徴点Q1〜Q23の座標は、上記カメラCA1及びCA2より入力された各画像上の2次元座標として表される。例えば、認証対象者HMから見て口の右端に相当する特徴点Q20について言えば、2枚の画像G1、G2(後述の図5参照)それぞれにおいて当該特徴点Q20の座標値が求められる。より具体的には、画像G1及びG2の端点を原点Oとして、特徴点Q20の画像G1上の座標(x1、y1)が算出され、また、特徴点Q20の画像G2上の座標(x2、y2)が算出される。
また、顔部位検出部13は、上記顔領域の画像から、各特徴点の座標を算出するとともに、各特徴点を頂点とする領域(特徴領域という)内の各画素の輝度値を、この領域が有する情報(テクスチャ情報という)として取得する。例えば、本実施形態の場合、入力される画像は、2枚であるので、顔部位検出部13は、これら各画像(画像G1、G2)における互いに対応する特徴領域内の対応する画素における例えば平均の輝度値を算出し、この各画素の平均輝度値を当該特徴領域におけるテクスチャ情報として用いる。
なお、上記顔部位検出の手法は、これに限定されるものではない。例えば、顔部位検出手法として、特開平9−102043号公報「画像内の要素の位置検出」に提案されているような方法が採用されてもよい。また例えば、顔部位検出手法として、補助光を使用することで顔部位の形状から検出するような方法や、上述と同様のニューラルネットによる学習を用いた方法、或いはGabor(ガボール)ウェーブレット変換やGaborではない通常のウェーブレット変換による周波数解析を用いた方法が採用されてもよい。
顔部位3D計算部14は、顔部位検出部13において検出された顔の特徴部位の2次元座標から該各特徴部位の3次元における座標を算出するものである。より具体的には、顔部位3D計算部14は、顔部位検出部13において検出された各特徴点Qjの各画像Gi(i=1,・・・,N)における2次元座標(2D座標)Ui(j)と、各画像Giを撮影したカメラのカメラパラメータPi(i=1,・・・,N)とに基づいて、三角測量の原理によって各特徴部位、すなわち各特徴点Qjの3次元座標(3D座標)M(j)(j=1,・・・,M)を算出する(所謂「3次元再構成」する)。ただし、記号「N」は、カメラの台数(ここではN=2)を示し、また、記号「M」は、計測点或いは特徴点の数(M個)を示す。なお、各特徴点Qjの3D座標M(j)を纏めてなる3次元的な顔のデータのことを「3D顔部位形状データ」という。
以下に、この3D座標M(j)を算出する方法の具体的な一例を説明する。空間のワールド座標(X,Y,Z)と、画像上の座標(x,y)とは、以下の(1・1)式に示す関係が成り立っている。
Figure 0004780198
但し、(1・1)式中の記号「w」は、0(ゼロ)でない定数(w≠0)であり、記号「P」は、透視投影行列(カメラパラメータPi)を表す。
上記座標の表記には、以下の(1・2)式に示すように1次元多いベクトルが用いられている。この表記は、斉次座標と呼ばれる。斉次座標では、座標を表すベクトルの0(ゼロ)でない定数倍、つまり上記における(wx,wy,w)と(x,y,1)と等が同じ点を表すものとする。空間の点の斉次座標をM=(X,Y,Z,1)とし、その空間点の画像における斉次座標をu=(x,y,1)とし、「=」と「〜」とを組み合わせてなる記号を、定数倍であることを許せば等しいので左辺が右辺の0でない定数倍に等しい、ということを表す記号であるとすると、上記(1・1)式は、以下の(1・3)式で表される。
Figure 0004780198
Figure 0004780198
ここで、透視投影行列Pは、3×4の行列式であり、その各成分を以下の(1・4)式に示すものとすると、上記(1・1)式における「w」を消去することによって、空間と画像との座標の関係は、以下の(1・5)及び(1・6)式に示すようになる。
Figure 0004780198
Figure 0004780198
Figure 0004780198
ここで、注意点としては、(1・3)式によって定数倍の自由度を許していることから、Pの各成分は、各パラメータを用いて組み合わされたものであって独立ではない。
図5は、各特徴部位の3次元座標の算出について説明するための模式図である。例えば、図5に示すように、互いに異なる、自由な位置に配置された、カメラパラメータの異なる一般的な2台のカメラ(これらを第1カメラ、第2カメラという)を用いて構成されたシステムでは、ワールド座標(X,Y,Z)と、その点(ワールド座標点)に対応する第1及び第2カメラそれぞれの画像G1、G2上の座標(x1,y1)、(x2,y2)とは、それぞれのカメラパラメータP、Pを用いて以下の(1・7)式で表される。
Figure 0004780198
ただし、(1・7)式中の記号「u」及び記号「M」は、それぞれ以下の(1・8)式に示すものを表している。
Figure 0004780198
したがって、透視投影行列P、Pが分かっている場合では、その画像上での特徴点の位置座標(x1,y1)、(x2,y2)の組から上記(1・7)式及び(1・8)式をw、w、X、Y、Zの方程式と見なして解くことによって、当該特徴点の空間における座標を求め、これによって3次元再構成を行うことができる。すなわち、w、w、を消去することによって(1・5)式及び(1・6)式が得られるので、記号「P1 ij」は、Pの(i,j)成分を表し、記号「P ij」は、Pの(i,j)成分を表すものであるとすると、当該関係式を整理することによって以下の(1・9)式となる。この(1・9)式は、X、Y、Zの連立一次方程式となるので、これら方程式を解くことって当該特徴点の3次元空間上の座標(X,Y,Z)を求めることができる。なお、(1・9)式では、3つの未知数X、Y、Zに対して4つの方程式が与えられている。これは、(x1,y1)、(x2,y2)の4つの成分は、独立でないことを意味している。その他の特徴点も同様に空間上の座標が算出される。
Figure 0004780198
図3に戻って、姿勢・光源補正部15は、顔部位検出部13によって算出されたテクスチャ情報に対する姿勢変動補正及び光源変動補正を行うものである。姿勢変動補正は、顔の姿勢つまり向き(傾き)の違いによるテクスチャへの影響を補正するものである。光源変動補正は、顔に対する光源の向き(傾き)の違いによるテクスチャへの影響を補正するものである。姿勢・光源補正部15は、このテクスチャ情報に対する姿勢変動補正及び光源変動補正に際して、予め準備された一般的(標準的)な顔のモデルである標準モデル(標準立体モデル;後述の図7参照)を用いる。
<姿勢変動補正>
(形状情報補正)
テクスチャ情報に対する姿勢変動を補正する際に、先ず、上記3D顔部位形状データ(各特徴点Qjの3D座標M(j))の形状が補正される。姿勢・光源補正部15は、3D顔部位形状データすなわち3D形状が、上記標準モデルの3D形状に最も合致するように3次元的な位置の補正を行う(3D顔部位形状データの形状自体は変化しない)。要するに、姿勢・光源補正部15は、3D顔部位形状データによる顔が横を向いていた場合、標準モデルを基準として所謂モデルフィッティングを行い、その横を向いた顔が標準モデルの顔の向き(基準方向)、例えば正面方向を向くように位置補正する。この位置の補正は、以下の(2)式に示す姿勢パラメータt(ポーズパラメータ)に基づいて行われる。
t=(s,φ,θ,ψ,tx,ty,tz)Tt ・・・(2)
ただし、記号「s」は、スケール変換指数を表し、記号「φ,θ,ψ」は、回転変位(傾き)を示す変換パラメータを表し、そして、記号「tx,ty,tz」は、直交3軸方向における並進変位を示す変換パラメータを表す。また、右肩の記号「Tt」は、“転置”を表す。
(テクスチャ情報補正)
次に、上述において3D顔部位形状データの顔の向きを正面方向に補正することによって得られた位置補正情報に基づいて、顔部位検出部13によって取得された各特徴領域の2次元テクスチャ(2Dテクスチャ)が正面方向(基準方向)を向いた状態となるようにテクスチャ情報が補正される。これによって顔が正面から撮影された場合に相当するテクスチャ情報(正面テクスチャ顔画像という)が再構成される。すなわち、正規化された適正なテクスチャ画像が作成される。このように再構成された正面テクスチャ顔画像を用いることによって、姿勢変動すなわち形状の違いに影響されない(依存しない)テクスチャ情報が扱えるようになる。
テクスチャ情報補正は、上記方法に限るものではない。例えば、テクスチャ情報補正は、顔部位検出部13によって取得された各特徴領域のテクスチャ(テクスチャ画像)を、上記標準モデルの対応する領域(後述のポリゴン)に貼り付ける(マッピングする)ことによって、上記と同様、正面テクスチャ顔画像が得られるように補正する方法が採用されてもよい。これによって姿勢の違いに影響されないテクスチャ情報が扱えるようになる。当該補正によって得られた正面テクスチャ顔画像は、相互比較しやすいように、更に、標準モデル周囲に配置した円筒座標(円筒面)に投影するようにされてもよい。この投影により得られた投影画像のテクスチャ情報は、姿勢変動に影響されないばかりか、表情変化等による顔の形状変化にも影響されない純粋な顔のテクスチャ情報となるため、個人認証に用いる情報として非常に有用である。
<光源変動補正>
(テクスチャ情報補正)
テクスチャ情報に対する光源変動補正では、例えば、テクスチャの輝度情報が補正される。この場合、カメラによって撮影される画像には、一般的に光源の向きによるシェーディングの影響が含まれるため、入力された画像における各特徴領域のテクスチャにもその影響が残っている。このため、各特徴領域単位で輝度が補正される。より具体的には、例えば、顔部位検出部13によって取得された各特徴領域における各画素(ノード)の輝度が、標準モデルに対応する画素の輝度に等しくなるように特徴領域内部で傾斜をかけることによって、すなわち傾斜角度(向き)のパラメータで輝度値を制御することによって輝度が補正される。
標準モデル記憶部16は、上記顔の標準モデルの情報を予め記憶するものである。図6は、標準モデルの一例を示す模式図である。この標準モデルは、例えば、図6に示すように、頂点データとポリゴンデータとで構成される。頂点データは、標準モデルにおける特徴部位の頂点Uの座標の集合体であり、上記各特徴点Qjの3D座標と1対1に対応している。ポリゴンデータは、標準モデルの表面を微小な多角形、例えば3角形や4角形といった多角形のポリゴンに分割し、このポリゴンを数値データとして表現したものである。各ポリゴンには、上記光源変動補正において用いられる画素の輝度情報等が含まれる。なお、この標準モデルは、複数人の顔のデータを平均して求めた平均顔データであってもよい。また、標準モデルの各ポリゴンの頂点は、特徴点Qjとともに、特徴点Qj以外の中間点を用いて構成されてもよい。この中間点は、補間によって算出される。
図3に戻って、2次元認証部(2D認証部)17は、姿勢・光源補正部15において姿勢変動補正及び光源変動補正されて成る各特徴領域のテクスチャ情報から2次元顔特徴量(2D顔特徴量:局所的な2D顔特徴量;局所2D顔特徴量)を算出するものである。2D認証部17は、補正画像取得部17a及び2D特徴量抽出部17bを備えている。補正画像取得部17aは、姿勢・光源補正部15においてテクスチャ画像が姿勢変動補正及び光源変動補正されてなる補正画像(補正テクスチャ画像という)を取得するものである。すなわち、姿勢・光源補正部15からの補正画像が補正画像取得部17aに入力される。
2D特徴量抽出部17bは、補正画像取得部17aにより取得された補正テクスチャ画像から2D顔特徴量を抽出するものである。この2D顔特徴量の抽出は、画像の局所的な濃淡情報(特定方向の輪郭線など)を特徴量として取り出す手法であるGaborウェーブレット変換を用いた方法により行う。このGaborウェーブレット変換は、上記顔部位の検出にも使用できるし、ここでの濃淡情報を取り出すことにも使用できる。より具体的には、補正テクスチャ画像が有する2D座標点を基準として、この補正テクスチャ画像に対してGaborフィルタによるフィルタ処理を施すことによって得られる濃淡情報が2D顔特徴量として抽出される。
図7は、Gaborフィルタについて概念的に説明するための立体グラフ図である。ここで、Gaborフィルタは、図7に示すように、sin関数(虚部)及びcos関数(実部)をガウス関数で局在化したカーネルを用いた空間フィルタであって、画像の局所的な濃淡情報を取り出すことが可能な変換(Gaborウェーブレット変換)を行うフィルタである。Gaborフィルタによるフィルタ処理は、局所的な情報に対する処理であるので、画像の照明変動の影響を受けにくいという利点がある。Gaborウェーブレット変換は、カーネルの形を固定しておき、このカーネルを伸び縮みさせて様々な周期のカーネルを作り出し、これに対応した空間周期の特徴量(Gabor特徴量;ここでの濃淡情報)を抽出する変換である。
上記空間周期の特徴量を表す特徴ベクトル(2次元特徴ベクトル;2D特徴ベクトル)は、サイズ、方向特性の異なるGaborウェーブレット係数の並びである。Gaborウェーブレット変換は、位置及び周波数の不確定性を最小にする関数であって、以下の(3)式で表される。
Figure 0004780198
上記(3)式中のkベクトルは、波の波長と方向を決める定数であり、[ ]内の第2項は、ウェーブレットの再構成条件を満たすべく関数の直流成分が0(ゼロ)、すなわちそのフーリエ変換において以下の(4)式が得られるように加えられた項である。
Figure 0004780198
このようなGaborウェーブレット変換を用いた手法は、顔画像に適用した場合、様々な方向と濃淡周期によって豊富な特徴情報を抽出することができるため、高精度な顔認証システムに採用される。
2D顔特徴量は、補正テクスチャ画像に対して、上記図7に示すGaborフィルタを畳み込むことによって算出することができる。例えば、方向が、方向{0,π/8,2π/8,3π/8,4π/8,5π/8,6π/8,7π/8,8π/8}の8方向、スケールが、スケール{4,4√2,8,8√2,16}の5段での複数のGaborフィルタを畳み込むことによって、2D顔特徴量としての40(=5*8(記号「*」は乗算を表す))次元の特徴ベクトル(それぞれの濃淡の周期の情報)を得ることができる。なお、2D顔特徴量の抽出は、このGaborウェーブレット変換による方法に限るものではない。2D顔特徴量の抽出は、その他一般的なテクスチャ情報を使用した方法であれば何れの方法であってもよい。また、上記方向やスケールも8方向や5段に限らず、任意に定めることができる。
図3に戻って、顔領域3D計算部18は、顔領域検出部12によって検出された顔領域の画像から、すなわち本実施形態ではステレオカメラによるステレオ画像から、顔の高密度な3D形状(3D顔密形状データという)を算出するものである。ただし、ここで言う“高密度なデータ”とは、上記顔部位検出部13によって検出された顔の目や鼻といった特徴部位(特徴点Qjの3D座標M(j))だけのデータ、つまりデータ取得点数が少ない“粗(低密度)”のデータに対して、この特徴部位のデータだけでなく、頬や額などの部分も含む顔全体のデータ、つまりデータ取得点数が多い“密”なデータであることを示している。なお、3D顔密形状データを構成する当該密なデータ取得点のことを「3次元点(3D点;又は3D計測点)」という。3D顔密形状データは、複数の3D点からなる顔の形状データである。
ステレオ画像からの顔の高密度な3D形状の算出は、例えば位相限定相関法(POC:Phase-Only Correlation)を用いて実行される。位相限定相関法は、フーリエ変換を使った相関計算方法の一つであり、2つのフーリエ画像をスペクトルごとに規格化した後に合成する。すなわち、位相限定相関法では、2枚の画像が与えられた場合に、それぞれの画像の2次元離散フーリエ変換が振幅成分で正規化され、これらの積を演算することによって合成位相スペクトルが求められ、そして、これに対して逆フーリエ変換が行われる。2枚の画像が類似している場合、POC関数は、極めて鋭いピークを有する。この相関ピークの高さは、画像の類似度の尺度として有用である。ピークの座標は、2枚の画像の相対的な位置ずれに対応する。位相限定相関法は、このような特性を有するため、輝度変動やノイズの影響を受けにくく、高精度に画像間の対応点を取得することができる。換言すれば、位相限定相関法は、高精度な異なる画像間の対応点検索つまりマッチングを行う処理である。また、取得した対応点に対して3次元再構成処理を行うことによって、高精度の3D顔密形状データが求められる。なお、上述のように、本実施形態では2Dカメラを複数台用いることを想定しているため、高密度な3D形状を位相限定相関法により算出しているが、3D計測装置を用いる場合には、複数枚の画像から算出することなく、高密度な3D形状を取得することが可能であるためこのような手法を用いなくともよい。
なお、POCと多重解像度とによる対応点探索は、例えば、次の手法も挙げられる。まず、第1に、多重解像度の画像として縮小画像が作成される。第2に、この縮小画像において、ピクセルレベル(画素レベル)で対応点探索が実行される。第3に、対応点の候補を絞って縮小画像が所定の大きさだけ拡大される。第4に、この所定の大きさだけ拡大された縮小画像において、候補の周囲をピクセルレベルで対応点探索が実行される。第5に、第1で縮小画像とされる前の元の画像と同一の大きさになるまで、前記第3及び第4が繰り返される。そして、第6に、元の画像と同一の大きさでサブピクセルレベルの対応点探索が実行される。
3次元認証部(3D認証部)19は、顔領域3D計算部18によって算出した3D顔密形状データと、顔部位3D計算部14によって算出した3D顔部位形状データとに基づいて、3D顔特徴量(局所的な3D顔特徴量;局所3D顔特徴量)を算出するものである。3D認証部19は、3次元局所パッチ抽出部(3D局所パッチ抽出部)19a及び3次元特徴量抽出部(3D特徴量抽出部)19bを備えている。3D局所パッチ抽出部19aは、3D顔密形状データと、3D顔部位形状データ(特徴部位)とから3次元的な局所パッチ領域を抽出(算出)するものである。以下、3次元的な局所パッチ領域を単に「局所パッチ領域」という。
図8は、3D顔部位形状データの各特徴点から矩形領域を設定する方法について説明するための模式図である。図9は、図8において設定した矩形領域の情報を用いて、3D顔部位形状データから局所パッチ領域を抽出(決定)する方法について説明するための模式図である。図10は、3D顔部位形状データの各特徴点から矩形領域を設定する方法について説明するための模式図である。図11は、3D顔部位形状データにおける各3次元点及び各局所パッチ領域の一例を示す模式図である。
3D顔部位形状データの各特徴部位における各特徴点Qjの3D座標M(j)(特徴点座標という)は、高密度な3D形状(3D顔部位形状データ)上に存在する。局所パッチ領域は、3D顔密形状データに対する、3D顔部位形状データの特徴点座標からの相対関係で定義される領域である。より具体的には、例えば、図8に示すように、特徴点Qjである右目頭a、右目尻b及び右小鼻cの3点により定まる平面(局所パッチ抽出用平面)T上に、例えばベクトルca、cbの線形和として定義される4点で囲まれた矩形領域Sが例えば右頬領域として定義される。そして、図9に示すように、3D顔部位形状データを構成する複数の3D点αのうち、これら3D点αから上記平面Tに仮想的に垂直に降ろした垂線が(垂線の足が)矩形領域Sの中に入っている3D点を纏めて成る領域(当該3D点の集合体として見たときの領域)が、当該右頬部分の局所パッチ領域Pとされる。局所パッチ領域Pは、例えば、この右頬の場合の局所パッチ領域Pのように、実際の顔(ここでは右頬)形状に略合致した曲面形状の領域となっている(矩形領域S或いは局所パッチ抽出用平面で定義される完全な平面形状ではない)。なお、図9は、3D顔密形状データを顔の上方から見下ろした場合の概念的な3D点が示されている。また、局所パッチ抽出用平面は、4点以上の複数の特徴点から求めてもよい。
このようにして、図10に示すように、3D顔部位形状データの各特徴点座標201から各局所パッチ抽出用平面が設定されるとともに、この局所パッチ抽出用平面上に所定数の矩形領域、例えば矩形領域211(左頬の部分)や矩形領域212(額の部分)が設定される。この矩形領域は、これらの他にも、例えば、矩形領域213、214及び215に示すような目、鼻、口、眉などの顔の特徴部位を含む領域に任意に設定されてよい。この設定される顔の特徴部位は、より顕著に顔の特徴が表れる箇所が好ましい。このように各矩形領域を設定しておいて、図11に示すように、これら矩形領域に対応する各局所パッチ領域301、302、303・・・が決定される。ただし、図11において顔全体に配置された複数の点(プロット点)311は、3D顔密形状データにおける各3D点(α)を示しており、特に、符号312で示す場所の点(図中の色が濃い点)は、局所パッチ領域を構成する3D点を示している。局所パッチ領域302は、上記図9において説明した頬の箇所の局所パッチ領域Pに相当する。
なお、顔は、左右対称であることから、抽出する各局所パッチ領域は、顔における左右対称の位置に配置されていることが好ましい。また、目領域は、サングラスなどで隠される場合があり、口領域は、髭などの影響で3D計測できない場合があるため、抽出する局所パッチ領域は、少なくとも、隠れたり3D計測不能となりにくい部分である、鼻及び頬を含む(額は髪で隠れる可能性が高い)ことが望ましい。
局所パッチ領域の抽出方法は、これに限定されるものではない。局所パッチ領域の抽出方法は、例えば、右頬部分の形状が、このようなものであるという基準となる部分モデル形状(基準モデル形状)を予め用意しておき、この部分モデル形状が、3D顔密形状データのどこに当て嵌まるものであるのかを見つけ、その当て嵌まったところを右頬部分の局所パッチ領域とする方法であってもよい。より具体的には、抽出したい局所パッチの領域に対応する参照用の3次元(3D)パッチ形状(参照パッチ形状、参照用部分モデル形状)、すなわち局所パッチ自身の例えば平均顔(標準顔)データから求めたパッチモデルを予め記憶、保存しておき、このパッチモデルと3D顔密形状データとを比較し、例えば互いの形状の類似度を比較し、3D顔密形状データ上における最もこのパッチモデル形状に類似(近似)した形状を有する領域を、局所パッチ領域として決定する方法であってもよい。
また例えば、局所パッチ領域の抽出方法は、2次元画像上に予め定義された領域に含まれる3D顔密形状データの領域を局所パッチ領域として決定する方法であってもよい。より具体的には、図10に示すように、顔部位検出部13によって検出された特徴点Qjを基に定義可能な領域を2次元画像上の選択領域として定義し、この定義された2次元画像上の選択領域の3D顔密形状データの領域を局所パッチ領域として決定する。この手法では、2次元画像上の領域を顔部位3D計算部14の演算より事前に定義しておくことによって、全ての3D顔密形状データの計測を行うことなく、この定義された2次元画像上の領域のみの対応点探索および3次元再構成を行うことによって、局所パッチ領域のみの形状を計測することも可能であり、処理時間の短縮を図ることが可能となる。
また例えば、局所パッチ領域の抽出方法は、平均の顔より算出された標準モデルの形状と交差判定を行うことによって局所パッチ領域を決定する方法であってもよい。より具体的には、まず、予め標準モデルが用意されると共にこの標準モデルに切り出したい局所パッチ領域が定義され、これら標準モデルおよび標準モデル上の局所パッチ領域が記憶、保存される。次に、3D顔部位形状データが標準モデルの3次元形状に最も合致するように3次元的な位置が補正される。次に、この位置補正後において、標準モデル上の三角形の領域である三角パッチが、標準モデルの射影中心点を中心に、3D顔部位形状データの三角パッチ上に射影される。この3D顔部位形状データの三角パッチは、基準の計測点と隣接する計測点との2点で構成されたパッチとして与えられる。そして、この射影された標準モデル上の三角パッチと、3D顔部位形状データ上の三角パッチとが交差しているか否かが判定され、交差している場合に3D顔部位形状データ上の三角パッチが局所パッチ領域として決定される。この交差は、次の3つのケースがある。何れかのケースを満たす場合に、両三角パッチが交差していると判断される。図12は、交差判定を説明するための図である。図12(A)は、交差と判定される第1のケースを示し、図12(B)は、交差と判定される第2のケースを示し、そして、図12(C)は、交差と判定される第3のケースを示す。なお、図12において、網模様は、標準モデルを表し、斜線模様は、測定データを表す。
1.射影された標準モデル上の三角パッチが3D顔部位形状データ上の三角パッチに含まれる場合(図12(A))。
2.射影された標準モデル上の三角パッチに3D顔部位形状データ上の三角パッチが含まれる場合(図12(B))。
3.射影された標準モデル上の三角パッチにおけるエッジ部分が3D顔部位形状データ上の三角パッチと交差する場合(図12(C))。
また例えば、局所パッチ領域の抽出方法は、平均の顔より算出された標準モデルの形状と領域判定を行うことによって局所パッチ領域を決定する方法であってもよい。より具体的には、まず、予め標準モデルが用意され、標準モデルの点群からマップが作成される。すなわち、予め用意された標準モデルの点群における各3次元点が直交座標系(x、y、z)から極座標系(球座標系)(r、θ、φ)に変換される。次に、標準モデルの点群を変換した球座標(θ、φ)が変換式によってuv平面座標に変換される。次に、標準モデルの点群で構成される切り出すべき局所パッチ領域ごとにラベル付けを行うことによって、マップが作成される。変換式は、(u,v)=(θx,y×(width−1)/(2π×width),(π/2−φx,y,z)(height−1)/(π×height))である。ここで、θx,yは、球座標上の点A(r、θ、φ)においてOAとz軸とがなす角度であり、φx,y,zは、球座標上の点A(r、θ、φ)のxy平面に降ろした垂線とxy平面との交点をBとするとOBとx軸とのなす角度である。そして、widthおよびheightは。投影する画像の幅である。次に、3D顔部位形状データの点群も同様に処理され、マップ画像上に投影される。そして、ラベル付けされた領域に含まれる3D顔部位形状データ上の領域が局所パッチ領域として決定される。
図3に戻って、3D特徴量抽出部19bは、3D局所パッチ抽出部19aによって抽出された局所パッチ領域の情報から3D顔特徴量を抽出するものである。より具体的には、各局所パッチ領域内の複数の3D点の情報に基づいて、局所パッチごとに曲面が計算される。この曲面の計算は、例えば曲率マップを用いた方法によって実行される。この場合、先ず局所パッチ領域の正規化が実行される。例えば、矩形の局所パッチ領域である場合は、その矩形領域の頂点が、予め定められた標準の矩形領域(標準矩形領域)の頂点となるように3次元アフィン変換することによって当該正規化が実行される。換言すれば、局所パッチ領域の3D点を示す座標値を、標準となる座標値に合わせる変換(3次元アフィン変換)が行われる。そして、正規化された局所パッチ領域が均等にサンプリングされ、各サンプリング点における曲率を局所パッチ領域の形状特徴(3D顔特徴量)とされる。このことから、曲率マップを用いた方法は、局所パッチ領域と標準矩形領域との曲率を比較するものであるとも言える。当該曲率は、例えば「3次元曲率を用いた顔の同定−顔の3次元形状特徴抽出−」電子情報通信学会論文誌Vol. J76-D2 No. 8(1993年8月)pp.1595-1603に開示されている手法を用いることで算出可能である。
3D顔特徴量の抽出は、上記方法に限定されるものではなく、例えば、面近似によって3D顔特徴量の抽出を行う方法であってもよい。この曲面近似は、ベジェ曲面、双3次曲面、有理ベジェ曲面、Bスプライン曲面、NURBS(Non Uniform Rational B-Spline)曲面など、種々の曲面を用いることができる。ここでは、ベジェ曲面を用いた場合について説明する。
図13は、3次元顔特徴量の抽出におけるベジェ曲面の一例を示す模式図である。ベジェ曲面は、図13に示すように、P00、P01、・・・、P33等と格子状に並んだ制御点Pijによって定義した曲面F(ベジェ曲面F)である。この場合に、制御点Pijは、曲面Fの四隅の点と概形とを定める。ベジェ曲面は、u∈[0,1]、v∈[0,1]なるパラメータ領域において定義される多項式曲面である。uに関してn次、vに関してm次の式であれば、n×m次曲面とよばれ、(n+1)*(m+1)個の制御点によって表現される。n=mのときは、双n次曲面とよばれる。このようなベジェ曲面は、以下の(5)式で与えられる。
Figure 0004780198
図13に示すベジェ曲面Fは、n=m=3の場合の双3次ベジェ曲面を示している。この制御点Pij(の座標値)を制御することによってベジェ曲面Fの形状が変化し、ベジェ曲面Fは、上記局所パッチ領域の形状に近似される。当該近似させたベジェ曲面Fの形状情報(曲面情報)が局所パッチ領域のパッチ形状情報として求められる。同様に顔の各局所パッチ領域についてパッチ形状情報、すなわち各局所パッチ領域の3次元特徴ベクトル(3D特徴ベクトル)、すなわち3D顔特徴量が求められる。そして、この各局所パッチ領域に対して求められた各パッチ形状情報(3D顔特徴量)を1つに合わせてトータルの3D顔特徴量が求められる。ただし、これに限らず、このトータルの3D顔特徴量の情報に対して、さらに各局所パッチ領域(或いは各パッチ形状情報)間の相対位置関係の情報、つまり相互の距離や傾き等の情報を加えるようにしてもよい。この場合、顔の全体的な特徴を示す“大域形状情報”を扱うことができるようになるので、当該3D顔特徴量がより一層個人認証に適したものとなる。
なお、上記3D顔特徴量を抽出する局所パッチ領域は、少なくとも顔の特徴部位(上記目、眉、鼻、口など)以外の部位を含む3局所パッチ領域であることが好ましい。換言すれば、3D顔特徴量は、特徴が無い或いは少ない、つまり2D特徴量(特徴部位、2D画像)では特徴が出にくい部位である「額」や「頬」などの部位(表面の凹凸変化が少ない平坦な部位)を含む局所パッチ領域から抽出したものであることが好ましい。これにより、2D認証との多重照合の際に、すなわち後述の多重類似度による認証判定時において、特徴の有る部位から得た特徴量(2次元的に得た特徴量)はもちろんのこと、特徴が出にくい部位の特徴量(3次元的に得た特徴量)の情報も用いて、より高い精度での認証を行うことが可能となる。
なお、このように3D顔特徴量を3D特徴ベクトル(ベクトル量)として扱うことができるので、この算出した3D顔特徴量(3D特徴ベクトル)、或いは後述における予め用意する比較特徴量(上記3D顔特徴量の3D特徴ベクトルに対応する比較用の3D特徴ベクトル;比較用ベクトル量)を、例えばコントローラ10の記憶部3などに登録(記憶)しておく場合、上記3D顔密形状データ(各3D点の座標情報)そのものを登録する場合と比べて、3D特徴ベクトルを登録する方が少ない登録データ量で済む。すなわちメモリ容量が小さくて済むなど、データの取り扱い性が良くなる。
類似度計算部20は、予め登録された比較対象者の顔特徴量(比較用特徴量という)と、上述で算出された認証対象者HMの顔特徴量、すなわち2D顔特徴量(2D特徴ベクトルの特徴量)及び3D顔特徴量(3D特徴ベクトルの特徴量)との類似性の評価を行うものである。より具体的には、類似度計算部20は、上記比較用特徴量と2D顔特徴量及び3D顔特徴量とに基づいて類似度計算を行い、それぞれ2次元類似度(2D類似度;L)及び3次元類似度(3D類似度;Dij)を算出し、さらにこれら2D類似度及び3D類似度を用いて多重類似度を算出する。先ず、2D類似度の算出について説明する。
<2D類似度の計算>
認証対象者HMと比較対象者との2D類似度Lは、以下の(6)式に示すように、上記2D特徴量抽出部17bにおいてGaborフィルタによるフィルタ処理をF個の特徴点に対して行い、これにより抽出(生成)されたF個の特徴ベクトルの類似度SD(Ji,Ji’)を積算した値の平均値として与えられる。
Figure 0004780198
ただし、上記(6)式において、2D類似度Lは、算出された特徴ベクトルの特徴量をG、登録されている特徴量をG’とすると、これらの類似度L(G,G’)として表現している。また、上記(6)式中の記号「i」は、特徴点の個数を表し、i=1〜F(個)を示す。
上記(6)式における類似度S(J,J’)は、以下の(7)式で定義される。
Figure 0004780198
ただし、上記(7)式中の記号「Ω」は、原点近傍(0変位近傍)の局所領域を表す。また、記号dベクトルは、位相差を表す。
また、上記(7)式中のS(J,J’,dベクトル)は、位相類似度に変位修正を考慮した以下の(8)式により与えられる。この(8)式は、振幅の相関を位相角の類似度で重み付けした形をしている。
Figure 0004780198
ただし、上記(8)式中の記号「J」は、J=(a,a,a,・・・,a,φ,φ,・・・,φ)であり、Nは、複素Gaborフィルタ(上記虚部と実部とのGaborフィルタのセット)の数である。また、記号「a」は、振幅を、記号「φ」は、位相を表す。また、kベクトルは、j番目の2次元波の方向を向き、且つ周波数の大きさを有するベクトルであって、以下の(9)式により与えられる。
Figure 0004780198
なお、Gaborフィルタを使用しない場合には、2D類似度の計算は、後述する3D類似度算出と同様に、ユークリッド距離による算出でも可能である。
<3D類似度の計算>
認証対象者HMと比較対象者との3D類似度、すなわち形状特徴量の類似度Dijは、以下の(10)式で示されるように、互いに対応するベクトル(3D特徴ベクトルd)同士間のユークリッド距離の合計を算出することにより得ることができる。
Figure 0004780198
<多重類似度の計算>
認証対象者HM(認証対象物)と比較対象者(比較対象者)との総合的な類似度である多重類似度は、以下の(11)式に示すように、上記2D類似度及び3D類似度の各類似度に対しての重み付け和によって算出される。なお、多重類似度は、Reで示す。
Figure 0004780198
但し、上記(11)式中の記号「W」は、所定の重み付け係数を表す。ここでは、この重み付け係数Wは、予め決められた固定値として与える。
登録データ記憶部21は、予め用意された比較対象者の顔特徴量(比較特徴量、比較用顔特徴量)の情報を記憶しておくものである。
判定部22は、多重類似度Reに基づいて認証判定を行うものである。認証判定は、顔照合(Verification)の場合と顔識別(Identification)の場合とで、その手法が以下(a)、(b)のように異なる。
(a)顔照合は、入力された顔(入力顔;認証対象者HMの顔)が特定の登録者(特定登録者)であるか否かを判定するものである。この顔照合では、特定登録者つまり比較対象者の顔特徴量(比較特徴量)と認証対象者HMの顔特徴量との類似度を所定の閾値と比較することによって、認証対象者HMと比較対象者との同一性が判定される。より具体的には、多重類似度Reが所定の閾値TH1よりも小さいときに認証対象者HMが比較対象者と同一人物(本人)であると判定される。なお、この場合の閾値TH1の情報は、判定部22内に記憶されている。あるいは、この場合の閾値TH1の情報は、登録データ記憶部21に記憶されていてもよい。
(b)顔識別は、入力顔が誰のものであるかを判定するものである。この顔識別では、登録されている人物(比較対象者)の顔特徴量と認証対象者HMの顔の特徴量との類似度を全て算出して、認証対象者HMと各比較対象者との同一性をそれぞれ判定する。そして、複数の比較対象者のうちの最も高い同一性を有する比較対象者を認証対象者HMと同一人物であると判定する。より具体的には、認証対象者HMと複数の比較対象者とのそれぞれの多重類似度Reのうち、最小の多重類似度Re(Remin)に対応する比較対象者が、認証対象者HMと同一人物であると判定される。
図14は、本実施形態に係る顔認証の動作の一例を示すフローチャートである。先ず、カメラCA1及びCA2それぞれによる撮影によって認証対象者HMの顔画像が取得される(ステップS1)。次に、当該撮影により得られた2枚の顔画像がコントローラ10(画像入力部11)に入力される(ステップS2)。次に、顔領域検出部12によって、画像入力部11に入力された各顔画像から顔領域画像が検出される(ステップS3)。この検出された顔領域画像から、顔部位検出部13によって、顔の特徴部位すなわち特徴点の座標と特徴領域のテクスチャ情報とが検出される(ステップS4)。そして、顔部位3D計算部14によって、顔部位検出部13により検出された顔の特徴部位の座標(特徴点の座標)から該各特徴部位の3次元における座標(3D顔部位形状データ)が算出される(ステップS5)。また、姿勢・光源補正部15によって、顔部位検出部13により検出されたテクスチャ情報に対する姿勢変動補正及び光源変動補正が行われる(ステップS6)。そして、2D認証部17によって、当該姿勢変動補正及び光源変動補正されてなる各特徴領域の補正テクスチャ画像から2D顔特徴量が算出される(ステップS7)。
一方、顔領域3D計算部18によって、顔領域検出部12により検出された顔領域画像(ステレオ画像)から、複数の2D点からなる3D顔密形状データが算出される(ステップS8)。次に、3D認証部19において、3D局所パッチ抽出部19aによって、顔領域3D計算部18により算出された3D顔密形状データと、上記ステップS5おいて顔部位3D計算部14により算出された3D顔部位形状データとから3次元的な局所パッチ領域が算出される(ステップS9)。そして、3D特徴量抽出部19bによって、当該3D局所パッチ抽出部19aによって算出された局所パッチ領域の情報から3D顔特徴量が算出される(ステップS10)。次に、類似度計算部20によって、予め登録された比較対象者の顔特徴量(比較用特徴量)と、上記ステップS7及びS10において算出された局所2D顔特徴量及び3D顔特徴量との類似性の評価が行われる、すなわち、上記比較用特徴量と2D顔特徴量及び3D顔特徴量とに基づく類似度計算が行われて、2D類似度及び3D類似度、さらにこれら類似度から多重類似度が算出される(ステップS11)。そして、当該多重類似度に基づいて、判定部22によって、顔照合或いは顔識別の認証判定が行われる(ステップS12)。
図15は、図14のステップS9における動作の一例を示すフローチャートである。ステップS9では、3D局所パッチ抽出部19aによって、先ず顔部位3D計算部14により算出された各特徴部位における各特徴点(3D座標)(3D顔部位形状データ)から、局所パッチ抽出用平面Tが設定(算出)される(ステップS21)。次に、この設定された局所パッチ抽出用平面T上に、矩形領域S(後述の部分領域)が設定される(ステップS22)。そして、矩形領域Sに対応する局所パッチ領域Pが設定される、すなわち3D顔部位形状データを構成する複数の3D点αのうちの局所パッチ抽出用平面Tに垂直に降ろした垂線が矩形領域Sの中に入る3D点αが特定され、この特定された3D点αからなる領域が局所パッチ領域Pとして設定される(ステップS23)。
以上のように、本実施形態に係る認証システム1によれば、3次元形状取得部(顔領域検出部12、顔領域3D計算部18)によって、認証対象者HMの顔の全体的な3D形状である全体3次元形状(全体3D形状)の情報が取得され、局所領域決定部(3D局所パッチ抽出部19a)によって、3次元形状取得部により取得された全体3D形状情報(3D顔密形状データ)から、該全体3D形状における局所的な領域である複数の3次元局所領域(3D局所領域;局所パッチ領域)が決定される。また、3次元特徴量算出部(3D特徴量抽出部19b)によって、局所領域決定部により決定された3D局所領域における局所3次元形状情報(局所3D形状情報)から、該3D局所領域の形状に関する局所領域形状情報であって、顔の3次元的な特徴量である3D顔特徴量が算出される。そして、特徴量比較部(類似度計算部20、判定部22)によって、認証対象者HMに対する認証動作を行うべく3次元特徴量算出部により算出された3D顔特徴量と、予め用意された比較用顔特徴量とが比較される。
また、本実施形態に係る認証方法によれば、第1の工程において、認証対象者の顔の全体的な3D形状である全体3D形状の情報が取得され、第2の工程において、全体3D形状情報から、該全体3D形状における局所的な領域である複数の3D局所領域が決定される。第3の工程において、3D局所領域における局所3D形状情報から、該3D局所領域の形状に関する局所領域形状情報であって、顔の3次元的な特徴量である3D顔特徴量が算出される。そして、第4の工程において、認証対象者HMに対する認証動作を行うべく3D顔特徴量と予め用意された比較用顔特徴量とが比較される。
このように認証システム又は認証方法において、認証対象者HMの顔の全体3D形状から複数の3D局所領域が決定され、この3D局所領域における局所3D形状情報から3D顔特徴量が算出され、この3D顔特徴量と比較用顔特徴量との比較が行われることで認証対象者に対する認証動作が行われる。したがって、顔の全体3D形状の情報をそのまま用いるのではなく、顔全体の3D形状から局所的な領域(3D局所領域)を複数個抽出し、この抽出した3D局所領域に基づいて認証を行う構成であるので、顔に部分的な隠れ等が生じたとしても、必ずしもこの隠れ等が生じた部分を用いずともよく、この部分以外の局所領域の情報を用いて認証を行うことができるから、認証精度の低下を軽減することができる。また、データ量の多い全体3D形状(3Dデータ)の情報をそのまま扱わなくてもよいため、つまり局所領域の部分的な3D形状データを扱えばよいため、処理時間が短縮され、認証速度を向上させることができる。
上記認証システムにおいて、3次元形状取得部が、顔の2D画像を取得する2次元画像取得部(カメラCA1、CA2)を備えたものとされ、特徴部位抽出部(顔部位検出部13)によって、2次元画像取得部により取得された2D画像から顔の特徴的な部位である特徴部位が抽出される。そして、3次元座標算出部(顔部位3D計算部14)によって、特徴部位抽出部により抽出された特徴部位の3D座標(M(j))が算出され、局所領域決定部によって、3次元座標算出部により算出された特徴部位の3D座標に基づいて3次元局所領域が決定される。
上記認証方法において、第1の工程が、顔の2D画像を取得する第5の工程を含む工程とされ、第6の工程において、2D画像から顔の特徴的な部位である特徴部位が抽出される。また、第7の工程において、特徴部位の3D座標が算出される。そして、上記第2の工程において、特徴部位の3D座標に基づいて3D局所領域が決定される。
このように認証システム又は認証方法では、2D画像から顔の特徴的な部位である特徴部位が抽出されてこの特徴部位の3D座標が算出され、この3D座標に基づいて3D局所領域が決定されるので、3D局所領域を決定するに際して2次元的な特徴部位の情報と関連付けることができ、当該3D局所領域の情報と共に特徴部位の情報を用いた高精度の認証を行うことが可能となる。
また、上記認証システムにおいて、局所領域決定部によって、3D座標から定まる平面(局所パッチ抽出用平面T)内に所定形状の部分領域(例えば矩形領域S)が設定されるとともに、全体3D形状における当該部分領域に対応する領域が3D局所領域として決定される。このように、特徴部位の3D座標から定まる平面内に所定形状の部分領域が設定され、全体3D形状におけるこの部分領域に対応する領域が3D局所領域として決定されるので、簡易な方法を用いて容易に特徴部位の3D座標から3D局所領域を決定することができる。
また、上記認証システムにおいて、全体3D形状情報が、複数の3D点(α)からなる顔の形状データとされ、局所領域決定部によって、3D点(α)から平面に仮想的に垂直に降ろされた垂線が部分領域に入っている3D点で構成される領域が3D局所領域(局所パッチ領域P)として決定される。このように、3D点から平面に仮想的に垂直に降ろされた垂線が部分領域に入っている3D点で構成される領域が3D局所領域として決定されるので、簡易な方法を用いて容易に部分領域に対応する3D局所領域を決定することができる。
また、上記認証システムにおいて、局所領域決定部によって、全体3D形状と、予め用意された参照用3次元部分モデル形状(参照用3D部分モデル形状;参照パッチ)とが比較され、該全体3D形状における参照用3D部分モデル形状に最も類似した形状である部分が3D局所領域として決定される。このように、全体3D形状と参照用3D部分モデル形状とが比較され、全体3D形状における当該参照用3D部分モデル形状に最も類似した形状の部分が3D局所領域として決定されるので、2D画像を取得したり、この2D画像から特徴部位(2D顔特徴量)を抽出したりする構成及び動作を必要とせず、容易に全体3D形状における3D局所領域を決定することができる。
また、上記認証システムにおいて、3次元特徴量算出部によって、3D局所領域における局所3D形状情報が(上記例えばベジェ曲面等を用いた方法により)所定の曲面情報に変換されたものが局所領域形状情報として算出される。このように、3D局所領域の局所領域形状情報として、3D局所領域における局所3D形状情報が所定の曲面情報に変換されたものが用いられるので、すなわち3D形状情報がそのまま用いられるのではなく、これを変換して曲面情報(例えば曲率)として扱う構成であるので、次元圧縮が可能となり、処理が高速となる。
また、上記認証システムにおいて、3次元特徴量算出部によって、3D顔特徴量として、各3D局所領域の相対位置関係の情報も含む3D顔特徴量が算出される。このように、3D顔特徴量が、各3D局所領域の相対位置関係の情報も含むものとされるので、この3D顔特徴量によって、各3D局所領域における個々の特徴だけでなく、顔全体に亘っての特徴を表すことが可能となり(顔の大域形状情報を扱うことができ)、より高精度の認証を行うことが可能となる。
また、上記認証システムにおいて、局所領域決定部によって、複数の3D局所領域が顔の左右対称となる位置に配置されるように全体3D形状における3D局所領域が決定される。このように、3D局所領域が顔の左右対称の位置に配置されるので、全体3D形状における3D局所領域の(位置の)決定が効率良く行えるようになり処理時間が短縮されるとともに、データの取り扱い性が向上する。
また、上記認証システムにおいて、局所領域決定部によって、複数の3D局所領域が少なくとも顔の鼻及び頬の部位が含まれるように全体3D形状における該3D局所領域が決定される。このように、少なくとも顔の鼻及び頬の部位が含まれるように全体3D形状における3D局所領域が決定されるので、当該3D局所領域を、例えば髪で隠れてしまう部位(例えば額)や計測し難い部位(例えば口髭を有する場合の口)を避けて設定することができて、この3D局所領域から精度良く3D顔特徴量を算出することができ、ひいては高精度の認証を行うことが可能となる。
また、上記認証システムにおいて、2次元特徴量算出部(2D特徴量抽出部17b)によって、特徴部位抽出部により抽出された特徴部位の情報から顔の2次元的な特徴量である2D顔特徴量が算出される。そして、特徴量比較部によって、2次元特徴量算出部により算出された2D顔特徴量と3次元特徴量算出部により算出された3D顔特徴量とを例えば重み付け和により併せてなる総合的な顔特徴量(多重類似度)と、比較用顔特徴量とが比較される。
また、上記認証方法において、第8の工程において、特徴部位の情報から顔の2次元的な特徴量である2D顔特徴量が算出され、第4の工程において、2D顔特徴量と3D顔特徴量とを併せてなる総合的な顔特徴量と、比較用顔特徴量とが比較される。
これらのように認証システム又は認証方法では、顔の2D顔特徴量が算出され、この2D顔特徴量と3D顔特徴量とを併せてなる総合的な顔特徴量と、比較用顔特徴量とが比較されるので、2D顔特徴量と3D顔特徴量とを用いたより高精度な認証を行うことが可能となる。
また、上記認証システムにおいて、3次元特徴量算出部によって、少なくとも顔の特徴部位以外の部位を含む3D局所領域における局所3D形状情報から3D顔特徴量が算出される。このように、少なくとも顔の特徴部位以外の部位を含む3D局所領域における局所3D形状情報から3D顔特徴量が算出されるので、2D顔特徴量と3D顔特徴量とを用いた認証(多重認証)を行うに際して、2D顔特徴量として特徴を抽出し難い特徴部位以外の部位の特徴を、3D顔特徴量として含むことができ、すなわち2D顔特徴量でカバーすることができない特徴量を3D顔特徴量でカバーすることができ、ひいてはより高精度な認証を行うことができる。
また、上記認証システムにおいて、2D顔特徴量を算出するための特徴部位の情報はテクスチャ情報であって、補正部(姿勢・光源補正部15)によって、当該テクスチャ情報に対して、顔の姿勢に関する補正である姿勢変動補正及び顔に対する光源の向きに関する補正である光源変動補正が行われる。これによれば、2D顔特徴量を算出するための特徴部位のテクスチャ情報に対して、顔の姿勢に関する補正である姿勢変動補正及び顔に対する光源の向きに関する補正が行われるので、姿勢変動補正及び光源変動補正がなされた補正テクスチャ情報に基づいて適正な2D顔特徴量を得ることができ、ひいてはより高精度な認証を行うことができる。
また、上記認証システムにおいて、3次元形状取得部において、少なくとも2つの撮影装置(カメラCA1、CA2)によって顔の2D画像が撮影され、3次元形状算出部によって、当該各撮影装置から得られた2枚の2D画像から位相限定相関法による演算処理で得た対応点に対して3次元再構成を行うことによって全体3D形状が算出される。これによれば、少なくとも2つの撮影装置から得られた2枚の2D画像から位相限定相関法による演算によって全体3D形状が算出されるので、高価な3次元撮影装置等を用いることなく低コストで、且つ位相限定相関法により精度良く全体3D形状を算出することができる。
また、上記認証システムにおいて、3次元特徴量算出部により算出される3D顔特徴量がベクトル量(3D特徴ベクトル)とされ、記憶部(記憶部3)によって、該ベクトル量に対応する比較用顔特徴量(比較用特徴量)としての比較用ベクトル量(比較用の3D特徴ベクトル)が記憶されるので、すなわち比較用顔特徴量として記憶されるデータが、計測された所謂密な3D形状データ(3D顔密形状データ)でなくベクトル量となるので、記憶するデータ量を小さくすることができる(メモリ容量が少なくて済む)とともに、データの扱いが容易となる。
なお、上述の実施形態における認証システムおよび認証方法は、2D顔特徴量および3D顔特徴量に基づいて多重類似度が算出され、この多重類似度に基づいて顔照合或いは顔識別の認証判定が行われるように構成されたが、局所領域形状情報および大域領域形状情報に基づいて類似度が算出され、この類似度に基づいて顔照合或いは顔識別の認証判定が行われるように構成されてもよい。
図16は、他のコントローラが備える顔認証の機能を説明するための機能ブロック図である。図17は、図16に示す認証システムの動作の一例を示すフローチャートである。
本実施形態の認証システムは、図1ないし図3に示す認証システム1におけるコントローラ10に代え、図16に示すコントローラ30を備える点で、図1ないし図3に示す認証システム1と異なる。したがって、図1に示すような認証システムの概略構成や図2に示すようなコントローラの全体的な構成については、その説明を省略し、以下、このコントローラ30の機能ブロックについて説明する。
図16において、コントローラ30は、機能的に、画像入力部31と、顔領域検出部32と、顔部位検出部33と、顔部位3D計算部34と、顔領域3D計算部35と、3次元局所領域抽出部(3D局所領域抽出部)36と、局所領域情報計算部38と、大域領域情報計算部37と、類似度計算部39と、登録データ記憶部40と、総合判定部41とを備えて構成されている。
これら画像入力部31(第1および第2画像入力部31a、31b)、顔領域検出部32(第1および第2顔領域検出部32a、32b)、顔部位検出部33(第1および第2顔部位検出部33a、33b)、顔部位3D計算部34および顔領域3D計算部35は、図3に示す画像入力部11(第1および第2画像入力部11a、11b)、顔領域検出部12(第1および第2顔領域検出部12a、12b)、顔部位検出部13(第1および第2顔部位検出部13a、13b)、顔部位3D計算部14および顔領域3D計算部18とそれぞれ同様であるので、その説明を省略する。
3D局所領域抽出部36は、顔領域3D計算部35によって算出された3D顔密形状データと顔部位3D計算部34によって算出された3D顔部位形状データ(特徴部位)とから3次元局所領域を抽出(算出)するものである。すなわち、3D局所領域抽出部36は、図3に示す3次元認証部19の3D局所パッチ抽出部19aと同様であり、3D顔密形状データと、3D顔部位形状データ(特徴部位)とから3次元的な局所パッチ領域を抽出(算出)するものである。したがって、この3次元的な局所パッチ領域の抽出方法は、上述したように、例えば、平面内に設定された所定形状の部分領域に垂線を降ろすことによって対応する3D顔密形状データの領域を局所パッチ領域として抽出する方法、参照用のモデル形状に最も類似する3D顔密形状データの領域を局所パッチ領域として抽出する方法、2次元画像上に予め定義された領域に含まれる3D顔密形状データの領域を局所パッチ領域として決定する方法、平均の顔より算出された標準モデルの形状と交差判定を行うことによって局所パッチ領域を決定する方法、および、平均の顔より算出された標準モデルの形状と領域判定を行うことによって局所パッチ領域を決定する方法等を採用することができる。
局所領域情報計算部37は、3D局所領域抽出部36によって抽出された3次元局所領域(局所パッチ領域)単体の情報から局所領域情報を抽出(算出)するものである。本実施形態では、局所領域情報計算部37は、3D局所領域抽出部36によって抽出された3次元局所領域(局所パッチ領域)単体の情報から、顔の特徴部位における3次元特有な特徴量(局所3D顔特徴量)を抽出するものである。この局所3D顔特徴量の抽出方法は、例えば、上述の図3に示す3次元認証部19の3D特徴量抽出部19bにおける抽出方法と同様の抽出方法を採用することができる。すなわち、局所3D顔特徴量の抽出方法は、例えば、局所パッチ領域の曲面内に在る複数の点における曲率を局所3D顔特徴量として抽出する方法、および、局所パッチ領域の形状に近似された曲面の形状情報(曲面情報)を局所3D顔特徴量として抽出する方法を採用することができる。
また例えば、標準モデルを用いて局所パッチ領域ごとに位置合わせを行った後の標準モデルと局所パッチ領域との距離を局所3D顔特徴量として抽出する方法も採用することができる。より具体的には、まず、3D局所領域抽出部36で用いた標準局所領域モデル上に予め定義してある複数(N個)から成る標準局所モデルの定義点Hに対応する局所パッチ領域における対応点S’(S’=(s、s、・・・、sNh))が取得される。次に、標準モデルの複数の点Hとこれらに対応する局所パッチ領域の複数の点S’との距離d(h、s)がそれぞれ求められる。そして、それら複数の距離d(h、s)を3D特徴ベクトルとして算出することによって局所3D顔特徴量として抽出することができる。
大域領域情報計算部38は、3D局所領域抽出部36によって抽出された3次元局所領域(局所パッチ領域)の情報から大域領域形状情報を抽出(算出)するものである。本実施形態では、大域領域情報計算部38は、3D局所領域抽出部36によって抽出された3次元局所領域(局所パッチ領域)の情報から、顔全体における3次元特有な特徴量(大域3D顔特徴量)を抽出(算出)するものである。
大域領域形状情報は、局所領域形状情報に対する語であって、認証対象者における顔全体の3次元的な形状の特徴量である。大域領域形状情報は、例えば、<1>顔の3次元局所領域に基づいて算出される。また例えば、大域領域形状情報は、<2>顔全体の形状に基づいて算出される。また例えば、大域領域形状情報は、<3>顔の3次元特徴点に基づいて算出される。以下、<1>〜<3>の各場合についてより具体的に説明する。
<1>顔の3次元局所領域に基づく算出方法
この顔の局所パッチ領域に基づいて大域3D顔特徴量を算出する算出方法としては、例えば、以下の<1−1>および<1−2>が挙げられる。
<1−1>
大域3D顔特徴量は、局所パッチ領域の重心に基づいて算出される。すなわち、まず、複数(Nh個)の局所パッチ領域のそれぞれについて重心が算出される。次に、これら算出された複数の重心S(S=(s、s、・・・、sNh))と、登録されている複数の重心T(T=(t、t、・・・、tNh))とについて、対応する重心S、T間の距離d(t、s)がそれぞれ算出される。そして、これら算出された複数の距離の平均が大域3D顔特徴量distbとして求められる(式12)。
Figure 0004780198
<1−2>
また、大域3D顔特徴量は、局所パッチ領域の法線に基づいて算出される。より具体的には、まず、SRTフィッティングによって標準モデルと局所パッチ領域との位置合わせが行われる。次に、RTレジストレーションによって、比較する局所パッチ領域同士の位置合わせがより高精度に行われる。これによって対応点が再度計算することによって求められる。この求められたN個の対応点ごとに法線が求められ、式13によって大域3D顔特徴量distbが求められる。
Figure 0004780198
<SRTフィッティング>
SRTフィッティングは、測定データにおける特徴点を標準モデルの特徴点に位置合わせする処理である。SRTフィッティングは、標準モデルの特徴点と測定データの特徴点との距離エネルギーが最小になるように、式14・1、式14・2によって標準モデルデータをアフィン変換する処理である。
Figure 0004780198
Figure 0004780198
ここで、Pnewは、変換後の3次元点であり、Mは、3行4列の変換行列であり、Poldは、変換前の3次元点である。また、Mは、標準モデルの特徴点であり、Cは、計測データの特徴点であり、kは、特徴点の個数であり、f(M、C)は、標準モデルの特徴点と測定データの特徴点との距離エネルギーである。
SRTフィッティングでは、距離エネルギーを最小とする変換行列が例えば最小二乗法によって求められ、変換後の標準モデルデータの位置が求められる。また、標準モデルの射影中心点も位置変換される。
<RTレジストレーション>
RTレジストレーションは、複数(N個)の点から成る第1測定データT(T={t|i∈N}と、第1測定データMの個数とは異なる複数(N個)の点から成る第2測定データS(S={s|s∈N}とにおいて、選択された標準モデルN個から成る標準モデルの点群Hと対応する対応点群S’(S’=(s、s、・・・、sNh))とT’(T’=(t、t、・・・、tNh))を求める。
2つの点群のレジストレーションは、m=RRs+TTとなる回転行列RRおよび並進ベクトルRTを求める。
まず、対応点群S’、T’を用いて共分散行列Bが算出される。共分散行列Bは、式15・1によって与えられる。
Figure 0004780198
ここで、行列Aは、式15・2である。
Figure 0004780198
ここで、s’は、s’=(s’、s’、s’)であり、測定点の3次元座標を表しており、t’も同様である。
この共分散行列Bの対称行列から例えばヤコビ法によって固有値分解が行われ、固有値と固有ベクトルとが算出される。
この算出された固有値λ(λ≧・・・≧λ≧・・・≧λ)の中から最小の固有値が求められ、この最小の固有値に対応する固有ベクトルが求められ、この求められた固有ベクトルによって構成される行列[φ、φ、・・・、φ]が選択され、そして、回転行列RRと並進ベクトルRTとが算出される。
<2>顔全体の形状に基づく算出方法
この顔全体に基づいて大域領域形状情報を算出する算出方法としては、例えば、以下の<2−1>〜<2−6>が挙げられる。
<2−1>
大域3D顔特徴量は、標準モデルに対して抽出した局所パッチ領域を用いることによってSRTフィッティングが行われ、SRTフィッティングの変形S、移動Tおよび回転Rの各パラメータのうちの変形パラメータSとされる。
変形パラメータSは、局所パッチ領域の形状に標準モデル上の定義点と局所パッチ領域上の特徴点とをフィッティングするように標準モデルの形状を変形するためのパラメータである。変形パラメータSは、SRTフィッティングに使用される特徴点が略正確に顔の特徴点と一致していれば、同一人物の顔の大きさ(横幅、縦幅および奥行き等)が不変であることから、個人を表していると考えられる。また、変形パラメータSは、例えば、倍率や露出等の撮影条件が変わっても、同一値が算出される。また、変形パラメータSは、全ての局所パッチ領域を用いなくてもよい。つまり安定して得られる鼻を含む複数の局所パッチ領域を纏めてSRTフィッティングを行って求めるようにしてもよい。
<2−2>
大域3D顔特徴量は、各局所パッチ領域について、標準モデルにおける予め定義された複数の点とこれら標準モデルの複数の点にそれぞれ対応する局所パッチ領域上の複数の測定点とのそれぞれについて距離を求め、それらの距離の平均値を求めることによって与えられる。
より具体的には、まず、SRTフィッティングによって標準モデルと局所パッチ領域との位置合わせが行われる。次に、選択された標準モデル上に予め定義された複数(N個)の点群H(H=(h、h、・・・、hNh))に対応する局所パッチ領域上の複数の測定点の点群S’(S’=(s、s、・・・、sNh))が取得される。次に、標準モデルの複数の点群Hとこれらに対応する局所パッチ領域の複数の点群Sとの距離d(h、s)がそれぞれ求められる。そして、それら複数の距離d(h、s)の平均値が大域3D顔特徴量distbとして求められる(式12参照)。SRTフィッティングによって略正確に位置合わせされていれば、対応点S’は、対象者ごとに同じ点が与えられる。
<2−3>
大域3D顔特徴量は、各局所パッチ領域について、標準モデルにおける予め定義された複数の点が局所パッチ領域上にそれぞれ投影され、標準モデルより投影された投影点と同様に処理された登録データの投影点とのそれぞれについて距離を求め、それらの距離の平均値を求めることによって与えられる。
より具体的には、まず、SRTフィッティングによって標準モデルと局所パッチ領域との位置合わせが行われる。次に、選択された標準モデルにおける予め定義された複数(N個)の点群H(H=(h、h、・・・、hNh))を局所パッチ領域上に投影することによって局所パッチ領域上の複数の投影点群S’(S’=(s、s、・・・、sNh))が取得される。次に、選択された標準モデルに同様の処理を行った複数(N個)の登録データの点Tとこれに対応する局所パッチ領域上の複数の投影点S’との距離d(t、s)がそれぞれ求められる。そして、それら複数の距離d(t、s)の平均値が大域3D顔特徴量distbとして求められる(式12参照)。SRTフィッティングによって略正確に位置合わせされていれば、対応点S’は、対象者ごとに同じ点が与えられる。
<2−4>
大域3D顔特徴量は、各局所パッチ領域について、比較する局所パッチ領域(測定データと登録データ)間における互いに対応する点間の距離の平均値を求めることによって与えられる。
より具体的には、まず、SRTフィッティングによって標準モデルと局所パッチ領域との位置合わせが行われる。次に、RTレジストレーションによって、比較する局所パッチ領域間の位置合わせがより高精度に行われる。次に、このRTレジストレーションに用いたN個から成る測定点群S’(S’=(s、s、・・・、sNh))と登録点群T’(T’=(s、s、・・・、sNh))との間における互いに対応する点間の距離が求められる。次に、これら複数の距離d(s、t)の平均値が大域3D顔特徴量distbとして求められる(式16)。
Figure 0004780198
<2−5>
大域3D顔特徴量は、各局所パッチ領域について、比較する局所パッチ領域間における互いに対応する点間の平均値を求めることによって与えられる。
より具体的には、まず、SRTフィッティングによって標準モデルと局所パッチ領域との位置合わせが行われる。次に、RTレジストレーションによって、比較する局所パッチ領域間の位置合わせがより高精度に行われる。そして、位置合わせ後のN個の点から成る登録点群T={t|t∈N}と、このNと異なるN個の点から成る測定点群S={s|s∈N}との対応点が再計算される。点群Sの各点sにおいて点群Tとの距離は、d(s,T)=mind(s,t)=d(s,m)となる。ここで、「mind(s,t)」は、j∈1、・・・、Nにおけるd(s,t)について最小値を求めることである。sに対応する点をm∈Tとすると、sの対応点集群Mは、M=C(S、T)(Cは、最近傍点を求める関数)となる。すなわち、測定データの点群Sと測定データの点群Tにおいて、点群Sの点sに対して点群Tの点tの中から最近傍に存在する点を求め、対応点集群Mとする。次に、これら求めた対応点集群Mの点mとこれに対応する点群Sの点sとの間の距離d(s、m)が求められる。次に、これら複数の距離d(s、m)の平均値が大域3D顔特徴量distbとして求められる(式17)。
Figure 0004780198
<2−6>
大域3D顔特徴量は、各局所パッチ領域について、比較する局所パッチ領域間における互いに対応する点間の分散値を求めることによって与えられる。
より具体的には、まず、SRTフィッティングによって標準モデルと局所パッチ領域との位置合わせが行われる。次に、RTレジストレーションによって、比較する局所パッチ領域間の位置合わせがより高精度に行われる。そして、位置合わせ後のN個の点から成る登録点群T={t|t∈N}と、このNと異なるN個の点から成る測定点群S={s|s∈N}との対応点が再計算される。そして、点群Sの各点sと点群Tの各点tの分散値Sigmaが大域3D顔特徴量distbとして求められる(式18)。
Figure 0004780198
なお、これら顔全体の形状に基づく算出方法において、局所パッチ領域においては、データ量を密なデータ群とし、それ以外の領域においては粗なデータ群として、大域領域形状情報の比較が行われてもよい。
<3>顔の3次元特徴点に基づく算出方法
大域3D顔特徴量は、局所パッチ領域に定義されたライン(特徴抽出ライン)に基づいて算出される。より具体的には、予め設定された所定の局所パッチ領域にライン(特徴抽出ライン)が定義される。特徴抽出ラインは、例えば、3D顔部位形状データにおける複数の特徴点から定義される。特徴抽出ラインは、認証精度をより高めるべく、顔の3D形状の特徴がよく現れる部分に定義されることが望ましい。例えば、特徴抽出ラインは、例えば鼻を横断するような顔の凹凸の起伏を含むラインである。次に、この局所パッチ領域に定義された特徴抽出ラインが3D顔密形状データへ投影され、この局所パッチ領域に定義された特徴抽出ライン上の複数の点に対応する3D顔密形状データ上の複数の点がそれぞれ求められ、これら点群が大域3D顔特徴量とされる。なお、この局所パッチ領域に定義された特徴抽出ライン上の点に対応する3D顔密形状データ上の点が存在しない場合には、3D顔密形状データ上におけるその近傍の複数の点より補間によって求められる。
なお、特徴抽出ラインは、認証精度をより高めるべく、局所パッチ領域から局所パッチ領域外へ延長されてもよい。また、特徴抽出ラインは、認証精度をより高めるべく、複数の局所パッチ領域のそれぞれに定義され、それぞれの特徴抽出ラインから3D顔密形状データ上の複数の点群が求められ、これら複数の点群が大域3D顔特徴量とされてもよい。また、特徴抽出ライン上の複数の点は、等間隔でもよく、不等間隔であってもよい。
類似度計算部39は、図3に示す類似度計算部20と同様に、予め登録された比較対象者の特徴量(比較用特徴量)と、上述で算出された認証対象者HMの局所領域形状情報および大域領域形状情報に基づいて類似度を算出することによって類似性の評価を行うものである。類似度の算出は、局所領域形状情報および大域領域形状情報のそれぞれについて局所情報類似度Dslおよび大域情報類似度Dsbとして算出され、類似度Dijは、互いに対応するベクトル(3D特徴ベクトルd)同士間のユークリッド距離の合計を算出することにより得ることができる(式10参照)。
登録データ記憶部40は、類似度計算部39で局所情報類似度Dslおよび大域情報類似度Dsbを計算するために、図3に示す登録データ記憶部21と同様に、予め用意された比較対象者の特徴量(比較用顔特徴量)の情報を記憶しておくものである。
総合判定部41は、局所情報類似度Dslと大域領域形状情報Dsbとのそれぞれに重み付けW、1−Wを行って、その和を多重類似度Reとして求め(Re=WDsl ij+(1−W)Dsb ij)、この多重類似度Reに基づいて認証判定を行うものである。認証判定は、上述したように、顔照合の場合および顔識別の場合がある。
なお、総合判定部41は、まず局所情報類似度Dslに基づいて判定を行って、その判定結果で類似度の差が閾値以上である場合には他人と判定し、類似度の差が閾値未満である場合のみに大域情報類似度Dsbに基づいて判定を行ってもよい。
図17において、大域領域形状情報を用いた顔認証では、先ず、カメラCA1及びCA2それぞれによる撮影によって認証対象者HMの顔画像が取得される(ステップS31)。次に、当該撮影により得られた2枚の顔画像がコントローラ30(画像入力部31)に入力される(ステップS32)。次に、顔領域検出部32によって、画像入力部31に入力された各顔画像から顔領域画像が検出される(ステップS33)。この検出された顔領域画像から、顔部位検出部33によって、顔の特徴部位すなわち特徴点の座標が検出される(ステップS34)。そして、顔部位3D計算部34によって、顔部位検出部33により検出された顔の特徴部位の座標(特徴点の座標)から該各特徴部位の3次元における座標(3D顔部位形状データ)が算出される(ステップS35)。
一方、顔領域3D計算部35によって、顔領域検出部32により検出された顔領域画像(ステレオ画像)から、複数の2D点からなる3D顔密形状データが算出される(ステップS36)。次に、3D局所領域抽出部36によって、顔領域3D計算部35により算出された3D顔密形状データと、上記ステップS35おいて顔部位3D計算部34により算出された3D顔部位形状データとから3次元的な局所領域(局所パッチ領域)が算出される(ステップS37)。次に、局所領域情報計算部37によって、3D局所領域抽出部36によって抽出された3次元局所領域(局所パッチ領域)単体の情報から局所領域情報、本実施形態では3D顔特徴量が算出される(ステップ38)。次に、大域領域情報計算部38によって、3D局所領域抽出部36によって抽出された3次元局所領域(局所パッチ領域)の情報から大域領域形状情報、本実施形態では大域3D顔特徴量が算出される(ステップ39)。次に、類似度計算部39によって、予め登録された比較対象者の特徴量(比較用特徴量)と、上記ステップS38及びS39において算出された局所領域形状情報および大域領域形状情報との類似性の評価が行われる(ステップS40)。そして、多重類似度Reに基づいて、総合判定部41によって、顔照合或いは顔識別の認証判定が行われる(ステップS41)。
局所領域単体ごとに位置合わせ等の手法によって形状の一致度を比較する場合では、局所領域間の形状が比較される。したがって、局所領域の形状一致精度が高ければ、局所領域間の相対的な位置関係が大きく異なっている場合でも誤差が小さくなるので、他人間の誤差も小さくなる結果、認証精度が低下することになる。そのため、複数の局所領域を1つの大域領域とし、位置合わせ等の手法によって形状の一致度を比較する場合では、局所領域ごとの形状比較に加えて、局所領域間の相対的な位置関係の情報も含まれることから認証精度の向上が見込まれる。ここで、例えば、特開2007−164670号公報などのICPアルゴリズムによる3次元顔認証方法は、この点から有効な手法であるが、ICPアルゴリズムは、実際には、その処理時間と特徴量化との点で困難であった。上記本実施形態では、顔の大域領域の形状情報を局所領域に分割し、大域領域形状情報と局所領域形状情報とに分離しているため、データ量の削減と処理時間の短縮化が図られている。そして、大域領域形状情報も用いているため、より高精度に認証を行うことが可能となる。
なお、本実施形態は、以下の態様をとることができる。
(A)局所パッチ抽出用平面T上に設定する領域は、矩形領域Sのように矩形でなくともよく、要は、局所パッチ抽出用平面Tにおける部分的な領域(部分領域)であれば、形状は、任意でよい。また、特徴部位の形状も矩形でなくともよく、任意な形状でよい。
(B)矩形領域Sから局所パッチ領域を決定する方法は、上述のように局所パッチ抽出用平面Tに垂直に降ろした垂線が(垂線の足が)矩形領域Sの中に入る3D点とする方法に限定されず、種々の方法が採用可能である。例えば3D点から局所パッチ抽出用平面Tに垂直に降ろさずに、該平面Tに対して所定の角度で降ろしてもよい。また例えば、矩形領域Sから所定の方向に仮想の例えば放射状の線を出して、この線と交差(当接)する3D形状上の範囲を局所パッチ領域とする方法であってもよい。
(C)認証システム1は、図1に示すようにコントローラ10とカメラCA1、CA2とに分離された構成でなくてもよい。例えばコントローラ10内に直接、各カメラが内蔵された構成であってもよい。ただしこの場合、各カメラは、互いに異なる角度で認証対象者HMを撮影できるような配置で内蔵されている。
本明細書は、上記のように様々な技術を開示しているが、そのうち主な技術を以下に纏める。
一態様にかかる認証システムは、認証対象者の顔の全体的な3次元形状である全体3次元形状の情報を取得する3次元形状取得部と、前記3次元形状取得部により取得された全体3次元形状情報と、予め用意された参照用3次元部分モデル形状上に定義された局所領域情報とを同一空間上に変換する同一空間変換部を備え、該同一空間変換部により変換された同一空間における前記全体3次元形状と、前記参照用3次元部分モデル形状との包含関係を比較することによって、前記全体3次元形状における局所的な領域である複数の3次元局所領域を決定する局所領域決定部と、前記局所領域決定部により決定された3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、前記顔の3次元的な特徴量である3次元顔特徴量を算出する3次元特徴量算出部と、前記認証対象者に対する認証動作を行うべく前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較する特徴量比較部とを備える。
上記構成によれば、局所領域決定部によって、認証対象者の局所的な領域である複数の3次元局所領域が決定される。これら複数の3次元局所領域は、例えば、3次元形状取得部によって、認証対象者の顔の全体的な3次元形状である全体3次元形状の情報が取得され、局所領域決定部によって、3次元形状取得部により取得された全体3次元形状情報から、該全体3次元形状における局所的な領域であるこれら複数の3次元局所領域が決定される。3次元特徴量算出部によって、局所領域決定部により決定された3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、顔の3次元的な特徴量である3次元顔特徴量が算出される。そして、特徴量比較部によって、認証対象者に対する認証動作を行うべく3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とが比較される。
したがって、この認証システムによれば、顔の全体3次元形状の情報をそのまま用いるのではなく、認証対象者の顔の全体3次元形状から選定された複数の3次元局所領域における局所3次元形状情報に基づいて認証動作が行われるので、顔に部分的な隠れ等が生じたとしても、必ずしもこの隠れ等が生じた部分を用いずともよく、この部分を除く他の局所領域の情報を用いて認証を行うことができるから、認証精度の低下を軽減することができる。また、データ量の多い全体3次元形状の情報をそのまま扱わなくてもよく、局所領域の部分的な3次元形状データを扱えばよいので、処理に時間が短所され、認証速度の向上が可能となる。
また、他の態様にかかる認証システムでは、前記局所領域決定部は、前記参照用3次元部分モデル上の3次元面と前記全体3次元形状の3次元面との包含関係を比較することによって、前記3次元局所領域として決定する。
また、他の態様にかかる認証システムでは、前記局所領域決定部は、前記参照用3次元部分モデル上の3次元面と前記全体3次元形状の3次元座標点との包含関係を比較することによって、前記3次元局所領域として決定する。
また、他の態様にかかる認証システムでは、前記局所領域決定部は、前記参照用3次元部分モデル上の3次元座標点と前記全体3次元形状の3次元面との包含関係を比較することによって、前記3次元局所領域として決定する。
また、他の態様にかかる認証システムは、認証対象者の顔の全体的な3次元形状である全体3次元形状の情報を取得する3次元形状取得部と、前記3次元形状取得部により取得された全体3次元形状情報から、該全体3次元形状における局所的な領域である複数の3次元局所領域を決定し、前記3次元局所領域を密なデータとし、前記3次元局所領域以外と決定された3次元局所外領域を疎なデータとして保持する局所領域決定部と、前記局所領域決定部により決定された3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、前記顔の3次元的な特徴量である3次元顔特徴量を算出する3次元特徴量算出部と、前記認証対象者に対する認証動作を行うべく前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較する特徴量比較部とを備える
上記構成にとれば、局所領域決定部が、全体3次元形状と、予め用意された参照用3次元部分モデル形状上に定義された局所領域情報を同一空間上に変換する同一空間変換部を備えるものとされ、この同一空間変換部によって、この変換された同一空間における全体3次元形状と参照用3次元部分モデル形状との包含関係が比較され、その比較結果に応じて3次元局所領域が決定される。したがって、この認証システムによれば、容易に全体3次元形状における3次元局所領域が決定され得る。
また、他の態様にかかる認証システムでは、前記3次元特徴量算出部は、前記3次元局所領域から局所3次元形状情報を算出したものを前記局所領域形状情報として算出する。
また、他の態様にかかる認証システムでは、前記3次元特徴量算出部は、前記3次元局所領域における局所3次元形状情報を所定の曲面情報に変換したものを前記局所領域形状情報として算出する。
また、他の態様にかかる認証システムでは、前記3次元特徴量算出部は、前記3次元局所領域における局所3次元形状情報を標準モデル上に定義された定義点と3次元局所領域の対応点の距離情報をベクトルに変換したものを前記局所領域形状情報として算出する。
上記構成によれば、3次元特徴量算出部によって、3次元局所領域から局所3次元形状情報を算出したものが局所領域形状情報として算出される。例えば、3次元特徴量算出部によって、3次元局所領域における局所3次元形状情報が所定の曲面情報に変換されたものが局所領域形状情報として算出される。また例えば、3次元特徴量算出部によって、3次元局所領域における局所3次元形状情報を標準モデル上に定義された定義点と3次元局所領域の対応点の距離情報をベクトルに変換したものが局所領域形状情報として算出される。
したがって、この認証システムによれば、3次元形状情報がそのまま用いられるのではなく、3次元局所領域から局所3次元形状情報を算出したもの、例えば、局所3次元形状情報を変換して曲面情報(例えば曲率)として扱う構成であるから、次元圧縮が可能となり、処理が高速となる。
また、他の態様にかかる認証システムでは、前記3次元特徴量算出部は、前記3次元顔特徴量として、3次元局所領域同士の位置関係の情報も含む3次元顔特徴量を算出する。
上記構成によれば、3次元特徴量算出部によって、3次元顔特徴量として、各3次元局所領域の相対位置関係の情報も含む3次元顔特徴量が算出される。
したがって、この認証システムによれば、この3次元顔特徴量によって、各3次元局所領域における個々の特徴だけでなく、顔全体に亘っての特徴を表すことが可能となり(顔の大域形状情報を扱うことができ)、より高精度の認証を行うことが可能となる。
また、他の態様にかかる認証システムでは、前記局所領域決定部は、前記複数の3次元局所領域が前記顔の左右対称となる位置に配置されるように前記全体3次元形状における3次元局所領域を決定する。
上記構成によれば、局所領域決定部によって、複数の3次元局所領域が顔の左右対称となる位置に配置されるように全体3次元形状における3次元局所領域が決定される。
したがって、この認証システムによれば、全体3次元形状における3次元局所領域の(位置の)決定が効率良く行えるようになって、処理時間が短縮されるとともに、データの取り扱い性が向上する。
また、他の態様にかかる認証システムでは、前記局所領域決定部は、前記複数の3次元局所領域が少なくとも前記顔の鼻及び頬の部位を含むように前記全体3次元形状における該3次元局所領域を決定する。
上記構成によれば、局所領域決定部によって、複数の3次元局所領域が少なくとも顔の鼻及び頬の部位が含まれるように全体3次元形状における該3次元局所領域が決定される。
したがって、この認証システムによれば、当該3次元局所領域を、例えば髪で隠れてしまう部位(例えば額)や計測し難い部位(例えば口髭を有する場合の口)を避けて設定することができるから、この3次元局所領域から精度良く3次元顔特徴量を算出することができ、ひいては高精度の認証を行うことが可能となる。
また、他の態様にかかる認証システムでは、前記3次元形状取得部は、前記顔の2次元画像を撮影する少なくとも2つの撮影装置と、当該各撮影装置から得られた2枚の2次元画像から、位相限定相関法による演算によって高精度な対応点検索処理を行い、3次元再構成を行うことで、前記全体3次元形状を算出する3次元形状算出部とを備える。
上記構成によれば、3次元形状取得部において、少なくとも2つの撮影装置によって顔の2次元画像が撮影され、3次元形状算出部によって、当該各撮影装置から得られた2枚の2次元画像から位相限定相関法による演算によって高精度な対応点検索処理が行われ、3次元再構成が行われることで、全体3次元形状が算出される。
したがって、この認証システムによれば、高価な3次元撮影装置等を用いることなく低コストで、且つ位相限定相関法によって精度良く全体3次元形状を算出することが可能となる。
また、他の態様にかかる認証システムでは、前記3次元特徴量算出部により算出される3次元顔特徴量はベクトル量であって、該ベクトル量に対応する前記比較用顔特徴量としての比較用ベクトル量を記憶する記憶部をさらに備える。
上記構成によれば、3次元特徴量算出部により算出される3次元顔特徴量は、ベクトル量であって、記憶部によって、該ベクトル量に対応する比較用顔特徴量としての比較用ベクトル量が記憶される。
したがって、この認証システムによれば、記憶部によって比較用顔特徴量として記憶されるデータが、計測された所謂密な3次元形状データでなく、ベクトル量となるから、記憶するデータ量を小さくすることができる(メモリ容量が少なくて済む)とともに、データの扱いが容易となる。
また、他の態様にかかる認証システムでは、前記局所領域決定部により決定された3次元局所領域に基づいて、前記全体3次元形状における大域的な領域である3次元大域領域の形状に関する大域領域形状情報であって、前記顔の3次元的な特徴量である大域3次元顔特徴量を算出する大域3次元特徴量算出部をさらに備え、前記特徴量比較部は、前記認証対象者に対する認証動作を行うべく前記大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較する。
上記構成によれば、大域3次元特徴量算出部によって、局所領域決定部により決定された3次元局所領域に基づいて、全体3次元形状における大域的な領域である3次元大域領域の形状に関する大域領域形状情報であって、顔の3次元的な特徴量である大域3次元顔特徴量が算出され、そして、特徴量比較部によって、認証対象者に対する認証動作を行うべく大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とが比較される。
また、他の態様にかかる認証システムでは、前記局所領域決定部により決定された3次元局所領域の情報に基づいて、前記全体3次元形状における大域的な情報である、前記顔の大域3次元顔特徴量を算出する大域3次元顔特徴量算出部をさらに備え、前記特徴量比較部は、前記認証対象者に対する認証動作を行うべく前記大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較する。
上記構成によれば、大域3次元特徴量算出部によって、局所領域決定部により決定された3次元局所領域の情報に基づいて、全体3次元形状における大域的な情報である、顔の大域3次元顔特徴量が算出され、そして、特徴量比較部によって、認証対象者に対する認証動作を行うべく大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とが比較される。
また、他の態様にかかる認証システムは、前記大域3次元顔特徴量算出部は、前記局所領域決定部により決定された3次元局所領域上に定義した3次元特徴点情報に基づいて、前記全体3次元形状における大域的な情報である、前記顔の3次元的な特徴量である大域3次元顔特徴量を算出す
また、他の態様にかかる認証システムでは、前記大域3次元特徴量算出部は、前記3次元局所領域上に定義した3次元特徴点情報に基づいて算出した標準モデルの変形パラメータの情報を抽出する。
また、他の態様にかかる認証システムでは、前記大域3次元特徴量算出部は、前記3次元局所領域上に定義した3次元特徴点情報に基づいて算出した3次元局所標準モデルと3次元局所領域との距離情報を抽出する。
また、他の態様にかかる認証システムでは、前記大域3次元特徴量算出部は、前記3次元局所領域上に定義した3次元特徴点情報に基づいて算出した前記3次元局所領域同士の距離情報を抽出する。
上記構成によれば、大域3次元特徴量算出部によって、局所領域決定部により決定された3次元局所領域上に定義した3次元特徴点情報に基づいて、全体3次元形状における大域的な情報である、顔の3次元的な特徴量である大域3次元顔特徴量が算出される。ここで、例えば、大域3次元特徴量算出部によって、3次元局所領域上に定義した3次元特徴点情報に基づいて算出した標準モデルの変形パラメータの情報が抽出される。また例えば、大域3次元特徴量算出部によって、3次元局所領域上に定義した3次元特徴点情報に基づいて算出した3次元局所標準モデルと3次元局所領域との距離情報が抽出される。また例えば、大域3次元特徴量算出部によって、3次元局所領域上に定義した3次元特徴点情報に基づいて算出した前記3次元局所領域同士の距離情報が抽出される。そして、特徴量比較部によって、認証対象者に対する認証動作を行うべく大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とが比較される。
また、他の態様にかかる認証システムでは、前記局所領域決定部により決定する3次元局所領域をライン状に抽出し、抽出されたライン状の3次元局所領域に基づいて、前記全体3次元形状における大域的な領域である、3次元大域領域の形状ベクトルとして大域3次元局顔特徴量を算出する大域3次元特徴量算出部をさらに備える。
上記構成によれば、大域3次元特徴量算出部によって、局所領域決定部により決定する3次元局所領域がライン状に抽出され、この抽出されたライン状の3次元局所領域に基づいて、全体3次元形状における大域的な領域である、3次元大域領域の形状ベクトルとして大域3次元局顔特徴量が算出される。そして、特徴量比較部によって、認証対象者に対する認証動作を行うべく大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とが比較される。
したがって、これら認証システムによれば、顔認証において、大域3次元顔特徴量を用いるので、認証精度がより向上させることが可能となる。また、大域領域形状情報は、いわゆるデータ圧縮技術によって圧縮することが可能であり、データ量を低減することが可能である。また、大域3次元顔特徴量が3次元局所領域に基づいて算出されるので、3次元局所領域特有の大域情報を算出することが可能となる。また、3次元局所領域のデータは、顔全体の3次元形状データより少なく、データ量が低減されている。また、特に、3次元局所領域が特徴部位の3次元座標に基づいて決定される場合では、全体の3次元形状データから顔部位の特徴点間における大域的な情報のみを選択することが可能となる。
また、他の態様にかかる認証システムでは、前記大域3次元特徴量算出部は、前記大域3次元顔特徴量として前記3次元局所領域に関する重心の情報を算出する。
したがって、この認証システムによれば、全体の3次元形状データから算出することが困難な重心の情報が算出され、3次元局所領域に特有な大域3次元顔特徴量を算出することが可能となる。
また、他の態様にかかる認証システムでは、前記大域3次元特徴量算出部は、前記大域3次元顔特徴量として前記3次元局所領域に関する法線の情報を算出する。
したがって、この認証システムによれば、全体の3次元形状データから算出することが困難な法線の情報が算出され、3次元局所領域に特有な大域3次元顔特徴量を算出することが可能となる。
また、他の態様にかかる認証システムでは、前記特徴量比較部は、前記大域3次元顔特徴量と前記比較用大域顔特徴量との比較結果に応じて、前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較する。
したがって、この認証システムによれば、大域3次元顔特徴量と前記比較用大域顔特徴量との比較結果に応じて、例えば、比較結果が大域3次元顔特徴量と前記比較用大域顔特徴量とが異なることを示している場合に、3次元顔特徴量と比較用顔特徴量との比較が省略可能となり、認証の処理時間が短縮され、より高速に認証が可能となる。
また、他の態様にかかる認証システムでは、前記特徴量比較部は、前記認証対象者に対する認証動作を行うべく、前記大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較した大域比較結果、および、前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較した局所比較結果を統合した総合比較結果を算出する。
したがって、この認証システムによれば、大域比較結果と局所比較結果とを統合した総合比較結果によって認証されるので、比較結果を互いに補間し合うことが可能であり、その結果、より高精度で認証が可能となる。
また、他の態様にかかる認証方法は、認証対象者の顔を認証するための方法であって、コンピュータに、前記認証対象者の顔の全体的な3次元形状である全体3次元形状の情報を取得する第1の工程と、前記全体3次元形状情報と、予め用意された参照用3次元部分モデル形状上に定義された局所領域情報とを同一空間上に変換する第2−1の工程と、前記同一空間に変換された前記全体3次元形状と、前記参照用3次元部分モデル形状との包含関係を比較することによって、前記全体3次元形状における局所的な領域である複数の3次元局所領域を決定する第2−2の工程と、前記3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、前記顔の3次元的な特徴量である3次元顔特徴量を算出する第3の工程と、前記認証対象者に対する認証動作を行うべく前記3次元顔特徴量と予め用意された比較用顔特徴量とを比較する第4の工程とを実行させる。
上記構成によれば、第1の工程において、認証対象者の顔の全体的な3次元形状である全体3次元形状の情報が取得される。第2の工程において、全体3次元形状情報から、該全体3次元形状における局所的な領域である複数の3次元局所領域が決定される。第3の工程において、3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、顔の3次元的な特徴量である3次元顔特徴量が算出される。そして、第4の工程において、認証対象者に対する認証動作を行うべく3次元顔特徴量と予め用意された比較用顔特徴量とが比較される。
したがって、この認証方法によれば、認証対象者の顔の全体3次元形状から複数の3次元局所領域が決定され、この各3次元局所領域における局所3次元形状情報から3次元顔特徴量が算出され、この3次元顔特徴量と比較用顔特徴量との比較が行われることで認証対象者に対する認証動作が行われるので、すなわち顔の全体3次元形状の情報をそのまま用いるのではなく、顔全体の3次元形状から局所的な領域(3次元局所領域)を複数個抽出し、この抽出した3次元局所領域に基づいて認証を行う構成であるので、顔に部分的な隠れ等が生じたとしても、必ずしもこの隠れ等が生じた部分を用いずともよく、この部分以外の局所領域の情報を用いて認証を行うことができ、認証精度の低下を軽減することができる。また、データ量の多い全体3次元形状(3次元データ)の情報をそのまま扱わなくてもよいため、つまり局所領域の部分的な3次元形状データを扱えばよいので、処理に時間がかかることなく認証速度を向上させることができる。
また、他の態様にかかる認証方法では、前記第1の工程は、前記顔の2次元画像を取得する第5の工程を含むものであり、前記2次元画像から前記顔の特徴的な部位である特徴部位を抽出する第6の工程と、前記特徴部位の3次元座標を算出する第7の工程とをさらに有し、前記第2−2の工程は、前記特徴部位の3次元座標に基づいて前記3次元局所領域を決定する工程である。
これによれば、第1の工程が、顔の2次元画像を取得する第5の工程を含む工程とされ、第6の工程において、2次元画像から顔の特徴的な部位である特徴部位が抽出される。また、第7の工程において、特徴部位の3次元座標が算出される。そして、上記第2の工程において、特徴部位の3次元座標に基づいて決定される。
したがって、この認証方法によれば、3次元局所領域を決定するに際して2次元的な特徴部位の情報と関連付けることができ、当該3次元局所領域の情報と共に特徴部位の情報を用いた高精度の認証を行うことが可能となる。
また、他の態様にかかる認証方法では、前記特徴部位の情報から前記顔の2次元的な特徴量である2次元顔特徴量を算出する第8の工程をさらに有し、前記第4の工程は、前記2次元顔特徴量と前記3次元顔特徴量とを併せてなる総合的な顔特徴量と、前記比較用顔特徴量とを比較する工程である。
上記構成によれば、第8の工程において、特徴部位の情報から顔の2次元的な特徴量である2次元顔特徴量が算出され、第4の工程において、2次元顔特徴量と3次元顔特徴量とを併せてなる総合的な顔特徴量と、比較用顔特徴量とが比較される。
したがって、この認証方法によれば、2次元顔特徴量と3次元顔特徴量とを用いた、より高精度な認証を行うことが可能となる。
また、他の態様にかかる認証方法では、前記第2−2の工程により決定された3次元局所領域に基づいて、前記全体3次元形状における大域的な領域である3次元大域領域の形状に関する大域領域形状情報であって、前記顔の3次元的な特徴量である大域3次元顔特徴量を算出する第9工程をさらに備え、前記第4工程は、前記認証対象者に対する認証動作を行うべく前記第9工程により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較する。
上記構成によれば、第9工程によって、第2工程により決定された3次元局所領域に基づいて、全体3次元形状における大域的な領域である3次元大域領域の形状に関する大域領域形状情報であって、顔の3次元的な特徴量である大域3次元顔特徴量が算出され、そして、第4工程によって、認証対象者に対する認証動作を行うべく第9工程により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とが比較される。
したがって、この認証システムによれば、顔認証において、大域3次元顔特徴量を用いるので、認証精度がより向上させることが可能となる。また、大域領域形状情報は、いわゆるデータ圧縮技術によって圧縮することが可能であり、データ量を低減することが可能である。また、大域3次元顔特徴量が3次元局所領域に基づいて算出されるので、3次元局所領域特有の大域情報を算出することが可能となる。また、3次元局所領域のデータは、顔全体の3次元形状データより少なく、データ量が低減されている。また、特に、3次元局所領域が特徴部位の3次元座標に基づいて決定される場合では、全体の3次元形状データから顔部位の特徴点間における大域的な情報のみを選択することが可能となる。
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
本発明によれば、顔の認証を行う認証システム及び認証方法を提供することができる。

Claims (29)

  1. 認証対象者の顔の全体的な3次元形状である全体3次元形状の情報を取得する3次元形状取得部と、
    前記3次元形状取得部により取得された全体3次元形状情報と、予め用意された参照用3次元部分モデル形状上に定義された局所領域情報とを同一空間上に変換する同一空間変換部を備え、該同一空間変換部により変換された同一空間における前記全体3次元形状と、前記参照用3次元部分モデル形状との包含関係を比較することによって、前記全体3次元形状における局所的な領域である複数の3次元局所領域を決定する局所領域決定部と、
    前記局所領域決定部により決定された3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、前記顔の3次元的な特徴量である3次元顔特徴量を算出する3次元特徴量算出部と、
    前記認証対象者に対する認証動作を行うべく前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較する特徴量比較部とを備えることを特徴とする認証システム。
  2. 前記局所領域決定部は、前記参照用3次元部分モデル上の3次元面と、前記全体3次元形状の3次元面との包含関係を比較することによって、前記3次元局所領域として決定することを特徴とする請求項1に記載の認証システム。
  3. 前記局所領域決定部は、前記参照用3次元部分モデル上の3次元面と、前記全体3次元形状の3次元座標点との包含関係を比較することによって、前記3次元局所領域として決定することを特徴とする請求項1に記載の認証システム。
  4. 前記局所領域決定部は、前記参照用3次元部分モデル上の3次元座標点と、前記全体3次元形状の3次元面との包含関係を比較することによって、前記3次元局所領域として決定することを特徴とする請求項1に記載の認証システム。
  5. 認証対象者の顔の全体的な3次元形状である全体3次元形状の情報を取得する3次元形状取得部と、
    前記3次元形状取得部により取得された全体3次元形状情報から、該全体3次元形状における局所的な領域である複数の3次元局所領域を決定し、前記3次元局所領域を密なデータとし、前記3次元局所領域以外と決定された3次元局所外領域を疎なデータとして保持する局所領域決定部と、
    前記局所領域決定部により決定された3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、前記顔の3次元的な特徴量である3次元顔特徴量を算出する3次元特徴量算出部と、
    前記認証対象者に対する認証動作を行うべく前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較する特徴量比較部とを備えることを特徴とする認証システム。
  6. 前記3次元特徴量算出部は、前記3次元局所領域から局所3次元形状情報を算出したものを前記局所領域形状情報として算出することを特徴とする請求項1ないし5のいずれか1項に記載の認証システム。
  7. 前記3次元特徴量算出部は、前記3次元局所領域における局所3次元形状情報を所定の曲面情報に変換したものを前記局所領域形状情報として算出することを特徴とする請求項6に記載の認証システム。
  8. 前記3次元特徴量算出部は、前記3次元局所領域における局所3次元形状情報を標準モデル上に定義された定義点と3次元局所領域の対応点の距離情報をベクトルに変換したものを前記局所領域形状情報として算出することを特徴とする請求項6に記載の認証システム。
  9. 前記3次元特徴量算出部は、前記3次元顔特徴量として、各3次元局所領域の相対位置関係の情報も含む3次元顔特徴量を算出することを特徴とする請求項1ないし8のいずれか1項に記載の認証システム。
  10. 前記局所領域決定部は、前記複数の3次元局所領域が前記顔の左右対称となる位置に配置されるように前記全体3次元形状における3次元局所領域を決定することを特徴とする請求項1ないし9のいずれか1項に記載の認証システム。
  11. 前記局所領域決定部は、前記複数の3次元局所領域が少なくとも前記顔の鼻及び頬の部位を含むように前記全体3次元形状における該3次元局所領域を決定することを特徴とする請求項1ないし10のいずれか1項に記載の認証システム。
  12. 前記3次元形状取得部は、
    前記顔の2次元画像を撮影する少なくとも2つの撮影装置と、
    当該各撮影装置から得られた2枚の2次元画像から、位相限定相関法による演算によって対応点検索処理を行い、3次元再構成を行うことで、前記全体3次元形状を算出する3次元形状算出部とを備えることを特徴とする請求項1ないし11のいずれか1項に記載の認証システム。
  13. 前記3次元特徴量算出部により算出される3次元顔特徴量は、ベクトル量であって、該ベクトル量に対応する前記比較用顔特徴量としての比較用ベクトル量を記憶する記憶部をさらに備えることを特徴とする請求項1ないし12のいずれか1項に記載の認証システム。
  14. 前記局所領域決定部により決定された3次元局所領域の情報に基づいて、前記全体3次元形状における大域的な領域である3次元大域領域の形状に関する大域領域形状情報であって、前記顔の3次元的な特徴量である大域3次元顔特徴量を算出する大域3次元特徴量算出部をさらに備え、
    前記特徴量比較部は、前記認証対象者に対する認証動作を行うべく前記大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較することを特徴とする請求項1ないし5の何れか1項に記載の認証システム。
  15. 前記局所領域決定部により決定された3次元局所領域の情報に基づいて、前記全体3次元形状における大域的な情報である、前記顔の大域3次元顔特徴量を算出する大域3次元顔特徴量算出部をさらに備え、
    前記特徴量比較部は、前記認証対象者に対する認証動作を行うべく前記大域3次元顔特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較することを特徴とする請求項1ないし5の何れか1項に記載の認証システム。
  16. 前記大域3次元顔特徴量算出部は、前記局所領域決定部により決定された3次元局所領域上に定義した3次元特徴点情報に基づいて、前記全体3次元形状における大域的な情報である、前記顔の3次元的な特徴量である大域3次元顔特徴量を算出することを特徴とする請求項15に記載の認証システム。
  17. 前記大域3次元顔特徴量算出部は、前記3次元局所領域上に定義した3次元特徴点情報に基づいて算出した標準モデルの変形パラメータの情報を抽出することを特徴とする請求項16に記載の認証システム。
  18. 前記大域3次元顔特徴量算出部は、前記3次元局所領域上に定義した3次元特徴点情報に基づいて算出した3次元局所標準モデルと3次元局所領域との距離情報を抽出することを特徴とする請求項16に記載の認証システム。
  19. 前記大域3次元顔特徴量算出部は、前記3次元局所領域上に定義した3次元特徴点情報に基づいて算出した前記3次元局所領域同士の距離情報を抽出することを特徴とする請求項16に記載の認証システム。
  20. 前記局所領域決定部により決定する3次元局所領域をライン状に抽出し、抽出されたライン状の3次元局所領域に基づいて、前記全体3次元形状における大域的な領域である、3次元大域領域の形状ベクトルとして大域3次元顔特徴量を算出する大域3次元特徴量算出部をさらに備えることを特徴とする請求項15に記載の認証システム。
  21. 前記大域3次元特徴量算出部は、前記大域3次元顔特徴量として前記3次元局所領域に関する重心の情報を算出することを特徴とする請求項14に記載の認証システム。
  22. 前記大域3次元特徴量算出部は、前記大域3次元顔特徴量として前記3次元局所領域に関する法線の情報を算出することを特徴とする請求項14に記載の認証システム。
  23. 前記特徴量比較部は、前記大域3次元顔特徴量と前記比較用大域顔特徴量との比較結果に応じて、前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較することを特徴とする請求項14に記載の認証システム。
  24. 前記特徴量比較部は、前記認証対象者に対する認証動作を行うべく、前記大域3次元特徴量算出部により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較した大域比較結果、および、前記3次元特徴量算出部により算出された3次元顔特徴量と、予め用意された比較用顔特徴量とを比較した局所比較結果を統合した総合比較結果を算出することを特徴とする請求項14に記載の認証システム。
  25. 認証対象者の顔を認証するための方法であって、コンピュータに、
    前記認証対象者の顔の全体的な3次元形状である全体3次元形状の情報を取得する第1の工程と、
    前記全体3次元形状情報と、予め用意された参照用3次元部分モデル形状上に定義された局所領域情報とを同一空間上に変換する第2−1の工程と、
    前記同一空間に変換された前記全体3次元形状と、前記参照用3次元部分モデル形状との包含関係を比較することによって、前記全体3次元形状における局所的な領域である複数の3次元局所領域を決定する第2−2の工程と、
    前記3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、前記顔の3次元的な特徴量である3次元顔特徴量を算出する第3の工程と、
    前記認証対象者に対する認証動作を行うべく前記3次元顔特徴量と予め用意された比較用顔特徴量とを比較する第4の工程とを実行させることを特徴とする認証方法。
  26. 認証対象者の顔を認証するための方法であって、コンピュータに、
    前記認証対象者の顔の全体的な3次元形状である全体3次元形状の情報を取得する第1の工程と、
    前記全体3次元形状情報から、該全体3次元形状における局所的な領域である複数の3次元局所領域を決定し、前記3次元局所領域を密なデータとし、前記3次元局所領域以外と決定された3次元局所外領域を疎なデータとして保持する第2の工程と、
    前記3次元局所領域における局所3次元形状情報から、各3次元局所領域の形状に関する局所領域形状情報であって、前記顔の3次元的な特徴量である3次元顔特徴量を算出する第3の工程と、
    前記認証対象者に対する認証動作を行うべく前記3次元顔特徴量と予め用意された比較用顔特徴量とを比較する第4の工程とを実行させることを特徴とする認証方法。
  27. 前記第1の工程は、前記顔の2次元画像を取得する第5の工程を含むものであり、
    前記2次元画像から前記顔の特徴的な部位である特徴部位を抽出する第6の工程と、
    前記特徴部位の3次元座標を算出する第7の工程とをさらに有し、
    前記第2−2の工程は、前記特徴部位の3次元座標に基づいて前記3次元局所領域を決定する工程であることを特徴とする請求項25に記載の認証方法。
  28. 前記特徴部位の情報から前記顔の2次元的な特徴量である2次元顔特徴量を算出する第8の工程をさらに有し、
    前記第4の工程は、前記2次元顔特徴量と前記3次元顔特徴量とを併せてなる総合的な顔特徴量と、前記比較用顔特徴量とを比較する工程であることを特徴とする請求項27に記載の認証方法。
  29. 前記第2−2の工程により決定された3次元局所領域に基づいて、前記全体3次元形状における大域的な領域である3次元大域領域の形状に関する大域領域形状情報であって、前記顔の3次元的な特徴量である大域3次元顔特徴量を算出する第9工程をさらに備え、
    前記第4工程は、前記認証対象者に対する認証動作を行うべく前記第9工程により算出された大域3次元顔特徴量と、予め用意された比較用大域顔特徴量とを比較することを特徴とする請求項25に記載の認証方法。
JP2008543143A 2006-11-10 2007-11-09 認証システム及び認証方法 Expired - Fee Related JP4780198B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008543143A JP4780198B2 (ja) 2006-11-10 2007-11-09 認証システム及び認証方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006305739 2006-11-10
JP2006305739 2006-11-10
PCT/JP2007/071807 WO2008056777A1 (fr) 2006-11-10 2007-11-09 Système d'authentification et procédé d'authentification
JP2008543143A JP4780198B2 (ja) 2006-11-10 2007-11-09 認証システム及び認証方法

Publications (2)

Publication Number Publication Date
JPWO2008056777A1 JPWO2008056777A1 (ja) 2010-02-25
JP4780198B2 true JP4780198B2 (ja) 2011-09-28

Family

ID=39364587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008543143A Expired - Fee Related JP4780198B2 (ja) 2006-11-10 2007-11-09 認証システム及び認証方法

Country Status (2)

Country Link
JP (1) JP4780198B2 (ja)
WO (1) WO2008056777A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5092711B2 (ja) * 2007-11-22 2012-12-05 株式会社Ihi 物体認識装置およびロボット装置
JP5104248B2 (ja) * 2007-11-22 2012-12-19 株式会社Ihi 物体認識装置およびロボット装置
JP5390943B2 (ja) * 2008-07-16 2014-01-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP5801601B2 (ja) * 2011-05-10 2015-10-28 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5943267B2 (ja) * 2011-10-20 2016-07-05 国立研究開発法人情報通信研究機構 個人モデルデータの生成方法、生成プログラム、および生成システム
US8593452B2 (en) * 2011-12-20 2013-11-26 Apple Inc. Face feature vector construction
JP6003124B2 (ja) * 2012-03-15 2016-10-05 オムロン株式会社 認証装置、認証装置の制御方法、制御プログラム、および記録媒体
JP5904168B2 (ja) * 2012-07-20 2016-04-13 Jfeスチール株式会社 撮像画像の特徴点抽出方法および特徴点抽出装置
JP6090847B2 (ja) * 2013-03-15 2017-03-08 Necソリューションイノベータ株式会社 情報処理装置及び判定方法
JP6507046B2 (ja) * 2015-06-26 2019-04-24 株式会社東芝 立体物検知装置及び立体物認証装置
CN111122687B (zh) * 2019-11-21 2022-09-20 国政通科技有限公司 一种针对爆炸物的反恐安检方法
EP3838117A1 (en) * 2019-12-20 2021-06-23 Koninklijke Philips N.V. Illumination compensation in imaging
CN117593367A (zh) * 2023-10-24 2024-02-23 北京城建集团有限责任公司 一种电气设备支架定位系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224185A (ja) * 1989-02-27 1990-09-06 Osaka Gas Co Ltd 個人識別方法及び装置
JPH0944688A (ja) * 1995-05-23 1997-02-14 Matsushita Electric Ind Co Ltd 点群データの曲面変換方法及びそれを用いた形状測定方法
JPH11283033A (ja) * 1998-03-27 1999-10-15 Ricoh System Kaihatsu Kk 画像識別のための特徴量の利用方法およびそのプログラムを格納した記録媒体
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2004222118A (ja) * 2003-01-17 2004-08-05 Omron Corp 撮影装置
WO2005038700A1 (en) * 2003-10-09 2005-04-28 University Of York Image recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224185A (ja) * 1989-02-27 1990-09-06 Osaka Gas Co Ltd 個人識別方法及び装置
JPH0944688A (ja) * 1995-05-23 1997-02-14 Matsushita Electric Ind Co Ltd 点群データの曲面変換方法及びそれを用いた形状測定方法
JPH11283033A (ja) * 1998-03-27 1999-10-15 Ricoh System Kaihatsu Kk 画像識別のための特徴量の利用方法およびそのプログラムを格納した記録媒体
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2004222118A (ja) * 2003-01-17 2004-08-05 Omron Corp 撮影装置
WO2005038700A1 (en) * 2003-10-09 2005-04-28 University Of York Image recognition

Also Published As

Publication number Publication date
JPWO2008056777A1 (ja) 2010-02-25
WO2008056777A1 (fr) 2008-05-15

Similar Documents

Publication Publication Date Title
JP4780198B2 (ja) 認証システム及び認証方法
KR101007276B1 (ko) 3차원 안면 인식
JP6681729B2 (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
Bronstein et al. Three-dimensional face recognition
JP4696778B2 (ja) 認証装置、認証方法及びプログラム
Pan et al. 3D face recognition using mapped depth images
JP4645411B2 (ja) 認証システム、登録システム及びプログラム
JP4752433B2 (ja) モデリングシステム、モデリング方法およびプログラム
US8711210B2 (en) Facial recognition using a sphericity metric
Hsu et al. RGB-D-based face reconstruction and recognition
JP5018029B2 (ja) 認証システム及び認証方法
WO2006049147A1 (ja) 三次元形状推定システム及び画像生成システム
JP2007058397A (ja) 認証システム、登録システム及び証明用媒体
JP4539519B2 (ja) 立体モデル生成装置および立体モデル生成方法
JP2007058401A (ja) 認証装置、認証方法及びプログラム
JP4814666B2 (ja) 顔解析システム
CN109074471B (zh) 一种基于主动外观模型的虹膜区域分割方法及装置
Stylianou et al. Image based 3d face reconstruction: a survey
Zhang et al. Face recognition using SIFT features under 3D meshes
Mian et al. 3D face recognition
JP4525523B2 (ja) 認証システム、認証方法およびプログラム
Kakadiaris et al. Face recognition using 3D images
Ramadan et al. 3D Face compression and recognition using spherical wavelet parametrization
JP4956967B2 (ja) 認証システム、認証方法およびプログラム
CN111652020B (zh) 一种人脸绕z轴旋转角度的识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees