以下、本発明の実施形態を図面に基づいて説明する。以下では、顔画像を用いた認証動作を行う認証システムについて説明する。
<A.概要>
図1は、この実施形態に係る顔認証システム1の概要を示す概念図である。
顔認証システム1は、後述するように、認証時に2台のカメラCA1,CA2(図2参照)によって、認証対象者である人物HMb(人物HMaであると名乗る人物)の顔について多眼視(ここではステレオ視)による複数(ここでは2枚)の画像(ステレオ画像)G1,G2を撮影する。詳細には、カメラCA1により画像G1が撮影され、カメラCA2により画像G2が撮影される。そして、顔認証システム1は、2枚の画像G1,G2から得られた情報を、人物HMaについて予め登録された顔画像に基づく情報と比較(ないし照合)することによって認証動作を行い、認証対象者である人物HMbが比較対象者(登録者)である人物HMaと同一人物であるか否かを判定する。
ここにおいて、当該人物HMaについて予め登録された顔画像に基づく情報としては、当該人物HMaの顔を撮影した1枚の画像G0に含まれる情報を利用するものとする。
画像G0から得られる情報および画像G1,G2から得られる情報は、それぞれ、形状情報(各部位の位置等に関する情報)とテクスチャ情報(各点の表面輝度の集合等として得られる表面情報)とに大別される。
画像G1,G2からは、テクスチャ情報TBが得られるとともに、形状情報として3次元情報SBも得られる。より詳細には、まず、画像G1および画像G2の少なくとも一方から、人物HMbの顔のテクスチャ情報TBが得られる。また、ステレオ視による2枚の画像G1,G2からは、人物HMbの顔の各点の3次元位置の集合等を含む3次元情報SBが得られる。
一方、画像G0からは、人物HMaの顔のテクスチャ情報TAが得られるとともに、形状情報として、人物HMaの顔の2次元形状情報PAが得られる。ここで、単一の視点からの1枚の画像G0(単眼視による画像)からは、人物HMaの顔の各点の平面的な(2次元的な)位置情報PAを得ることはできるが、いわゆる奥行きに関する情報(以下、「奥行き情報」とも称する)を得ることはできないため、3次元位置情報などの立体的な情報(3次元情報)を直接的に得ることはできない。そこで、この実施形態においては、後述するように、奥行き情報を推定して、3次元情報SAを生成する。なお、推定により生成された3次元情報SAを「推定3次元情報」SAとも称するものとする。また、後述するように、より正確な推定を行うため、統計的な手法をも取り入れることが好ましい。
基本的には、このようにして得られたテクスチャ情報TAとテクスチャ情報TBとが比較されるとともに、推定3次元情報SAと3次元情報SBとが比較される。なお、3次元情報SA,SBの比較(換言すれば「形状情報の対比」)には、3次元形状情報の対比と2次元形状情報の比較とが包含されている。
ただし、このようにして得られたテクスチャ情報TA,TBおよび形状情報SA,SBは、膨大な情報量を有しているため、特徴選択動作(換言すれば、情報圧縮動作(後述))を行った後に比較動作を行うことが好ましい。この実施形態においても、情報圧縮動作を行う。これによれば、情報量を削減して、より効率的な照合動作を行うことができる。
また、この実施形態において、顔認証システム1は、テクスチャ情報TAとテクスチャ情報TBとの比較において、人物の姿勢変化および/または表情変化による影響を受けにくくするための処理を行う。具体的には、共通の標準立体モデル(立体化用モデル)を用いて、テクスチャ情報TAとテクスチャ情報TBとを標準化(正規化)した状態に変換し、標準化された両テクスチャ情報TA,TBを比較することによって、人物HMbが人物HMaであるか否かを判定する。これによれば、後述するように、標準状態での比較が可能になるので、比較条件のばらつきを抑制することができる。ここにおいて、1枚の画像G0に対して立体化処理を施すことによって座標変換等を施すことが可能になるため、標準状態での比較処理が可能になる。
この顔認証システム1によれば、予め登録された情報(登録者HMaに関する情報)に3次元情報が含まれない場合であっても、高精度の認証動作が可能になる。
<B.詳細構成>
図2は、本発明の実施形態に係る顔認証システム1を示す構成図である。図2に示すように顔認証システム1は、コントローラ10と2台の画像撮影カメラ(以下、単に「カメラ」とも称する)CA1,CA2とを備えている。カメラCA1とカメラCA2とは、それぞれ異なる位置から認証対象者HMbの顔を撮影できるように配置されている。カメラCA1とカメラCA2とによって認証対象者HMbの顔画像が撮影されると、当該撮影により得られる認証対象者HMbの外観情報すなわち2枚の顔画像G1,G2がコントローラ10に通信線を介して送信される。なお、各カメラとコントローラ10との間での画像データの通信方式は有線方式に限定されず、無線方式であってもよい。
図3は、コントローラ10の構成概要を示す図である。図3に示されるように、コントローラ10は、CPU2と、記憶部3と、メディアドライブ4と、液晶ディスプレイなどの表示部5と、キーボード6a及びポインティングデバイスであるマウス6bなどの入力部6と、ネットワークカードなどの通信部7とを備えたパーソナルコンピュータなどの一般的なコンピュータで構成される。記憶部3は、複数の記憶媒体、具体的には、ハードディスクドライブ(HDD)3aと、HDD3aよりも高速処理可能なRAM(半導体メモリ)3bとを有している。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスク、メモリカードなどの可搬性の記録媒体8からその中に記録されている情報を読み出すことができる。なお、このコントローラ10に対して供給される情報は、記録媒体8を介して供給される場合に限定されず、LAN及びインターネットなどのネットワークを介して供給されてもよい。
次に、コントローラ10の機能について、図4および図5を参照して説明する。
図4は、コントローラ10の各種機能構成を示すブロック図であり、図5は、個人認証部14の詳細な機能構成を示すブロック図である。
コントローラ10の各種機能構成は、コントローラ10内のCPU等の各種ハードウェアを用いて所定のソフトウェアプログラム(以下、単に「プログラム」とも称する)を実行することによって、実現される機能を概念的に示すものである。
図4に示されるように、コントローラ10は、画像入力部11と顔領域検索部12と顔部位検出部13と個人認証部14と出力部15とを備えている。
画像入力部11は、カメラCA1及びCA2によって撮影された認証用の2枚の画像をコントローラ10に入力する機能を有している。また、画像入力部11は、カメラCA0によって撮影された登録用の1枚の画像をコントローラ10に入力する機能をも有している。
顔領域検索部12は、入力された顔画像から顔領域を特定する機能を有している。
顔部位検出部13は、特定した顔領域から顔の特徴的な部位(例えば、目、眉、鼻、口等)の位置を検出する機能を有している。
個人認証部14は、顔の認証を主たる目的として構成され、各個人を顔画像で認証する機能を有している。この個人認証部14の詳細については、次述する。
出力部15は、個人認証部で得られた認証結果を出力する機能を有している。
次に、個人認証部14の詳細構成について図5を用いて説明する。
図5に示すように、個人認証部14は、3次元再構成部21と最適化部22と補正部23と特徴抽出部24と情報圧縮部25と比較部26とを有している。
3次元再構成部21は、入力画像から得られる顔の特徴的な部位の座標から各部位の3次元における座標を算出する機能を有している。この3次元座標算出機能は、カメラパラメータ記憶部27に格納されているカメラ情報を用いて実現される。また、3次元再構成部21は、1枚の入力画像G0から得られる情報に加えて、推定用情報記憶部31に格納されている情報(奥行き情報等)に基づいて、3次元情報を推定する機能をも有している。
最適化部22は、算出された3次元座標を用いて3次元モデルデータベース28に格納されている顔の標準的な立体モデル(「標準立体モデル」あるいは「標準モデル」とも称する)から、固有の人物に関する「個別モデル」を生成する機能を有している。
補正部23は、生成された個別モデルを補正(修正あるいは変換とも表現できる)する機能を有している。
これらの各処理部21,22,23によって、認証対象者HMbおよび登録者HMaに関する情報は、標準化(正規化)され、相互比較しやすい状態に変換される。また、各処理部の機能によって作成された個別モデルは、人物の顔に関する3次元情報と2次元情報との双方を含むものとして形成される。「3次元情報」は、代表点の3次元座標値等の立体的構成に関連する情報であり、「2次元情報」は、表面情報(テクスチャ情報)および/または代表点の平面的な位置情報(2次元形状情報)等の平面的構成に関連する情報である。
特徴抽出部24は、上記各処理部21,22,23において作成された個別モデルから3次元情報と2次元情報とを抽出する特徴抽出機能を有している。
情報圧縮部25は、特徴抽出部24で抽出された3次元情報と2次元情報とをそれぞれ、顔認証用の適切な顔特徴量に変換することによって、顔認証に用いる3次元情報と2次元情報とをそれぞれ圧縮する機能を有している。この情報圧縮機能は、基底ベクトルデータベース29に格納された情報等を用いて実現される。
比較部26は、人物データベース30に予め登録されている登録者(比較対象者)HMaの顔特徴量と、上記各機能部によって得られる認証対象者HMbの顔特徴量との類似度を計算し、顔の認証を行う機能を有している。
<C.動作>
<動作概要>
以下では、上述したコントローラ10の顔認証動作についてより詳細に説明する。具体的には、上述したように、カメラCA1及びCA2で撮影した認証対象者HMbの顔画像と、予め登録された人物HMaの顔画像とに関する情報を用いて、認証対象者HMbが登録済み人物HMaと同一人物であるかを認証する場合(顔認証を行う場合)について説明する。ここでは、3次元情報として、カメラCA1,CA2による画像を利用して三角測量の原理によって計測された3次元形状情報を用い、2次元情報としてテクスチャ(輝度)情報を用いる場合を例示する。
図6は、コントローラ10の全体動作(認証動作)を示すフローチャートであり、図7は、図6の処理に先立って行われる登録動作(ステップSP30)を示すフローチャートある。さらに、図8は、顔画像における特徴的な部位の特徴点を示す図であり、図9は、2次元画像中の特徴点から三角測量の原理を用いて3次元座標を算出する様子を示す模式図である。図9における画像G1、G2中の点Q20は、図8における口の右端に相当する。
図6に示されるように、コントローラ10は、ステップSP1からステップSP8までの工程において、認証対象者の顔を撮影した画像に基づいて、認証対象者に関する顔特徴量を取得する。コントローラ10は、その後、さらにステップSP9,SP10の工程を実行することによって、顔認証を実現する。なお、実際には、図7に示す処理(ステップSP31〜SP39)が図6のステップSP1〜SP10に示す処理に先立って行われるが、ここでは説明の便宜上、図6に示す処理から説明する。
<認証対象者HMbに関する情報収集>
まず、ステップSP1において、カメラCA1及びCA2によって撮影された所定の人物(認証対象者)HMbの顔画像が、通信線を介しコントローラ10に入力される。顔画像を撮影するカメラCA1及びカメラCA2は、それぞれ、2次元画像を撮影可能な一般的な撮影装置で構成される。また、当該各カメラCAiの位置姿勢等を示すカメラパラメータBi(i=1・・N)は既知であり、予めカメラパラメータ記憶部27(図5)に記憶されている。ここで、Nはカメラの台数を示している。本実施形態ではN=2の場合を例示しているが、N≧3としてもよい(3台以上のカメラを用いてもよい)。カメラパラメータBiについては後述する。
次に、ステップSP2において、カメラCA1及びCA2より入力された2枚の画像G1,G2のそれぞれにおいて、顔の存在する領域が検出される。顔領域検出手法としては、例えば、予め用意された標準の顔画像を用いたテンプレートマッチングにより、2枚の画像G1,G2のそれぞれから顔領域を検出する手法を採用することができる。
次に、ステップSP3において、ステップSP2で検出された顔領域画像の中から、顔の特徴的な部位の位置が検出される。例えば、顔の特徴的な部位としては、目、眉、鼻又は口等が考えられ、ステップSP3においては、図8に示されるような上記各部位の特徴点Q1〜Q23の座標が算出される。特徴部位は、例えば、特徴部位の標準的なテンプレートを用いて行うテンプレートマッチングにより検出することができる。また、算出される特徴点の座標は、カメラより入力された画像G1、G2上の座標として表される。例えば、図8における口の右端に相当する特徴点Q20に関して、図9中に示すように、2枚の画像G1,G2のそれぞれにおける座標値が求められる。具体的には、画像G1の左上の端点を原点Oとして、特徴点Q20の画像G1上の座標(x1,y1)が算出される。画像G2においても同様に特徴点Q20の画像G2上の座標(x2,y2)が算出される。
また、入力された画像における各特徴点を頂点とする領域内の各画素の輝度値が、当該領域の有する情報(以下、「テクスチャ情報」とも称する)として取得される。各領域におけるテクスチャ情報は、後述のステップSP5等において、個別モデルに貼り付けられる。なお、本実施形態の場合、入力される画像は2枚であるので、各画像の対応する領域内の対応する画素における平均の輝度値を当該領域のテクスチャ情報として用いるものとする。
次のステップSP4では、3次元再構成処理が行われる。具体的には、ステップSP3において検出された各特徴点Qjの各画像Gi(i=1,...,N)における2次元座標Ui(j)と、各画像Giを撮影したカメラのカメラパラメータBiとに基づいて、各特徴点Qjの3次元座標M(j)(j=1・・・m)が算出される。端的に言えば、三角測量の原理に基づいて各特徴点の3次元位置が算出される。なお、mは特徴点の数を示している。
以下、3次元座標M(j)の算出について具体的に説明する。
各特徴点Qjの3次元座標M(j)と各特徴点Qjの2次元座標Ui(j)とカメラパラメータBiとの関係は式(1)のように表される。
なお、μiは、スケールの変動分を示す媒介変数である。また、カメラパラメータ行列Biは、予め3次元座標が既知の物体を撮影することにより求められる各カメラ固有の値であり、3×4の射影行列で表される。
例えば、上記式(1)を用いて3次元座標を算出する具体的な例として、特徴点Q20の3次元座標M(20)を算出する場合を図9を用いて考える。式(2)は画像G1上の特徴点Q20の座標(x1,y1)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。同様に、式(3)は、画像G2上の特徴点Q20の座標(x2,y2)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。
上記式(2)及び式(3)中の未知数は、2つの媒介変数μ1、μ2と3次元座標M(20)の3つの成分値x,y,zとの合計5つである。一方、式(2)及び式(3)に含まれる等式の数は6であるため、各未知数つまり特徴点Q20の3次元座標(x,y,z)を算出することができる。また、同様にして、全ての特徴点Qjについての3次元座標M(j)を取得することができる。
次のステップSP5では、モデルフィッテングが行われる。この「モデルフィッティング」は、予め準備された一般的(標準的)な顔のモデルである「(顔の)標準モデル」を、認証対象者に関する情報を用いて変形することによって、認証対象者の顔に関する入力情報が反映された「個別モデル」を生成する処理である。具体的には、算出された3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理と、上記のテクスチャ情報を用いて標準モデルの2次元情報を変更する処理とが行われる。
図10は、3次元の顔の標準モデルを示している。
図10に示されるように、顔の標準モデルは、頂点データとポリゴンデータとで構成され、3次元モデルデータベース28(図5)として記憶部3等に保存されている。頂点データは、標準モデルにおける特徴部位の頂点(以下、「標準制御点」とも称する)COjの座標の集合であり、ステップSP4において算出される各特徴点Qjの3次元座標と1対1に対応している。ポリゴンデータは、標準モデルの表面を微小な多角形(例えば、三角形)のポリゴンに分割し、ポリゴンを数値データとして表現したものである。なお、図10では、各ポリゴンの頂点が標準制御点COj以外の中間点によっても構成される場合を例示しており、中間点の座標は標準制御点COjの座標値を用いた適宜の補完手法によって得ることが可能である。
ここで、標準モデルから個別モデルを構成するモデルフィッティングについて詳述する。
まず、標準モデルの各特徴部位の頂点(標準制御点COj)を、ステップSP4において算出された各特徴点に移動させる。具体的には、各特徴点Qjの3次元座標値を、対応する標準制御点COjの3次元座標値として代入し、移動後の標準制御点(以下、「個別制御点」とも称する)Cjを得る。これにより、標準モデルを3次元座標M(j)で表した個別モデルに変形することができる。なお、個別モデルにおける個別制御点Cj以外の中間点の座標は、個別制御点Cjの座標値を用いた適宜の補間手法によって得ることが可能である。
また、この変形(移動)による各頂点の移動量から、後述のステップSP6において用いられる、標準モデルを基準にした場合の個別モデルのスケール、傾き及び位置を求めることができる。具体的には、標準モデルにおける所定の基準位置と、変形後の個別モデルにおける対応基準位置との間のずれ量によって、個別モデルの標準モデルに対する位置変化を求めることができる。また、標準モデルにおける所定の2点を結ぶ基準ベクトルと、変形後の個別モデルにおける当該所定の2点の対応点を結ぶ基準ベクトルとの間のずれ量によって、個別モデルの標準モデルに対する傾きの変化及びスケール変化を求めることができる。たとえば、右目の目頭の特徴点Q1と左目の目頭の特徴点Q2との中点QMの座標と標準モデルにおいて中点QMに相当する点の座標とを比較することによって個別モデルの位置を求めることができ、さらに、中点QMと他の特徴点とを比較することによって個別モデルのスケール及び傾きを算出することができる。
次の式(4)は、標準モデルと個別モデルとの間の対応関係を表現する変換パラメータ(ベクトル)vtを示している。式(4)に示すように、この変換パラメータ(ベクトル)vtは、両者のスケール変換指数szと、直交3軸方向における並進変位を示す変換パラメータ(tx,ty,tz)と、回転変位(傾き)を示す変換パラメータ(φ,θ,ψ)とをその要素とするベクトルである。
上述のようにして、認証対象者に関する3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理が行われる。
その後、テクスチャ情報を用いて標準モデルの2次元情報を変更する処理も行われる。具体的には、入力画像G1,G2における各領域のテクスチャ情報が、3次元の個別モデル上の対応する領域(ポリゴン)に貼り付けられる(マッピングされる)。なお、立体モデル(個別モデル等)上でテクスチャ情報が貼り付けられる各領域(ポリゴン)は、「パッチ」とも称せられる。
以上のようにして、モデルフィッティング処理(ステップSP5)が行われる。これによって、認証対象者HMbに関する情報は、認証対象者HMbに関する3次元情報と2次元情報との双方を含む「個別モデル」(MDb)として生成される。
次のステップSP6においては、標準モデルを基準にして個別モデルの補正が行われる。本工程では、3次元情報に関する位置(アライメント)補正と、2次元情報に関するテクスチャ補正とが実行される。
アライメント(顔向き)補正は、3次元情報に関する位置および姿勢等の補正処理である。アライメント補正は、標準モデルを基準にした際の個別モデルのスケール、傾き及び位置に基づいて行われる。より詳細には、標準モデルを基準にした際の標準モデルと個別モデルとの関係を示す変換パラメータvt(式(4)参照)を用いて個別モデルを座標変換することによって、標準モデルの姿勢と同じ姿勢を有する3次元顔モデルを作成することができる。すなわち、このアライメント補正によって、認証対象者に関する3次元情報を適切に正規化することができる。
また、テクスチャ情報の正規化は、個別モデルの各特徴点と標準モデルにおける各対応点(対応標準位置)との対応関係を求めてテクスチャ情報を標準化する処理である。これによって、個別モデルにおける各パッチのテクスチャ情報を、パッチ形状の変化(具体的には、顔の表情の変化)および/または顔の姿勢の変化の影響を受けにくい状態に変更することができる。
ここでは、個別モデルMDbにおける各パッチのテクスチャ情報を(当該個別モデルMDbの作成に用いた)元の標準モデルに貼り付けた立体モデルを、サブモデルMSbとして、当該個別モデルMDbとは別個に生成する場合を例示する。サブモデルMSbに貼り付けられた各パッチのテクスチャ情報は、当該各パッチの形状および顔の姿勢が正規化された状態を有している。
詳細には、個別モデルの各個別制御点(特徴点)を標準モデルにおける各対応点に移動させた上で認証対象者HMbに関するテクスチャ情報TBを標準化する。また、より詳細には、個別モデルにおける各パッチ内の各画素の位置を当該パッチの個別制御点Cjの3次元座標に基づいて正規化し、元の標準モデルにおいて対応するパッチ内の対応する位置に個別モデルの各画素の輝度値(テクスチャ情報)を貼り付ける。なお、当該サブモデルMSbに貼り付けられたテクスチャ情報は、後述の類似度計算処理(ステップSP9)のうち、テクスチャ情報に関する比較処理に用いられる。
図11は、所定パッチにおけるテクスチャ情報の正規化を示す概念図である。この図11を用いて、テクスチャ情報の正規化について、より詳細に説明する。
例えば、個別モデルMDbにおけるパッチKK2と元の標準モデルにおけるパッチHYとが対応しているとする。このとき、個別モデルMDbにおけるパッチKK2内の位置γK2は、パッチKK2の個別制御点Cj(j=J1、J2、J3)のうちの異なる2組の点を結ぶ独立したベクトルV21,V22の線形和(式(5)参照)で表現される。
また、標準モデルにおけるパッチHY内の位置γHYは、当該ベクトルV21,V22の線形和における各係数と同じ係数α,βを用いて、対応ベクトルV01,V02の線形和で表現される。これにより、両位置γK1,γHYとの対応関係が求められ、パッチKK2内における位置γK2のテクスチャ情報を、パッチHY内の対応する位置γHYに貼り付けることが可能となる。このようなテクスチャ情報の貼り付け処理を個別モデルMDbのパッチKK2内の全テクスチャ情報について実行すると、個別モデルMDbにおけるパッチ内のテクスチャ情報が、サブモデルMSbにおけるパッチ内のテクスチャ情報に変換され、正規化された状態で得られることになる。
このサブモデルMSbにおける顔の2次元情報(テクスチャ情報)は、顔の姿勢変動および顔の表情変化等による影響を受けにくいという特質を有している。例えば、同一人物に関する2つの個別モデルにおける姿勢および表情が互いに異なる場合、上述のテクスチャ情報の正規化を行わないときには、両個別モデルにおけるパッチの対応関係(例えば、図11において、本来はパッチKK1とパッチKK2とが対応すること)等を正確に得ることができず、別人物であるとして誤判定する可能性が高くなる。これに対して、上述のテクスチャ情報の正規化を行えば、顔の姿勢が統一され、各パッチの対応位置関係をより正確に得ることができるので、姿勢変化による影響を受けにくくなる。また、上述のテクスチャ情報の正規化によれば、顔の表面を構成する各パッチの形状は、標準モデルにおける各対応パッチの形状と同一になる(図11参照)ため、各パッチの形状が統一(正規化)され、表情変化による影響を受けにくくなる。例えば、微笑している人物の個別モデルMDbは、笑っていない(無表情の)標準モデルを用いることによって、笑っていない状態のサブモデルMSbに変換されて標準化される。これによれば、微笑によるテクスチャ情報(例えば、ほくろの位置)の変化の影響が抑制される。このように、上述の正規化されたテクスチャ情報は、個人認証に有効な情報となる。
また、サブモデルMSbに貼り付けられたテクスチャ情報は、比較しやすいように、図12に示すような投影画像にさらに変更することもできる。
図12は、テクスチャ補正されたテクスチャ情報、すなわち、サブモデルMSbに貼り付けられたテクスチャ情報を、当該サブモデルMSbの周囲に配置した円筒面に投影した画像である。この投影画像に貼り付けられたテクスチャ情報は、正規化されており、顔の姿勢および表情変化の影響を受けにくいという特質を有しているため、個人識別に用いる情報として非常に有用である。
以上のように画像正規化工程(ステップSP6)においては、認証対象者HMbに関する情報が、個別モデルMDbおよびサブモデルMSbとして、正規化された状態で生成される。
次のステップSP7(図6)においては、認証対象者HMbの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。
3次元情報としては、個別モデルMDbにおけるm個の個別制御点Cjの3次元座標ベクトルが抽出される。具体的には、式(6)に示されるように、m個の個別制御点Cj(j=1,...,m)の3次元座標(Xj,Yj,Zj)を要素とするベクトルhSが3次元情報(3次元形状情報)として抽出される。
また、2次元情報としては、個人認証にとって重要な情報となる顔の特徴的な部分つまり個別制御点付近のパッチ又はパッチのグループ(局所領域)が有するテクスチャ(輝度)情報(以下、「局所2次元情報」とも称する)が抽出される。ここでは、テクスチャ情報(局所2次元情報)として、サブモデルMSbにマッピングされた情報が用いられる。
局所2次元情報は、例えば、正規化後の特徴的な部位の個別制御点を示す図13中のグループGR(個別制御点C20、C22及びC23を頂点とするパッチR1と個別制御点C21、C22及びC23を頂点とするパッチR2)から構成される領域、又は、単に一つのパッチからなる領域等の各局所領域が有する各画素の輝度情報として構成される。局所2次元情報h(k)(k=1,...,L;Lは局所領域数)は、それぞれ、当該局所領域内の画素数をn、各画素の輝度値をBR1,...,BRnとすると、式(7)のようなベクトル形式で表される。また、局所2次元情報h(k)をL個の局所領域について集めた情報は、総合的な2次元情報であるとも表現される。
以上のように、ステップSP7においては、個別モデルの特徴を表す情報として、3次元形状情報(3次元情報)SB(図1)とテクスチャ情報(2次元情報)TBとが抽出される。
抽出された情報は後述の認証動作(ステップSP9,SP10)に用いられる。当該認証動作においては、式(7)で得られる情報をそのまま用いて認証動作を行うようにしてもよいが、その場合、局所領域内の画素数が多いときには、認証動作での計算量が非常に大きくなってしまう。そこで、この実施形態では、計算量を低減して効率的に認証動作を行うことを企図して、式(7)で得られる情報を更に圧縮し圧縮後の情報を用いて認証動作を行うものとする。
そのため、次のステップSP8においては、ステップSP7で抽出された情報を、認証に適した状態に変換する次述の情報圧縮処理を行う。
情報圧縮処理は、3次元形状情報hS及び各局所2次元情報h(k)のそれぞれに対して同様の手法を用いて行われるが、ここでは、局所2次元情報h(k)に対して情報圧縮処理を施す場合について詳細に説明する。
局所2次元情報h(k)は、複数のサンプル顔画像から予め取得される当該局所領域の平均情報(ベクトル)have(k)と、複数のサンプル顔画像をKL展開することによって予め算出される当該局所領域の固有ベクトルのセットで表現される行列P(k)(次述)とを用いて式(8)のように基底分解された形式で表すことができる。この結果、局所2次元顔情報量(ベクトル)c(k)が、局所2次元情報h(k)についての圧縮情報として取得される。
上述のように式(8)中の行列P(k)は、複数のサンプル顔画像から算出される。具体的には、行列P(k)は、複数のサンプル顔画像をKL展開することによって求められる複数の固有ベクトルのうち、固有値の大きい数個の固有ベクトル(基底ベクトル)のセットとして求められる。これらの基底ベクトルは、基底ベクトルデータベース29に記憶されている。顔画像についてのより大きな特徴を示す固有ベクトルを基底ベクトルとしてその顔画像を表現することによれば、顔画像の特徴を効率的に表現することが可能となる。
例えば、図13に示されているグループGRからなる局所領域の局所2次元情報h(GR)を基底分解された形式で表現する場合を考える。当該局所領域の固有ベクトルのセットPが、3つの固有ベクトルP1、P2及びP3によってP=(P1,P2,P3)と表現されているとすると、局所2次元情報h(GR)は、当該局所領域の平均情報have(GR)と固有ベクトルのセットP1,P2,P3を用いて式(9)のように表される。平均情報have(GR)は、様々なサンプル顔画像についての複数の局所2次元情報(ベクトル)を対応要素ごとに平均して得られるベクトルである。なお、複数のサンプル顔画像は、適度なばらつきを有する標準的な複数の顔画像を用いればよい。
また、上記式(9)は、顔情報量c(GR)=(c1,c2,c3)Tによって元の局所2次元情報を再現することが可能であることを示している。すなわち、顔情報量c(GR)は、グループGRからなる局所領域の局所2次元情報h(GR)を圧縮した情報といえる。
上記のようにして取得された局所2次元顔情報量c(GR)をそのまま認証動作に用いてもよいが、この実施形態ではさらなる情報圧縮を行う。具体的には、局所2次元顔情報量c(GR)が表す特徴空間を個人間の分離を大きくするような部分空間へと変換する処理を更に行う。より詳細には、式(10)に表されるようベクトルサイズfの局所2次元顔情報量c(GR)をベクトルサイズgの局所2次元特徴量d(GR)に低減させる変換行列Aを考える。これにより、局所2次元顔情報量c(GR)で表される特徴空間を局所2次元特徴量d(GR)で表される部分空間に変換することができ、個人間の情報の相違が顕著になる。
ここで、変換行列Aはf×gのサイズを有する行列である。重判別分析(MDA:Multiple Discriminant Analysis)法を用いて、特徴空間から級内分散と級間分散との比率(F比)の大きい主成分をg個選び出すことによって、変換行列Aを決定することができる。
また、上述した局所2次元情報h(GR)について行った情報圧縮処理と同様の処理を他の全ての局所領域にも実行することによって、各局所領域についての局所2次元顔特徴量d(k)を取得することができる。また、3次元形状情報hSに対しても同様の手法を適用することにより3次元顔特徴量dSを取得することができる。
上記ステップSP8を経て取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量dは、ベクトル形式で式(11)のように表すことができる。
以上に述べたステップSP1〜SP8の工程において、入力される認証対象者HMbの顔画像G1,G2から当該対象者の顔特徴量d(Bd)が取得される。認証対象者HMbの顔特徴量d(Bd)は、次述する登録者HMaの顔画像に関する特徴量d(Ad)とともに、ステップSP9,SP10の処理において用いられる。
<登録者HMaに関する情報収集>
次に、図7を参照して、登録時の顔画像に関する特徴量d(Ad)を得る動作(ステップSP30)について説明する。ステップSP30の処理は、ステップSP31〜SP39の処理を含む。ステップSP31〜SP38の各処理は、それぞれ、対応するステップSP1〜SP8の各処理と同様の処理である。以下では、説明の重複を避けるため、相違点を中心に説明する。
まず、ステップSP31では、登録画像の撮影処理が行われる。具体的には、1台のカメラCA0(図4)によって撮影された登録者HMaの顔画像G0が、通信線を介しコントローラ10に入力される。
次に、ステップSP32において、画像G0において、顔の存在する領域が検出される。検出手法としてはステップSP2と同様の手法を用いればよい。
また、このステップSP32においては、さらに顔の傾きを検出する処理も行われる。具体的には、様々な角度(例えば、0度(正面向き)、プラスマイナス15度、プラスマイナス30度、プラスマイナス45度、...)を向いた顔を予めパターンとして準備しておき、パターンマッチング処理によって最も適合したパターンの角度の傾きを、当該顔の傾きとして検出すればよい。なお、顔の傾きを検出する処理としては、顔の特徴的な部位の位置を用いて行うようにしてもよい。例えば、両目と鼻との配置関係、鼻の傾き等を利用することができる。その場合には次のステップSP33における顔部位検出動作の後に、当該ステップSP33で検出した顔の特徴的な部位の位置を用いて、顔の傾きを検出するようにすればよい。
次に、ステップSP33において、ステップSP32で検出された顔領域画像の中から、顔の特徴的な部位の位置(ただし、ここでは画像内での2次元位置)が検出される。ステップSP33の処理は、ステップSP3と同様である。
次のステップSP34では、3次元再構成工程が行われる。具体的には、ステップSP33において検出された各特徴点Qjの画像G0における2次元座標Ui(j)と、奥行きに関する推定情報とに基づいて、各特徴点Qjの3次元座標M(j)(j=1・・・m)が算出される。
ここでは、奥行き情報に関する推定情報としては、基本的には撮影時の光軸に垂直な或る平面(以下、「基準面」とも称する)BP(不図示)から各特徴点までの標準距離を用いる。たとえば、鼻の高さは、正確には人によって異なるが、標準的な高さを有するものとして取り扱う。そして、上記のステップSP33で検出された鼻に関する各特徴点の2次元位置に加えて、鼻に関する当該各特徴点の基準面BPからの奥行き情報を加えることによって、鼻に関する各特徴点の3次元位置を得ることができる。鼻以外の部分に関する各特徴点についても同様の処理を施すことによって、各特徴点の3次元位置を得ることができる。なお、顔の傾き角度として0度以外の値が検出された場合(すなわち顔が真正面以外を向いているとき)には、基準面BPを所定軸(顔の中心軸)回りにその傾き角度回転させた状態で、奥行き情報を考慮する。
また、2次元座標i(j)を3次元座標M(j)に変換するに際して、画像G0撮影時の撮像倍率等が得られるときには当該撮影倍率に基づいて顔の大きさを算出することによれば、顔を実際のスケールに変換し、より正確な3次元座標M(j)を得ることができる。一方、画像撮影時の撮像倍率が得られていないときには、画像G0の顔は標準的な大きさを有するものと仮定した上で3次元座標M(j)を得ればよい。
なお、このようにして得られた3次元位置は、正確には実測によって得られたものではないため、「推定3次元位置」とも称するものとする。
このようにして、人物についての一般的な(ないし標準的な)奥行き情報に基づいて各特徴点の推定3次元位置が算出される。
また、より正確な奥行き情報を決定するには、統計的手法をも用いることが好ましい。具体的には、「細面(ほそおもて)の人(細長形状の顔を有する人)の鼻は高い」などの統計的な情報を用いて奥行き情報を調整することが好ましい。これによれば、推定3次元位置を実際の3次元位置にさらに近づけることができる。
次のステップSP35では、モデルフィッテングが行われる。ステップSP35の処理は認証対象者HMbではなく登録者HMaに関する顔画像についての処理が行われる点では相違するが、基本的にはステップSP5と同様の処理が行われる。登録者HMaに関する情報を用いて標準モデルを変形することによって、登録者HMaの顔に関する入力情報が反映された「個別モデル」(MDa)が生成される。
具体的には、算出された3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理と、上記のテクスチャ情報を用いて標準モデルの2次元情報を変更する処理とが行われる。
まず、3次元情報を変更する処理として、ステップSP5と同様に、標準モデルの各特徴部位の頂点(標準制御点COj)を、ステップSP34において算出された各特徴点に移動させる。これにより、標準モデルを3次元座標M(j)で表した個別モデルMDaに変形することによって、登録者HMaを表現した立体モデルを生成することができる。
また、ステップSP5と同様、この変形(移動)による各頂点の移動量から、後述のステップSP36において用いられる、標準モデルを基準にした場合の個別モデルMDaのスケール、傾き及び位置も求められる。
さらに、ステップSP5と同様に、テクスチャ情報を用いて標準モデルの2次元情報を変更(追加)する処理も行われる。具体的には、入力画像G0における各領域のテクスチャ情報が、3次元の個別モデルMDa上の対応する領域(ポリゴン)に貼り付けられる(マッピングされる)。
以上のようにして、モデルフィッティング処理(ステップSP35)が行われる。これによって、登録者HMaに関する情報は、登録者HMaに関する3次元情報と2次元情報との双方を含む「個別モデル」MDaとして生成される。
次のステップSP36においては、標準モデルを基準にして個別モデルMDaの補正が行われる。本工程では、3次元情報に関する位置(アライメント)補正と、2次元情報に関するテクスチャ補正とが実行される。
アライメント(顔向き)補正は、3次元情報に関する位置および姿勢等の補正処理である。具体的には、上述のステップSP6と同様の処理が行われる。より詳細には、標準モデルを基準にした際の標準モデルと個別モデルMDaとの関係を示す変換パラメータvt(式(4)参照)を用いて個別モデルMDaの個別制御点を座標変換することによって、標準モデルの姿勢と同じ姿勢を有する3次元顔モデルを作成することができる。このアライメント補正によれば、登録者HMaに関する3次元情報(正確には推定3次元情報)を適切に正規化することができる。
また、テクスチャ情報の正規化も、ステップSP6と同様の処理により実行される。具体的には、個別モデルMDaにおける各パッチのテクスチャ情報を元の標準モデルに貼り付けた立体モデルを、サブモデルMSaとして、当該個別モデルMDaとは別個に生成する。なお、当該サブモデルMSaに貼り付けられたテクスチャ情報は、類似度計算処理(ステップSP9)のうち、テクスチャ情報に関する比較処理に用いられる。
詳細には、図11に示すように、個別モデルMDaにおけるパッチKK1と元の標準モデルにおけるパッチHYとが対応しているとする。このとき、個別モデルMDaにおけるパッチKK1内の位置γK1は、パッチKK1の個別制御点Cj(j=J1、J2、J3)のうちの異なる2組の点を結ぶ独立したベクトルV11,V12の線形和で表現される。また、標準モデルにおけるパッチHY内の位置γHYは、当該線形和における各係数と同じ係数を用いて対応ベクトルV01,V02の線形和で表現される。これにより、両位置γK1,γHYとの対応関係が求められ、パッチKK1内における位置γK1のテクスチャ情報を、パッチHY内の対応する位置γHYに貼り付けることが可能となる。このようなテクスチャ情報の貼り付け処理を、個別モデルMDaのパッチKK1内の全テクスチャ情報について実行すると、個別モデルMDaにおけるパッチ内のテクスチャ情報が正規化され、サブモデルMSaにおけるパッチ内のテクスチャ情報として得られることになる。
また、上述したように、サブモデルMSaに貼り付けられたテクスチャ情報は、比較しやすいように、図12に示すような投影画像にさらに変更することもできる。
以上のように画像正規化工程(ステップSP36)においては、登録者HMaに関する情報が、個別モデルMDaおよびサブモデルMSaとして、正規化された状態で生成される。
次のステップSP37(図6)においては、登録者HMaの特徴を表す情報として、3次元形状情報(推定3次元情報)とテクスチャ情報(2次元情報)とが抽出される。ステップSP37においては、ステップSP7と同様の処理が行われる。なお、ここでは、テクスチャ情報として、サブモデルMSaにマッピングされた情報を用いるものとする。
さらに、ステップSP38においては、ステップSP37で抽出された情報を、認証に適した状態に変換する情報圧縮処理を行う。ステップSP38においては、ステップSP8と同様の処理が行われる。
これによって、ステップSP38において取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量d(Ad)が取得される。
次のステップSP39においては、取得された顔特徴量d(Ad)が、登録者HMaの情報として、コントローラ10内の人物データベース30に登録され記憶される。
以上のようにして、ステップSP30(図7)の処理が行われる。
<登録者HMaと認証対象者HMbとの照合処理等>
再び図6を参照して、ステップSP9以降の処理について説明する。
ステップSP9,SP10においては、上述の2つの顔特徴量Ad,Bdを用いて顔認証が行われる。
具体的には、認証対象者(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reが算出され(ステップSP9)、その後、この総合類似度Reに基づく認証対象者と比較対象者との比較動作等(ステップSP10)が行われる。総合類似度Reは、3次元顔特徴量dSから算出される3次元類似度ReSと、局所2次元顔特徴量d(k)から算出される局所2次元類似度Re(k)とに加えて、3次元類似度ReSと局所2次元類似度Re(k)との重みを規定する適宜の重み付け係数(以下、単に「重み係数」とも称する)WT,WS(式(12)参照)を用いて算出される。
ステップSP9では、人物データベース30に予め登録されている比較対象者の顔特徴量(比較特徴量)d(Ad)と、上記ステップSP1〜ステップSP8を経て算出された認証対象者の顔特徴量d(Bd)との類似性の評価が行われる。具体的には、登録されている顔特徴量(比較特徴量)(ReSM及びRe(k)M)と認証対象者の顔特徴量(ReSI及びRe(k)I)との間で類似度計算が実行され、3次元類似度ReSと局所2次元類似度Re(k)とが算出される。
さて、認証対象者と比較対象者との3次元類似度ReSは、式(13)に示されるように対応するベクトル同士のユークリッド距離ReSを求めることによって取得される。
また、局所2次元の類似度Re(k)は、式(14)に示されるように対応する局所領域同士における特徴量の各ベクトル成分ごとのユークリッド距離Re(k)を求めることによって取得される。
そして、式(15)に示されるように、3次元の類似度ReSと局所2次元の類似度Re(k)とを、所定の重み係数WT,WSを用いて合成し、認証対象者(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reを取得することができる。
次に、ステップSP10においては、総合類似度Reに基づいて認証判定が行われる。具体的には、認証対象者HMbの顔特徴量と特定の登録者(比較対象者)HMaの顔特徴量との類似度Reを一定の閾値TH1と比較することによって、認証対象者HMbと比較対象者HMaとの同一性が判定される。詳細には、類似度Reが一定の閾値TH1よりも小さいときに認証対象者が比較対象者と同一人物であると判定される。
以上のように、登録者HMaの顔に関して1枚の画像に基づく2次元情報(PA,TA(図1))しか存在しない場合であっても、奥行き情報等に基づいて、登録者HMaの顔に関する推定3次元情報SA(図1参照)が生成され、これらの2次元情報と推定3次元情報とに基づいて登録者HMaの顔に関する個別モデルMDaが作成される(ステップSP34)。また、認証対象者HMbの顔に関する2枚の画像から得られる2次元情報と3次元情報とに基づいて認証対象者HMbの顔に関する個別モデルMDb(第2立体モデル)が生成される(ステップSP4)。
そして、登録者HMaに関するテクスチャ情報TAと認証対象者HMbに関するテクスチャ情報TBとが共通の標準立体モデルを用いて標準化されている(ステップSP36,SP6)。
詳細には、2つのテクスチャ情報TA,TBを比較するに際して、登録者HMaに関する個別モデル(立体モデル)MDaからサブモデルMSaを生成し、認証対象者HMbに関する個別モデル(立体モデル)MDbからサブモデルMSbを生成している。
また、このとき、個別モデルMDaの各特徴点と標準モデルの各対応点(対応標準位置)との対応関係を求め、当該対応関係に基づいて、個別モデルMDaの各特徴点を共通の標準モデルの各対応点に合わせるように移動した上でそのテクスチャ情報TAを貼り付けることによって、各微小部分(パッチ)の位置および形状を標準モデルにおける標準位置および標準形状に合わせたサブモデルMSaを形成している。この実施形態では、このような態様で、登録者HMaに関するテクスチャ情報TAを標準化している(より詳細には、テクスチャ情報TAの配置位置および配置形状を標準化している)。
同様に、上記においては、個別モデルMDbの各特徴点と標準モデルの各対応点(対応標準位置)との対応関係を求め、当該対応関係に基づいて、個別モデルMDbの各特徴点を共通の標準モデルの各対応点に合わせるように移動した上でそのテクスチャ情報TBを貼り付けることによって、各微小部分(パッチ)の位置および形状を標準モデルにおける標準位置および標準形状に合わせたサブモデルMSbを形成している。この実施形態では、このような態様で、認証対象者HMbに関するテクスチャ情報TBを標準化している(より詳細には、テクスチャ情報TBの配置位置および配置形状を標準化している)。
そして、上記実施形態においては、両サブモデルMSa,MSbのそれぞれに貼り付けられた両テクスチャ情報TA,TBを比較することによって、登録者HMaと認証対象者HMbとの同一性が判定されている。
このように、両テクスチャ情報TA,TBは、標準モデルを用いて標準化された状態で比較されて認証動作が行われるので、認証動作における精度が向上する。
また、登録者HMaに関して2次元情報しか存在しない場合であっても、当該2次元情報と推定3次元情報とに基づいて登録者HMaに関する個別モデルMDaが作成される。そして、当該個別モデルMDaと認証対象者HMbに関する個別モデルMDbとにそれぞれ貼り付けられた第1および第2テクスチャ情報TA,TBが共通の標準立体モデルを用いて標準化され、テクスチャ情報TA,TBの双方がいずれも標準化された状態で比較されるので、比較条件のばらつきを抑制できる。端的に言えば、推定3次元情報を用いて2次元の情報を一旦立体化することによってテクスチャ情報を標準化することが可能になり、これによって、比較条件のばらつきの抑制を図ることができる。
ここにおいて、上記におけるテクスチャ情報の標準状態は、顔の姿勢に関する標準状態(標準姿勢)とパッチ形状に関する標準状態(標準パッチ形状)との2つの意義を有している。標準姿勢を有する状態で両テクスチャ情報TA,TBを比較することによれば、撮影時の姿勢の相違の影響を受けにくい認証を行うことが可能である。すなわち、撮影時の姿勢の相違に関してロバストな認証を行うことができる。また、標準パッチ形状を有する状態で両テクスチャ情報TA,TBを比較することによれば、物体表面の微小な形状変化の影響、換言すれば、撮影時のパッチ形状の相違(より詳細には顔表情の相違)の影響を受けにくい認証を行うことが可能である。例えば、微笑している人物の撮影画像を用いて認証する場合にも、笑っていない顔の標準モデルに貼り付けることによって、表情変化の影響を受けにくい状態で比較することが可能である。すなわち、撮影時の表情の相違に関してロバストな認証を行うことができる。
また、上記実施形態においては、テクスチャ情報だけでなく、顔の形状情報(特に2次元形状情報)をも用いて認証対象者と登録者との同一性が判定されるので、より正確な判定を行うことができる。ただし、登録者の3次元形状情報(特に奥行き情報)は推定に基づくものであるため、上記認証動作における当該3次元形状情報の比重は、テクスチャ情報および2次元形状情報に対して相対的に小さくすることが好ましい。具体的には、形状情報を2次元形状に関する情報と3次元形状に関する情報とに分離して算出し、3次元形状に関する重み付け係数の値を、2次元形状に関する重み付け係数およびテクスチャ情報に関する重み付け係数の各値に対して比較的小さくすることが好ましい。
<D.変形例>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
たとえば、上記実施形態においては、サブモデルMSa,MSbにマッピングされたテクスチャ情報を用いて、テクスチャ情報に関する判定動作を行う場合を例示したが、これに限定されず、アライメント補正(ステップSP6,SP36)後の個別モデルMDa,MDbにマッピングされたテクスチャ情報TA,TBを用いて、テクスチャ情報に関する判定動作を行うようにしてもよい。
具体的には、登録者HMaに関する個別モデルMDaと認証対象者HMbに関する個別モデルMDbとの双方に対してアライメント補正が施され、標準モデルが有している標準的な姿勢で(すなわち姿勢に関する補正が施された状態で)、両個別モデルの情報(特にテクスチャ情報)を比較するようにしてもよい。これによれば、登録者HMaに関するテクスチャ情報TAと、認証対象者HMbに関するテクスチャ情報TBとは、標準姿勢に変換された状態で比較されるため、撮影時の姿勢の相違の影響を受けにくい認証を行うことが可能である。すなわち、撮影時の姿勢の相違に関してロバストである。ただし、この場合には、パッチ形状は標準化されないので、表情変化の影響を受けにくいという利点を得ることはできない。
また、上記実施形態においては、式(15)に示すように、テクスチャ情報だけでなく形状情報をも用いて認証対象者と登録者との同一性を判定しているが、これに限定されず、テクスチャ情報だけを用いて認証対象者と登録者との同一性を判定してもよい。
また、上記実施形態においては、入力された顔(認証対象者の顔)が特定の登録者であるか否かを判定する場合について説明したが、これに限定されず、認証対象者が複数の登録者のうちの誰であるかを判定する顔識別に上記の思想を適用するようにしてもよい。例えば、登録されている複数の人物の各顔特徴量と認証対象者の顔特徴量との類似度を全て算出して、各比較対象者(登録者)と認証対象者との同一性をそれぞれ判定すればよい。また、特定数の人物に絞り込むことで足りる場合には、複数の比較対象者のうち、その同一性が高い順に特定数の比較対象者を選択するようにしてもよい。
また、上記実施形態では、ステップSP31(図7)において、カメラCA0によって登録者HMaの顔画像を撮影し、その撮影による画像を入力する場合を例示しているが、これに限定されず、既に別の時点において予め撮影されていた画像を、ステップSP31において再入力することによって当該登録者HMaの顔画像を取得するようにしてもよい。たとえば、IDカードに貼り付けられている登録者の顔画像を、コントローラ10に接続されたスキャナを用いて読み取ることなどによって取得するようにしてもよい。
また、上記実施形態の変形例として、次のような態様も想定される。具体的には、自席のパーソナルコンピュータ(パソコンとも称する)から印刷出力指示を行い、若干離れた場所に載置された共用プリンタにおいて印刷出力する際に、印刷出力の受取人が印刷出力指示を行った本人であるか否かを認証する本人認証技術に適用することができる。
詳細には、まず、印刷出力指示時に、自席に配置された単眼視のカメラによって自分(印刷指示者)の顔画像を撮影した画像データをプリントデータとともにプリンタドライバに渡す。プリンタドライバはネットワーク上に配置された共用プリンタに画像データとプリントデータとを伝送する。そして、受取時において受取人がプリンタに近づくと、プリンタ側に設けられた複眼視のカメラが印刷出力の受取人の顔画像を撮影し、受取人と印刷指示者とが同一であるか否かを上記実施形態と同様の動作によってプリンタが判定する。これによれば、上記実施形態と同様の効果を得ることができる。
また、上記実施形態においては、或る人物に関する1枚の画像が先に撮影されて予め登録されており、その後に認証用の2枚の画像が撮影される場合を例示したが、これに限定されない。例えば、逆に、或る人物に関する2枚の画像が先に撮影されて予め登録されており、その後に認証用の1枚の画像が撮影される場合にも適用することができる。具体的には、入室時の認証動作に適用することができる。より詳細には、まず、登録時においてステレオ視により登録者の2枚の画像を取得し、当該2枚の画像(およびその特徴量)をサーバ(コントローラ)内のデータベースにID番号とともに格納しておく。そして、認証時には、入室許可を求める人物を単眼視のカメラによって撮影し、当該人物によって入力されたID番号に対応する2枚の画像(およびその特徴量)を取得し、上述と同様の動作によって認証動作を行えば良い。これによれば、上記実施形態と同様の効果を得ることができる。
また、上記実施形態においては、複数台のカメラより入力される複数の画像を用いて、認証対象者の顔の3次元情報を取得しているがこれに限定されない。具体的には、図14に示されるようなレーザ光出射部L1とカメラLCAとから構成される3次元形状測定器を用いてレーザ光出射部L1の照射するレーザの反射光をカメラLCAによって計測することにより、認証対象者の顔の3次元情報を取得してもよい。すなわち、光切断法によって3次元情報を取得するようにしてもよい。但し、上記実施形態のように2台のカメラを含む入力装置を用いて3次元の形状情報を取得する手法によれば、レーザ光を用いる入力装置に比べて、比較的簡易な構成で3次元の形状情報を取得することができる。