以下、本発明の実施形態について、図面を用いて説明する。本実施形態の顔認証システムは、管理端末と、複数の認証端末とを有する。これらの端末は、例えばローカルエリアネットワーク(LAN)などの通信回線を介して、相互に通信可能に接続される。あるいは、管理端末と認証端末は、USBケーブルを介して互いに接続されてもよい。なお、管理端末と認証端末とを一体の構成としてもよい。
まず、管理端末について説明する。管理端末は、顔認証システムの管理者によって顔認証システムを管理するために利用される端末であり、例えば、管理用ソフトウェアが実行されているパーソナルコンピュータである。管理端末は、顔認証システムに利用者の特徴情報(例えば、利用者の顔画像から抽出された特徴点の位置情報など)を登録するために、または登録されている特徴情報(登録顔情報)を修正するために用いられる。また、管理端末は、認証端末から認証の記録データを取得し、そのデータを表示部に表示し、またはそのデータを記録部に記録する。
本実施形態の管理端末は、顔特徴抽出装置の一例である。管理端末は、利用者の顔画像から抽出された特徴点の位置情報から、目視により識別され得る顔の代表的な部位(例えば、目、鼻および口)の位置または範囲を管理者に教示する教示情報を生成する。管理端末は、抽出された特徴点を表示部にそのまま表示するのではなく、生成された教示情報を顔画像に重畳して表示する。また、管理端末は、教示情報が示す特定の部位の顔画像上における位置の修正が管理者により指示された場合に、特徴点を再抽出する。これにより、特徴点の確認および修正の作業にかかる管理者の負担が軽減され、また、顔画像上の位置が適切な特徴点が得られる。
図1は、本発明の一実施形態の顔認証システムにおける管理端末1の概略構成図を示す。管理端末1は、登録処理部10と、記憶部20と、入出力部30と、表示部40と、操作部50とを有する。
登録処理部10は、1個または複数個のプロセッサおよびその周辺回路を有する。登録処理部10は、顔認証システムに登録される利用者の顔を撮影した画像から利用者の顔の特徴点を抽出する。登録処理部10は、抽出された特徴点について管理者が確認および修正指示を行うための画面を表示部40に表示させ、管理者が操作部50を介して入力した修正指示を受け付ける。また、登録処理部10は、管理者の操作により確定された、登録対象の利用者の識別情報、顔画像および特徴情報などの登録データを、認証端末に送信する。
登録処理部10による処理対象の画像は、デジタルカメラ等の外部撮影機器により撮影され、それらの機器から取り込まれた画像とする。なお、登録処理部10による処理対象の画像は、後述する認証端末の撮像部により撮影された画像でもよい。
記憶部20は、半導体メモリ、磁気記録媒体およびそのアクセス装置ならびに光記録媒体およびそのアクセス装置のうちの少なくとも1つを有する。記憶部20は、管理端末1を制御するためのコンピュータプログラム、各種パラメータおよびデータなどを記憶する。また、記憶部20は、顔認証システムのマスタデータとして、各利用者の登録データを記憶する。
入出力部30は、認証端末などの外部装置に接続する通信インターフェースと、その制御回路とを有する。表示部40は、例えば液晶ディスプレイで構成され、登録処理部10により抽出された特徴点を管理者が確認するための顔データ確認画面、および管理者が特徴点の修正を指示するための顔データ修正画面を表示する。操作部50は、例えばマウスで構成され、特徴点を確定する指示またはある部位の特徴点を修正する指示を管理者が登録処理部10に入力するために用いられる。表示部40と操作部50は、タッチパネルディスプレイとして一体的に構成されてもよい。
次に、登録処理部10が有する各手段の機能について説明する。登録処理部10は、顔検出手段11と、特徴抽出手段12と、生成手段13と、表示制御手段14と、登録手段15と、再抽出手段16とを有する。登録処理部10のこれらの手段は、例えば、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される。なお、これらの手段は、独立した集積回路、ファームウェア、マイクロプロセッサなどで構成してもよい。
顔検出手段11は、入出力部30を介して取得した処理対象の画像から利用者の顔が写っている領域である顔領域を検出し、その画像から顔領域に含まれる画素のみを含む画像を顔画像として切り出す。顔検出手段11は、顔領域の大きさが後述のテンプレート顔画像の顔領域と同等になるように、必要に応じて顔領域を拡大縮小する。顔検出手段11は、顔画像を特徴抽出手段12に渡す。
顔領域を検出するために、顔検出手段11は、例えば、取得した画像中の部分領域から1つもしくは複数の特徴量を算出し、その特徴量が人物の顔に対応すると考えられる所定の条件を満たす場合に、その部分領域を顔領域として検出する。具体的には、顔検出手段11は、例えば、Sobelフィルタなどを用いてエッジ画素抽出を行い、その部分領域内におけるエッジ画素の方向分布、またはそのエッジ近傍の輝度分布などの特徴量を算出する。あるいは、人物の顔を撮影した複数の画像から予めこれらの特徴量の値を求めてその範囲を決定することにより、上述した所定の条件を予め決定してもよい。
特徴抽出手段12は、顔検出手段11から取得した顔画像から、顔の各部位に対応する複数の特徴点を抽出する。特徴抽出手段12は、従来から提案されている様々な特徴点の抽出方法のどれを用いてもよい。本実施形態では、特徴抽出手段12は、顔検出手段11から取得した顔画像と、予め用意されたテンプレート顔画像との間で、顔を構成する各部位の画像特徴の類似性を評価することにより、特徴点を探索する。
具体的には、特徴抽出手段12は、目、鼻、口、眉、顔の輪郭などの各部位を構成する詳細部位について、複数のテンプレート顔画像におけるその詳細部位の周辺領域を、参照画像として用いる。この詳細部位の例を挙げると、例えば部位「右目」には、目頭、目尻、目上端、目下端などが含まれる。「左目」も同様である。また、部位「鼻」には、鼻尖(鼻頂点)、鼻背、鼻右端、鼻左端などが含まれる。部位「口」には、口右端、口左端、口上端、口下端などが含まれる。部位「右眉」には、眉頭、眉尻などが含まれる。「左眉」も同様である。部位「輪郭」には、顎中央、顎右側部、顎左側部などが含まれる。特徴抽出手段12は、この他に、上記の部位間に位置する頬などの部位についても、テンプレート顔画像におけるその周辺領域を参照画像として用いる。
そして特徴抽出手段12は、顔画像上の1つの位置において、顔検出手段11から取得した顔画像の画像特徴と参照画像の画像特徴との相違度である評価値をテンプレートごとに求め、その評価値の総和Sを算出する。ここでの画像特徴の例には、各画素の輝度値や色相値などが含まれる。特徴抽出手段12は、顔画像上の各位置で評価値の総和Sを算出し、評価値の総和Sの値が最小となる位置を探索する。そして特徴抽出手段12は、その最小となる位置を、対象となっている詳細部位を示す特徴点として抽出する。なお、テンプレートが1つしかない場合は、特徴抽出手段12は、そのテンプレートに関する上記の評価値が最小となる位置を、特徴点として抽出する。
特徴抽出手段12は、抽出した特徴点ごとに、その特徴点を識別するためのコード、顔画像上におけるその特徴点の位置情報(座標情報)、その特徴点が対応する部位または詳細部位を表す部位情報、およびその詳細部位の画像特徴(周辺の画像特徴)を対応付ける。そして特徴抽出手段12は、特徴点ごとにこれらのデータを合わせた特徴点リストを作成する。この特徴点リストが特徴情報である。特徴抽出手段12は、この特徴点リストを、記憶部20に記憶するとともに生成手段13に渡す。
特徴抽出手段12は、詳細部位間の相対的な位置関係を考慮して、上記の評価値を算出してもよい。例えば、目頭の特徴点が抽出されている状態で特徴抽出手段12が目尻の特徴点を抽出する場合には、目頭の特徴点から平均的な目の大きさだけ離れた一定の範囲内に目尻の特徴点があると考えられるため、特徴抽出手段12は、その範囲内から離れた位置ほど、目尻の特徴点として抽出され難くなるように、上記の評価値をより大きな値に補正してもよい。また、特徴抽出手段12は、後述する代表部位に関する特徴点のみを抽出する構成としてもよい。
生成手段13は、顔画像から抽出された複数の特徴点のうち、少なくとも一つの部位に対応する特徴点の位置およびその特徴点が示す顔の部位に基づいて、顔画像上におけるその部位の位置または範囲を示す教示情報を生成する。生成手段13は、抽出された複数の特徴点のうち、特に、例えば目、鼻および口などの、管理者が目視により識別できる予め定められた代表的な部位(以下、代表部位という)を示す特徴点を用いて、顔画像上における各代表部位の位置(座標情報)を特定し、各代表部位の位置または範囲を管理者に教示するための教示情報を生成する。管理端末1は抽出された特徴点をそのまま表示しないので、教示情報は、特徴点そのものの位置情報とは異なる情報である。生成手段13は、生成した教示情報を表示制御手段14に渡す。
ここで例示した目、鼻および口は、管理者が画像上でその位置を正確に認識し易いため、代表部位として適している。一方、例えば輪郭は、画像上でもその位置が曖昧になりがちであるから、代表部位として適していない。なお、目、鼻および口の位置は、認証端末による照合処理でも比較的重視される場合が多く、照合への影響が高い重要部位であるともいえる。
ここで、教示情報の3つの例を説明する。第1の例では、生成手段13は、代表部位に対応する複数の特徴点を包含する外接図形として外接楕円形を求め、この外接楕円形を規定する中心座標、長径および短径等を教示情報とする。なお、外接図形の形状は楕円に限らず、それらの特徴点に外接する矩形、多角形、または円でもよい。
第2の例では、生成手段13は、代表部位ごとに、予め定められた形状および大きさのテンプレート枠を用意しておく。生成手段13は、代表部位に対応する複数の特徴点の重心座標を求め、この重心座標と、その重心座標に合わせて配置されるテンプレート枠を特定する情報とを教示情報とする。
第3の例では、生成手段13は、代表部位に対応する複数の特徴点の重心座標を求め、この重心座標と、その重心座標に合わせて配置される×印などのマークを特定する情報とを教示情報とする。
生成手段13は、代表部位ごとに外接図形またはテンプレート枠の形状を変えてもよいし、ある部位には第1の例を適用し別の部位には第2の例を適用してもよい。第2および第3の例では、生成手段13は、例えば目であれば、認識されやすく信頼度が高いと考えられる目頭および目尻の特徴点の重みを目上端および目下端の特徴点の重みより高くして、重心座標を求めてもよい。この場合、特徴抽出手段12が特徴点ごとに信頼度を設定しておき、生成手段13は、信頼度が高い特徴点ほど計算に大きく寄与するように、信頼度に応じた重みを掛けて重心を求めてもよい。
図2(A)〜図2(C)は、教示情報の例を説明するための図である。図2(A)は、特徴抽出手段12により抽出された特徴点を×印211で示す模式図である。このような特徴点について、生成手段13が生成した教示情報の例を、図2(B)および図2(C)に示す。
図2(B)は、教示情報として楕円形221〜224が表示された場合の例を示す模式図である。図2(B)は、上記の第1および第2の例に対応している。この楕円は、第1の例による、代表部位の特徴点を包含する外接図形でもよいし、第2の例による、代表部位ごとに予め定められた大きさで、中心を各代表部位の重心座標に合わせて配置されるテンプレート枠でもよい。図2(C)は、教示情報として、代表部位を示す×印231〜234が表示された場合の例を示す模式図である。図2(C)は、上記の第3の例に対応している。図2(B)と図2(C)の例では、右目、左目および口の特徴点の位置は実際の部位の位置と合っていることが、外接楕円形221,222,224または×印231,232,234によりわかる。一方、鼻の特徴点の位置がずれていることが、外接楕円形223または×印233によりわかる。
表示制御手段14は、教示情報を顔画像に重畳させて表示部40に表示する。表示制御手段14は、抽出された特徴点を管理者が確認できるように、生成された教示情報と顔画像とを含む顔データ確認画面を表示部40に表示させる。管理者は、その画面上で、操作部50を介して、特徴点の位置を修正するか否かを指示することができる。表示制御手段14は、その指示を受け取ると、管理者が代表部位ごとに特徴点の位置を修正するための顔データ修正画面を表示部40に表示させる。管理者は、その画面上で、操作部50を介して、代表部位ごとに特徴点の位置を手動で修正することができる。表示制御手段14は、顔データ修正画面上でも、教示情報を顔画像に重畳させて表示してもよい。管理者が代表部位の位置を修正した場合、後述するように、再抽出手段16が特徴点を再抽出する。そのときは、再抽出された特徴点を基に生成手段13が教示情報を生成した後、表示制御手段14は、再び顔データ確認画面を表示部40に表示させる。なお、生成手段13と表示制御手段14は、教示情報を生成しその教示情報を顔画像に重畳させて表示部に表示する教示処理手段の一例である。
図3(A)〜図3(C)は、顔データ確認画面と顔データ修正画面の例を示した図である。図3(A)は、顔データ確認画面の例である。画面の左側の領域311では、右目、左目、鼻および口の代表部位を示す楕円形の教示情報312〜315が、顔画像に重畳表示されている。管理者は、これを見て、代表部位ごとに位置の修正が必要か否かを判断することができる。そして管理者は、画面の右側に表示されている「修正する」のボタン316または「確定する」のボタン317を例えばマウスでクリックすることにより、操作部50を介して、特徴点の位置の修正または確定の指示を入力することができる。
図3(B)は、顔データ修正画面の例である。図3(A)の顔データ確認画面で管理者が「修正する」のボタン316を選択すると、表示制御手段14は、その指示を受け取り、この顔データ修正画面を表示部40に表示させる。画面の右側には、代表部位を示す「右目」のボタン325、「左目」のボタン326、「鼻」のボタン327および「口」のボタン328がそれぞれ表示されている。管理者は、これらのボタンにより、修正対象の代表部位を順次選択する。そして管理者は、代表部位ごとに、画面の左側の領域321に表示されている顔画像上でその代表部位の正しい位置(その代表部位の真ん中辺りの位置)にカーソルを移動させて、例えばマウスをクリックすることにより、修正位置を入力する。顔画像の右目と左目の上に表示されている黒丸322,323は、管理者により修正位置が入力されたことを示している。また、「鼻」のボタン327が黒く表示され、顔画像上に矢印324が表示されており、図3(B)の画面では、管理者が現在鼻の修正位置を入力する操作中であることを示している。
管理者は、全ての代表部位について修正位置を入力した後、「修正実行」のボタン330を選択することができる。すると、入力された修正位置が表示制御手段14を介して再抽出手段16に渡され、その修正位置を基に、再抽出手段16が特徴点を再抽出する。また、管理者は、「取消」のボタン329を選択して、修正作業を中止することもできる。このとき、登録処理部10は処理を中止する。なお、図3(B)には示していないが、例えば顔画像上の各代表部位の中心に印をつけたものをサンプルとして画面の端に表示し、管理者がそのサンプルを参考に操作できるようにしてもよい。
図3(C)は、顔データ修正画面の別の例である。図3(C)は、図3(A)と同様に、画面左側の領域331上で、楕円形の教示情報332〜335が顔画像に重畳表示されている。このように、顔データ修正画面上でも教示情報を表示してもよい。また、図3(B)では全ての代表部位の修正位置が入力されるものとして説明したが、管理者は必要と判断した一部の代表部位だけを修正してもよい。例えば、図3(C)では、右目、左目および口の特徴点の位置は実際の部位の位置と合っていることが、教示情報332,333,335によりわかる。一方、鼻の特徴点の位置がずれていることが、教示情報334によりわかる。このため、管理者は、画面右側の「鼻」のボタン327を選択して、鼻の位置のみを修正してもよい。顔画像の鼻の上に表示されている黒丸336は、管理者により修正位置が入力されたことを示している。
登録手段15は、管理者により特徴点の位置を確定する指示が入力されると、現在の特徴情報を登録対象に決定する。そのとき、登録手段15は、登録される利用者について別途入力されているか、あるいは自動的に割り当てられる識別情報(ID番号)、名前および所属などの利用者情報と、顔画像と、決定された特徴情報とを、登録データとして記憶部20に登録する。また、登録手段15は、入出力部30を介して登録データを認証端末に送信する。
再抽出手段16は、顔画像上に教示され、操作部50を介して管理者により指示された部位の修正位置に基づいて、顔画像から少なくともその部位に対応する特徴点を再抽出する。再抽出手段16は、再抽出した特徴点の情報を生成手段13に渡す。すると、生成手段13は再抽出された特徴点を基に教示情報を生成し、表示制御手段14は再び顔データ確認画面を表示部40に表示させる。ただし、再抽出を1回行えば正しい位置の特徴点が得られると考えられるため、再抽出手段16は、再抽出した特徴点の情報を登録手段15に渡して、再抽出された特徴点を登録手段15がそのまま登録してもよい。
再抽出手段16による特徴点の抽出方法は、特徴抽出手段12による特徴点の抽出方法と同じとする。ただし、再抽出手段16は、管理者により指示された修正位置からの距離が近い位置ほどその修正位置が指示された部位に対応する特徴点が抽出され易くなるように、顔画像から特徴点を再抽出する。なお、再抽出手段16は、特徴抽出手段12とは異なる方法で特徴点を抽出してもよい。
具体的には、再抽出手段16は、特徴抽出手段12と同じテンプレートを用いて、顔画像上の特徴点の候補位置において、処理対象の顔画像の画像特徴と、上記の参照画像の画像特徴との相違度をテンプレートごとに求める。再抽出手段16は、管理者により指示された修正位置と候補位置との距離dに応じた補正値Eを求め、上記の相違度に補正値Eを加算した値である評価値を求める。補正値Eは、距離dとともに大きくなる値とする。そして再抽出手段16は、各テンプレートについての評価値の総和S’を算出する。再抽出手段16は、顔画像上の各位置で評価値の総和S’を算出し、評価値の総和S’の値が最小となる位置を探索する。そして再抽出手段16は、その最小となる位置を、対象となっている詳細部位を示す特徴点として抽出する。
再抽出手段16が相違度に補正値Eを加算した評価値を用いるのは、管理者により指示された修正位置から遠い点の評価値を高くして、修正位置に近い点ほど特徴点として抽出され易くなるように重み付けをするためである。なお、再抽出手段16は、相違度に補正値Eを加算して評価値を求めるのではなく、距離dに応じた補正係数αを求め、上記の相違度に補正係数αを掛けた値を評価値としてもよい。補正係数αも、距離dとともに大きくなる値とする。
また、再抽出手段16は、修正位置からの距離dだけでなく方向を考慮して、補正値Eまたは補正係数αを求めるとなお好ましい。例えば、右目の位置が修正され右目の特徴点が再抽出される場合、「右目の目尻」は、「右目」の修正位置に対して左方向(すなわち顔の外側)の一定範囲内にある蓋然性が高いため、再抽出手段16は、「右目の目尻」の位置を探索するときに、その左方向の一定範囲内における特徴点の候補位置について小さな値をとるように補正値Eまたは補正係数αを決めるとよい。このとき、逆の右方向の位置については、再抽出手段16は補正値Eまたは補正係数αの値を高くしてもよい。
なお、再抽出手段16は、顔の全ての特徴点を再抽出せずに、管理者により修正指示された部位に対応する特徴点だけを再抽出してもよい。
図4は、管理端末1による登録処理の動作例を示したフローチャートである。管理者の操作により登録処理の開始が指示されると、まず、入出力部30を介して、顔検出手段11は画像を取得する(ステップS1)。顔検出手段11は、取得した画像から利用者の顔が写っている顔領域を検出し、その画像から顔領域に含まれる画素のみを切り出す(ステップS2)。顔検出手段11は、切り出した画像を、特徴抽出手段12に渡す。
特徴抽出手段12は、顔画像から対象者の顔の各部位に対応する複数の特徴点を抽出する(ステップS3)。特徴抽出手段12は、得られた特徴点の情報を記憶部20に記憶するとともに生成手段13に渡す。次に、生成手段13は、抽出された特徴点の情報から代表部位の教示情報を生成する(ステップS4)。そして表示制御手段14は、表示部40に、生成された教示情報と顔画像とを重畳させて表示する(ステップS5)。
ここで、管理者が操作部50を介して代表部位の位置を修正する指示を入力した場合(ステップS6でYes)、再抽出手段16は指示された修正位置に基づき特徴点を再抽出する(ステップS7)。その後、生成手段13が教示情報を生成する処理(ステップS4)に戻る。一方、管理者が操作部50を介して特徴点を確定する指示を入力した場合(ステップS6でNo)、登録手段15は、確定した特徴点の情報を登録データとして記憶部20に登録する(ステップS8)。以上で、登録処理部10の動作は終了する。
なお、再抽出手段16による再抽出の処理(ステップS7)の後は、生成手段13が教示情報を生成する処理(ステップS4)に戻らず、登録手段15がそのまま特徴点の情報を登録する処理(ステップS8)に進んでもよい。
以上説明してきたように、管理端末1では、利用者の顔画像から特徴抽出手段12が抽出した特徴点を表示部40にそのまま表示するのではなく、生成手段13が生成した教示情報を顔画像に重畳して表示する。このとき、目、鼻、口といった確認に適した代表部位についてのみ教示情報を表示する。これにより、特徴点の確認および修正の作業にかかる管理者の負担が軽減される。また、管理端末1では、教示情報が示すある部位の顔画像上における位置の修正が管理者により指示された場合に、再抽出手段16が特徴点を再抽出する。これにより、顔画像上の位置が適切な特徴点が抽出される。
また、管理端末1が用いられる顔認証システムは、3次元化した顔データを利用する認証方式を採る顔認証システムでもよい。この場合、管理端末1は、上記の処理によって得られた特徴情報を、図示しない3D処理手段が顔データを3次元化するために用いてもよい。
この3D処理手段は、利用者の顔画像と、その画像から特徴抽出手段12により抽出され必要に応じて修正された特徴情報とを基に、3次元モデルを用いて3次元の顔形状を推定し、3次元顔形状データを作成する。3次元モデルとは、登録人物の頭部を再現して様々な向きの顔画像を生成するためのモデルである。3D処理手段は、例えば、特開2011−210114号公報、特開2009−211148号公報、特開2011−215843号公報などに記載されている、様々な公知の3次元モデル生成方法のいずれかを用いることができる。
そして3D処理手段は、真正面を向いた顔画像を中心に、例えば上下方向と左右方向にそれぞれ15度刻みで±30度まで向きを変えた5×5の25方向から見た顔画像について、それぞれ特徴情報を記憶部20に登録する。このときの特徴情報は、特徴抽出手段12がそれぞれの顔画像から抽出したものである。
なお、3D処理手段は、基準方向(大抵は真正面を向いた顔画像)の特徴情報をベースとして、特徴抽出手段12が抽出した特徴情報を3次元顔形状データに基づき変換させたものを、各方向の特徴情報としてもよい。また、3D処理手段は、2次元の顔画像から抽出された特徴情報を3次元顔形状データにより3次元座標系に変換したものを、登録される特徴情報としてもよい。また、基準方向の特徴情報だけを登録しておき、認証端末による照合時に、認証端末の処理部がその特徴情報に対して方向を回転させる変換を行って、照合用の特徴情報を生成してもよい。
次に、認証端末について説明する。認証端末は、照合時に撮影された画像から得られた照合対象者の顔の特徴情報と、管理端末1を用いて予め登録された利用者の顔の特徴情報(登録顔情報)とを照合して、照合対象者を認証するか否か判定する。認証端末は、例えば通行が規制されるゲートや自動ドアごとに設けられ、認証結果に応じてそれらのゲートや自動ドアなどを制御する。
図5は、本発明の一実施形態の顔認証システムにおける認証端末100の概略構成図である。認証端末100は、認証処理部110と、記憶部120と、入出力部130と、登録処理部140とを有する。認証端末100では、撮像部200により撮像された画像が、認証処理部110に入力される。
撮像部200は、認証端末100が運用される環境に応じて、照合対象者の顔を撮影できるように設置される。撮像部200は、照合対象者の顔が写った画像を入力顔画像として生成する。そのために、撮像部200は、例えば、CCDまたはCMOSといった固体撮像素子の2次元アレイ上に照合対象者の顔の像を結像する光学系を備えたカメラを有する。撮像部200は、生成した入力顔画像を認証処理部110に出力する。
なお、撮像部200は、入力顔画像として、カラーの多階調画像を作成するものであってもよく、または近赤外域に感度を有しグレー画像を作成するカメラであってもよい。また、撮像部200が有する撮像素子アレイは、入力顔画像上に写っている顔の目、鼻、口などの特徴が区別できる程度の画素数を有することが好ましい。
認証処理部110は、1個または複数個のプロセッサおよびその周辺回路を有する。そして認証処理部110は、撮像部200により入力された顔画像から照合対象者の顔の特徴情報(以下、入力顔情報という)を抽出し、入力顔情報を記憶部120に予め登録された利用者の登録顔情報と照合して、照合対象者を候補者として認証するか否か判定する。認証処理部110は、撮影画像から抽出された照合対象者の顔情報を登録顔情報と照合して、照合対象者が利用者であるか判定する認証手段の一例である。
記憶部120は、半導体メモリ、磁気記録媒体およびそのアクセス装置ならびに光記録媒体およびそのアクセス装置のうちの少なくとも1つを有する。記憶部20は、認証端末100を制御するためのコンピュータプログラム、各種パラメータおよびデータなどを記憶する。また、記憶部120は、各利用者の登録データを記憶する。記憶部120は、認証結果を認証記録データとして記憶する。
入出力部130は、例えば、自動ドア、通行ゲートまたは電気錠を制御する外部機器などに接続する通信インターフェースと、その制御回路とを有する。そして入出力部130は、認証処理部110から照合対象者についての認証成功を示す信号を受け取ると、接続された機器に例えば電気錠の解錠を要求する信号を出力する。あるいは、入出力部130は、撮像部200の付近に設置され表示または音声などにより照合対象者に認証結果を通知する表示器などに、認証処理部110による認証結果を示す信号を出力してもよい。
また、認証端末100は管理端末1に接続され、入出力部130を介して管理端末1から利用者の登録データを受信する。その際、管理端末1の登録手段15は、管理者により入力された指示に応じて、利用者の登録データを認証端末に送信し、その登録データをその利用者の登録顔情報として記憶部120に記憶させる。これにより、利用者の顔の特徴情報が、登録顔情報として認証端末100に登録される。また、ある利用者について記憶部120に記憶されている登録顔情報を修正する必要があるときも、管理端末1の登録手段15は、管理者により入力された指示に応じて、利用者の登録データを認証端末に送信し、記憶部120に登録されている修正対象の利用者の登録顔情報を、その登録データで修正する。
次に、認証処理部110が有する各手段の機能について説明する。認証処理部110は、顔検出手段111と、特徴抽出手段112と、照合手段113と、認可手段114とを有する。認証処理部110のこれらの手段は、例えば、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される。なお、これらの手段は、独立した集積回路、ファームウェア、マイクロプロセッサなどで構成してもよい。
顔検出手段111は、管理端末1の顔検出手段11と同様に、入力顔画像から照合対象者の顔が写っている顔領域を検出する。顔検出手段111は、例えば、入力顔画像から顔領域に含まれる画素のみを取り出した画像を、特徴抽出手段112に渡す。
特徴抽出手段112は、管理端末1の特徴抽出手段12と同様に、入力顔画像の顔領域から入力顔情報を抽出する。特徴抽出手段112は、得られた入力顔情報を照合手段113に渡す。また、特徴抽出手段112は、入力顔情報を記憶部120に記憶する。
照合手段113は、照合対象者の入力顔情報を記憶部120に記憶されている各登録顔情報と照合して、入力顔情報と類似する登録顔情報に対応する利用者を、照合対象者と同一人物である可能性がある候補者として特定する。そのために、照合手段113は、まず、入力顔情報と、各登録顔情報とを比較することにより、利用者ごとに、利用者の顔と照合対象者の顔の類似度合いを表す類似度を算出する。
照合手段113は、例えば、入力顔情報と登録顔情報の間で、特徴抽出手段112が抽出した特徴点ごとに周囲の画像特徴を利用して個別の類似度を求め、その総和を全体の類似度として算出する。この場合、入力顔情報と登録顔情報の差が小さいほど、すなわち、照合対象者の顔と利用者の顔が類似しているほど、類似度の値は大きくなる。照合手段113は、他の公知の方法で、登録されている利用者の顔と照合対象者の顔の類似度合いを表す量を算出してもよい。
そして照合手段113は、算出した類似度の最大値を求め、例えばその最大値が閾値以上である場合に、その最大値をもつ登録顔情報が入力顔情報と類似すると判定する。照合手段113は、その類似する登録顔情報に対応する利用者を候補者として特定する。照合手段113は、候補者の識別情報を認可手段114に渡す。一方、照合手段113は、その最大値が閾値未満である場合は、候補者が存在しないことを認可手段114に通知する。
認可手段114は、照合対象者を、候補者として特定された利用者であるとして認証する。このとき認可手段114は、入出力部130を介して、例えば認証成功を示す信号として電気錠を解錠する信号を出力し、撮像部200の付近に設置された表示器などに認証に成功したことを通知する。一方、照合手段113から候補者が存在しないことを通知された場合、認可手段114はその照合対象者を認証しない。このとき認可手段114は、入出力部130を介して、認証失敗を示す信号を出力する。
また、顔認証システムは、1つの入力顔画像により照合対象者を認証するものに限らず、例えば撮影時刻が異なる複数の入力顔画像を用いて最終的に照合対象者を認証するものでもよい。例えば、顔認証システムは、監視領域内を歩行する人物が複数の時点で撮影された複数の入力顔画像からその人物の顔領域の画像を抽出し、公知のトラッキング技術を適用することにより同一人物の顔が写っていると判断される顔領域同士について、顔領域の画像と予め登録された複数の登録顔画像のそれぞれとの類似度を時系列の順で算出し、それらの類似度を用いて監視領域内を歩行する人物を認証する顔認証装置(いわゆるウォークスルー型の顔認証装置)であってもよい。
その場合、顔認証システムは、例えば、ある利用者の顔情報と入力顔情報との類似度が利用者間で最大になった回数である1位ヒット数を、利用者ごとにカウントする。顔認証システムは、その照合対象者が写っている期間内における入力顔画像の枚数に対する1位ヒット数の割合である1位ヒット率を、利用者ごとに算出する。そして、ある利用者の1位ヒット率が閾値(例えば7割)以上になった場合に、顔認証システムは照合対象者をその利用者であると判定してもよい。あるいは、ある利用者の1位ヒット数が閾値となる回数(例えば7回)以上になった場合に、顔認証システムは照合対象者をその利用者であると判定してもよい。