JP4068889B2 - 複合照合装置 - Google Patents

複合照合装置 Download PDF

Info

Publication number
JP4068889B2
JP4068889B2 JP2002129340A JP2002129340A JP4068889B2 JP 4068889 B2 JP4068889 B2 JP 4068889B2 JP 2002129340 A JP2002129340 A JP 2002129340A JP 2002129340 A JP2002129340 A JP 2002129340A JP 4068889 B2 JP4068889 B2 JP 4068889B2
Authority
JP
Japan
Prior art keywords
image
face image
sample
eye
iris
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002129340A
Other languages
English (en)
Other versions
JP2003173444A5 (ja
JP2003173444A (ja
Inventor
正宏 岩崎
健司 長尾
啓介 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2002129340A priority Critical patent/JP4068889B2/ja
Publication of JP2003173444A publication Critical patent/JP2003173444A/ja
Publication of JP2003173444A5 publication Critical patent/JP2003173444A5/ja
Application granted granted Critical
Publication of JP4068889B2 publication Critical patent/JP4068889B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、入力顔画像およびアイリス領域画像と、サンプルの入力顔画像およびアイリス領域画像との一致を調べる複合照合装置に関する。
【0002】
【従来の技術】
入力パターンから特定のパラメタを抽出する処理は、パターン情報処理において非常に一般的な処理である。例えば、人物顔画像から目や鼻の位置を取り出す処理や、車両画像からナンバープレートの位置を抽出する処理である。
【0003】
従来、このような処理に対して最も一般的な方法は、以下に要約されるような照合フィルター法と言われるもので、非常に多くの使用例が提案されている。顔の特徴抽出方法を例に、図17を用いて説明する。
【0004】
図17のフローチャートに示すように、まず目や鼻の部分のテンプレートをテンプレートデータベース1601に用意しておく。テンプレートデータベース1601には図18に示すように目のテンプレート1701が複数格納される。
【0005】
まず、カメラから入力画像が与えられると(S81)、テンプレートデータベース1601から1つのテンプレート画像1701を得る(S82)。次に、図19に示すように、入力画像2001を探索窓2002で探索し、探索窓2002内画像とテンプレート1701との類似度を求める(S83)。類似度の算出には、探索窓2002内の画像とテンプレート1701との正規化相関などを用いることが多い。
【0006】
そして、この処理を入力画像2001全体について行ったか判断し(S84)、入力画像2001全体について行うまで、入力画像2001を探索窓2002でスキャンし(S85)、S83の処理を行う。
【0007】
次に、テンプレートデータベース1601に含まれる全てのテンプレート1701について、上述した探索を行ったか判断し(S86)、全てのテンプレート1701について処理を行っていない場合は、処理対象のテンプレート1701を変更し(S87)、S83の処理に移行し、全てのテンプレートに対してS83〜S87の処理をする。
【0008】
次に、S83〜S87の処理によって求めた探索窓2002内画像とテンプレート1701の類似度をもとに、入力画像2001からもっともテンプレート1701に類似した局所エリア(探索窓2002領域)位置を見出し、その局所エリアに対応する位置を出力する(S88)。
【0009】
このような方法に基づく方法の一例が文献、R. Brunelli, T.Poggio,“Face Recognition: Features versus Template”,IEEE Trans. Patt. Anal. Machine Intell., vol. PAMI−8, pp.34−43, 1993、に詳しく報告されている。
【0010】
【発明が解決しようとする課題】
上記のような従来方法における課題は、コンピュータの処理コストである。探索対象とする入力画像のサイズをS、テンプレートサイズをTとし、正規化相関を類似度基準とする場合、時間計算量は乗算を単位演算とすると2×T×S回の演算回数を必要とする。例えば、典型的な顔画像の特徴点抽出問題では、T=50×20=1000(pel)、S=150×150=22500(pel)の場合を考えてみても、乗算だけで2×1000×22500=45×100万回=4500万回となり、いくらコンピュータの演算速度が向上したといえ、莫大な演算コストを要するものとなる。
【0011】
また、処理に用いるテンプレートは、全学習データの平均等の典型的データを用いるものが多く、環境よって照合がうまくいかない場合が多い。このため入力パターンに応じてテンプレートを複数用意して、複数のテンプレートによる類似度計算を行う手法がある。しかしながら、テンプレートの数に応じて処理数が増大するため、コンピュータの処理コストからみても負荷が大きいものになってしまう。
【0012】
本発明は、少ない処理コストで入力データの特徴点を正確に求めることを目的とする。
【0013】
【課題を解決するための手段】
本発明は、サンプルのデータとこのデータ内における特徴点の位置との相関を予め学習しておき、この学習により求めた相関を用いて、入力されたデータの特徴点がどこであるかを推定するようにしたものである。
【0014】
同じ種類のデータと、このデータ内における特徴点とは、一定の相関があるので、この相関を用いることで、データの特徴点がどこであるかを少ない処理コストで、かつ正確に求めることができる。
【0015】
【発明の実施の形態】
本発明の第1の態様にかかる複合照合装置は、サンプルとなるサンプル顔画像を入力するサンプル顔画像入力手段と、前記サンプル顔画像の特徴点を入力する特徴点入力手段と、新たに前記特徴点を推定する照合対象顔画像を入力する照合顔画像入力手段と、前記サンプル顔画像と前記特徴点との合成情報を複数の顔画像分布に分け、前記サンプル顔画像の顔画像自己相関情報と前記サンプル顔画像と前記特徴点との顔画像相互相関情報を前記顔画像分布毎に求める顔画像学習手段と、前記顔画像分布毎に求めた前記顔画像自己相関情報と前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定する顔画像パラメタ推定手段と、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分領域を決定する部分領域決定手段と、サンプルとなるサンプル眼領域画像を入力するサンプル眼画像入力手段と、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力する眼画像パラメタ入力手段と、アイリスの輪郭を推定する眼領域画像を入力する眼画像入力手段と、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記眼領域画像の眼画像自己相関情報と前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報を前記眼画像分布毎に求める眼画像学習手段と、前記分布毎に求めた前記眼画像自己相関情報と前記眼画像相互相関情報を用いて前記眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定する眼画像パラメタ推定手段と、前記推定した前記点の集合を用いて前記眼領域画像から照合対象アイリス領域画像を推定するアイリス推定手段と、推定した前記部分顔画像領域を用いて前記照合対象顔画像と、推定した前記照合対象アイリス領域画像が、あらかじめ登録された前記サンプル顔画像およびサンプルアイリス画像と一致するかを複合的に照合する照合手段とを具備した構成を採る。
【0016】
これにより、抽出した部分領域顔画像およびアイリス領域画像を用いて、あらかじめ登録したデータベースの画像と照合対象画像と複合的に照合することによって、顔画像のみの場合やアイリス画像のみの場合に比べてより頑健かつ高精度な照合を行うことができる。
【0017】
本発明の第2の態様は、第1の態様にかかる複合照合装置において、眼画像入力手段は、前記推定した前記照合対象顔画像の特徴点を用いて、前記照合対象顔画像から前記眼領域画像を抽出するものである。
【0018】
このように、推定した特徴点を用いて、眼領域画像を抽出することで、正確にアイリス照合を行うための眼画像領域画像を抽出できる。
【0019】
本発明の第3の態様は、第1の態様または第2の態様にかかる複合照合装置において、前記顔画像学習手段は、前記サンプル顔画像をベクトル化した第1の教示ベクトルおよび前記サンプル顔画像の特徴点をベクトル化した第2の教示ベクトルの顔画像合成ベクトルを構成し、前記顔画像合成ベクトルの複数の顔画像要素分布を集合した顔画像混合分布モデルを推定し、前記顔画像要素分布毎に属する前記顔画像自己相関情報を前記第1の教示ベクトルの共分散行列を求めることで求め、前記顔画像相互相関情報を前記第1の教示ベクトルと前記第2の教示ベクトルとの共分散行列を求めることで求め、前記顔画像パラメタ推定手段は、前記顔画像要素分布毎に属する前記顔画像自己相関情報および前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定し、前記眼画像学習手段は、前記サンプル眼領域画像をベクトル化した第3の教示ベクトルおよび前記アイリス領域を形成する前記点の集合をベクトル化した第4の教示ベクトルの眼画像合成ベクトルを構成し、前記眼画像合成ベクトルの複数の眼画像要素分布を集合した眼画像混合分布モデルを推定し、前記眼画像要素分布毎に属する前記眼画像自己相関情報を前記第3の教示ベクトルの共分散行列を求めることで求め、前記眼画像相互相関情報を前記第3の教示ベクトルと前記第4の教示ベクトルとの共分散行列を求めることで求め、前記眼画像パラメタ推定手段は、前記眼画像要素分布毎に属する前記眼画像自己相関情報および前記眼画像相互相関情報を用いて前記アイリス領域を構成する前記点の集合を推定する。
【0020】
これにより、単純に行列演算だけ、つまり乗算だけで顔画像相互相関情報および眼画像相互相関情報が求められる。
【0021】
本発明の第4の態様は、サンプルとなるサンプル顔画像を入力するステップと、前記サンプル顔画像の特徴点を入力するステップと、新たに前記特徴点を推定する照合対象顔画像を入力するステップと、前記サンプル顔画像と前記特徴点との合成情報を複数の顔画像分布に分け、前記サンプル顔画像の顔画像自己相関情報と前記サンプル顔画像と前記特徴点との顔画像相互相関情報を前記顔画像分布毎に求めるステップと、前記顔画像分布毎に求めた前記顔画像自己相関情報と前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定するステップと、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分領域を決定するステップと、サンプルとなるサンプル眼領域画像を入力するステップと、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、アイリスの輪郭を推定する眼領域画像を入力するステップと、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記眼領域画像の眼画像自己相関情報と前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報を前記眼画像分布毎に求めるステップと、前記分布毎に求めた前記眼画像自己相関情報と前記眼画像相互相関情報を用いて前記眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記眼領域画像から照合対象アイリス領域画像を推定するステップと、推定した前記部分顔画像領域を用いて前記照合対象顔画像と、推定した前記照合対象アイリス領域画像が、あらかじめ登録された前記サンプル顔画像およびサンプルアイリス画像と一致するかを複合的に照合するステップとを具備したことを特徴とする複合照合方法である。
【0022】
本発明の第5の態様は、コンピュータに、サンプルとなるサンプル顔画像を入力するステップと、前記サンプル顔画像の特徴点を入力するステップと、新たに前記特徴点を推定する照合対象顔画像を入力するステップと、前記サンプル顔画像と前記特徴点との合成情報を複数の顔画像分布に分け、前記サンプル顔画像の顔画像自己相関情報と前記サンプル顔画像と前記特徴点との顔画像相互相関情報を前記顔画像分布毎に求めるステップと、前記顔画像分布毎に求めた前記顔画像自己相関情報と前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定するステップと、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分領域を決定するステップと、サンプルとなるサンプル眼領域画像を入力するステップと、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、アイリスの輪郭を推定する眼領域画像を入力するステップと、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記眼領域画像の眼画像自己相関情報と前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報を前記眼画像分布毎に求めるステップと、前記分布毎に求めた前記眼画像自己相関情報と前記眼画像相互相関情報を用いて前記眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記眼領域画像から照合対象アイリス領域画像を推定するステップと、推定した前記部分顔画像領域を用いて前記照合対象顔画像と、推定した前記照合対象アイリス領域画像が、あらかじめ登録された前記サンプル顔画像およびサンプルアイリス画像と一致するかを複合的に照合するステップとを行わせることを特徴としたプログラムである。
【0023】
(実施の形態1)
本発明の実施の形態1では、パラメタ推定装置を顔画像照合装置に応用した場合について説明する。
【0024】
図1は、本発明の実施の形態1における顔画像照合装置のブロック図である。実施の形態1にかかる顔画像照合装置100は、コンピュータシステム17で実現したものである。
【0025】
図1において、コンピュータシステム17には、人物の顔画像を直接撮影しコンピュータシステム17に画像を入力するためのビデオカメラ(カメラ)1が接続されている。また、コンピュータシステム17には、システムコンソールとしてのディスプレイ8と、画像パターン情報など大規模なデータを保存するための二次記憶装置(ハードディスクや光磁気ディスクなど)9と、ディスプレイ8上で推定の対象となる固有なパラメタである特徴点パラメタを手動で入力するためのマウス10が接続されている。
【0026】
また、コンピュータシステム17には、ビデオカメラ1からの映像信号を記憶する画像メモリ2と、プログラムの格納やワーク用のメモリ3と、メモリ3に格納されたプログラムに基づいた処理を行うCPU4と、画像パターンや特徴抽出の実行によって計算された特徴パターンを記憶するパターンメモリ5、6と、計算された特徴抽出行列を格納するための特徴抽出行列格納メモリ7と、あらかじめ登録された人物の顔画像を集めた登録画像データベース11と、外部機器とのデータのやりとりを行うインターフェース(I/F)12〜15と、が設けられている。また、コンピュータシステム17に設けられた各ブロックはシステムバス16で接続されている。
【0027】
顔画像照合装置100は、顔画像(例えば濃淡パターン)と顔画像内における固有なパラメタである特徴点(例えば眼、鼻、眉、口など)の位置に相関関係があることに着目したものである。すなわち、予めサンプルである顔画像とこの顔画像の特徴点との相関を学習しておき、この学習結果を用いてサンプルと照合するためにカメラ1で撮影した照合用の顔画像における特徴点の座標がどこであるかを推定するようにしたものである。そして、上述したように推定した特徴点より照合する顔画像から照合に用いる顔領域を求め、求めた顔領域の画像と予め用意してある顔画像データベース内の画像と比較することで、照合する画像の人物と登録された顔画像データベース内の顔画像の人物とが一致するかの照合を行うものである。
【0028】
さらに、本実施の形態では、サンプルである人の顔画像とこれらの顔画像内における特徴点の位置の相関を複数学習しておくことで、サンプルと照合するためにカメラ1で撮影した顔画像の特徴点の推定精度を向上している。
【0029】
具体的には、顔画像照合装置100は、複数のサンプルの顔画像とこの顔画像の特徴点との相関を予め計算するオフライン処理と、この計算した相関を用いてカメラ1から入力された画像から特徴点の座標値を推定し、特徴点の座標値から決定される顔領域の画像と、あらかじめ登録された顔画像データベースの顔画像との照合処理を行うオンライン処理に大別される。
【0030】
オフライン処理は、サンプルとして予め撮影された顔画像より得られる第1の教示ベクトルと、サンプルの顔画像における特徴点の座標より得られる第2の教示ベクトルと、これらの教示ベクトルにおける平均ベクトルの計算と、第1の教示ベクトルの自己相関情報である共分散行列の擬似逆行列の計算と、第1の教示ベクトルと第2の教示ベクトルの相互相関情報である共分散行列の計算と、を行う。
【0031】
さらに詳細に、オフライン処理の目的は、まず、画像メモリ2に一旦蓄えられた教示用の画像から得られる教示ベクトルV1と、教示ベクトルV1の特徴点の座標より得られる教示ベクトルV2と、教示ベクトルV1の平均ベクトルM1と、教示ベクトルV2の平均ベクトルM2とを計算しておき、そして、これらの計算結果を用いて、教示ベクトルV1の分布を示す教示ベクトルV1の共分散行列およびこの擬似逆行列と、教示ベクトルV1と教示ベクトルV2との相関である教示ベクトルV1と教示ベクトルV2との共分散行列と、を求めることである。
【0032】
ここで、教示ベクトルV1は、想定される入力画像(サンプル画像)をベクトル化した入力ベクトルの学習サンプルであり、想定される入力画像と同一種類の画像をベクトル化したベクトルの学習サンプルである。例えば、想定される入力画像が日本人男性の顔画像であれば、日本人男性の顔画像をベクトル化したベクトルの学習サンプルをとる。
【0033】
また、教示ベクトルV2は教示ベクトルV1に対して想定される特徴点の座標をベクトル化した出力ベクトルの学習サンプルである。(数1)に、教示ベクトルV1、教示ベクトルV2の具体的な形式を示す。
【0034】
【数1】
Figure 0004068889
次に、顔画像照合装置100が行うオフライン処理について、図2を用いて説明する。図2は、実施の形態1にかかる顔画像照合装置100のオフライン処理の動作フロー図である。なお、以下の説明で顔画像照合装置100が行う処理は、実際にはCPU4がメモリ3に格納されたプログラムを実行することで行う。
【0035】
まず、顔画像照合装置100は、サンプルとしてカメラ1からN人の顔画像パターンを入力する。そして、顔画像照合装置100は、この入力されたサンプルの顔画像パターンを、I/F12を介して画像メモリ2に一旦記憶した後に、全て二次記憶装置9に転送し、格納する(S10)。
【0036】
次に、顔画像照合装置100は、二次記憶装置9に記憶したサンプルの顔画像パターンを、各画素の値をラスタスキャン順に並べたベクトルパターンに変換することで教示ベクトルV1を求める(S11)。次に、顔画像照合装置100は、二次記憶装置9に記憶したサンプルの顔画像パターンをディスプレイ8に一枚ずつ表示する。そして、このサンプルの顔画像パターンを見たユーザがマウス10を用いて手動で顔の特徴点を入力すると、ユーザが入力した顔の特徴点をI/F15を介してメモリ3に入力する(S12)。
【0037】
図3に、ユーザにより入力された顔の特徴点の例を示す。顔画像1201の原点O1208を基準に、右眉1202、右目1203、左眉1204、左目1205、鼻1206および口1207のそれぞれの座標(X座標、Y座標)が、特徴点としてユーザにより入力される。
【0038】
次に、顔画像照合装置100は、(数1)を用いて、入力した各特徴点の座標値を順に並べて連結してひとつのベクトルデータを作成し、これを教示ベクトルV2とする(S13)。次に、顔画像照合装置100は、教示ベクトルV1をパターンメモリ5に、教示ベクトルV2をパターンメモリ6に記憶する(S14)。そして、顔画像照合装置100は、N人分の処理が終了したかを判定し(S15)、終了したら処理(S16)に進み、終了していない場合は処理(S11)に進む。
【0039】
次に、顔画像照合装置100は、パターンメモリ5およびパターンメモリ6に格納されたN人分の教示ベクトルV1、V2の集合{V1}および{V2}より(数2)、(数3)に従って平均ベクトルM1、M2を計算し、特徴抽出行列格納メモリ7に保存する(S16)。
【0040】
【数2】
Figure 0004068889
【数3】
Figure 0004068889
次に、顔画像照合装置100は、N人分の教示ベクトルV1の集合{V1}より(数4)に従って共分散行列C1を計算することで、教示ベクトルV1の分布、つまり、カメラ1から入力したN人の顔画像パターンの分布を算出する。そして、顔画像照合装置100は、求めた共分散行列C1を特徴抽出行列格納メモリ7に格納する(S17)。ここで顔画像パターンの分布を求めるのは、顔画像パターンの分布が顔画像パターンの特性を表すからであり、顔画像パターンの特性を求めるためである。
【0041】
【数4】
Figure 0004068889
次に、顔画像照合装置100は、N人分の教示ベクトルV1、V2の集合{V1}および{V2}より(数5)に従って共分散行列C2を計算することで、教示ベクトルV1、V2の相関、つまりN人の顔画像パターンと顔画像パターンの特徴点の相関を算出する。顔画像照合装置100は、求めた共分散行列C2を特徴抽出行列格納メモリ7に格納する(S17)。
【0042】
【数5】
Figure 0004068889
次に、顔画像照合装置100は、S17において求めた共分散行列C1と共分散行列C2から、オンライン処理で入力される顔画像から特徴点を抽出するために使用するパラメタである特徴抽出行列C3を、(数6)に従って計算する(S18)。そして、顔画像照合装置100は、求めた特徴抽出行列C3を特徴抽出行列格納メモリ7に格納する。
【0043】
【数6】
Figure 0004068889
以上が、顔画像照合装置100が、オフラインで実行する処理であり、特徴抽出行列格納メモリ7には、上述した処理で求めた、平均ベクトルM1、M2、パラメタとして共分散行列C1と共分散行列C2、及び特徴抽出行列C3が格納されている。
【0044】
次に、オンライン処理について、図4を用いて説明する。図4は、実施の形態1にかかる顔画像照合装置のオンライン処理の動作フロー図である。
【0045】
オンライン処理の目的は、入力された顔画像から、入力に対して固有なパラメタである特徴点の座標値を推定し、これから顔領域の画像を求め、画像データベースに登録された画像と照合することにある。
【0046】
まず、顔画像照合装置100は、カメラ1から画像を入力し(S20)、I/F12を介して画像メモリ2に蓄積し、蓄積した入力画像を各画素の値をラスタスキャン順に並べて入力ベクトルデータXに変換し、パターンメモリ5に転送する(S21)。
【0047】
次に、顔画像照合装置100は、入力ベクトルデータXに対して、オフライン処理で求めた特徴抽出行列C3および平均ベクトルM1、M2から、(数7)に従って入力ベクトルデータXに対する特徴点の座標値の期待値ベクトルEを計算する(S22)。(数7)は、オフラインで求めた、教示ベクトルV1、V2の相関、つまりN人の顔画像パターンと顔画像パターンの特徴点の相互相関を示す共分散行列C2を用いて、入力ベクトルデータXつまり入力画像の特徴点を算出する式である。
【0048】
【数7】
Figure 0004068889
次に、顔画像照合装置100は、求めた特徴点座標値の期待値ベクトルEが各特徴点の座標値の合成ベクトルとなっているので、入力ベクトルデータの特徴点の座標値を期待値ベクトルEより得る(S23)。次に、顔画像照合装置100は、S23で求めた特徴点の座標値を用いて、入力画像から、あらかじめ登録された顔画像データベースの顔画像との照合を行う顔領域を決定する(S24)。
【0049】
検出された照合用の顔領域の例を図5に示す。本実施の形態では、顔画像1301から、鼻の座標1303を中心として、一辺の長さが両眼の間隔aの2倍であり、上下の辺が両眼を結ぶ直線と平行であるような正方形領域を照合用の顔領域1302として決定する。
【0050】
次に、顔画像照合装置100は、顔領域1302の画像とあらかじめ登録した顔画像データベース11との画像を例えば統計的手法である主成分分析を利用した固有顔法などの照合手法を用いて照合し(S25)、結果をディスプレイ8に表示すると共に二次記憶装置9に転送する(S26)。なお、固有顔(Eigenface)法は、参照画像のサイズを正規化して全画素の濃淡値をN次元ベクトルとし、全ての参照画像からM<N次元の顔部分空間を主成分分析という統計的手法により生成する。そして、入力画像から顔のありそうな領域を正規化して顔部分空間との直交距離を類似度とし、顔部分空間への射影先の位置により人物を認識するというものである。
【0051】
ディスプレイ8への出力例を図6に示す。ディスプレイ1501上には、入力された入力顔画像1502と、顔領域枠1503と、照合結果1504、1505が表示される。
【0052】
ここで、(数7)を用いた計算によって特徴点位置情報の推定が可能な理由を説明する。
【0053】
(数7)で得られる特徴点の座標値の期待値ベクトルEは、教示ベクトルV1と教示ベクトルV2の関係を、2つのベクトルの分布が正規分布であるという仮定の元でベイズ推定を用いて学習した時の、入力ベクトルデータXに対して得られる出力の期待値に等しい。ベイズ推定とは、母数の分布と適当な損失関数を定義し、損失関数の期待値が最小となるように推定する統計的推定法をいう。すなわち、(数7)によって、入力ベクトルデータXに対して一番尤もらしい出力値を推定することができると言える。
【0054】
以上のように実施の形態1によれば、予め学習したサンプルの顔画像とこの特徴点との相関を用いて、カメラ1で撮影した照合用の顔画像における特徴点の座標がどこであるかを推定することができる。そして、上述したように推定した特徴点より照合用の顔領域を求め、求めた照合用の顔領域画像とあらかじめ登録しておいた顔画像データベース内の顔画像を比較することで、照合用の顔画像の人物とあらかじめ登録された顔画像の人物とが一致するかの照合を行うことができる。これにより、従来法に比べ格段に少ない演算で所望のパラメタを推定することができ、少ない演算で顔画像の照合ができる。
【0055】
具体的には、実施の形態1によれば、入力ベクトルに対して固有なパラメタを、3回の行列演算で推定することが出来る。つまり、従来のテンプレートマッチングを用いた探索に比べ格段に小さな計算コストで推定できるため、その効果は非常に大きい。ここで、前記のテンプレートマッチによる計算コスト算出の場合と同じ例で本発明の計算コストを算出してみる。入力画像サイズを縦150×横150画素=22500画素として、入力に対し両目の座標(右眼X座標、右眼Y座標、左眼X座標、左眼Y座標)計4次元を推定する場合、乗算を単位演算とした場合、(数7)にあてはめると特徴抽出行列C3は縦22500×横4の行列、(X−M1)は4次元のベクトルより乗算回数は4×22500=90000(pel)となり、乗算だけでテンプレートマッチの500分の1の計算コストとなりその効果は大きい。
【0056】
また、実施の形態1によれば、第1の教示ベクトルの共分散行列から自己相関情報を求め、第1の教示ベクトルと第2の教示ベクトルとの共分散行列から相互相関情報を求めることができる。これにより、単純に行列演算だけ、つまり乗算だけで固有なパラメタの計算や、相互相関情報や自己相関情報の計算ができるため、コンピュータの処理コストが非常に小さくなる。
【0057】
また、実施の形態1によれば、複数の人の顔画像とこれらの顔画像内における特徴点の位置の相関を学習しておくことにより、より精度の高い相関を求めることができるので、精度の高い推定ができるという作用を有する。
【0058】
また、実施の形態1では、上述した(数1)〜(数7)を用いて、パラメタの推定を行ったが、予めサンプルとなる顔画像と特徴点の相関を求め、求めた相関を使ってパラメタの推定を行う式であれば(数1)〜(数7)以外の式を使ってもよい。
【0059】
(実施の形態2)
本発明の実施の形態2は、サンプルの入力画像(入力ベクトル)の分布にバラツキを持たせたものであり、いろいろな分布を持つ照合用の入力画像に対応できるようにしたものである。具体的には、サンプルの入力画像を複数の分布に分け、それぞれの分布毎に入力画像と入力画像の特徴点との相関を調べるようにし、これらの相関を用いて照合用の入力画像の特徴点を求めるようにしたものである。
【0060】
以下、実施の形態2にかかる顔画像照合装置について説明する。実施の形態2にかかる顔画像照合装置のブロック構成図は、実施の形態1の顔画像照合装置と同じコンピュータシステムを用いて実現したもので、ブロック構成図の説明は省略する。
【0061】
実施の形態2にかかる顔画像照合装置は、大きく分けてオフライン処理と、オンライン処理を行う。
【0062】
オフライン処理は、撮影された顔画像より得られる第1の教示ベクトルと撮影された顔画像における特徴点の座標より得られる第2の教示ベクトルの集合を入力し、第1および第2の教示ベクトルの合成ベクトルを構成し、合成ベクトルの集合の混合分布(要素分布数M)モデルのパラメタを推定し、混合分布の各要素分布k(k=1..M)に属する第1の教示ベクトルの共分散行列と、同じく第1の教示ベクトルの平均ベクトルと、同じく要素分布kに属する第1および第2の教示ベクトルの相互相関行列と、同じく第2の教示ベクトルの平均ベクトルを求める処理である。
【0063】
また、オフライン処理は、カメラから入力された画像からその特徴点の座標値を推定し、推定した特徴点の座標値から決定される顔領域の画像と、あらかじめ登録された顔画像データベースの顔画像との照合処理を行う。
【0064】
まず、実施の形態2にかかるオフライン処理について、図7のオフライン処理の動作フローを用いて説明する。
【0065】
オフライン処理の目的は、画像メモリに一旦蓄えられた教示用の画像から、第1、第2の教示ベクトルの合成ベクトルを構成し、合成ベクトルの集合の混合分布(要素分布数M)モデルのパラメタを推定し、混合分布の各要素分布k(k=1..M)に属する第1の教示ベクトルにおける共分散行列の擬似逆行列と、同じく第1の教示ベクトルの平均ベクトルと、同じく要素分布kに属する第1および第2の教示ベクトルの相互相関行列と、要素分布kに属する教示ベクトルの平均ベクトルを計算することにある。
【0066】
まず、顔画像照合装置100は、サンプルとしてカメラ1からN人の顔画像パターンを入力する。そして、顔画像照合装置100は、この入力されたサンプルの顔画像パターンを、I/F12を介して画像メモリ2に一旦記憶した後に、全て二次記憶装置9に転送し、格納する(S1600)。
【0067】
次に、顔画像照合装置100は、二次記憶装置9に記憶した顔画像パターンを、各画素の値をラスタスキャン順に並べたベクトルパターンに変換することで、教示ベクトルV1を求める(S1601)。次に、顔画像照合装置100は、二次記憶装置9に記憶したサンプルの顔画像パターンをディスプレイ8に一枚ずつ表示する。そして、このサンプルの顔画像パターンを見たユーザがマウス10を用いて手動で顔の特徴点の座標点を入力すると、ユーザが入力した顔の特徴点をI/F15を介してメモリ3に入力する(S1602)。図3に入力する顔の特徴点の例を示すが、顔画像1201の原点Oを基準に右眉1202、右目1203、左目1204、左目1205、鼻1206および口1207のそれぞれの座標(X座標、Y座標)が入力される。
【0068】
次に、顔画像照合装置100は、入力した各特徴点の座標値を順に並べて連結してひとつのベクトルデータを作成し、これを教示ベクトルV2とする(S1603)。そして、顔画像照合装置100は、教示ベクトルV1はパターンメモリ5に、教示ベクトルV2はパターンメモリ6に記憶する(S1604)。そして、顔画像照合装置100は、N人分の処理が終了したかを判定し(S1605)、終了したら処理(S1606)に進み、終了していない場合は処理(S1601)に進む。
【0069】
次に、顔画像照合装置100は、パターンメモリ5およびパターンメモリ6に格納されたN人分の教示ベクトルV1、V2の合成ベクトルを構成し、N人分の合成ベクトルの集合における確率分布を混合ガウシアンモデル(以下GMMと呼ぶ)で複数(M個)の分布を持つ要素分布にモデル化し、モデル化した際のk番目の要素分布(要素分布数はM)のパラメタを計算する。即ち、顔画像照合装置100は、k番目の要素分布に属するベクトルV1、V2の平均ベクトルM1 k、M2 k、ベクトルV1の共分散行列C1 k、ベクトルV1、V2の相互相関行列C12 kを計算する(S1606)。
【0070】
この計算には、通常EM(Expectation Maximization)アルゴリズムが用いられるが、これは文献:Christopher M.Bishop, Oxford出版“Neural Networks for Pattern Recognition”59〜73頁(1995)に詳細に記述されている。
【0071】
次に、顔画像照合装置100は、S1606において、求めたベクトルV1の共分散行列C1 kの逆行列(より一般的には擬似逆行列)C1 k*を計算する。
【0072】
次に、顔画像照合装置100は、求めたベクトルV1の共分散行列の逆行列C1 k*と相互相関行列C12 kから(数8)に従って特徴抽出行列C3 kを計算する(S1607)。そして、顔画像照合装置100は、求めた特徴抽出行列C3 kを特徴抽出行列格納メモリ7に格納する(S1608)。
【0073】
【数8】
Figure 0004068889
以上が、実施の形態2におけるオフラインで実行される処理であり、EMアルゴリズムで得られたGMMの各要素分布kについて、平均ベクトルM1 k、M2 k、及び、特徴抽出行列C3 kを求め、特徴抽出行列格納メモリにするものである。
【0074】
次に、実施の形態2におけるオンライン処理について、図8に示すフローチャートを用いて説明する。オンライン処理の目的は、入力された照合対象の顔画像から、入力に対して固有なパラメタである特徴点の座標値を推定し、これから照合に用いる顔領域を決定し、決定した顔領域内の画像を求め、この画像と画像データベースに登録された画像と照合することにある。
【0075】
まず、顔画像照合装置100は、カメラ1から画像を入力し(S1700)、I/F12を介して画像メモリ2に蓄積し、蓄積された入力画像を各画素の値をラスタスキャン順に並べて入力ベクトルデータXに変換し、パターンメモリ5に転送する(S1701)。
【0076】
次に、顔画像照合装置100は、入力ベクトルデータXに対して、オフラインで求めた特徴抽出行列C3 kおよび平均ベクトルM1 k、M2 kから、(数9)に従って入力ベクトルデータXに対する特徴点の座標値の期待値ベクトルEを計算する(S1702)。
【0077】
【数9】
Figure 0004068889
次に、求めた特徴点座標値の期待値ベクトルEが各特徴点の座標値の合成ベクトルとなっているので、顔画像照合装置100は、特徴点の座標値の期待値ベクトルEより各特徴点の座標値を得る(S1703)。そして、顔画像照合装置100は、S1703において得た各特徴点の座標値をもとに、照合に用いる顔領域を決定する(S1704)。検出された顔領域の例を図5に示すが、例えば鼻の座標1303を中心として、一辺の長さが両眼の間隔aの2倍であり、上下の辺が両眼を結ぶ直線と平行であるような正方形領域を顔領域1302として決定する。
【0078】
次に、顔画像照合装置100は、顔領域1302の画像とあらかじめ登録した顔画像データベース11との画像を例えば統計的手法である主成分分析を利用した固有顔法などの照合手法を用いて照合し(S1705)、結果をディスプレイ8に表示し、二次記憶装置9に転送する(S1706)。
【0079】
なお、固有顔(Eigenface)法は、参照画像のサイズを正規化して全画素の濃淡値をN次元ベクトルとし、全ての参照画像からM<N次元の顔部分空間を主成分分析という統計的手法により生成する方法である。つまり、入力画像から顔のありそうな領域を正規化して顔部分空間との直交距離を類似度とし、顔部分空間への射影先の位置により人物を認識するというものである。
【0080】
ディスプレイ8への出力例を図6に示す。ディスプレイ1501上に入力された入力顔画像1502と照合結果1504、1505が表示される。
【0081】
ここで、上述した計算によって特徴点位置情報の推定が可能な理由を説明する。
【0082】
(数8)で得られる特徴点の座標値の期待値ベクトルEは、教示ベクトルV1と教示ベクトルV2の関係を、2つのベクトルの合成ベクトルにおける分布が混合正規分布であるという仮定の下で、ベイズ推定を用いて学習した時の、入力ベクトルデータXに対して得られる出力の期待値に等しい。ベイズ推定とは、母数の分布と適当な損失関数を定義し、損失関数の期待値が最小となるように推定する統計的推定法をいう。すなわち、(数9)によって、入力ベクトルデータXに対して一番尤もらしい出力値を推定することができると言える。
【0083】
以上のように実施の形態2によれば、サンプルの入力画像を複数の分布に分け、それぞれの分布毎にサンプルの入力画像とこの入力画像の特徴点との相関を調べるようにし、これらの相関を用いて照合用の入力画像の特徴点を推定することができる。これにより、照合用の入力画像の分布、つまり特性にバラツキがあっても、正確に特徴点を推定できる。
【0084】
また、実施の形態2によれば、(数9)に示されるように、行列演算による直接計算によって、入力ベクトルの固有なパラメタを推定することが出来る。従来のテンプレートマッチングを用いた探索(即ち、繰り返し演算)に比べ格段に小さな計算コストで、かつ、混合分布モデルを用いているため非常に高精度に推定できるため、その効果は非常に大きい。前記のテンプレートマッチによる計算コスト算出の場合と同じ例で本発明の計算コストを算出してみる。入力画像サイズを縦150×横150画素=22500画素として、入力に対し両目の座標(右眼X座標、右眼Y座標、左眼X座標、左眼Y座標)計4次元を推定する場合、乗算を単位演算とした場合、(数9)にあてはめると特徴抽出行列C3 kは縦22500×横4の行列、(X−M1)は4次元のベクトルより乗算回数は4×22500=90000(pel)となり、乗算だけでテンプレートマッチの500分の1の計算コストとなりその効果は大きい。
【0085】
また、実施の形態2によれば、単純に行列演算だけ、つまり乗算だけで要素分布毎の相互相関情報が求められる。
【0086】
(実施の形態3)
本発明の実施の形態3は、照合対象の顔画像から特徴点を求め、この特徴点を用いて、照合用の顔領域の決定と、眼の中心位置の検出を通して眼領域の決定を行い、さらに、眼領域から照合用のアイリス領域画像を抽出するものである。そして、決定した顔領域を用いて照合対象の顔画像と登録してある顔画像の人物、および抽出したアイリス領域画像と登録しているアイリス領域画像の人物とが一致するかどうかの照合を複合的に行うものである。
【0087】
以下、実施の形態3について説明する。まず、図9を用いて実施の形態3にかかる複合照合装置の構成について説明する。図9は、実施の形態3にかかる複合照合装置の構成図である。なお、既に説明した部分には同一の符号を付与し説明を省略する。
【0088】
実施の形態3の複合照合装置900は、人物の顔画像を直接撮影するためのビデオカメラ1aと、アイリス領域画像を直接撮影するためのビデオカメラ1bと、を具備した点が、実施の形態1の顔画像照合装置100と異なる。
【0089】
複合照合装置900は、図10のフローチャートに示すように、カメラ1aにより画像を撮影し(S1001)、撮影した入力画像から特徴点座標を得て(S1002)、その特徴点座標に基づいて顔画像照合領域を決定する(S1003)。また、複合照合装置900は、S1003で求めた特徴点の一部である眼位置の座標に基づいて、カメラ1bの焦点を決定し眼領域画像を得る(S1004)。次に、複合照合装置900は、カメラ1bから入力した眼領域画像からアイリス輪郭点座標を得て(S1005)、これに基づいて照合対象のアイリス領域画像を決定する(S1006)。そして、複合照合装置900は、このようにして決定した顔画像照合領域の画像および照合対象のアイリス領域画像をあらかじめ登録したデータベース内の画像とを複合的に照合し(S1007)、結果を出力する(S1008)。
【0090】
複合照合装置900の、照合用の顔画像領域の決定は、予め多くの人の顔画像(例えば濃淡パターン)と顔画像内における特徴点(例えば眼、鼻、眉、口など)の位置の相関を学習しておき、これを用いてカメラ1aで撮影した顔画像において特徴点の座標がどこであるかを推定し、推定された特徴点より顔領域を求めることによって実現される。以下に、具体的に説明をする。
【0091】
複合照合装置900の行う処理は、撮影された顔画像より得られる第1の教示ベクトルと撮影された顔画像における特徴点の座標より得られる第2の教示ベクトルの集合を入力し、第1および第2の教示ベクトルの合成ベクトルを構成し、合成ベクトルの集合の混合分布(要素分布数M)モデルのパラメタを推定し、混合分布の各要素分布k(k=1..M)に属する第1の教示ベクトルの共分散行列と、同じく第1の教示ベクトルの平均ベクトルと、同じく要素分布kに属する第1および第2の教示ベクトルの相互相関行列と、同じく第2の教示ベクトルの平均ベクトルを求めておくオフライン処理と、カメラ1aから入力された画像から特徴点の座標値を推定し、特徴点の座標値から照合用の顔画像領域の決定を行うオンライン処理に大別される。
【0092】
まず、実施の形態3のオフライン処理について図11に示すフローを用いて説明する。実施の形態3のオフライン処理の目的は、画像メモリに一旦蓄えられた教示用の画像から、第1、第2の教示ベクトルの合成ベクトルを構成し、合成ベクトルの集合の混合分布(要素分布数M)モデルのパラメタを推定し、混合分布の各要素分布k(k=1..M)に属する第1の教示ベクトルの共分散行列の擬似逆行列と、同じく第1の教示ベクトルの平均ベクトルと、同じく要素分布kに属する第1および第2の教示ベクトルの相互相関行列と、要素分布kに属する教示ベクトルの平均ベクトルを計算することにある。
【0093】
ここで、教示ベクトルV1は、想定される入力ベクトルの学習サンプルであり、教示ベクトルV2は教示ベクトルV1に対して想定される出力ベクトルの学習サンプルである。(数1)に、教示ベクトルV1、教示ベクトルV2の具体的な形式を示す。
【0094】
まず、複合照合装置900は、カメラ1aからサンプル用のN人の顔画像パターンを入力し(S1100)、I/F12を介して画像メモリ2に一旦記憶した後に、全て二次記憶装置9に転送する(S1100)。
【0095】
次に、複合照合装置900は、二次記憶装置9に記憶したサンプル用の顔画像パターンを、各画素の値をラスタスキャン順に並べたベクトルパターンに変換することで教示ベクトルV1を求める(S1101)。次に、複合照合装置900は、それぞれの顔画像パターンをディスプレイ8に一枚ずつ表示する。そして、これを見たユーザがマウス10を用いて手動で顔の特徴点を入力すると、複合照合装置900はユーザが入力した特徴点を入力する(S1102)。
【0096】
図3に入力する顔の特徴点の例を示すが、複合照合装置900は、顔画像1201の原点Oを基準に右眉1202、右目1203、左目1204、左目1205、鼻1206および口1207のそれぞれの座標(X座標、Y座標)を入力する。
【0097】
次に、複合照合装置900は、入力した各特徴点の座標値を順に並べて連結してひとつのベクトルデータを作成し、これを教示ベクトルV2とする(S1103)。次に、複合照合装置900は、教示ベクトルV1をパターンメモリ5に、教示ベクトルV2をパターンメモリ6に記憶する(S1104)。そして、複合照合装置900は、N人分の処理が終了したかを判定し、終了したら処理(S1106)に進み、終了していない場合は処理(S1101)に進む。
【0098】
次に、複合照合装置900は、パターンメモリ5およびパターンメモリ6に格納されたN人分の教示ベクトルV1、V2の合成ベクトルを構成し、N人分の合成ベクトルの集合の確率分布をGMMでモデル化した際のk番目の要素分布(要素分布数はM)のパラメタを推定する。即ち、複合照合装置900は、k番目の要素分布に属するベクトルV1、V2の平均ベクトルM1 k、M2 k、ベクトルV1の共分散行列C1 k、ベクトルV1、V2の相互相関行列C12 kを計算する(S1106)。この計算には、通常EMアルゴリズムが用いられる。
【0099】
次に、複合照合装置900は、求めたベクトルV1の共分散行列C1 kの逆行列(より一般的には擬似逆行列)C1 k*を計算する。次に複合照合装置900は、求めたベクトルV1の共分散行列の逆行列C1 k*と相互相関行列C12 kから(数8)に従って特徴抽出行列C3 kを計算する(S1107)。そして、複合照合装置900は、求めた特徴抽出行列C3 kを特徴抽出行列格納メモリ7に格納する(S1108)。
【0100】
以上が、実施の形態3におけるオフラインで実行される処理であり、EMアルゴリズムで得られたGMMの各要素分布kについて、平均ベクトルM1 k、M2 k、及び、特徴抽出行列C3 kを求め、特徴抽出行列格納メモリにするものである。
【0101】
次に、実施の形態3にかかるオンライン処理について、図12に示すフローチャートを用いて説明する。オンライン処理の目的は、入力された照合対象の顔画像から、入力に対して固有なパラメタである特徴点の座標値を推定し、これから照合用の顔画像領域を切り出すことにある。
【0102】
まず、複合照合装置900は、カメラ1aから照合対象の画像を入力し(S1201)、I/F12を介して画像メモリ2に蓄積し、蓄積された入力画像を各画素の値をラスタスキャン順に並べて入力ベクトルデータXに変換し、パターンメモリ5に転送する(S1202)。
【0103】
次に、複合照合装置900は、入力ベクトルデータXに対して、オフラインで求めた特徴抽出行列C3 kおよび平均ベクトルM1 k、M2 kから、(数9)に従って入力ベクトルデータXに対する特徴点の座標値の期待値ベクトルEを計算する(S1203)。
【0104】
次に、複合照合装置900は、求めた特徴点の座標値の期待値ベクトルEは各特徴点の座標値の合成ベクトルとなっているので、特徴点の座標値の期待値ベクトルEより各特徴点の座標値を得て(S1204)、これをもとに照合用の顔領域を決定する(S1205)。
【0105】
このように、行列演算による直接計算によって、照合対象の入力画像の特徴点を推定することが出来る。これにより、従来のテンプレートマッチングを用いた探索(即ち、繰り返し演算)に比べ格段に小さな計算コストで、かつ、混合分布モデルを用いているため非常に高精度に推定できるため、その効果は非常に大きい。
【0106】
次に、実施の形態3にかかる照合対象のアイリス領域画像の決定について説明する。照合対象のアイリス領域画像の決定は、カメラ1aにより撮影された画像から眼を含む特徴点を抽出し、その眼を含む特徴点に基づいてカメラ1bの焦点を決定し得られた眼領域画像(例えば濃淡パターン)からアイリスの輪郭を構成する座標点集合を検出し、アイリス領域画像を切り出すものである。
【0107】
アイリス領域の切り出し処理は、撮影された眼領域の画像より得られる第3の教示ベクトルと、眼領域画像内においてテンプレートマッチ処理での検出対象となるアイリスの輪郭点集合よりなる第4の教示ベクトルとの合成ベクトルを構成し、合成ベクトルの集合を混合分布(要素分布数M’)モデルでモデル化した際の分布のパラメタを推定し、混合分布の各要素分布k’(k’=1..M’)に属する第3の教示ベクトルの共分散行列の擬似逆行列を計算し、同じく第3の教示ベクトルの平均ベクトルを計算し、同じく要素分布k’に属する第および第4の教示ベクトルの相互相関行列を計算し、要素分布k’に属する教示ベクトルの平均ベクトルを計算するオフライン処理と、カメラ1bから入力された眼領域画像からアイリスの輪郭点を構成する座標値の集合を推定し、輪郭点の座標値集合から決定されるアイリス領域を抽出するオンライン処理の2つに分かれる。
【0108】
オフライン処理について、図13のオフライン処理動作フローを用いて説明する。オフライン処理の目的は、画像メモリに一旦蓄えられた教示用(サンプル用)の画像から、第3、第4の教示ベクトルの合成ベクトルを構成し、合成ベクトルの集合の混合分布(要素分布数M’)モデルのパラメタを推定し、混合分布の各要素分布k’(k’=1..M’)に属する第3の教示ベクトルの共分散行列の擬似逆行列と、同じく第3の教示ベクトルの平均ベクトルと、同じく要素分布k’に属する第3および第4の教示ベクトルの相互相関行列と、要素分布k’に属する教示ベクトルの平均ベクトルを計算することにある。
【0109】
まず、複合照合装置900は、カメラ1bからサンプル用のN’人の眼領域画像パターンを入力し(S900)、I/F12を介して一旦画像メモリ2に蓄積した後に、全て二次記憶装置9に転送する。
【0110】
次に、複合照合装置900は、二次記憶装置9に記憶したサンプル用の眼領域画像パターンを、各画素の値をラスタスキャン順に並べたベクトルパターンに変換し教示ベクトルV’1を求める(S901)。次に、複合照合装置900は、それぞれの眼領域画像パターンをディスプレイ8に一枚ずつ表示し、ユーザがマウス10を用いて手動で指定したアイリス領域の輪郭を構成する座標点の集合を入力する(S902)。
【0111】
図14にユーザが指定するアイリス領域を示す。図に示すように、ディスプレイ8には、眼領域画像1000が表示される。そして、眼領域画像1000には、眼画像1005a、1005bが含まれている。そして、ユーザは、眼画像1005a、1005b内のアイリス領域1001を認識し、マウスカーソル1004を操作することで眼画像1005a、1005bに対してアイリスの外側の輪郭1002およびアイリスの内側の輪郭1003を指定する。
【0112】
次に、複合照合装置900は、入力したアイリスの各輪郭点の座標値を順に並べて連結してひとつのベクトルデータを作成し、これを教示ベクトルV’2とする(S903)。次に、複合照合装置900は、教示ベクトルV’1をパターンメモリ5に、教示ベクトルV’2をパターンメモリ6に記憶する(S904)。そして、複合照合装置900は、N’人分の処理が終了したかを判定し(S905)、終了したら処理(S906)に進み、終了していない場合は処理(S901)に進む)。
【0113】
次に、複合照合装置900は、パターンメモリ5およびパターンメモリ6に格納されたN’人分の教示ベクトルV’1、V’2の合成ベクトルを構成し、N’人分の合成ベクトルの集合の確率分布をGMMでモデル化した際のk’番目の要素分布(要素分布数はM’)のパラメタを推定する。即ち、複合照合装置900は、k’番目の要素分布に属するベクトルV’1、V’2の平均ベクトルM’1 k、M’2 k、ベクトルV’1の共分散行列C’1 k、ベクトルV’1、V’2の相互相関行列C’12 kを計算する(S906)。この計算には、通常EMアルゴリズムが用いられる。
【0114】
次に、複合照合装置900は、求めたベクトルV’1の共分散行列C’1 kの逆行列(より一般的には擬似逆行列)C’1 k*を計算する。次に、複合照合装置900は、求めたベクトルV’1の共分散行列の逆行列C’1 k*と相互相関行列C’12 kから(数8)に従って特徴抽出行列C’3 kを計算し(S907)、求めた特徴抽出行列C’3 kを特徴抽出行列格納メモリ7に格納する(S908)。
【0115】
以上がオフラインで実行される処理であり、EMアルゴリズムで得られたGMMの各要素分布k’について、平均ベクトルM’1 k、M’2 k、及び、特徴抽出行列C’3 kを求め、特徴抽出行列格納メモリにするものである。
【0116】
次に、オンライン処理について、図15に示すフローチャートを用いて説明する。オンライン処理の目的は、入力された眼領域画像から、入力に対して固有なパラメタであるアイリスの輪郭点の座標値集合を推定し、これから照合対象のアイリス領域画像を求めることにある。
【0117】
まず、複合照合装置900は、上述した処理で求めた照合対象の顔画像の特徴点のから眼を含む特徴点を抽出し、その眼を含む特徴点に基づいてカメラ1bの焦点を決定し、得られた眼領域画像を入力し(S1500)、I/F12を介して画像メモリ2に蓄積し、蓄積された入力画像を各画素の値をラスタスキャン順に並べて入力ベクトルデータX’に変換し、パターンメモリ5に転送する(S1501)。
【0118】
次に、複合照合装置900は、入力ベクトルデータX’に対して、オフラインで求めた特徴抽出行列C’3 kおよび平均ベクトルM’1 k、M’2 kから、(数9)に従って入力ベクトルデータX’に対する特徴点の座標値の期待値ベクトルE’を計算する(S1502)。
【0119】
期待値ベクトルE’は、入力ベクトルX’に対する、アイリスの輪郭を構成する点の座標値の集合の期待値に等しい。よって、複合照合装置900は、期待値ベクトルE’からアイリスの輪郭を構成する点の座標値の集合を決定する(S1503)。そして、複合照合装置900は、決定したアイリスの輪郭を構成する点の集合からアイリスの領域画像を決定する(S1504)。
【0120】
検出されたアイリス領域の例を図16に示す。例えば、複合照合装置900は、アイリスの外側の輪郭1201とアイリスの内側の輪郭1202を構成する点集合1203を連結し、得られた2つの曲線の内側を取り出すことで、アイリス領域画像1204を決定する。
【0121】
このようにして、サンプルの眼領域画像とこれに対するアイリスの輪郭を構成する点の集合との相関を点集合の分布毎に求め、この相関を用いることで、眼領域画像からこれに対するアイリスの輪郭を構成する点の集合を推定できる。これにより、少ない処理コストでアイリスの輪郭を構成する点の集合を推定でき、照合対象のアイリス領域画像を抽出できる。
【0122】
そして、次に、複合照合装置900は、抽出した照合用の顔領域の画像を用いてあらかじめ登録した顔画像データベースの顔画像と、照合用のアイリス領域画像を用いてあらかじめ登録したアイリス画像データベースのアイリス領域画像とを複合的に照合する(S1505)。
【0123】
以上のようにして実施の形態3によれば、抽出した顔領域画像およびアイリス領域画像を用いて、あらかじめ登録した顔画像データベースおよびアイリス画像データベースの画像と複合的に照合することによって、顔画像のみの場合やアイリス画像のみを照合する場合に比べてより頑健かつ高精度な照合を行うことができるため、その効果は大きい。また、この動作はオンラインで行うことが可能である。
【0124】
また、実施の形態3によれば、推定した照合対象の顔画像の特徴点を用いて、照合対象の顔画像から照合対象であるアイリス領域画像を含む眼領域画像を抽出できる。これにより、少ない処理コストで、かつ正確に照合アイリス領域画像を抽出できる。
【0125】
本発明は、上述の実施の形態に限定されるものではない。本発明では、CPU4がプログラムを読み込むことで、CPU4が第1の教示ベクトルの自己相関情報と、第1の教示ベクトルと第2教示ベクトルの相互相関情報と、第1の教示ベクトルの平均ベクトルおよび第2の教示ベクトルの平均ベクトルを計算する学習手段と、計算した自己相関情報、相互相関情報、第1の教示ベクトルの平均ベクトル、および第2の教示ベクトルの平均ベクトルを用いて入力画像の特徴点(パラメタ)を推定するパラメタ推定手段と、推定した特徴点を用いて画像内の特徴を表す部分領域を決定する部分領域決定手段と、決定した部分領域画像を用いて入力画像の対象物と予め登録された対象物との一致を照合する照合手段とてして動作する形態で説明したが、学習手段、パラメタ推定手段、部分領域決定手段、および照合手段を専用のプロセッサを具備する形態であっても良い。
【0126】
また、本発明を実施するコンピュータをプログラムするために使用できる命令を含む記憶媒体であるコンピュータプログラム製品が本発明の範囲に含まれる。この記憶媒体は、フレキシブルディスク、光ディスク、CDROMおよび磁気ディスク等のディスク、ROM、RAM、EPROM、EEPROM、磁気光カード、メモリカードまたはDVD等であるが、特にこれらに限定されるものではない。
【0127】
【発明の効果】
以上説明したように本発明によれば、少ない処理コストで入力画像の特徴点を正確に求めることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における顔画像照合装置のブロック図
【図2】実施の形態1にかかる顔画像照合装置のオフライン処理の動作フロー図
【図3】実施の形態1においてユーザにより入力される顔の特徴点を示す図
【図4】実施の形態1にかかる顔画像照合装置のオンライン処理の動作フロー図
【図5】実施の形態1において検出された顔領域を示す図
【図6】実施の形態1においてディスプレイへ出力される図
【図7】本発明の実施の形態2にかかる顔画像照合装置のオフライン処理の動作フロー図
【図8】実施の形態2にかかる顔画像照合装置のオンライン処理の動作フロー図
【図9】本発明の実施の形態3における複合照合装置のブロック図
【図10】実施の形態3による複合照合装置の処理を説明するためのフロー図
【図11】実施の形態3にかかる複合照合装置のオフライン処理の動作フロー図
【図12】実施の形態3にかかる複合照合装置のオンライン処理の動作フロー図
【図13】実施の形態3にかかる複合照合装置のオフライン処理の動作フロー図
【図14】実施の形態3においてユーザにより入力されるアイリスの特徴点を示す図
【図15】実施の形態3にかかる複合照合装置のオンライン処理の動作フロー図
【図16】実施の形態3においてディスプレイへ出力される図
【図17】従来の顔の特徴抽出方法の動作フロー図
【図18】目のテンプレートを示す図
【図19】テンプレートによる探索を説明するための図
【符号の説明】
1、1a、1b ビデオカメラ
2 画像メモリ
3 メモリ
4 CPU
5、6 パターンメモリ
7 特徴抽出行列格納メモリ
8 ディスプレイ
9 二次記憶装置(HDD、光磁気ディスクなど)
10 マウス
11 登録画像データベース
12〜15 インターフェース
16 システムバス
17 コンピュータシステム
100 顔画像照合装置
900 複合照合装置

Claims (8)

  1. サンプルとなるサンプル顔画像を入力するサンプル顔画像入力手段と、前記サンプル顔画像の特徴点を入力する特徴点入力手段と、新たに前記特徴点を推定する照合対象顔画像を入力する照合対象顔画像入力手段と、前記サンプル顔画像および前記サンプル顔画像の特徴点の平均化情報をそれぞれ求めるとともに、前記サンプル顔画像と前記特徴点との合成情報を複数の顔画像分布に分け、前記サンプル顔画像の顔画像自己相関情報と、前記サンプル顔画像と前記特徴点との顔画像相互相関情報とを前記顔画像分布毎に求める顔画像学習手段と、前記それぞれ求めた平均化情報ならびに前記顔画像分布毎に求めた前記顔画像自己相関情報および前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定する顔画像パラメタ推定手段と、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分顔画像領域を決定する部分領域決定手段と、
    サンプルとなるサンプル眼領域画像を入力するサンプル眼画像入力手段と、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力する眼画像パラメタ入力手段と、アイリスの輪郭を推定する照合対象眼領域画像を入力する照合対象眼画像入力手段と、前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記サンプル眼領域画像の眼画像自己相関情報と、前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報とを前記眼画像分布毎に求める眼画像学習手段と、前記それぞれ求めた平均化情報ならびに前記眼画像分布毎に求めた前記眼画像自己相関情報および前記眼画像相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定する眼画像パラメタ推定手段と、前記推定した前記点の集合を用いて前記照合対象眼領域画像から照合対象アイリス領域画像を推定するアイリス推定手段と、
    推定した前記部分顔画像領域を用いて前記照合対象顔画像があらかじめ登録された前記サンプル顔画像と一致するか、および、推定した前記照合対象アイリス領域画像があらかじめ登録されたサンプルアイリス画像と一致するかを複合的に照合する照合手段とを具備したことを特徴とする複合照合装置。
  2. 前記照合対象眼画像入力手段は、前記推定した前記照合対象顔画像の特徴点を用いて、前記照合対象顔画像から前記照合対象眼領域画像を抽出することを特徴とする請求項1記載の複合照合装置。
  3. 前記顔画像学習手段は、前記サンプル顔画像をベクトル化した第1の教示ベクトルの平均ベクトルおよび前記サンプル顔画像の特徴点をベクトル化した第2の教示ベクトルの平均ベクトルを求めるとともに、前記第1の教示ベクトルおよび前記第2の教示ベクトルの顔画像合成ベクトルを構成し、前記顔画像合成ベクトルの複数の顔画像要素分布を集合した顔画像混合分布モデルを推定し、前記顔画像要素分布毎に属する前記顔画像自己相関情報を前記第1の教示ベクトルの共分散行列を求めることで求め、前記顔画像相互相関情報を前記第1の教示ベクトルと前記第2の教示ベクトルとの共分散行列を求めることで求め、
    前記顔画像パラメタ推定手段は、前記第1の教示ベクトルおよび前記第2の教示ベクトルの平均ベクトルならびに前記顔画像要素分布毎に属する前記顔画像自己相関情報および前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定し、
    前記眼画像学習手段は、前記サンプル眼領域画像をベクトル化した第3の教示ベクトルの平均ベクトルおよび前記アイリスの輪郭を形成する前記点の集合をベクトル化した第4の教示ベクトルの平均ベクトルを求めるとともに、前記第3の教示ベクトルおよび前記第4の教示ベクトルの眼画像合成ベクトルを構成し、前記眼画像合成ベクトルの複数の眼画像要素分布を集合した眼画像混合分布モデルを推定し、前記眼画像要素分布毎に属する前記眼画像自己相関情報を前記第3の教示ベクトルの共分散行列を求めることで求め、前記眼画像相互相関情報を前記第3の教示ベクトルと前記第4の教示ベクトルとの共分散行列を求めることで求め、
    前記眼画像パラメタ推定手段は、前記第3の教示ベクトルおよび前記第4の教示ベクトルの平均ベクトルならびに前記眼画像要素分布毎に属する前記眼画像自己相関情報および前記眼画像相互相関情報を用いて前記アイリスの輪郭を構成する前記点の集合を推定することを特徴とする請求項1または請求項2記載の複合照合装置。
  4. サンプルとなるサンプル顔画像を入力するステップと、前記サンプル顔画像の特徴点を入力するステップと、新たに前記特徴点を推定する照合対象顔画像を入力するステップと、前記サンプル顔画像および前記サンプル顔画像の特徴点の平均化情報をそれぞれ求めるとともに、前記サンプル顔画像と前記特徴点との合成情報を複数の顔画像分布に分け、前記サンプル顔画像の顔画像自己相関情報と、前記サンプル顔画像と前記特徴点との顔画像相互相関情報とを前記顔画像分布毎に求めるステップと、前記それぞれ求めた平均化情報ならびに前記顔画像分布毎に求めた前記顔画像自己相関情報および前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定するステップと、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分顔画像領域を決定するステップと、
    サンプルとなるサンプル眼領域画像を入力するステップと、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記サンプル眼領域画像の眼画像自己相関情報と、前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報とを前記眼画像分布毎に求めるステップと、前記それぞれ求めた平均化情報ならびに前記眼画像分布毎に求めた前記眼画像自己相関情報および前記眼画像相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記照合対象眼領域画像から照合対象アイリス領域画像を推定するステップと、
    推定した前記部分顔画像領域を用いて前記照合対象顔画像があらかじめ登録された前記サンプル顔画像と一致するか、および、推定した前記照合対象アイリス領域画像があらかじめ登録されたサンプルアイリス画像と一致するかを複合的に照合するステップとを具備したことを特徴とする複合照合方法。
  5. コンピュータに、サンプルとなるサンプル顔画像を入力するステップと、前記サンプル顔画像の特徴点を入力するステップと、新たに前記特徴点を推定する照合対象顔画像を入力するステップと、前記サンプル顔画像および前記サンプル顔画像の特徴点の平均化情報をそれぞれ求めるとともに、前記サンプル顔画像と前記特徴点との合成情報を複数の顔画像分布に分け、前記サンプル顔画像の顔画像自己相関情報と、前記サンプル顔画像と前記特徴点との顔画像相互相関情報とを前記顔画像分布毎に求めるステップと、前記それぞれ求めた平均化情報ならびに前記顔画像分布毎に求めた前記顔画像自己相関情報および前記顔画像相互相関情報を用いて前記照合対象顔画像の前記特徴点を推定するステップと、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分顔画像領域を決定するステップと、
    サンプルとなるサンプル眼領域画像を入力するステップと、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記サンプル眼領域画像の眼画像自己相関情報と、前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報を前記眼画像分布毎に求めるステップと、前記それぞれ求めた平均化情報ならびに前記眼画像分布毎に求めた前記眼画像自己相関情報および前記眼画像相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記照合対象眼領域画像から照合対象アイリス領域画像を推定するステップと、
    推定した前記部分顔画像領域を用いて前記照合対象顔画像があらかじめ登録された前記サンプル顔画像と一致するか、および、推定した前記照合対象アイリス領域画像があらかじめ登録されたサンプルアイリス画像と一致するかを複合的に照合するステップとを行わせることを特徴としたプログラム。
  6. 新たに顔画像の特徴点を推定する照合対象顔画像を入力する照合対象顔画像入力手段と、予めそれぞれ求めておいた、サンプルとなるサンプル顔画像および前記サンプル顔画像の特徴点の平均化情報、ならびに、前記サンプル顔画像と前記サンプル顔画像の特徴点との合成情報を複数の顔画像分布に分け、前記顔画像分布毎に予め求めておいた、前記サンプル顔画像と前記特徴点との顔画像相互相関情報および前記サンプル顔画像の顔画像自己相関情報を用いて前記照合対象顔画像の前記特徴点を推定する顔画像パラメタ推定手段と、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分顔画像領域を決定する部分顔画像領域決定手段と、アイリスの輪郭を推定する照合対象眼領域画像を入力する照合対象眼画像入力手段と、予めそれぞれ求めておいた、サンプルとなるサンプル眼領域画像および前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合の平均化情報、ならびに、前記サンプル眼領域画像と前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記眼画像分布毎に予め求めておいた、前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報および前記サンプル眼領域画像の眼画像自己相関情報を用いて前記眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定する眼画像パラメタ推定手段と、前記推定した前記点の集合を用いて前記照合対象眼領域画像から照合対象アイリス領域画像を推定するアイリス推定手段と、推定した前記部分顔画像領域を用いて前記照合対象顔画像があらかじめ登録された前記サンプル顔画像と一致するか、および、推定した前記照合対象アイリス領域画像があらかじめ登録されたサンプルアイリス画像と一致するかを複合的に照合する照合手段とを具備したことを特徴とする複合照合装置。
  7. 新たに顔画像の特徴点を推定する照合対象顔画像を入力するステップと、予めそれぞれ求めておいた、サンプルとなるサンプル顔画像および前記サンプル顔画像の特徴点の平均化情報、ならびに、前記サンプル顔画像と前記サンプル顔画像の特徴点との合成情報を複数の顔画像分布に分け、前記顔画像分布毎に予め求めておいた前記サンプル顔画像と前記特徴点との顔画像相互相関情報および前記サンプル顔画像の顔画像自己相関情報を用いて、前記照合対象顔画像の前記特徴点を推定するステップと、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分顔画像領域を決定するステップと、アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、予めそれぞれ求めておいた、サンプルとなるサンプル眼領域画像および前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合の平均化情報、ならびに、前記サンプル眼領域画像と前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記眼画像分布毎に予め求めておいた前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報および前記サンプル眼領域画像の眼画像自己相関情報を用いて前記眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記照合対象眼領域画像から照合対象アイリス領域画像を推定するステップと、推定した前記部分顔画像領域を用いて前記照合対象顔画像があらかじめ登録された前記サンプル顔画像と一致するか、および、推定した前記照合対象アイリス領域画像があらかじめ登録されたサンプルアイリス画像と一致するかを複合的に照合するステップとを具備したことを特徴とする複合照合方法。
  8. コンピュータに、新たに顔画像の特徴点を推定する照合対象顔画像を入力するステップと、予めそれぞれ求めておいた、サンプルとなるサンプル顔画像および前記サンプル顔画像の特徴点の平均化情報、ならびに、前記サンプル顔画像と前記サンプル顔画像の特徴点との合成情報を複数の顔画像分布に分け、前記顔画像分布毎に予め求めておいた前記サンプル顔画像と前記特徴点との顔画像相互相関情報および前記サンプル顔画像の顔画像自己相関情報を用いて前記照合対象顔画像の前記特徴点を推定するステップと、前記推定した前記照合対象顔画像の前記特徴点を用いて前記照合対象画像内の特徴を表す部分顔画像領域を決定するステップと、アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、予めそれぞれ求めておいた、サンプルとなるサンプル眼領域画像および前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合の平均化情報、ならびに、前記サンプル眼領域画像と前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合との合成情報を複数の眼画像分布に分け、前記眼画像分布毎に予め求めておいた前記サンプル眼領域画像と前記点の集合との眼画像相互相関情報および前記サンプル眼領域画像の眼画像自己相関情報を用いて前記眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記照合対象眼領域画像から照合対象アイリス領域画像を推定するステップと、推定した前記部分顔画像領域を用いて前記照合対象顔画像があらかじめ登録された前記サンプル顔画像と一致するか、および、推定した前記照合対象アイリス領域画像があらかじめ登録されたサンプルアイリス画像と一致するかを複合的に照合するステップとを行わせることを特徴とするプログラム。
JP2002129340A 2001-09-25 2002-04-30 複合照合装置 Expired - Lifetime JP4068889B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002129340A JP4068889B2 (ja) 2001-09-25 2002-04-30 複合照合装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001291620 2001-09-25
JP2001-291620 2001-09-25
JP2002129340A JP4068889B2 (ja) 2001-09-25 2002-04-30 複合照合装置

Publications (3)

Publication Number Publication Date
JP2003173444A JP2003173444A (ja) 2003-06-20
JP2003173444A5 JP2003173444A5 (ja) 2005-08-18
JP4068889B2 true JP4068889B2 (ja) 2008-03-26

Family

ID=26622816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002129340A Expired - Lifetime JP4068889B2 (ja) 2001-09-25 2002-04-30 複合照合装置

Country Status (1)

Country Link
JP (1) JP4068889B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4321350B2 (ja) * 2004-05-14 2009-08-26 パナソニック株式会社 パラメタ推定方法、パラメタ推定装置および照合方法

Also Published As

Publication number Publication date
JP2003173444A (ja) 2003-06-20

Similar Documents

Publication Publication Date Title
US6430307B1 (en) Feature extraction system and face image recognition system
US5901244A (en) Feature extraction system and face image recognition system
Kakadiaris et al. Three-dimensional face recognition in the presence of facial expressions: An annotated deformable model approach
CN100367311C (zh) 人脸元数据生成与人脸相似度计算
US7873189B2 (en) Face recognition by dividing an image and evaluating a similarity vector with a support vector machine
Cootes et al. Robust and accurate shape model fitting using random forest regression voting
JP2815045B2 (ja) 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
US8184914B2 (en) Method and system of person identification by facial image
JP4947769B2 (ja) 顔照合装置および方法並びにプログラム
US20070053590A1 (en) Image recognition apparatus and its method
US20110134221A1 (en) Object recognition system using left and right images and method
Poh et al. An evaluation of video-to-video face verification
CN101958000A (zh) 基于稀疏表示的人脸画像-照片生成方法
JP2000030065A (ja) パターン認識装置及びその方法
KR102366777B1 (ko) 도메인 적응 기반 객체 인식 장치 및 그 방법
JP3577908B2 (ja) 顔画像認識システム
Sharma et al. 3D face recognition techniques-a review
JP4068889B2 (ja) 複合照合装置
JP4068888B2 (ja) アイリス推定装置およびアイリス照合装置
Heusch et al. A novel statistical generative model dedicated to face recognition
Luque et al. Audio, video and multimodal person identification in a smart room
Mok et al. Lip features selection with application to person authentication
Srivastava et al. Face Verification System with Liveness Detection
CN111353353A (zh) 跨姿态的人脸识别方法及装置
JP3841482B2 (ja) 顔画像認識装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4068889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140118

Year of fee payment: 6

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term