JP4068888B2 - アイリス推定装置およびアイリス照合装置 - Google Patents

アイリス推定装置およびアイリス照合装置 Download PDF

Info

Publication number
JP4068888B2
JP4068888B2 JP2002129323A JP2002129323A JP4068888B2 JP 4068888 B2 JP4068888 B2 JP 4068888B2 JP 2002129323 A JP2002129323 A JP 2002129323A JP 2002129323 A JP2002129323 A JP 2002129323A JP 4068888 B2 JP4068888 B2 JP 4068888B2
Authority
JP
Japan
Prior art keywords
region image
iris
eye region
sample
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002129323A
Other languages
English (en)
Other versions
JP2003173443A (ja
Inventor
健司 長尾
啓介 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2002129323A priority Critical patent/JP4068888B2/ja
Publication of JP2003173443A publication Critical patent/JP2003173443A/ja
Application granted granted Critical
Publication of JP4068888B2 publication Critical patent/JP4068888B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Description

【0001】
【発明の属する技術分野】
本発明は、入力アイリスパターンからアイリス領域画像を推定するアイリス推定装置および、これを用いて入力アイリスパターンの照合を行うアイリス照合装置に関する。
【0002】
【従来の技術】
入力パターンから特定のパラメタを抽出する処理は、パターン情報処理において非常に一般的な処理である。例えば、人物顔画像から目や鼻の位置を取り出す処理や、車両画像からナンバープレートの位置を抽出する処理がそれにあたる。
【0003】
従来、このような処理に対してもっとも一般的な方法は、以下に要約されるような照合フィルター法と言われるもので、非常に多くの使用例が提案されている。顔の特徴抽出方法を例に、図13を用いて説明する。
【0004】
図13のフローチャートに示すように、まず目や鼻の部分のテンプレートをテンプレートデータベース1601に用意しておく。テンプレートデータベース1601には図14に示すように目のテンプレート1701が複数格納される。
【0005】
まず、カメラから入力画像が与えられると(S81)、テンプレートデータベース1601から1つのテンプレート画像1701を得る(S82)。次に、図15に示すように、入力画像2001を探索窓2002で探索し、探索窓2002内画像とテンプレート1701との類似度を求める(S83)。類似度の算出には、探索窓2002内の画像とテンプレート1701との正規化相関などを用いることが多い。
【0006】
そして、この処理を入力画像2001全体について行ったか判断し(S84)、入力画像2001全体について行うまで、入力画像2001を探索窓2002でスキャンし(S85)、S83の処理を行う。
【0007】
次に、テンプレートデータベース1601に含まれる全てのテンプレート1701について、上述した探索を行ったか判断し(S86)、全てのテンプレート1701について処理を行っていない場合は、処理対象のテンプレート1701を変更し(S87)、S83の処理に移行し、全てのテンプレートに対してS83〜S87の処理をする。
【0008】
次に、S83〜S87の処理によって求めた探索窓2002内画像とテンプレート1701との類似度をもとに、入力画像2001からもっともテンプレート1701に類似した局所エリア(探索窓2002領域)位置を見出し、その局所エリアに対応する位置を出力する(S88)。
【0009】
このような方法に基づく方法の一例が文献、R. Brunelli, T.Poggio,“Face Recognition: Features versus Template”,IEEE Trans. Patt. Anal. Machine Intell., vol. PAMI−8, pp.34−43, 1993、に詳しく報告されている。
【0010】
【発明が解決しようとする課題】
上記のような従来法における課題は、コンピュータの処理コストである。探索対象とする入力画像のサイズをS、テンプレートサイズをTとし、正規化相関を類似度基準とする場合、時間計算量は乗算を単位演算とすると2×T×S回の演算回数を必要とする。例えば、典型的な顔画像の特徴点抽出問題では、T=50×20=1000(pel)、S=150×150=22500(pel)の場合を考えてみても、乗算だけで2×1000×22500=45×100万回=4500万回となり、いくらコンピュータの演算速度が向上したといえ、莫大な演算コストを要するものとなる。
【0011】
また、処理に用いるテンプレートは、全学習データの平均等の典型的データを用いるものが多く、環境よって照合がうまくいかない場合が多い。このため入力パターンに応じてテンプレートを複数用意して、複数のテンプレートによる類似度計算を行う手法がある。しかしながら、テンプレートの数に応じて処理数が増大するため、コンピュータの処理コストからみても負荷が大きいものになってしまう。
【0012】
本発明は、少ない処理コストで入力データの特徴点を正確に求めることを目的とする。
【0013】
【課題を解決するための手段】
本発明は、サンプルのデータとこのデータ内における特徴点の位置との相関を予め学習しておき、この学習により求めた相関を用いて、入力されたデータの特徴点がどこであるかを推定するようにしたものである。
【0014】
同じ種類のデータと、このデータ内における特徴点とは、一定の相関があるので、この相関を用いることで、データの特徴点がどこであるかを少ない処理コストで、かつ正確に求めることができる。
【0015】
【発明の実施の形態】
本発明の第1の態様にかかるアイリス推定装置は、サンプルとなるサンプル眼領域画像を入力するサンプル入力手段と、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するパラメタ入力手段と、アイリスの輪郭を推定する照合対象眼領域画像を入力する照合データ入力手段と、前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求める学習手段と、前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するパラメタ推定手段と、前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するアイリス推定手段とを具備した構成を採る。
【0016】
これにより、サンプル眼領域画像とこれに対するアイリスの輪郭を構成する点の集合との相関を点集合の分布毎に求められ、この相関を用いることで、照合対象眼領域画像からこれに対するアイリスの輪郭を構成する点の集合を推定できる。これにより、少ない処理コストでアイリスの輪郭を構成する点の集合を推定でき、アイリス領域画像を抽出できる。
【0017】
本発明の第2の態様は、第1の態様にかかるアイリス推定装置において、前記学習手段は、前記サンプル眼領域画像をベクトル化した第1の教示ベクトルの平均ベクトルおよび前記アイリスの輪郭を形成する前記点の集合をベクトル化した第2の教示ベクトルの平均ベクトルを求めるとともに、前記第1の教示ベクトルおよび前記第2の教示ベクトルの合成ベクトルを構成し、前記合成ベクトルの複数の要素分布を集合した混合分布モデルを推定し、前記要素分布毎に属する前記自己相関情報を前記第1の教示ベクトルの共分散行列を求めることで求め、前記相互相関情報を前記第1の教示ベクトルと前記第2の教示ベクトルとの共分散行列を求めることで求め、前記パラメタ推定手段は、前記第1の教示ベクトルおよび前記第2の教示ベクトルの平均ベクトルならびに前記要素分布毎に属する前記相互相関情報を用いて前記照合対象眼領域画像の前記点の集合を推定する。
【0018】
これにより、単純に行列演算だけ、つまり乗算だけで要素分布毎の相互相関情報が求められる。
【0019】
本発明の第3の態様は、第1の態様または第2の態様にかかるアイリス推定装置と、前記アイリス推定装置により推定された前記照合対象眼領域画像の前記アイリス領域画像を用いて前記照合対象眼領域画像があらかじめ登録された前記サンプル眼領域画像と一致するかを照合する照合手段とを具備した構成を採る。
【0020】
これにより、少ない処理コストでアイリスの照合ができる。
【0021】
本発明の第4の態様は、サンプルとなるサンプル眼領域画像を入力するステップと、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求めるステップと、前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するステップとを具備したことを特徴とするアイリス推定方法である。
【0022】
本発明の第5の態様は、第4の態様のアイリス推定方法により推定された前記照合対象眼領域画像の前記アイリス領域画像を用いて前記照合対象眼領域画像があらかじめ登録された前記サンプル眼領域画像と一致するかを照合することを特徴とするアイリス照合方法である。
【0023】
本発明の第6の態様は、コンピュータに、サンプルとなるサンプル眼領域画像を入力するステップと、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求めるステップと、前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するステップとを行わせることを特徴としたプログラムである。
【0024】
本発明の第7の態様は、コンピュータに、サンプルとなるサンプル眼領域画像を入力するステップと、前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求めるステップと、前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するステップと、推定した前記照合対象眼領域画像の前記アイリス領域画像を用いて前記照合対象眼領域画像があらかじめ登録された前記サンプル眼領域画像と一致するかを照合するステップとを行わせることを特徴としたプログラムである。
【0025】
(実施の形態1)
本発明の実施の形態1では、パラメタ推定装置を顔画像照合装置に応用した場合について説明する。
【0026】
図1は、本発明の実施の形態1における顔画像照合装置のブロック図である。実施の形態1にかかる顔画像照合装置100は、コンピュータシステム17で実現したものである。
【0027】
図1において、コンピュータシステム17には、人物の顔画像を直接撮影し、コンピュータシステム17に画像を入力ためのビデオカメラ(カメラ)1が接続されている。また、コンピュータシステム17には、システムコンソールとしてのディスプレイ8と、画像パターン情報など大規模なデータを保存するための二次記憶装置(ハードディスクや光磁気ディスクなど)9と、ディスプレイ8上で推定の対象となる固有なパラメタである特徴点パラメタを手動で入力するためのマウス10が接続されている。
【0028】
また、コンピュータシステム17には、ビデオカメラ1からの映像信号を記憶する画像メモリ2と、プログラムの格納やワーク用のメモリ3と、メモリ3に格納されたプログラムに基づいた処理を行うCPU4と、画像パターンや特徴抽出の実行によって計算された特徴パターンを記憶するパターンメモリ5、6と、計算された特徴抽出行列を格納するための特徴抽出行列格納メモリ7と、あらかじめ登録された人物の顔画像を集めた登録画像データベース11と、外部機器とのデータのやりとりを行うインターフェース(I/F)12〜15と、が設けられている。また、コンピュータシステム17に設けられた各ブロックはシステムバス16で接続されている。
【0029】
顔画像照合装置100は、顔画像(例えば濃淡パターン)と顔画像内における固有なパラメタである特徴点(例えば眼、鼻、眉、口など)の位置に相関関係があることに着目したものである。すなわち、予めサンプルである顔画像とこの顔画像の特徴点との相関を学習しておき、この学習結果を用いてサンプルと照合するためにカメラ1で撮影した照合用の顔画像における特徴点の座標がどこであるかを推定するようにしたものである。そして、上述したように推定した特徴点より照合する顔画像から照合に用いる顔領域を求め、求めた顔領域の画像と予め用意してある顔画像データベース内の画像と比較することで、照合する画像の人物と登録された顔画像データベース内の顔画像の人物とが一致するかの照合を行うものである。
【0030】
さらに、本実施の形態では、サンプルである人の顔画像とこれらの顔画像内における特徴点の位置の相関を複数学習しておくことで、サンプルと照合するためにカメラ1で撮影した顔画像の特徴点の推定精度を向上している。
【0031】
具体的には、顔画像照合装置100は、複数のサンプルの顔画像とこの顔画像の特徴点との相関を予め計算するオフライン処理と、この計算した相関を用いてカメラ1から入力された画像から特徴点の座標値を推定し、特徴点の座標値から決定される顔領域の画像と、あらかじめ登録された顔画像データベースの顔画像との照合処理を行うオンライン処理に大別される。
【0032】
オフライン処理は、サンプルとして予め撮影された顔画像より得られる第1の教示ベクトルと、サンプルの顔画像における特徴点の座標より得られる第2の教示ベクトルと、これらの教示ベクトルにおける平均ベクトルの計算と、第1の教示ベクトルの自己相関情報である共分散行列の擬似逆行列の計算と、第1の教示ベクトルと第2の教示ベクトルの相互相関情報である共分散行列の計算とを行う。
【0033】
さらに詳細に、オフライン処理の目的は、まず、画像メモリ2に一旦蓄えられた教示用の画像から得られる教示ベクトルV1と、教示ベクトルV1の特徴点の座標より得られる教示ベクトルV2と、教示ベクトルV1の平均ベクトルM1と、教示ベクトルV2の平均ベクトルM2とを計算しておき、そして、これらの計算結果を用いて、教示ベクトルV1の分布を示す教示ベクトルV1の共分散行列およびこの擬似逆行列と、教示ベクトルV1と教示ベクトルV2との相関である教示ベクトルV1と教示ベクトルV2との共分散行列とを求めることである。
【0034】
ここで、教示ベクトルV1は、想定される入力画像(サンプル画像)をベクトル化した入力ベクトルの学習サンプルであり、想定される入力画像と同一種類の画像をベクトル化したベクトルの学習サンプルである。例えば、想定される入力画像が日本人男性の顔画像であれば、日本人男性の顔画像をベクトル化したベクトルの学習サンプルをとる。
【0035】
また、教示ベクトルV2は教示ベクトルV1に対して想定される特徴点の座標をベクトル化した出力ベクトルの学習サンプルである。(数1)に、教示ベクトルV1、教示ベクトルV2の具体的な形式を示す。
【0036】
【数1】
Figure 0004068888
次に、顔画像照合装置100が行うオフライン処理について、図2を用いて説明する。図2は、実施の形態1にかかる顔画像照合装置100のオフライン処理の動作フロー図である。なお、以下の説明で顔画像照合装置100が行う処理は、実際にはCPU4がメモリ3に格納されたプログラムを実行することで行う。
【0037】
まず、顔画像照合装置100は、サンプルとしてカメラ1からN人の顔画像パターンを入力する。そして、顔画像照合装置100は、この入力されたサンプルの顔画像パターンを、I/F12を介して画像メモリ2に一旦記憶した後に、全て二次記憶装置9に転送し、格納する(S10)。
【0038】
次に、顔画像照合装置100は、二次記憶装置9に記憶したサンプルの顔画像パターンを、各画素の値をラスタスキャン順に並べたベクトルパターンに変換することで教示ベクトルV1を求める(S11)。次に、顔画像照合装置100は、二次記憶装置9に記憶したサンプルの顔画像パターンをディスプレイ8に一枚ずつ表示する。そして、このサンプルの顔画像パターンを見たユーザがマウス10を用いて手動で顔の特徴点を入力すると、ユーザが入力した顔の特徴点をI/F15を介してメモリ3に入力する(S12)。
【0039】
図3に、ユーザにより入力された顔の特徴点の例を示す。顔画像1201の原点O1208を基準に、右眉1202、右目1203、左眉1204、左目1205、鼻1206および口1207のそれぞれの座標(X座標、Y座標)が、特徴点としてユーザにより入力される。
【0040】
次に、顔画像照合装置100は、(数1)を用いて、入力した各特徴点の座標値を順に並べて連結してひとつのベクトルデータを作成し、これを教示ベクトルV2とする(S13)。次に、顔画像照合装置100は、教示ベクトルV1をパターンメモリ5に、教示ベクトルV2をパターンメモリ6に記憶する(S14)。そして、顔画像照合装置100は、N人分の処理が終了したかを判定し(S15)、終了したら処理(S16)に進み、終了していない場合は処理(S11)に進む。
【0041】
次に、顔画像照合装置100は、パターンメモリ5およびパターンメモリ6に格納されたN人分の教示ベクトルV1、V2の集合{V1}および{V2}より(数2)、(数3)に従って平均ベクトルM1、M2を計算し、特徴抽出行列格納メモリ7に保存する(S16)。
【0042】
【数2】
Figure 0004068888
【数3】
Figure 0004068888
次に、顔画像照合装置100は、N人分の教示ベクトルV1の集合{V1}より(数4)に従って共分散行列C1を計算することで、教示ベクトルV1の分布、つまり、カメラ1から入力したN人の顔画像パターンの分布を算出する。そして、顔画像照合装置100は、求めた共分散行列C1を特徴抽出行列格納メモリ7に格納する(S17)。ここで顔画像パターンの分布を求めるのは、顔画像パターンの分布が顔画像パターンの特性を表すからであり、顔画像パターンの特性を求めるためである。
【0043】
【数4】
Figure 0004068888
次に、顔画像照合装置100は、N人分の教示ベクトルV1、V2の集合{V1}および{V2}より(数5)に従って共分散行列C2を計算することで、教示ベクトルV1、V2の相関、つまりN人の顔画像パターンと顔画像パターンの特徴点の相関を算出する。顔画像照合装置100は、求めた共分散行列C2を特徴抽出行列格納メモリ7に格納する(S17)。
【0044】
【数5】
Figure 0004068888
次に、顔画像照合装置100は、S17において求めた共分散行列C1と共分散行列C2から、オンライン処理で入力される顔画像から特徴点を抽出するために使用するパラメタである特徴抽出行列C3を、(数6)に従って計算する(S18)。そして、顔画像照合装置100は、求めた特徴抽出行列C3を特徴抽出行列格納メモリ7に格納する。
【0045】
【数6】
Figure 0004068888
以上が、顔画像照合装置100が、オフラインで実行する処理であり、特徴抽出行列格納メモリ7には、上述した処理で求めた、平均ベクトルM1、M2、パラメタとして共分散行列C1と共分散行列C2、及び特徴抽出行列C3が格納されている。
【0046】
次に、オンライン処理について、図4を用いて説明する。図4は、実施の形態1にかかる顔画像照合装置のオンライン処理の動作フロー図である。
【0047】
オンライン処理の目的は、入力された顔画像から、入力に対して固有なパラメタである特徴点の座標値を推定し、これから顔領域の画像を求め、画像データベースに登録された画像と照合することにある。
【0048】
まず、顔画像照合装置100は、カメラ1から画像を入力し(S20)、I/F12を介して画像メモリ2に蓄積し、蓄積した入力画像を各画素の値をラスタスキャン順に並べて入力ベクトルデータXに変換し、パターンメモリ5に転送する(S21)。
【0049】
次に、顔画像照合装置100は、入力ベクトルデータXに対して、オフライン処理で求めた特徴抽出行列C3および平均ベクトルM1、M2から、(数7)に従って入力ベクトルデータXに対する特徴点の座標値の期待値ベクトルEを計算する(S22)。(数7)は、オフラインで求めた、教示ベクトルV1、V2の相関、つまりN人の顔画像パターンと顔画像パターンの特徴点の相互相関を示す共分散行列C2を用いて、入力ベクトルデータXつまり入力画像の特徴点を算出する式である。
【0050】
【数7】
Figure 0004068888
次に、顔画像照合装置100は、求めた特徴点座標値の期待値ベクトルEが各特徴点の座標値の合成ベクトルとなっているので、入力ベクトルデータの特徴点の座標値を期待値ベクトルEより得る(S23)。次に、顔画像照合装置100は、S23で求めた特徴点の座標値を用いて、入力画像から、あらかじめ登録された顔画像データベースの顔画像との照合を行う顔領域を決定する(S24)。
【0051】
検出された照合用の顔領域の例を図5に示す。本実施の形態では、顔画像1301から、鼻の座標1303を中心として、一辺の長さが両眼の間隔aの2倍であり、上下の辺が両眼を結ぶ直線と平行であるような正方形領域を照合用の顔領域1302として決定する。
【0052】
次に、顔画像照合装置100は、顔領域1302の画像とあらかじめ登録した顔画像データベース11との画像を例えば統計的手法である主成分分析を利用した固有顔法などの照合手法を用いて照合し(S25)、結果をディスプレイ8に表示すると共に二次記憶装置9に転送する(S26)。なお、固有顔(Eigenface)法は、参照画像のサイズを正規化して全画素の濃淡値をN次元ベクトルとし、全ての参照画像からM<N次元の顔部分空間を主成分分析という統計的手法により生成する。そして、入力画像から顔のありそうな領域を正規化して顔部分空間との直交距離を類似度とし、顔部分空間への射影先の位置により人物を認識するというものである。
【0053】
ディスプレイ8への出力例を図6に示す。ディスプレイ1501上には、入力された入力顔画像1502と、顔領域枠1503と、照合結果1504、1505が表示される。
【0054】
ここで、(数7)を用いた計算によって特徴点位置情報の推定が可能な理由を説明する。
【0055】
(数7)で得られる特徴点の座標値の期待値ベクトルEは、教示ベクトルV1と教示ベクトルV2の関係を、2つのベクトルの分布が正規分布であるという仮定の元でベイズ推定を用いて学習した時の、入力ベクトルデータXに対して得られる出力の期待値に等しい。ベイズ推定とは、母数の分布と適当な損失関数を定義し、損失関数の期待値が最小となるように推定する統計的推定法をいう。すなわち、(数7)によって、入力ベクトルデータXに対して一番尤もらしい出力値を推定することができると言える。
【0056】
以上のように実施の形態1によれば、予め学習したサンプルの顔画像とこの特徴点との相関を用いて、カメラ1で撮影した照合用の顔画像における特徴点の座標がどこであるかを推定することができる。そして、上述したように推定した特徴点より照合用の顔領域を求め、求めた照合用の顔領域画像とあらかじめ登録しておいた顔画像データベース内の顔画像を比較することで、照合用の顔画像の人物とあらかじめ登録された顔画像の人物とが一致するかの照合を行うことができる。これにより、従来法に比べ格段に少ない演算で所望のパラメタを推定することができ、少ない演算で顔画像の照合ができる。
【0057】
具体的には、実施の形態1によれば、入力ベクトルに対して固有なパラメタを、3回の行列演算で推定することが出来る。つまり、従来のテンプレートマッチングを用いた探索に比べ格段に小さな計算コストで推定できるため、その効果は非常に大きい。ここで、前記のテンプレートマッチによる計算コスト算出の場合と同じ例で本発明の計算コストを算出してみる。入力画像サイズを縦150×横150画素=22500画素として、入力に対し両目の座標(右眼X座標、右眼Y座標、左眼X座標、左眼Y座標)計4次元を推定する場合、乗算を単位演算とした場合、(数7)に当てはめると特徴抽出行列C3は縦22500×横4の行列、(X−M1)は4次元のベクトルより乗算回数は4×22500=90000(pel)となり、乗算だけでテンプレートマッチの500分の1の計算コストとなりその効果は大きい。
【0058】
また、実施の形態1によれば、第1の教示ベクトルの共分散行列から自己相関情報を求め、第1の教示ベクトルと第2の教示ベクトルとの共分散行列から相互相関情報を求めることができる。これにより、単純に行列演算だけ、つまり乗算だけで固有なパラメタの計算や、相互相関情報や自己相関情報の計算ができるため、コンピュータの処理コストが非常に小さくなる。
【0059】
また、実施の形態1によれば、複数の人の顔画像とこれらの顔画像内における特徴点の位置の相関を学習しておくことにより、より精度の高い相関を求めることができるので、精度の高い推定ができるという作用を有する。
【0060】
また、実施の形態1では、上述した(数1)〜(数7)を用いて、パラメタの推定を行ったが、予めサンプルとなる顔画像と特徴点の相関を求め、求めた相関を使ってパラメタの推定を行う式であれば(数1)〜(数7)以外の式を使ってもよい。
【0061】
(実施の形態2)
本発明の実施の形態2は、サンプルの入力画像(入力ベクトル)の分布にバラツキを持たせたものであり、いろいろな分布を持つ照合用の入力画像に対応できるようにしたものである。具体的には、サンプルの入力画像を複数の分布に分け、それぞれの分布毎に入力画像と入力画像の特徴点との相関を調べるようにし、これらの相関を用いて照合用の入力画像の特徴点を求めるようにしたものである。
【0062】
以下、実施の形態2にかかる顔画像照合装置について説明する。実施の形態2にかかる顔画像照合装置のブロック構成図は、実施の形態1の顔画像照合装置と同じコンピュータシステムを用いて実現したもので、ブロック構成図の説明は省略する。
【0063】
実施の形態2にかかる顔画像照合装置は、大きく分けてオフライン処理と、オンライン処理を行う。
【0064】
オフライン処理は、撮影された顔画像より得られる第1の教示ベクトルと撮影された顔画像における特徴点の座標より得られる第2の教示ベクトルの集合を入力し、第1および第2の教示ベクトルの合成ベクトルを構成し、合成ベクトルの集合の混合分布(要素分布数M)モデルのパラメタを推定し、混合分布の各要素分布k(k=1..M)に属する第1の教示ベクトルの共分散行列と、同じく第1の教示ベクトルの平均ベクトルと、同じく要素分布kに属する第および第2の教示ベクトルの相互相関行列と、同じく第2の教示ベクトルの平均ベクトルを求める処理である。
【0065】
また、オフライン処理は、カメラから入力された画像からその特徴点の座標値を推定し、推定した特徴点の座標値から決定される顔領域の画像と、あらかじめ登録された顔画像データベースの顔画像との照合処理を行う。
【0066】
まず、実施の形態2にかかるオフライン処理について、図7のオフライン処理の動作フローを用いて説明する。
【0067】
オフライン処理の目的は、画像メモリに一旦蓄えられた教示用の画像から、第1、第2の教示ベクトルの合成ベクトルを構成し、合成ベクトルの集合の混合分布(要素分布数M)モデルのパラメタを推定し、混合分布の各要素分布k(k=1..M)に属する第1の教示ベクトルにおける共分散行列の擬似逆行列と、同じく第1の教示ベクトルの平均ベクトルと、同じく要素分布kに属する第1および第2の教示ベクトルの相互相関行列と、要素分布kに属する教示ベクトルの平均ベクトルを計算することにある。
【0068】
まず、顔画像照合装置100は、サンプルとしてカメラ1からN人の顔画像パターンを入力する。そして、顔画像照合装置100は、この入力されたサンプルの顔画像パターンを、I/F12を介して画像メモリ2に一旦記憶した後に、全て二次記憶装置9に転送し、格納する(S1600)。
【0069】
次に、顔画像照合装置100は、二次記憶装置9に記憶した顔画像パターンを、各画素の値をラスタスキャン順に並べたベクトルパターンに変換することで、教示ベクトルV1を求める(S1601)。次に、顔画像照合装置100は、二次記憶装置9に記憶したサンプルの顔画像パターンをディスプレイ8に一枚ずつ表示する。そして、このサンプルの顔画像パターンを見たユーザがマウス10を用いて手動で顔の特徴点の座標点を入力すると、ユーザが入力した顔の特徴点をI/F15を介してメモリ3に入力する(S1602)。図3に入力する顔の特徴点の例を示すが、顔画像1201の原点Oを基準に右眉1202、右目1203、左目1204、左目1205、鼻1206および口1207のそれぞれの座標(X座標、Y座標)が入力される。
【0070】
次に、顔画像照合装置100は、入力した各特徴点の座標値を順に並べて連結してひとつのベクトルデータを作成し、これを教示ベクトルV2とする(S1603)。そして、顔画像照合装置100は、教示ベクトルV1はパターンメモリ5に、教示ベクトルV2はパターンメモリ6に記憶する(S1604)。そして、顔画像照合装置100は、N人分の処理が終了したかを判定し(S1605)、終了したら処理(S1606)に進み、終了していない場合は処理(S1601)に進む。
【0071】
次に、顔画像照合装置100は、パターンメモリ5およびパターンメモリ6に格納されたN人分の教示ベクトルV1、V2の合成ベクトルを構成し、N人分の合成ベクトルの集合における確率分布を混合ガウシアンモデル(以下GMMと呼ぶ)で複数(M個)の分布を持つ要素分布にモデル化し、モデル化した際のk番目の要素分布(要素分布数はM)のパラメタを計算する。即ち、顔画像照合装置100は、k番目の要素分布に属するベクトルV1、V2の平均ベクトルM1 k、M2 k、ベクトルV1の共分散行列C1 k、ベクトルV1、V2の相互相関行列C12 kを計算する(S1606)。
【0072】
この計算には、通常EM(Expectation Maximization)アルゴリズムが用いられるが、これは文献:Christopher M.Bishop, Oxford出版“Neural Networks for Pattern Recognition”59〜73頁(1995)に詳細に記述されている。
【0073】
次に、顔画像照合装置100は、S1606において、求めたベクトルV1の共分散行列C1 kの逆行列(より一般的には擬似逆行列)C1 k*を計算する。
【0074】
次に、顔画像照合装置100は、求めたベクトルV1の共分散行列の逆行列C1 k*と相互相関行列C12 kから(数8)に従って特徴抽出行列C3 kを計算する(S1607)。そして、顔画像照合装置100は、求めた特徴抽出行列C3 kを特徴抽出行列格納メモリ7に格納する(S1608)。
【0075】
【数8】
Figure 0004068888
以上が、実施の形態2におけるオフラインで実行される処理であり、EMアルゴリズムで得られたGMMの各要素分布kについて、平均ベクトルM1 k、M2 k、及び、特徴抽出行列C3 kを求め、特徴抽出行列格納メモリにするものである。
【0076】
次に、実施の形態2におけるオンライン処理について、図8に示すフローチャートを用いて説明する。オンライン処理の目的は、入力された照合対象の顔画像から、入力に対して固有なパラメタである特徴点の座標値を推定し、これから照合に用いる顔領域を決定し、決定した顔領域内の画像を求め、この画像と画像データベースに登録された画像と照合することにある。
【0077】
まず、顔画像照合装置100は、カメラ1から画像を入力し(S1700)、I/F12を介して画像メモリ2に蓄積し、蓄積された入力画像を各画素の値をラスタスキャン順に並べて入力ベクトルデータXに変換し、パターンメモリ5に転送する(S1701)。
【0078】
次に、顔画像照合装置100は、入力ベクトルデータXに対して、オフラインで求めた特徴抽出行列C3 kおよび平均ベクトルM1 k、M2 kから、(数9)に従って入力ベクトルデータXに対する特徴点の座標値の期待値ベクトルEを計算する(S1702)。
【0079】
【数9】
Figure 0004068888
次に、求めた特徴点座標値の期待値ベクトルEが各特徴点の座標値の合成ベクトルとなっているので、顔画像照合装置100は、特徴点の座標値の期待値ベクトルEより各特徴点の座標値を得る(S1703)。そして、顔画像照合装置100は、S1703において得た各特徴点の座標値をもとに、照合に用いる顔領域を決定する(S1704)。検出された顔領域の例を図5に示すが、例えば鼻の座標1303を中心として、一辺の長さが両眼の間隔aの2倍であり、上下の辺が両眼を結ぶ直線と平行であるような正方形領域を顔領域1302として決定する。
【0080】
次に、顔画像照合装置100は、顔領域1302の画像とあらかじめ登録した顔画像データベース11との画像を例えば統計的手法である主成分分析を利用した固有顔法などの照合手法を用いて照合し(S1705)、結果をディスプレイ8に表示し、二次記憶装置9に転送する(S1706)。
【0081】
なお、固有顔(Eigenface)法は、参照画像のサイズを正規化して全画素の濃淡値をN次元ベクトルとし、全ての参照画像からM<N次元の顔部分空間を主成分分析という統計的手法により生成する方法である。つまり、入力画像から顔のありそうな領域を正規化して顔部分空間との直交距離を類似度とし、顔部分空間への射影先の位置により人物を認識するというものである。
【0082】
ディスプレイ8への出力例を図6に示す。ディスプレイ1501上に入力された入力顔画像1502と照合結果1504、1505が表示される。
【0083】
ここで、上述した計算によって特徴点位置情報の推定が可能な理由を説明する。
【0084】
(数8)で得られる特徴点の座標値の期待値ベクトルEは、教示ベクトルV1と教示ベクトルV2の関係を、2つのベクトルの合成ベクトルにおける分布が混合正規分布であるという仮定の下で、ベイズ推定を用いて学習した時の、入力ベクトルデータXに対して得られる出力の期待値に等しい。ベイズ推定とは、母数の分布と適当な損失関数を定義し、損失関数の期待値が最小となるように推定する統計的推定法をいう。すなわち、(数9)によって、入力ベクトルデータXに対して一番尤もらしい出力値を推定することができると言える。
【0085】
以上のように実施の形態2によれば、サンプルの入力画像を複数の分布に分け、それぞれの分布毎にサンプルの入力画像とこの入力画像の特徴点との相関を調べるようにし、これらの相関を用いて照合用の入力画像の特徴点を推定することができる。これにより、照合用の入力画像の分布、つまり特性にバラツキがあっても、正確に特徴点を推定できる。
【0086】
また、実施の形態2によれば、(数9)に示されるように、行列演算による直接計算によって、入力ベクトルの固有なパラメタを推定することが出来る。従来のテンプレートマッチングを用いた探索(即ち、繰り返し演算)に比べ格段に小さな計算コストで、かつ、混合分布モデルを用いているため非常に高精度に推定できるため、その効果は非常に大きい。前記のテンプレートマッチによる計算コスト算出の場合と同じ例で本発明の計算コストを算出してみる。入力画像サイズを縦150×横150画素=22500画素として、入力に対し両目の座標(右眼X座標、右眼Y座標、左眼X座標、左眼Y座標)計4次元を推定する場合、乗算を単位演算とした場合、(数9)に当てはめると特徴抽出行列C3 kは縦22500×横4の行列、(X−M1)は4次元のベクトルより乗算回数は4×22500=90000(pel)となり、乗算だけでテンプレートマッチの500分の1の計算コストとなりその効果は大きい。
【0087】
また、実施の形態2によれば、単純に行列演算だけ、つまり乗算だけで要素分布毎の相互相関情報が求められる。
【0088】
(実施の形態3)
本発明の実施の形態3は、実施の形態2のパラメタ推定装置を、人の眼を撮影した画像からのアイリスの輪郭点を検出し、この輪郭点を用いてアイリス領域画像を抽出し、抽出したアイリス領域画像と登録しているアイリスデータと照合するアイリス照合装置に応用したものである。このようにして、少ない処理コストで、人それぞれ模様が違うといわれているアイリスを安定して抽出することができ、少ない処理コストでアイリスを用いた人の照合ができるというものである。以下、実施の形態3について説明する。実施の形態3におけるアイリス照合装置のブロック構成図は、実施の形態1の顔画像照合装置と同じコンピュータシステムを用いて実現したもので、ブロック構成図の説明は省略する。
【0089】
アイリス照合装置は、カメラ1により撮影した眼領域画像(例えば濃淡パターン)からアイリスの輪郭を構成する座標点集合を検出し、アイリス領域画像を切り出し、登録画像と照合するものである。切り出したアイリス領域画像の照合は、実施の形態1による顔画像の照合と同様であるため、以下、アイリス領域の切り出しについて説明する。
【0090】
アイリス領域の切り出し処理は、撮影した眼領域の画像より得られる第1の教示ベクトルと、眼領域画像内において検出対象となるアイリスの輪郭点集合よりなる第2の教示ベクトルとの合成ベクトルを構成し、合成ベクトルの集合を混合分布(要素分布数M)モデルでモデル化した際の分布のパラメタを推定し、混合分布の各要素分布k(k=1..M)に属する第1の教示ベクトルの共分散行列の擬似逆行列を計算し、同じく第1の教示ベクトルの平均ベクトルを計算し、同じく要素分布kに属する第および第2の教示ベクトルの相互相関行列を計算し、要素分布kに属する教示ベクトルの平均ベクトルを計算するオフライン処理と、カメラから入力した眼領域画像からアイリスの輪郭点を構成する座標値の集合を推定し、輪郭点の座標値集合から決定されるアイリス領域を抽出するオンライン処理の2つの処理に分かれる。
【0091】
まず、オフライン処理について、図9のオフライン処理動作フローを用いて説明する。オフライン処理の目的は、画像メモリに一旦蓄えられた教示用(サンプル)の画像から、共分散行列C1 kの逆行列(より一般的には擬似逆行列)C1 k*を計算し、求めたベクトルV1の共分散行列の逆行列C1 k*と相互相関行列C12 kから特徴抽出行列C3 kを計算することにある。
【0092】
まず、アイリス照合装置は、カメラ1からN人の眼領域画像パターンを入力し、I/F12を介して一旦画像メモリ2に蓄積した後に、全て二次記憶装置9に転送する(S900)。
【0093】
次に、アイリス照合装置は、二次記憶装置9に記憶した眼領域画像パターンを、各画素の値をラスタスキャン順に並べたベクトルパターンに変換することで教示ベクトルV1を求める(S901)。次に、アイリス照合装置は、それぞれの眼領域画像パターンをディスプレイ8に一枚ずつ表示する。そして、これを見たユーザがマウス10を用いて手動でアイリス領域の輪郭を構成する座標点の集合を指定すると、アイリス照合装置は、指定されたアイリス領域の輪郭をメモリ3に入力する(S902)。
【0094】
図10にユーザが指定するアイリス領域を示す。図に示すように、ディスプレイ8には、眼領域画像1000が表示される。そして、眼領域画像1000には、眼画像1005a、1005bが含まれている。そして、ユーザは、眼画像1005a、1005b内のアイリス領域1001を認識し、マウスカーソル1004を操作することで眼画像1005a、1005bに対してアイリスの外側の輪郭1002およびアイリスの内側の輪郭1003を指定する。
【0095】
次に、アイリス照合装置は、入力したアイリスの各輪郭点の座標値を順に並べて連結してひとつのベクトルデータを作成し、これを教示ベクトルV2とする(S903)。次に、アイリス照合装置は、教示ベクトルV1をパターンメモリ5に、教示ベクトルV2をパターンメモリ6に記憶する(S904)。そして、アイリス照合装置は、N人分の処理が終了したかを判定し(S905)、終了したら処理(S906)に進み、終了していない場合は処理(S901)に進む。
【0096】
次に、アイリス照合装置は、パターンメモリ5およびパターンメモリ6に格納されたN人分の教示ベクトルV1、V2の合成ベクトルを構成し、N人分の合成ベクトルの集合の確率分布をGMMでモデル化した際のk番目の要素分布(要素分布数はM)のパラメタを推定する。即ち、アイリス照合装置は、k番目の要素分布に属するベクトルV1、V2の平均ベクトルM1 k、M2 k、ベクトルV1の共分散行列C1 k、ベクトルV1、V2の相互相関行列C12 kを計算する(S906)。この計算には、通常EMアルゴリズムが用いられる。
【0097】
次に、アイリス照合装置は、求めたベクトルV1の共分散行列C1 kの逆行列(より一般的には擬似逆行列)C1 k*を計算する。そして、アイリス照合装置は、求めたベクトルV1の共分散行列の逆行列C1 k*と相互相関行列C12 kから(数8)に従って特徴抽出行列C3 kを計算する(S907)。そして、アイリス照合装置は、求めた特徴抽出行列C3 kを特徴抽出行列格納メモリ7に格納する(S908)。
【0098】
以上が、実施の形態3においてオフラインで実行される処理であり、EMアルゴリズムで得られたGMMの各要素分布kについて、平均ベクトルM1 k、M2 k、及び、特徴抽出行列C3 kを求め、特徴抽出行列格納メモリに格納する処理である。
【0099】
次に、実施の形態3のオンライン処理について、図11に示すフローチャートを用いて説明する。実施の形態3にかかるオンライン処理の目的は、入力された眼領域画像から、入力に対して固有なパラメタであるアイリスの輪郭点の座標値集合を推定し、これからアイリス領域の画像を求めることにある。
【0100】
まず、アイリス照合装置は、カメラ1から眼領域画像を入力し(S1101)、I/F12を介して画像メモリ2に蓄積し、蓄積した入力画像を各画素の値をラスタスキャン順に並べて入力ベクトルデータXに変換し、パターンメモリ5に転送する(S1102)。
【0101】
次に、アイリス照合装置は、入力ベクトルデータXに対して、オフラインで求めた特徴抽出行列C3 kおよび平均ベクトルM1 k、M2 kから、(数9)に従って入力ベクトルデータXに対する特徴点の座標値の期待値ベクトルEを計算する(S1103)。
【0102】
期待値ベクトルEは、入力ベクトルXに対する、アイリスの輪郭を構成する点の座標値の集合の期待値に等しい。よって、アイリス照合装置は、期待値ベクトルEからアイリスの輪郭を構成する点の座標値の集合を決定する(S1104)。そして、アイリス照合装置は、決定したアイリスの輪郭を構成する点の集合からアイリスの領域画像を決定する(S1105)。
【0103】
検出されたアイリス領域の例を図12に示す。例えば、アイリス照合装置は、アイリスの外側の輪郭1201とアイリスの内側の輪郭1202を構成する点集合1203を連結し、得られた2つの曲線の内側を取り出すことで、アイリス領域画像1204を抽出する。
【0104】
次に、アイリス照合装置は、S1105において求めたアイリス領域内の画像と、予め登録画像データベース11に登録してあるアイリスの領域画像との照合を行い(S1106)、結果をディスプレイ8に表示し、二次記憶装置9に転送する(S1106)。この照合方法については、実施の形態1、実施の形態2と同じなので説明を省略する。
【0105】
以上のように実施の形態3によれば、サンプルの眼領域画像とこれに対するアイリスの輪郭を構成する点の集合との相関を点集合の分布毎に求め、この相関を用いることで、照合対象の眼領域画像からこれに対するアイリスの輪郭を構成する点の集合を推定できる。これにより、少ない処理コストでアイリスの輪郭を構成する点の集合を推定でき、アイリスの領域画像を抽出できる。
【0106】
また、実施の形態3によれば、(数9)に示されるように、行列演算による直接計算によって、入力ベクトルの固有なパラメタを推定することが出来る。これにより、従来のテンプレートマッチングを用いた探索(即ち、繰り返し演算)に比べ格段に小さな計算コストで、かつ、混合分布モデルを用いているため非常に高精度に推定できるため、その効果は非常に大きい。
【0107】
なお、特徴抽出行列及び期待値ベクトルは、実施の形態1のように特徴抽出行列C3および平均ベクトルM1、M2から、(数7)に従って入力ベクトルデータXに対する特徴点の座標値の期待値ベクトルEを計算しても良い。
【0108】
本発明は、上述の実施の形態に限定されるものではない。本発明では、CPU4がプログラムを読み込むことで、CPU4が第1の教示ベクトルの自己相関情報と、第1の教示ベクトルと第2教示ベクトルの相互相関情報と、第1の教示ベクトルの平均ベクトルおよび第2の教示ベクトルの平均ベクトルを計算する学習手段と、計算した自己相関情報、相互相関情報、第1の教示ベクトルの平均ベクトル、および第2の教示ベクトルの平均ベクトルを用いて入力画像の特徴点(パラメタ)を推定するパラメタ推定手段と、推定した特徴点を用いて画像内の特徴を表す部分領域を決定する部分領域決定手段と、決定した部分領域画像を用いて入力画像の対象物と予め登録された対象物との一致を照合する照合手段として動作する形態で説明したが、学習手段、パラメタ推定手段、部分領域決定手段、および照合手段を専用のプロセッサを具備する形態であっても良い。
【0109】
また、本発明を実施するコンピュータをプログラムするために使用できる命令を含む記憶媒体であるコンピュータプログラム製品が本発明の範囲に含まれる。この記憶媒体は、フレキシブルディスク、光ディスク、CDROMおよび磁気ディスク等のディスク、ROM、RAM、EPROM、EEPROM、磁気光カード、メモリカードまたはDVD等であるが、特にこれらに限定されるものではない。
【0110】
【発明の効果】
以上説明したように本発明によれば、少ない処理コストで入力画像の特徴点を正確に求めることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における顔画像照合装置のブロック図
【図2】実施の形態1にかかる顔画像照合装置のオフライン処理の動作フロー図
【図3】実施の形態1においてユーザにより入力される顔の特徴点を示す図
【図4】実施の形態1にかかる顔画像照合装置のオンライン処理の動作フロー図
【図5】実施の形態1において検出された顔領域を示す図
【図6】実施の形態1においてディスプレイへ出力される図
【図7】本発明の実施の形態2にかかる顔画像照合装置のオフライン処理の動作フロー図
【図8】実施の形態2にかかる顔画像照合装置のオンライン処理の動作フロー図
【図9】本発明の実施の形態3にかかるアイリス照合装置のオフライン処理の動作フロー図
【図10】実施の形態3においてユーザにより入力されるアイリスの特徴点を示す図
【図11】実施の形態3にかかるアイリス照合装置のオンライン処理の動作フロー図
【図12】実施の形態3においてディスプレイへ出力される図
【図13】従来の顔の特徴抽出方法の動作フロー図
【図14】目のテンプレートを示す図
【図15】テンプレートによる探索を説明するための図
【符号の説明】
1 ビデオカメラ
2 画像メモリ
3 メモリ
4 CPU
5、6 パターンメモリ
7 特徴抽出行列格納メモリ
8 ディスプレイ
9 二次記憶装置(HDD、光磁気ディスクなど)
10 マウス
11 登録画像データベース
12〜15 インターフェース
16 システムバス
17 コンピュータシステム
100 顔画像照合装置

Claims (7)

  1. サンプルとなるサンプル眼領域画像を入力するサンプル入力手段と、
    前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するパラメタ入力手段と、
    アイリスの輪郭を推定する照合対象眼領域画像を入力する照合データ入力手段と、
    前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求める学習手段と、
    前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するパラメタ推定手段と、
    前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するアイリス推定手段と
    を具備したことを特徴とするアイリス推定装置。
  2. 前記学習手段は、前記サンプル眼領域画像をベクトル化した第1の教示ベクトルの平均ベクトルおよび前記アイリスの輪郭を形成する前記点の集合をベクトル化した第2の教示ベクトルの平均ベクトルを求めるとともに、前記第1の教示ベクトルおよび前記第2の教示ベクトルの合成ベクトルを構成し、前記合成ベクトルの複数の要素分布を集合した混合分布モデルを推定し、前記要素分布毎に属する前記自己相関情報を前記第1の教示ベクトルの共分散行列を求めることで求め、前記相互相関情報を前記第1の教示ベクトルと前記第2の教示ベクトルとの共分散行列を求めることで求め、
    前記パラメタ推定手段は、前記第1の教示ベクトルおよび前記第2の教示ベクトルの平均ベクトルならびに前記要素分布毎に属する前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記点の集合を推定すること特徴とする請求項1記載のアイリス推定装置。
  3. 請求項1または請求項2に記載のアイリス推定装置と、前記アイリス推定装置により推定された前記照合対象眼領域画像の前記アイリス領域画像を用いて前記照合対象眼領域画像があらかじめ登録された前記サンプル眼領域画像と一致するかを照合する照合手段とを具備したことを特徴とするアイリス照合装置。
  4. サンプルとなるサンプル眼領域画像を入力するステップと、
    前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、
    アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、
    前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求めるステップと、
    前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、
    前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するステップと
    を具備したことを特徴とするアイリス推定方法。
  5. 請求項4に記載のアイリス推定方法により推定された前記照合対象眼領域画像の前記アイリス領域画像を用いて前記照合対象眼領域画像があらかじめ登録された前記サンプル眼領域画像と一致するかを照合することを特徴とするアイリス照合方法。
  6. コンピュータに、
    サンプルとなるサンプル眼領域画像を入力するステップと、
    前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、
    アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、
    前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求めるステップと、
    前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、
    前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するステップと
    を行わせることを特徴としたプログラム。
  7. コンピュータに、
    サンプルとなるサンプル眼領域画像を入力するステップと、
    前記サンプル眼領域画像のアイリスの輪郭を形成する点の集合を入力するステップと、
    アイリスの輪郭を推定する照合対象眼領域画像を入力するステップと、
    前記サンプル眼領域画像および前記アイリスの輪郭を形成する点の集合の平均化情報をそれぞれ求めるとともに、前記サンプル眼領域画像と前記アイリスの輪郭を形成する点の集合を合成した情報を複数の分布に分け、前記サンプル眼領域画像の自己相関情報と前記サンプル眼領域画像と前記点の集合との相互相関情報を前記分布毎に求めるステップと、
    前記それぞれ求めた平均化情報ならびに前記分布毎に求めた前記自己相関情報および前記相互相関情報を用いて前記照合対象眼領域画像の前記アイリスの輪郭を構成する前記点の集合を推定するステップと、
    前記推定した前記点の集合を用いて前記照合対象眼領域画像からアイリス領域画像を推定するステップと、
    推定した前記照合対象眼領域画像の前記アイリス領域画像を用いて前記照合対象眼領域画像があらかじめ登録された前記サンプル眼領域画像と一致するかを照合するステップと
    を行わせることを特徴としたプログラム。
JP2002129323A 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置 Expired - Lifetime JP4068888B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002129323A JP4068888B2 (ja) 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-291620 2001-09-25
JP2001291620 2001-09-25
JP2002129323A JP4068888B2 (ja) 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置

Publications (2)

Publication Number Publication Date
JP2003173443A JP2003173443A (ja) 2003-06-20
JP4068888B2 true JP4068888B2 (ja) 2008-03-26

Family

ID=26622815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002129323A Expired - Lifetime JP4068888B2 (ja) 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置

Country Status (1)

Country Link
JP (1) JP4068888B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084980A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔画像付きカード用データ生成装置および方法並びにプログラム
JP6904434B2 (ja) * 2017-11-29 2021-07-14 日本電気株式会社 情報処理システム、情報処理方法及び記憶媒体

Also Published As

Publication number Publication date
JP2003173443A (ja) 2003-06-20

Similar Documents

Publication Publication Date Title
EP1760635B1 (en) Image processing apparatus and method and program
JP4946730B2 (ja) 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
US6430307B1 (en) Feature extraction system and face image recognition system
Jesorsky et al. Robust face detection using the hausdorff distance
CN100367311C (zh) 人脸元数据生成与人脸相似度计算
US20070053590A1 (en) Image recognition apparatus and its method
Li et al. Efficient 3D face recognition handling facial expression and hair occlusion
JP2005327076A (ja) パラメタ推定方法、パラメタ推定装置および照合方法
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
Mayer et al. Adjusted pixel features for robust facial component classification
KR20020022295A (ko) 3차원 정보를 이용한 얼굴 인식 장치 및 방법
Perronnin et al. A probabilistic model of face mapping with local transformations and its application to person recognition
Sharma et al. 3D face recognition techniques-a review
JP4068888B2 (ja) アイリス推定装置およびアイリス照合装置
WO2003030087A1 (en) Face recognition through warping
Luque et al. Audio, video and multimodal person identification in a smart room
JP4068889B2 (ja) 複合照合装置
Sithara et al. A survey on face recognition technique
Mok et al. Lip features selection with application to person authentication
Pramadihanto et al. Integrated person identification and expression recognition from facial images
JP2003168113A (ja) 画像認識システム、画像認識方法および画像認識プログラム
Srivastava et al. Face Verification System with Liveness Detection
JP3841482B2 (ja) 顔画像認識装置
Hahmann et al. Model interpolation for eye localization using the Discriminative Generalized Hough Transform
CN111353353A (zh) 跨姿态的人脸识别方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4068888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140118

Year of fee payment: 6

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term