JP2003173443A - アイリス推定装置およびアイリス照合装置 - Google Patents

アイリス推定装置およびアイリス照合装置

Info

Publication number
JP2003173443A
JP2003173443A JP2002129323A JP2002129323A JP2003173443A JP 2003173443 A JP2003173443 A JP 2003173443A JP 2002129323 A JP2002129323 A JP 2002129323A JP 2002129323 A JP2002129323 A JP 2002129323A JP 2003173443 A JP2003173443 A JP 2003173443A
Authority
JP
Japan
Prior art keywords
iris
image
sample
points
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002129323A
Other languages
English (en)
Other versions
JP4068888B2 (ja
Inventor
Kenji Nagao
健司 長尾
Keisuke Hayata
啓介 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002129323A priority Critical patent/JP4068888B2/ja
Publication of JP2003173443A publication Critical patent/JP2003173443A/ja
Application granted granted Critical
Publication of JP4068888B2 publication Critical patent/JP4068888B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 観測対象のパターンから、観測に対応す
る特徴パターンを格段に少ない計算コストで推定するこ
と。 【解決手段】 入力となる観測パターンと、入力から求
めたい出力を想定した推定対象のパターンとの相関を学
習させるために、観測パターンからなる第一の教示ベク
トルと、推定対象からなる第二の教示ベクトルを入力
し、前記の二つの教示ベクトルの自己相関情報、平均ベ
クトルおよび第一の教示ベクトルと第二の教示ベクトル
との相互相関情報を計算しておき、これを用いて入力パ
ターンに対して推定対象のベイズ理論に基づく確率的期
待値を求めることによって少ない計算コストで精度よく
所望のパラメタを推定するものである。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、入力アイリスパタ
ーンからアイリス領域画像を推定するアイリス推定装置
および、これを用いて入力アイリスパターンの照合を行
うアイリス照合装置に関する。
【0002】
【従来の技術】入力パターンから特定のパラメタを抽出
する処理は、パターン情報処理において非常に一般的な
処理である。例えば、人物顔画像から目や鼻の位置を取
り出す処理や、車両画像からナンバープレートの位置を
抽出する処理がそれにあたる。
【0003】従来、このような処理に対してもっとも一
般的な方法は、以下に要約されるような照合フィルター
法と言われるもので、非常に多くの使用例が提案されて
いる。顔の特徴抽出方法を例に、図13を用いて説明す
る。
【0004】図13のフローチャートに示すように、ま
ず目や鼻の部分のテンプレートをテンプレートデータベ
ース1601に用意しておく。テンプレートデータベー
ス1601には図14に示すように目のテンプレート1
701が複数格納される。
【0005】まず、カメラから入力画像が与えられると
(S81)、テンプレートデータベース1601から1
つのテンプレート画像1701を得る(S82)。次
に、図15に示すように、入力画像2001を探索窓2
002で探索し、探索窓2002内画像とテンプレート
1701との類似度を求める(S83)。類似度の算出
には、探索窓2002内の画像とテンプレート1701
との正規化相関などを用いることが多い。
【0006】そして、この処理を入力画像2001全体
について行ったか判断し(S84)、入力画像2001
全体について行うまで、入力画像2001を探索窓20
02でスキャンし(S85)、S83の処理を行う。
【0007】次に、テンプレートデータベース1601
に含まれる全てのテンプレート1701について、上述
した探索を行ったか判断し(S86)、全てのテンプレ
ート1701について処理を行っていない場合は、処理
対象のテンプレート1701を変更し(S87)、S8
3の処理に移行し、全てのテンプレートに対してS83
〜S87の処理をする。
【0008】次に、S83〜S87の処理によって求め
た探索窓2002内画像とテンプレート1701との類
似度をもとに、入力画像2001からもっともテンプレ
ート1701に類似した局所エリア(探索窓2002領
域)位置を見出し、その局所エリアに対応する位置を出
力する(S88)。
【0009】このような方法に基づく方法の一例が文
献、R. Brunelli, T.Poggio,
“Face Recognition: Featur
esversus Template”,IEEE T
rans. Patt. Anal. Machine
Intell., vol. PAMI−8, p
p.34−43, 1993、に詳しく報告されてい
る。
【0010】
【発明が解決しようとする課題】上記のような従来法に
おける課題は、コンピュータの処理コストである。探索
対象とする入力画像のサイズをS、テンプレートサイズ
をTとし、正規化相関を類似度基準とする場合、時間計
算量は乗算を単位演算とすると2×T×S回の演算回数
を必要とする。例えば、典型的な顔画像の特徴点抽出問
題では、T=50×20=1000(pel)、S=1
50×150=22500(pel)の場合を考えてみ
ても、乗算だけで2×1000×22500=45×1
00万回=4500万回となり、いくらコンピュータの
演算速度が向上したといえ、莫大な演算コストを要する
ものとなる。
【0011】また、処理に用いるテンプレートは、全学
習データの平均等の典型的データを用いるものが多く、
環境よって照合がうまくいかない場合が多い。このため
入力パターンに応じてテンプレートを複数用意して、複
数のテンプレートによる類似度計算を行う手法がある。
しかしながら、テンプレートの数に応じて処理数が増大
するため、コンピュータの処理コストからみても負荷が
大きいものになってしまう。
【0012】本発明は、少ない処理コストで入力データ
の特徴点を正確に求めることを目的とする。
【0013】
【課題を解決するための手段】本発明は、サンプルのデ
ータとこのデータ内における特徴点の位置との相関を予
め学習しておき、この学習により求めた相関を用いて、
入力されたデータの特徴点がどこであるかを推定するよ
うにしたものである。
【0014】同じ種類のデータと、このデータ内におけ
る特徴点とは、一定の相関があるので、この相関を用い
ることで、データの特徴点がどこであるかを少ない処理
コストで、かつ正確に求めることができる。
【0015】
【発明の実施の形態】本発明の第1の態様にかかるアイ
リス推定装置は、サンプルとなるサンプル眼領域画像を
入力するサンプル入力手段と、前記サンプル眼領域画像
のアイリスの輪郭を形成する点の集合を入力するパラメ
タ入力手段と、アイリスの輪郭を推定する照合対象眼領
域画像を入力する照合データ入力手段と、前記サンプル
眼領域画像と前記アイリスの輪郭を形成する点の集合を
合成した情報を複数の分布に分け、前記サンプル眼領域
画像の自己相関情報と前記サンプル眼領域画像と前記点
の集合との前記相互相関情報を前記分布毎に求める学習
手段と、前記分布毎に求めた前記自己相関情報と前記相
互相関情報を用いて前記照合対象眼領域画像の前記アイ
リスの輪郭を構成する前記点の集合を推定するパラメタ
推定手段と、前記推定した前記点の集合を用いて前記照
合対象眼領域画像からアイリス領域画像を推定するアイ
リス推定手段とを具備した構成を採る。
【0016】これにより、サンプル眼領域画像とこれに
対するアイリスの輪郭を構成する点の集合との相関を点
集合の分布毎に求められ、この相関を用いることで、照
合対象眼領域画像からこれに対するアイリスの輪郭を構
成する点の集合を推定できる。これにより、少ない処理
コストでアイリスの輪郭を構成する点の集合を推定で
き、アイリス領域画像を抽出できる。
【0017】本発明の第2の態様は、第1の態様にかか
るアイリス推定装置において、前記学習手段は、前記サ
ンプル眼領域画像をベクトル化した第1の教示ベクトル
および前記アイリスの輪郭を形成する前記点の集合をベ
クトル化した第2の教示ベクトルの合成ベクトルを構成
し、前記合成ベクトルの複数の要素分布を集合した混合
分布モデルを推定し、前記要素分布毎に属する前記自己
相関情報を前記第1の教示ベクトルの共分散行列を求め
ることで求め、前記相互相関情報を前記第1の教示ベク
トルと前記第2の教示ベクトルとの共分散行列を求める
ことで求め、前記パラメタ推定手段は、前記要素分布毎
に属する前記相互相関情報を用いて前記照合対象眼領域
画像の前記点の集合を推定する。
【0018】これにより、単純に行列演算だけ、つまり
乗算だけで要素分布毎の相互相関情報が求められる。
【0019】本発明の第3の態様は、第1の態様または
第2の態様にかかるアイリス推定装置と、前記アイリス
推定装置により推定された前記照合対象眼領域画像の前
記アイリス領域画像を用いて前記照合対象眼領域画像が
あらかじめ登録された前記サンプル眼領域画像と一致す
るかを照合する照合手段とを具備した構成を採る。
【0020】これにより、少ない処理コストでアイリス
の照合ができる。
【0021】本発明の第4の態様は、サンプルとなるサ
ンプル眼領域画像を入力するステップと、前記サンプル
眼領域画像のアイリスの輪郭を形成する点の集合を入力
するステップと、アイリスの輪郭を推定する照合対象眼
領域画像を入力するステップと、前記サンプル眼領域画
像と前記アイリスの輪郭を形成する点の集合を合成した
情報を複数の分布に分け、前記サンプル眼領域画像の自
己相関情報と前記サンプル眼領域画像と前記点の集合と
の前記相互相関情報を前記分布毎に求めるステップと、
前記分布毎に求めた前記自己相関情報と前記相互相関情
報を用いて前記照合対象眼領域画像の前記アイリスの輪
郭を構成する前記点の集合を推定するステップと、前記
推定した前記点の集合を用いて前記照合対象眼領域画像
からアイリス領域画像を推定するステップとを具備した
ことを特徴とするアイリス推定方法である。
【0022】本発明の第5の態様は、第4の態様のアイ
リス推定方法により推定された前記照合対象眼領域画像
の前記アイリス領域画像を用いて前記照合対象眼領域画
像があらかじめ登録された前記サンプル眼領域画像と一
致するかを照合することを特徴とするアイリス照合方法
である。
【0023】本発明の第6の態様は、コンピュータに、
サンプルとなるサンプル眼領域画像を入力するステップ
と、前記サンプル眼領域画像のアイリスの輪郭を形成す
る点の集合を入力するステップと、アイリスの輪郭を推
定する照合対象眼領域画像を入力するステップと、前記
サンプル眼領域画像と前記アイリスの輪郭を形成する点
の集合を合成した情報を複数の分布に分け、前記サンプ
ル眼領域画像の自己相関情報と前記サンプル眼領域画像
と前記点の集合との前記相互相関情報を前記分布毎に求
めるステップと、前記分布毎に求めた前記自己相関情報
と前記相互相関情報を用いて前記照合対象眼領域画像の
前記アイリスの輪郭を構成する前記点の集合を推定する
ステップと、前記推定した前記点の集合を用いて前記照
合対象眼領域画像からアイリス領域画像を推定するステ
ップとを行わせることを特徴としたプログラムである。
【0024】本発明の第7の態様は、コンピュータに、
サンプルとなるサンプル眼領域画像を入力するステップ
と、前記サンプル眼領域画像のアイリスの輪郭を形成す
る点の集合を入力するステップと、アイリスの輪郭を推
定する照合対象眼領域画像を入力するステップと、前記
サンプル眼領域画像と前記アイリスの輪郭を形成する点
の集合を合成した情報を複数の分布に分け、前記サンプ
ル眼領域画像の自己相関情報と前記サンプル眼領域画像
と前記点の集合との前記相互相関情報を前記分布毎に求
めるステップと、前記分布毎に求めた前記自己相関情報
と前記相互相関情報を用いて前記照合対象眼領域画像の
前記アイリスの輪郭を構成する前記点の集合を推定する
ステップと、前記推定した前記点の集合を用いて前記照
合対象眼領域画像からアイリス領域画像を推定するステ
ップと、推定した前記照合対象眼領域画像の前記アイリ
ス領域画像を用いて前記照合対象眼領域画像があらかじ
め登録された前記サンプル眼領域画像と一致するかを照
合するステップとを行わせることを特徴としたプログラ
ムである。
【0025】(実施の形態1)本発明の実施の形態1で
は、パラメタ推定装置を顔画像照合装置に応用した場合
について説明する。
【0026】図1は、本発明の実施の形態1における顔
画像照合装置のブロック図である。実施の形態1にかか
る顔画像照合装置100は、コンピュータシステム17
で実現したものである。
【0027】図1において、コンピュータシステム17
には、人物の顔画像を直接撮影し、コンピュータシステ
ム17に画像を入力ためのビデオカメラ(カメラ)1が
接続されている。また、コンピュータシステム17に
は、システムコンソールとしてのディスプレイ8と、画
像パターン情報など大規模なデータを保存するための二
次記憶装置(ハードディスクや光磁気ディスクなど)9
と、ディスプレイ8上で推定の対象となる固有なパラメ
タである特徴点パラメタを手動で入力するためのマウス
10が接続されている。
【0028】また、コンピュータシステム17には、ビ
デオカメラ1からの映像信号を記憶する画像メモリ2
と、プログラムの格納やワーク用のメモリ3と、メモリ
3に格納されたプログラムに基づいた処理を行うCPU
4と、画像パターンや特徴抽出の実行によって計算され
た特徴パターンを記憶するパターンメモリ5、6と、計
算された特徴抽出行列を格納するための特徴抽出行列格
納メモリ7と、あらかじめ登録された人物の顔画像を集
めた登録画像データベース11と、外部機器とのデータ
のやりとりを行うインターフェース(I/F)12〜1
5と、が設けられている。また、コンピュータシステム
17に設けられた各ブロックはシステムバス16で接続
されている。
【0029】顔画像照合装置100は、顔画像(例えば
濃淡パターン)と顔画像内における固有なパラメタであ
る特徴点(例えば眼、鼻、眉、口など)の位置に相関関
係があることに着目したものである。すなわち、予めサ
ンプルである顔画像とこの顔画像の特徴点との相関を学
習しておき、この学習結果を用いてサンプルと照合する
ためにカメラ1で撮影した照合用の顔画像における特徴
点の座標がどこであるかを推定するようにしたものであ
る。そして、上述したように推定した特徴点より照合す
る顔画像から照合に用いる顔領域を求め、求めた顔領域
の画像と予め用意してある顔画像データベース内の画像
と比較することで、照合する画像の人物と登録された顔
画像データベース内の顔画像の人物とが一致するかの照
合を行うものである。
【0030】さらに、本実施の形態では、サンプルであ
る人の顔画像とこれらの顔画像内における特徴点の位置
の相関を複数学習しておくことで、サンプルと照合する
ためにカメラ1で撮影した顔画像の特徴点の推定精度を
向上している。
【0031】具体的には、顔画像照合装置100は、複
数のサンプルの顔画像とこの顔画像の特徴点との相関を
予め計算するオフライン処理と、この計算した相関を用
いてカメラ1から入力された画像から特徴点の座標値を
推定し、特徴点の座標値から決定される顔領域の画像
と、あらかじめ登録された顔画像データベースの顔画像
との照合処理を行うオンライン処理に大別される。
【0032】オフライン処理は、サンプルとして予め撮
影された顔画像より得られる第1の教示ベクトルと、サ
ンプルの顔画像における特徴点の座標より得られる第2
の教示ベクトルと、これらの教示ベクトルにおける平均
ベクトルの計算と、第1の教示ベクトルの自己相関情報
である共分散行列の擬似逆行列の計算と、第1の教示ベ
クトルと第2の教示ベクトルの相互相関情報である共分
散行列の計算とを行う。
【0033】さらに詳細に、オフライン処理の目的は、
まず、画像メモリ2に一旦蓄えられた教示用の画像から
得られる教示ベクトルV1と、教示ベクトルV1の特徴点
の座標より得られる教示ベクトルV2と、教示ベクトル
1の平均ベクトルM1と、教示ベクトルV2の平均ベク
トルM2とを計算しておき、そして、これらの計算結果
を用いて、教示ベクトルV1の分布を示す教示ベクトル
1の共分散行列およびこの擬似逆行列と、教示ベクト
ルV1と教示ベクトルV2との相関である教示ベクトルV
1と教示ベクトルV2との共分散行列とを求めることであ
る。
【0034】ここで、教示ベクトルV1は、想定される
入力画像(サンプル画像)をベクトル化した入力ベクト
ルの学習サンプルであり、想定される入力画像と同一種
類の画像をベクトル化したベクトルの学習サンプルであ
る。例えば、想定される入力画像が日本人男性の顔画像
であれば、日本人男性の顔画像をベクトル化したベクト
ルの学習サンプルをとる。
【0035】また、教示ベクトルV2は教示ベクトルV1
に対して想定される特徴点の座標をベクトル化した出力
ベクトルの学習サンプルである。(数1)に、教示ベク
トルV1、教示ベクトルV2の具体的な形式を示す。
【0036】
【数1】 次に、顔画像照合装置100が行うオフライン処理につ
いて、図2を用いて説明する。図2は、実施の形態1に
かかる顔画像照合装置100のオフライン処理の動作フ
ロー図である。なお、以下の説明で顔画像照合装置10
0が行う処理は、実際にはCPU4がメモリ3に格納さ
れたプログラムを実行することで行う。
【0037】まず、顔画像照合装置100は、サンプル
としてカメラ1からN人の顔画像パターンを入力する。
そして、顔画像照合装置100は、この入力されたサン
プルの顔画像パターンを、I/F12を介して画像メモ
リ2に一旦記憶した後に、全て二次記憶装置9に転送
し、格納する(S10)。
【0038】次に、顔画像照合装置100は、二次記憶
装置9に記憶したサンプルの顔画像パターンを、各画素
の値をラスタスキャン順に並べたベクトルパターンに変
換することで教示ベクトルV1を求める(S11)。次
に、顔画像照合装置100は、二次記憶装置9に記憶し
たサンプルの顔画像パターンをディスプレイ8に一枚ず
つ表示する。そして、このサンプルの顔画像パターンを
見たユーザがマウス10を用いて手動で顔の特徴点を入
力すると、ユーザが入力した顔の特徴点をI/F15を
介してメモリ3に入力する(S12)。
【0039】図3に、ユーザにより入力された顔の特徴
点の例を示す。顔画像1201の原点O1208を基準
に、右眉1202、右目1203、左眉1204、左目
1205、鼻1206および口1207のそれぞれの座
標(X座標、Y座標)が、特徴点としてユーザにより入
力される。
【0040】次に、顔画像照合装置100は、(数1)
を用いて、入力した各特徴点の座標値を順に並べて連結
してひとつのベクトルデータを作成し、これを教示ベク
トルV2とする(S13)。次に、顔画像照合装置10
0は、教示ベクトルV1をパターンメモリ5に、教示ベ
クトルV2をパターンメモリ6に記憶する(S14)。
そして、顔画像照合装置100は、N人分の処理が終了
したかを判定し(S15)、終了したら処理(S16)
に進み、終了していない場合は処理(S11)に進む。
【0041】次に、顔画像照合装置100は、パターン
メモリ5およびパターンメモリ6に格納されたN人分の
教示ベクトルV1、V2の集合{V1}および{V2}より
(数2)、(数3)に従って平均ベクトルM1、M2を計
算し、特徴抽出行列格納メモリ7に保存する(S1
6)。
【0042】
【数2】
【数3】 次に、顔画像照合装置100は、N人分の教示ベクトル
1の集合{V1}より(数4)に従って共分散行列C1
を計算することで、教示ベクトルV1の分布、つまり、
カメラ1から入力したN人の顔画像パターンの分布を算
出する。そして、顔画像照合装置100は、求めた共分
散行列C1を特徴抽出行列格納メモリ7に格納する(S
17)。ここで顔画像パターンの分布を求めるのは、顔
画像パターンの分布が顔画像パターンの特性を表すから
であり、顔画像パターンの特性を求めるためである。
【0043】
【数4】 次に、顔画像照合装置100は、N人分の教示ベクトル
1、V2の集合{V1}および{V2}より(数5)に従
って共分散行列C2を計算することで、教示ベクトル
1、V2の相関、つまりN人の顔画像パターンと顔画像
パターンの特徴点の相関を算出する。顔画像照合装置1
00は、求めた共分散行列C2を特徴抽出行列格納メモ
リ7に格納する(S17)。
【0044】
【数5】 次に、顔画像照合装置100は、S17において求めた
共分散行列C1と共分散行列C2から、オンライン処理で
入力される顔画像から特徴点を抽出するために使用する
パラメタである特徴抽出行列C3を、(数6)に従って
計算する(S18)。そして、顔画像照合装置100
は、求めた特徴抽出行列C3を特徴抽出行列格納メモリ
7に格納する。
【0045】
【数6】 以上が、顔画像照合装置100が、オフラインで実行す
る処理であり、特徴抽出行列格納メモリ7には、上述し
た処理で求めた、平均ベクトルM1、M2、パラメタとし
て共分散行列C1と共分散行列C2、及び特徴抽出行列C
3が格納されている。
【0046】次に、オンライン処理について、図4を用
いて説明する。図4は、実施の形態1にかかる顔画像照
合装置のオンライン処理の動作フロー図である。
【0047】オンライン処理の目的は、入力された顔画
像から、入力に対して固有なパラメタである特徴点の座
標値を推定し、これから顔領域の画像を求め、画像デー
タベースに登録された画像と照合することにある。
【0048】まず、顔画像照合装置100は、カメラ1
から画像を入力し(S20)、I/F12を介して画像
メモリ2に蓄積し、蓄積した入力画像を各画素の値をラ
スタスキャン順に並べて入力ベクトルデータXに変換
し、パターンメモリ5に転送する(S21)。
【0049】次に、顔画像照合装置100は、入力ベク
トルデータXに対して、オフライン処理で求めた特徴抽
出行列C3および平均ベクトルM1、M2から、(数7)
に従って入力ベクトルデータXに対する特徴点の座標値
の期待値ベクトルEを計算する(S22)。(数7)
は、オフラインで求めた、教示ベクトルV1、V2の相
関、つまりN人の顔画像パターンと顔画像パターンの特
徴点の相互相関を示す共分散行列C2を用いて、入力ベ
クトルデータXつまり入力画像の特徴点を算出する式で
ある。
【0050】
【数7】 次に、顔画像照合装置100は、求めた特徴点座標値の
期待値ベクトルEが各特徴点の座標値の合成ベクトルと
なっているので、入力ベクトルデータの特徴点の座標値
を期待値ベクトルEより得る(S23)。次に、顔画像
照合装置100は、S23で求めた特徴点の座標値を用
いて、入力画像から、あらかじめ登録された顔画像デー
タベースの顔画像との照合を行う顔領域を決定する(S
24)。
【0051】検出された照合用の顔領域の例を図5に示
す。本実施の形態では、顔画像1301から、鼻の座標
1303を中心として、一辺の長さが両眼の間隔aの2
倍であり、上下の辺が両眼を結ぶ直線と平行であるよう
な正方形領域を照合用の顔領域1302として決定す
る。
【0052】次に、顔画像照合装置100は、顔領域1
302の画像とあらかじめ登録した顔画像データベース
11との画像を例えば統計的手法である主成分分析を利
用した固有顔法などの照合手法を用いて照合し(S2
5)、結果をディスプレイ8に表示すると共に二次記憶
装置9に転送する(S26)。なお、固有顔(Eige
nface)法は、参照画像のサイズを正規化して全画
素の濃淡値をN次元ベクトルとし、全ての参照画像から
M<N次元の顔部分空間を主成分分析という統計的手法
により生成する。そして、入力画像から顔のありそうな
領域を正規化して顔部分空間との直交距離を類似度と
し、顔部分空間への射影先の位置により人物を認識する
というものである。
【0053】ディスプレイ8への出力例を図6に示す。
ディスプレイ1501上には、入力された入力顔画像1
502と、顔領域枠1503と、照合結果1504、1
505が表示される。
【0054】ここで、(数7)を用いた計算によって特
徴点位置情報の推定が可能な理由を説明する。
【0055】(数7)で得られる特徴点の座標値の期待
値ベクトルEは、教示ベクトルV1と教示ベクトルV2
関係を、2つのベクトルの分布が正規分布であるという
仮定の元でベイズ推定を用いて学習した時の、入力ベク
トルデータXに対して得られる出力の期待値に等しい。
ベイズ推定とは、母数の分布と適当な損失関数を定義
し、損失関数の期待値が最小となるように推定する統計
的推定法をいう。すなわち、(数7)によって、入力ベ
クトルデータXに対して一番尤もらしい出力値を推定す
ることができると言える。
【0056】以上のように実施の形態1によれば、予め
学習したサンプルの顔画像とこの特徴点との相関を用い
て、カメラ1で撮影した照合用の顔画像における特徴点
の座標がどこであるかを推定することができる。そし
て、上述したように推定した特徴点より照合用の顔領域
を求め、求めた照合用の顔領域画像とあらかじめ登録し
ておいた顔画像データベース内の顔画像を比較すること
で、照合用の顔画像の人物とあらかじめ登録された顔画
像の人物とが一致するかの照合を行うことができる。こ
れにより、従来法に比べ格段に少ない演算で所望のパラ
メタを推定することができ、少ない演算で顔画像の照合
ができる。
【0057】具体的には、実施の形態1によれば、入力
ベクトルに対して固有なパラメタを、3回の行列演算で
推定することが出来る。つまり、従来のテンプレートマ
ッチングを用いた探索に比べ格段に小さな計算コストで
推定できるため、その効果は非常に大きい。ここで、前
記のテンプレートマッチによる計算コスト算出の場合と
同じ例で本発明の計算コストを算出してみる。入力画像
サイズを縦150×横150画素=22500画素とし
て、入力に対し両目の座標(右眼X座標、右眼Y座標、
左眼X座標、左眼Y座標)計4次元を推定する場合、乗
算を単位演算とした場合、(数7)に当てはめると特徴
抽出行列C3は縦22500×横4の行列、(X−M1
は4次元のベクトルより乗算回数は4×22500=9
0000(pel)となり、乗算だけでテンプレートマ
ッチの500分の1の計算コストとなりその効果は大き
い。
【0058】また、実施の形態1によれば、第1の教示
ベクトルの共分散行列から自己相関情報を求め、第1の
教示ベクトルと第2の教示ベクトルとの共分散行列から
総合相関情報を求めることができる。これにより、単純
に行列演算だけ、つまり乗算だけで固有なパラメタの計
算、や相互相関情報や自己相関情報の計算ができるた
め、コンピュータの処理コストが非常に小さくなる。
【0059】また、実施の形態1によれば、複数の人の
顔画像とこれらの顔画像内における特徴点の位置の相関
を学習しておくことにより、より精度の高い相関を求め
ることができるので、精度の高い推定ができるという作
用を有する。
【0060】また、実施の形態1では、上述した(数
1)〜(数7)を用いて、パラメタの推定を行ったが、
予めサンプルとなる顔画像と特徴点の相関を求め、求め
た相関を使ってパラメタの推定を行う式であれば(数
1)〜(数7)以外の式を使ってもよい。
【0061】(実施の形態2)本発明の実施の形態2
は、サンプルの入力画像(入力ベクトル)の分布にバラ
ツキを持たせたものであり、いろいろな分布を持つ照合
用の入力画像に対応できるようにしたものである。具体
的には、サンプルの入力画像を複数の分布に分け、それ
ぞれの分布毎に入力画像と入力画像の特徴点との相関を
調べるようにし、これらの相関を用いて照合用の入力画
像の特徴点を求めるようにしたものである。
【0062】以下、実施の形態2にかかる顔画像照合装
置について説明する。実施の形態2にかかる顔画像照合
装置のブロック構成図は、実施の形態1の顔画像照合装
置と同じコンピュータシステムを用いて実現したもの
で、ブロック構成図の説明は省略する。
【0063】実施の形態2にかかる顔画像照合装置は、
大きく分けてオフライン処理と、オンライン処理を行
う。
【0064】オフライン処理は、撮影された顔画像より
得られる第1の教示ベクトルと撮影された顔画像におけ
る特徴点の座標より得られる第2の教示ベクトルの集合
を入力し、第1および第2の教示ベクトルの合成ベクト
ルを構成し、合成ベクトルの集合の混合分布(要素分布
数M)モデルのパラメタを推定し、混合分布の各要素分
布k(k=1..M)に属する第1の教示ベクトルの共
分散行列と、同じく第1の教示ベクトルの平均ベクトル
と、同じく要素分布kに属する第一および第2の教示ベ
クトルの相互相関行列と、同じく第2の教示ベクトルの
平均ベクトルを求める処理である。
【0065】また、オフライン処理は、カメラから入力
された画像からその特徴点の座標値を推定し、推定した
特徴点の座標値から決定される顔領域の画像と、あらか
じめ登録された顔画像データベースの顔画像との照合処
理を行う。
【0066】まず、実施の形態2にかかるオフライン処
理について、図7のオフライン処理の動作フローを用い
て説明する。
【0067】オフライン処理の目的は、画像メモリに一
旦蓄えられた教示用の画像から、第1、第2の教示ベク
トルの合成ベクトルを構成し、合成ベクトルの集合の混
合分布(要素分布数M)モデルのパラメタを推定し、混
合分布の各要素分布k(k=1..M)に属する第1の
教示ベクトルにおける共分散行列の擬似逆行列と、同じ
く第1の教示ベクトルの平均ベクトルと、同じく要素分
布kに属する第1および第2の教示ベクトルの相互相関
行列と、要素分布kに属する教示ベクトルの平均ベクト
ルを計算することにある。
【0068】まず、顔画像照合装置100は、サンプル
としてカメラ1からN人の顔画像パターンを入力する。
そして、顔画像照合装置100は、この入力されたサン
プルの顔画像パターンを、I/F12を介して画像メモ
リ2に一旦記憶した後に、全て二次記憶装置9に転送
し、格納する(S1600)。
【0069】次に、顔画像照合装置100は、二次記憶
装置9に記憶した顔画像パターンを、各画素の値をラス
タスキャン順に並べたベクトルパターンに変換すること
で、教示ベクトルV1を求める(S1601)。次に、
顔画像照合装置100は、二次記憶装置9に記憶したサ
ンプルの顔画像パターンをディスプレイ8に一枚ずつ表
示する。そして、このサンプルの顔画像パターンを見た
ユーザがマウス10を用いて手動で顔の特徴点の座標点
を入力すると、ユーザが入力した顔の特徴点をI/F1
5を介してメモリ3に入力する(S1602)。図3に
入力する顔の特徴点の例を示すが、顔画像1201の原
点Oを基準に右眉1202、右目1203、左目120
4、左目1205、鼻1206および口1207のそれ
ぞれの座標(X座標、Y座標)が入力される。
【0070】次に、顔画像照合装置100は、入力した
各特徴点の座標値を順に並べて連結してひとつのベクト
ルデータを作成し、これを教示ベクトルV2とする(S
1603)。そして、顔画像照合装置100は、教示ベ
クトルV1はパターンメモリ5に、教示ベクトルV2はパ
ターンメモリ6に記憶する(S1604)。そして、顔
画像照合装置100は、N人分の処理が終了したかを判
定し(S1605)、終了したら処理(S1606)に
進み、終了していない場合は処理(S1601)に進
む。
【0071】次に、顔画像照合装置100は、パターン
メモリ5およびパターンメモリ6に格納されたN人分の
教示ベクトルV1、V2の合成ベクトルを構成し、N人分
の合成ベクトルの集合における確率分布を混合ガウシア
ンモデル(以下GMMと呼ぶ)で複数(M個)の分布を
持つ要素分布にモデル化し、モデル化した際のk番目の
要素分布(要素分布数はM)のパラメタを計算する。即
ち、顔画像照合装置100は、k番目の要素分布に属す
るベクトルV1、V2の平均ベクトルM1 k、M2 k、ベクト
ルV1の共分散行列C1 k、ベクトルV1、V2の相互相関
行列C12 kを計算する(S1606)。
【0072】この計算には、通常EM(Expecta
tion Maximization)アルゴリズムが
用いられるが、これは文献:Christopher
M.Bishop, Oxford出版“Neural
Networks for Pattern Rec
ognition”59〜73頁(1995)に詳細に
記述されている。
【0073】次に、顔画像照合装置100は、S160
6において、求めたベクトルV1の共分散行列C1 kの逆
行列(より一般的には擬似逆行列)C1 k*を計算する。
【0074】次に、顔画像照合装置100は、求めたベ
クトルV1の共分散行列の逆行列C1 k*と相互相関行列C
12 kから(数8)に従って特徴抽出行列C3 kを計算する
(S1607)。そして、顔画像照合装置100は、求
めた特徴抽出行列C3 kを特徴抽出行列格納メモリ7に格
納する(S1608)。
【0075】
【数8】 以上が、実施の形態2におけるオフラインで実行される
処理であり、EMアルゴリズムで得られたGMMの各要
素分布kについて、平均ベクトルM1 k、M2 k、及び、特
徴抽出行列C3 kを求め、特徴抽出行列格納メモリにする
ものである。
【0076】次に、実施の形態2におけるオンライン処
理について、図8に示すフローチャートを用いて説明す
る。オンライン処理の目的は、入力された照合対象の顔
画像から、入力に対して固有なパラメタである特徴点の
座標値を推定し、これから照合に用いる顔領域を決定
し、決定した顔領域内の画像を求め、この画像と画像デ
ータベースに登録された画像と照合することにある。
【0077】まず、顔画像照合装置100は、カメラ1
から画像を入力し(S1700)、I/F12を介して
画像メモリ2に蓄積し、蓄積された入力画像を各画素の
値をラスタスキャン順に並べて入力ベクトルデータXに
変換し、パターンメモリ5に転送する(S1701)。
【0078】次に、顔画像照合装置100は、入力ベク
トルデータXに対して、オフラインで求めた特徴抽出行
列C3 kおよび平均ベクトルM1 k、M2 kから、(数9)に
従って入力ベクトルデータXに対する特徴点の座標値の
期待値ベクトルEを計算する(S1702)。
【0079】
【数9】 次に、求めた特徴点座標値の期待値ベクトルEが各特徴
点の座標値の合成ベクトルとなっているので、顔画像照
合装置100は、特徴点の座標値の期待値ベクトルEよ
り各特徴点の座標値を得る(S1703)。そして、顔
画像照合装置100は、S1703において得た各特徴
点の座標値をもとに、照合に用いる顔領域を決定する
(S1704)。検出された顔領域の例を図5に示す
が、例えば鼻の座標1303を中心として、一辺の長さ
が両眼の間隔aの2倍であり、上下の辺が両眼を結ぶ直
線と平行であるような正方形領域を顔領域1302とし
て決定する。
【0080】次に、顔画像照合装置100は、顔領域1
302の画像とあらかじめ登録した顔画像データベース
11との画像を例えば統計的手法である主成分分析を利
用した固有顔法などの照合手法を用いて照合し(S17
05)、結果をディスプレイ8に表示し、二次記憶装置
9に転送する(S1706)。
【0081】なお、固有顔(Eigenface)法
は、参照画像のサイズを正規化して全画素の濃淡値をN
次元ベクトルとし、全ての参照画像からM<N次元の顔
部分空間を主成分分析という統計的手法により生成する
方法である。つまり、入力画像から顔のありそうな領域
を正規化して顔部分空間との直交距離を類似度とし、顔
部分空間への射影先の位置により人物を認識するという
ものである。
【0082】ディスプレイ8への出力例を図6に示す。
ディスプレイ1501上に入力された入力顔画像150
2と照合結果1504、1505が表示される。
【0083】ここで、上述した計算によって特徴点位置
情報の推定が可能な理由を説明する。
【0084】(数8)で得られる特徴点の座標値の期待
値ベクトルEは、教示ベクトルV1と教示ベクトルV2
関係を、2つのベクトルの合成ベクトルにおける分布が
混合正規分布であるという仮定の下で、ベイズ推定を用
いて学習した時の、入力ベクトルデータXに対して得ら
れる出力の期待値に等しい。ベイズ推定とは、母数の分
布と適当な損失関数を定義し、損失関数の期待値が最小
となるように推定する統計的推定法をいう。すなわち、
(数9)によって、入力ベクトルデータXに対して一番
尤もらしい出力値を推定することができると言える。
【0085】以上のように実施の形態2によれば、サン
プルの入力画像を複数の分布に分け、それぞれの分布毎
にサンプルの入力画像とこの入力画像の特徴点との相関
を調べるようにし、これらの相関を用いて照合用の入力
画像の特徴点を推定することができる。これにより、照
合用の入力画像の分布、つまり特性にバラツキがあって
も、正確に特徴点を推定できる。
【0086】また、実施の形態2によれば、(数9)に
示されるように、行列演算による直接計算によって、入
力ベクトルの固有なパラメタを推定することが出来る。
従来のテンプレートマッチングを用いた探索(即ち、繰
り返し演算)に比べ格段に小さな計算コストで、かつ、
混合分布モデルを用いているため非常に高精度に推定で
きるため、その効果は非常に大きい。前記のテンプレー
トマッチによる計算コスト算出の場合と同じ例で本発明
の計算コストを算出してみる。入力画像サイズを縦15
0×横150画素=22500画素として、入力に対し
両目の座標(右眼X座標、右眼Y座標、左眼X座標、左
眼Y座標)計4次元を推定する場合、乗算を単位演算と
した場合、(数9)に当てはめると特徴抽出行列C3 k
縦22500×横4の行列、(X−M1)は4次元のベ
クトルより乗算回数は4×22500=90000(p
el)となり、乗算だけでテンプレートマッチの500
分の1の計算コストとなりその効果は大きい。
【0087】また、実施の形態2によれば、単純に行列
演算だけ、つまり乗算だけで要素分布毎の相互相関情報
が求められる。
【0088】(実施の形態3)本発明の実施の形態3
は、実施の形態2のパラメタ推定装置を、人の眼を撮影
した画像からのアイリスの輪郭点を検出し、この輪郭点
を用いてアイリス領域画像を抽出し、抽出したアイリス
領域画像と登録しているアイリスデータと照合するアイ
リス照合装置に応用したものである。このようにして、
少ない処理コストで、人それぞれ模様が違うといわれて
いるアイリスを安定して抽出することができ、少ない処
理コストでアイリスを用いた人の照合ができるというも
のである。以下、実施の形態3について説明する。実施
の形態3におけるアイリス照合装置のブロック構成図
は、実施の形態1の顔画像照合装置と同じコンピュータ
システムを用いて実現したもので、ブロック構成図の説
明は省略する。
【0089】アイリス照合装置は、カメラ1により撮影
した眼領域画像(例えば濃淡パターン)からアイリスの
輪郭を構成する座標点集合を検出し、アイリス領域画像
を切り出し、登録画像と照合するものである。切り出し
たアイリス領域画像の照合は、実施の形態1による顔画
像の照合と同様であるため、以下、アイリス領域の切り
出しについて説明する。
【0090】アイリス領域の切り出し処理は、撮影した
眼領域の画像より得られる第1の教示ベクトルと、眼領
域画像内において検出対象となるアイリスの輪郭点集合
よりなる第2の教示ベクトルとの合成ベクトルを構成
し、合成ベクトルの集合を混合分布(要素分布数M)モ
デルでモデル化した際の分布のパラメタを推定し、混合
分布の各要素分布k(k=1..M)に属する第1の教
示ベクトルの共分散行列の擬似逆行列を計算し、同じく
第1の教示ベクトルの平均ベクトルを計算し、同じく要
素分布kに属する第一および第2の教示ベクトルの相互
相関行列を計算し、要素分布kに属する教示ベクトルの
平均ベクトルを計算するオフライン処理と、カメラから
入力した眼領域画像からアイリスの輪郭点を構成する座
標値の集合を推定し、輪郭点の座標値集合から決定され
るアイリス領域を抽出するオンライン処理の2つの処理
に分かれる。
【0091】まず、オフライン処理について、図9のオ
フライン処理動作フローを用いて説明する。オフライン
処理の目的は、画像メモリに一旦蓄えられた教示用(サ
ンプル)の画像から、共分散行列C1 kの逆行列(より一
般的には擬似逆行列)C1 k*を計算し、求めたベクトル
1の共分散行列の逆行列C1 k*と相互相関行列C12 k
ら特徴抽出行列C3 kを計算することにある。
【0092】まず、アイリス照合装置は、カメラ1から
N人の眼領域画像パターンを入力し、I/F12を介し
て一旦画像メモリ2に蓄積した後に、全て二次記憶装置
9に転送する(S900)。
【0093】次に、アイリス照合装置は、二次記憶装置
9に記憶した眼領域画像パターンを、各画素の値をラス
タスキャン順に並べたベクトルパターンに変換すること
で教示ベクトルV1を求める(S901)。次に、アイ
リス照合装置は、それぞれの眼領域画像パターンをディ
スプレイ8に一枚ずつ表示する。そして、これを見たユ
ーザがマウス10を用いて手動でアイリス領域の輪郭を
構成する座標点の集合を指定すると、アイリス照合装置
は、指定されたアイリス領域の輪郭をメモリ3に入力す
る(S902)。
【0094】図10にユーザが指定するアイリス領域を
示す。図に示すように、ディスプレイ8には、眼領域画
像1000が表示される。そして、眼領域画像1000
には、眼画像1005a、1005bが含まれている。
そして、ユーザは、眼画像1005a、1005b内の
アイリス領域1001を認識し、マウスカーソル100
4を操作することで眼画像1005a、1005bに対
してアイリスの外側の輪郭1002およびアイリスの内
側の輪郭1003を指定する。
【0095】次に、アイリス照合装置は、入力したアイ
リスの各輪郭点の座標値を順に並べて連結してひとつの
ベクトルデータを作成し、これを教示ベクトルV2とす
る(S903)。次に、アイリス照合装置は、教示ベク
トルV1をパターンメモリ5に、教示ベクトルV2をパタ
ーンメモリ6に記憶する(S904)。そして、アイリ
ス照合装置は、N人分の処理が終了したかを判定し(S
905)、終了したら処理(S906)に進み、終了し
ていない場合は処理(S901)に進む。
【0096】次に、アイリス照合装置は、パターンメモ
リ5およびパターンメモリ6に格納されたN人分の教示
ベクトルV1、V2の合成ベクトルを構成し、N人分の合
成ベクトルの集合の確率分布をGMMでモデル化した際
のk番目の要素分布(要素分布数はM)のパラメタを推
定する。即ち、アイリス照合装置は、k番目の要素分布
に属するベクトルV1、V2の平均ベクトルM1 k、M2 k
ベクトルV1の共分散行列C1 k、ベクトルV1、V2の相
互相関行列C12 kを計算する(S906)。この計算に
は、通常EMアルゴリズムが用いられる。
【0097】次に、アイリス照合装置は、求めたベクト
ルV1の共分散行列C1 kの逆行列(より一般的には擬似
逆行列)C1 k*を計算する。そして、アイリス照合装置
は、求めたベクトルV1の共分散行列の逆行列C1 k*と相
互相関行列C12 kから(数8)に従って特徴抽出行列C3
kを計算する(S907)。そして、アイリス照合装置
は、求めた特徴抽出行列C3 kを特徴抽出行列格納メモリ
7に格納する(S908)。
【0098】以上が、実施の形態3においてオフライン
で実行される処理であり、EMアルゴリズムで得られた
GMMの各要素分布kについて、平均ベクトルM1 k、M
2 k、及び、特徴抽出行列C3 kを求め、特徴抽出行列格納
メモリに格納する処理である。
【0099】次に、実施の形態3のオンライン処理につ
いて、図11に示すフローチャートを用いて説明する。
実施の形態3にかかるオンライン処理の目的は、入力さ
れた眼領域画像から、入力に対して固有なパラメタであ
るアイリスの輪郭点の座標値集合を推定し、これからア
イリス領域の画像を求めることにある。
【0100】まず、アイリス照合装置は、カメラ1から
眼領域画像を入力し(S1101)、I/F12を介し
て画像メモリ2に蓄積し、蓄積した入力画像を各画素の
値をラスタスキャン順に並べて入力ベクトルデータXに
変換し、パターンメモリ5に転送する(S1102)。
【0101】次に、アイリス照合装置は、入力ベクトル
データXに対して、オフラインで求めた特徴抽出行列C
3 kおよび平均ベクトルM1 k、M2 kから、(数9)に従っ
て入力ベクトルデータXに対する特徴点の座標値の期待
値ベクトルEを計算する(S1103)。
【0102】期待値ベクトルEは、入力ベクトルXに対
する、アイリスの輪郭を構成する点の座標値の集合の期
待値に等しい。よって、アイリス照合装置は、期待値ベ
クトルEからアイリスの輪郭を構成する点の座標値の集
合を決定する(S1104)。そして、アイリス照合装
置は、決定したアイリスの輪郭を構成する点の集合から
アイリスの領域画像を決定する(S1105)。
【0103】検出されたアイリス領域の例を図12に示
す。例えば、アイリス照合装置は、アイリスの外側の輪
郭1201とアイリスの内側の輪郭1202を構成する
点集合1203を連結し、得られた2つの曲線の内側を
取り出すことで、アイリス領域画像1204を抽出す
る。
【0104】次に、アイリス照合装置は、S1105に
おいて求めたアイリス領域内の画像と、予め登録画像デ
ータベース11に登録してあるアイリスの領域画像との
照合を行い(S1106)、結果をディスプレイ8に表
示し、二次記憶装置9に転送する(S1106)。この
照合方法については、実施の形態1、実施の形態2と同
じなので説明を省略する。
【0105】以上のように実施の形態3によれば、サン
プルの眼領域画像とこれに対するアイリスの輪郭を構成
する点の集合との相関を点集合の分布毎に求め、この相
関を用いることで、照合対象の眼領域画像からこれに対
するアイリスの輪郭を構成する点の集合を推定できる。
これにより、少ない処理コストでアイリスの輪郭を構成
する点の集合を推定でき、アイリスの領域画像を抽出で
きる。
【0106】また、実施の形態3によれば、(数9)に
示されるように、行列演算による直接計算によって、入
力ベクトルの固有なパラメタを推定することが出来る。
これにより、従来のテンプレートマッチングを用いた探
索(即ち、繰り返し演算)に比べ格段に小さな計算コス
トで、かつ、混合分布モデルを用いているため非常に高
精度に推定できるため、その効果は非常に大きい。
【0107】なお、特徴抽出行列及び期待値ベクトル
は、実施の形態1のように特徴抽出行列C3および平均
ベクトルM1、M2から、(数7)に従って入力ベクトル
データXに対する特徴点の座標値の期待値ベクトルEを
計算しても良い。
【0108】本発明は、上述の実施の形態に限定される
ものではない。本発明では、CPU4がプログラムを読
み込むことで、CPU4が第1の教示ベクトルの自己相
関情報と、第1の教示ベクトルと第2教示ベクトルの相
互相関情報と、第1の教示ベクトルの平均ベクトルおよ
び第2の教示ベクトルの平均ベクトルを計算する学習手
段と、計算した自己相関情報、相互相関情報、第1の教
示ベクトルの平均ベクトル、および第2の教示ベクトル
の平均ベクトルを用いて入力画像の特徴点(パラメタ)
を推定するパラメタ推定手段と、推定した特徴点を用い
て画像内の特徴を表す部分領域を決定する部分領域決定
手段と、決定した部分領域画像を用いて入力画像の対象
物と予め登録された対象物との一致を照合する照合手段
として動作する形態で説明したが、学習手段、パラメタ
推定手段、部分領域決定手段、および照合手段を専用の
プロセッサを具備する形態であっても良い。
【0109】また、本発明を実施するコンピュータをプ
ログラムするために使用できる命令を含む記憶媒体であ
るコンピュータプログラム製品が本発明の範囲に含まれ
る。この記憶媒体は、フレキシブルディスク、光ディス
ク、CDROMおよび磁気ディスク等のディスク、RO
M、RAM、EPROM、EEPROM、磁気光カー
ド、メモリカードまたはDVD等であるが、特にこれら
に限定されるものではない。
【0110】
【発明の効果】以上説明したように本発明によれば、少
ない処理コストで入力画像の特徴点を正確に求めること
ができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における顔画像照合装置
のブロック図
【図2】実施の形態1にかかる顔画像照合装置のオフラ
イン処理の動作フロー図
【図3】実施の形態1においてユーザにより入力される
顔の特徴点を示す図
【図4】実施の形態1にかかる顔画像照合装置のオンラ
イン処理の動作フロー図
【図5】実施の形態1において検出された顔領域を示す
【図6】実施の形態1においてディスプレイへ出力され
る図
【図7】本発明の実施の形態2にかかる顔画像照合装置
のオフライン処理の動作フロー図
【図8】実施の形態2にかかる顔画像照合装置のオンラ
イン処理の動作フロー図
【図9】本発明の実施の形態3にかかるアイリス照合装
置のオフライン処理の動作フロー図
【図10】実施の形態3においてユーザにより入力され
るアイリスの特徴点を示す図
【図11】実施の形態3にかかるアイリス照合装置のオ
ンライン処理の動作フロー図
【図12】実施の形態3においてディスプレイへ出力さ
れる図
【図13】従来の顔の特徴抽出方法の動作フロー図
【図14】目のテンプレートを示す図
【図15】テンプレートによる探索を説明するための図
【符号の説明】
1 ビデオカメラ 2 画像メモリ 3 メモリ 4 CPU 5、6 パターンメモリ 7 特徴抽出行列格納メモリ 8 ディスプレイ 9 二次記憶装置(HDD、光磁気ディスクなど) 10 マウス 11 登録画像データベース 12〜15 インターフェース 16 システムバス 17 コンピュータシステム 100 顔画像照合装置
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B043 AA09 BA04 EA05 GA02 5L096 BA18 FA06 FA33 FA34 HA07 JA11 KA04

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 サンプルとなるサンプル眼領域画像を入
    力するサンプル入力手段と、前記サンプル眼領域画像の
    アイリスの輪郭を形成する点の集合を入力するパラメタ
    入力手段と、アイリスの輪郭を推定する照合対象眼領域
    画像を入力する照合データ入力手段と、前記サンプル眼
    領域画像と前記アイリスの輪郭を形成する点の集合を合
    成した情報を複数の分布に分け、前記サンプル眼領域画
    像の自己相関情報と前記サンプル眼領域画像と前記点の
    集合との前記相互相関情報を前記分布毎に求める学習手
    段と、前記分布毎に求めた前記自己相関情報と前記相互
    相関情報を用いて前記照合対象眼領域画像の前記アイリ
    スの輪郭を構成する前記点の集合を推定するパラメタ推
    定手段と、前記推定した前記点の集合を用いて前記照合
    対象眼領域画像からアイリス領域画像を推定するアイリ
    ス推定手段とを具備したことを特徴とするアイリス推定
    装置。
  2. 【請求項2】 前記学習手段は、前記サンプル眼領域画
    像をベクトル化した第1の教示ベクトルおよび前記アイ
    リスの輪郭を形成する前記点の集合をベクトル化した第
    2の教示ベクトルの合成ベクトルを構成し、前記合成ベ
    クトルの複数の要素分布を集合した混合分布モデルを推
    定し、前記要素分布毎に属する前記自己相関情報を前記
    第1の教示ベクトルの共分散行列を求めることで求め、
    前記相互相関情報を前記第1の教示ベクトルと前記第2
    の教示ベクトルとの共分散行列を求めることで求め、 前記パラメタ推定手段は、前記要素分布毎に属する前記
    相互相関情報を用いて前記照合対象眼領域画像の前記点
    の集合を推定すること特徴とする請求項1記載のアイリ
    ス推定装置。
  3. 【請求項3】 請求項1または請求項2に記載のアイリ
    ス推定装置と、前記アイリス推定装置により推定された
    前記照合対象眼領域画像の前記アイリス領域画像を用い
    て前記照合対象眼領域画像があらかじめ登録された前記
    サンプル眼領域画像と一致するかを照合する照合手段と
    を具備したことを特徴とするアイリス照合装置。
  4. 【請求項4】 サンプルとなるサンプル眼領域画像を入
    力するステップと、前記サンプル眼領域画像のアイリス
    の輪郭を形成する点の集合を入力するステップと、アイ
    リスの輪郭を推定する照合対象眼領域画像を入力するス
    テップと、前記サンプル眼領域画像と前記アイリスの輪
    郭を形成する点の集合を合成した情報を複数の分布に分
    け、前記サンプル眼領域画像の自己相関情報と前記サン
    プル眼領域画像と前記点の集合との前記相互相関情報を
    前記分布毎に求めるステップと、前記分布毎に求めた前
    記自己相関情報と前記相互相関情報を用いて前記照合対
    象眼領域画像の前記アイリスの輪郭を構成する前記点の
    集合を推定するステップと、前記推定した前記点の集合
    を用いて前記照合対象眼領域画像からアイリス領域画像
    を推定するステップとを具備したことを特徴とするアイ
    リス推定方法。
  5. 【請求項5】 請求項4に記載のアイリス推定方法によ
    り推定された前記照合対象眼領域画像の前記アイリス領
    域画像を用いて前記照合対象眼領域画像があらかじめ登
    録された前記サンプル眼領域画像と一致するかを照合す
    ることを特徴とするアイリス照合方法。
  6. 【請求項6】 コンピュータに、サンプルとなるサンプ
    ル眼領域画像を入力するステップと、前記サンプル眼領
    域画像のアイリスの輪郭を形成する点の集合を入力する
    ステップと、アイリスの輪郭を推定する照合対象眼領域
    画像を入力するステップと、前記サンプル眼領域画像と
    前記アイリスの輪郭を形成する点の集合を合成した情報
    を複数の分布に分け、前記サンプル眼領域画像の自己相
    関情報と前記サンプル眼領域画像と前記点の集合との前
    記相互相関情報を前記分布毎に求めるステップと、前記
    分布毎に求めた前記自己相関情報と前記相互相関情報を
    用いて前記照合対象眼領域画像の前記アイリスの輪郭を
    構成する前記点の集合を推定するステップと、前記推定
    した前記点の集合を用いて前記照合対象眼領域画像から
    アイリス領域画像を推定するステップとを行わせること
    を特徴としたプログラム。
  7. 【請求項7】 コンピュータに、サンプルとなるサンプ
    ル眼領域画像を入力するステップと、前記サンプル眼領
    域画像のアイリスの輪郭を形成する点の集合を入力する
    ステップと、アイリスの輪郭を推定する照合対象眼領域
    画像を入力するステップと、前記サンプル眼領域画像と
    前記アイリスの輪郭を形成する点の集合を合成した情報
    を複数の分布に分け、前記サンプル眼領域画像の自己相
    関情報と前記サンプル眼領域画像と前記点の集合との前
    記相互相関情報を前記分布毎に求めるステップと、前記
    分布毎に求めた前記自己相関情報と前記相互相関情報を
    用いて前記照合対象眼領域画像の前記アイリスの輪郭を
    構成する前記点の集合を推定するステップと、前記推定
    した前記点の集合を用いて前記照合対象眼領域画像から
    アイリス領域画像を推定するステップと、推定した前記
    照合対象眼領域画像の前記アイリス領域画像を用いて前
    記照合対象眼領域画像があらかじめ登録された前記サン
    プル眼領域画像と一致するかを照合するステップとを行
    わせることを特徴としたプログラム。
JP2002129323A 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置 Expired - Lifetime JP4068888B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002129323A JP4068888B2 (ja) 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001291620 2001-09-25
JP2001-291620 2001-09-25
JP2002129323A JP4068888B2 (ja) 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置

Publications (2)

Publication Number Publication Date
JP2003173443A true JP2003173443A (ja) 2003-06-20
JP4068888B2 JP4068888B2 (ja) 2008-03-26

Family

ID=26622815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002129323A Expired - Lifetime JP4068888B2 (ja) 2001-09-25 2002-04-30 アイリス推定装置およびアイリス照合装置

Country Status (1)

Country Link
JP (1) JP4068888B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084980A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔画像付きカード用データ生成装置および方法並びにプログラム
JP2021144764A (ja) * 2017-11-29 2021-09-24 日本電気株式会社 情報処理システム、情報処理方法及び記憶媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084980A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔画像付きカード用データ生成装置および方法並びにプログラム
JP2021144764A (ja) * 2017-11-29 2021-09-24 日本電気株式会社 情報処理システム、情報処理方法及び記憶媒体
JP7226477B2 (ja) 2017-11-29 2023-02-21 日本電気株式会社 情報処理システム、情報処理方法及び記憶媒体
US11776316B2 (en) 2017-11-29 2023-10-03 Nec Corporation Information processing system, information processing method, and storage medium
US11776318B2 (en) 2017-11-29 2023-10-03 Nec Corporation Information processing system, information processing method, and storage medium
US11776317B2 (en) 2017-11-29 2023-10-03 Nec Corporation Information processing system, information processing method, and storage medium
US11783631B2 (en) 2017-11-29 2023-10-10 Nec Corporation Information processing system, information processing method, and storage medium

Also Published As

Publication number Publication date
JP4068888B2 (ja) 2008-03-26

Similar Documents

Publication Publication Date Title
Moghaddam et al. Probabilistic visual learning for object detection
Jesorsky et al. Robust face detection using the hausdorff distance
US8818034B2 (en) Face recognition apparatus and methods
US6430307B1 (en) Feature extraction system and face image recognition system
JP4972201B2 (ja) サインに基づくマンマシンインタラクション
EP1760635B1 (en) Image processing apparatus and method and program
US7224823B2 (en) Parameter estimation apparatus and data matching apparatus
Khan et al. A comparative analysis of gender classification techniques
US20070053590A1 (en) Image recognition apparatus and its method
Li et al. Efficient 3D face recognition handling facial expression and hair occlusion
JP2005327076A (ja) パラメタ推定方法、パラメタ推定装置および照合方法
Haji et al. Real time face recognition system (RTFRS)
Mayer et al. Adjusted pixel features for robust facial component classification
Perronnin et al. A probabilistic model of face mapping with local transformations and its application to person recognition
JP4375571B2 (ja) 顔類似度算出方法および装置
JP4068888B2 (ja) アイリス推定装置およびアイリス照合装置
Sithara et al. A survey on face recognition technique
JP2003168113A (ja) 画像認識システム、画像認識方法および画像認識プログラム
JP4068889B2 (ja) 複合照合装置
Wu et al. Robust facial landmark detection for intelligent vehicle system
Pande et al. Parallel processing for multi face detection and recognition
Hahmann et al. Model interpolation for eye localization using the Discriminative Generalized Hough Transform
JP3841482B2 (ja) 顔画像認識装置
Trmal et al. Feature space transforms for Czech sign-language recognition.
Chang et al. Feature patch illumination spaces and Karcher compression for face recognition via Grassmannians

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4068888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140118

Year of fee payment: 6

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term