JP4187494B2 - Image recognition apparatus, image recognition method, and program for causing computer to execute the method - Google Patents

Image recognition apparatus, image recognition method, and program for causing computer to execute the method Download PDF

Info

Publication number
JP4187494B2
JP4187494B2 JP2002284153A JP2002284153A JP4187494B2 JP 4187494 B2 JP4187494 B2 JP 4187494B2 JP 2002284153 A JP2002284153 A JP 2002284153A JP 2002284153 A JP2002284153 A JP 2002284153A JP 4187494 B2 JP4187494 B2 JP 4187494B2
Authority
JP
Japan
Prior art keywords
image
sample point
subspace
registered
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002284153A
Other languages
Japanese (ja)
Other versions
JP2004118731A (en
Inventor
耕三 河田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2002284153A priority Critical patent/JP4187494B2/en
Publication of JP2004118731A publication Critical patent/JP2004118731A/en
Application granted granted Critical
Publication of JP4187494B2 publication Critical patent/JP4187494B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、顔や掌紋など本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像の間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムに関し、特に、本人画像と他人画像の識別を効率的に行って認識率を高めることができる画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムに関する。
【0002】
【従来の技術】
従来、入場管理やコンピュータへのアクセス等に係るセキュリティシステムにおいて個人の身体的特徴を利用して本人と他人を識別する技術が利用されているが、顔や掌紋等をCCD(Charge Coupled Device)カメラ等で撮影して入力画像とし、その入力画像と予め登録してある顔や掌紋等の登録画像とを照合し本人確認をする方法においては、顔の表情や掌の開き加減あるいは撮影角度等の相違の影響により、単に入力画像と複数の登録画像を重ね合わせて一致の度合いを比較するだけでは高い識別能力を発揮することができない。
【0003】
入力画像と登録画像を照合して本人確認を行う画像認識法としては、画像集合中の各画像の大きさを正規化して正規化画像の各画素の濃淡値からなる特徴ベクトルの部分空間を主成分分析により生成し、入力画像と登録画像の特徴ベクトルを部分空間上に射影して類似度を計算し照合判定する固有顔(Eigenface)法が一般的に知られている。
【0004】
この従来技術によれば、入力顔画像と登録顔画像の照合は入力画像と登録画像との間での固定された各画素を基準として行われるため、顔の表情や撮影角度等の相違が存在して入力顔画像と登録顔画像の間で画像のゆがみやずれ等が生じた場合に、本人と他人の識別能力が低下するという問題がある。
【0005】
このため、顔の登録画像上の目鼻口等の顔の目印となる部分にサンプル点を指定し、それらサンプル点に対応する入力画像上のサンプル点の位置を両画像の類似度を計算することによって求め、求められたサンプル点間においてそれら両画像の局所的な特徴を比較する技術が開示されている(例えば、非特許文献1参照。)。
【0006】
すなわち、この従来技術では、顔の表情あるいは撮影角度等の相違によって登録画像と入力画像の間でゆがみやずれ等が生じた場合でも、類似度を計算することにより登録画像上のサンプル点に対応する入力画像上のサンプル点を検出することができるので、上記の問題点が緩和され、本人と他人との識別能力を高めることができる。
【0007】
【非特許文献1】
エル・ウィスコット(L. Wiskott),外3名,「フェイス・レコグニション・バイ・エラスティック・バンチ・グラフ・マッチング(Face Recognition by Elastic Bunch Graph Matching)」,アイトリプルイー・トランザクションズ・オン・パターン・アナリシス・アンド・マシーン・インテリジェンス(IEEE Transactions On Pattern Analysis And Machine Intelligence),1997年,第19巻,第7号,p.775−779
【0008】
【発明が解決しようとする課題】
しかしながら、この従来技術(例えば、非特許文献1参照。)を用いた場合、対応するサンプル点において入力画像と複数の登録画像の間での照合を行うため、予めすべての登録画像に対してサンプル点を指定しておく必要があり、登録画像の数が増加するほどサンプル点の指定作業に負担がかかり、また、各登録画像のサンプル点を記憶するための記憶容量が増加するという問題がある。
【0009】
また、照合に使用される顔や掌紋等の登録画像と入力画像には万人に共通する特徴も含まれているので、個人の特徴が明瞭に検知されにくく、識別能力の向上が困難であるという問題がある。
【0010】
更に、顔の表情や掌の開き加減、撮影角度等の相違によって生じる登録画像に対する入力画像のゆがみやずれ等にある程度対処することができるものの、同一人物の画像の変動を軽減し、他人の画像との相違を強調するような処理は行わないため、識別能力のさらなる向上は困難であるという問題がある。
【0011】
本発明は、上記問題(課題)に鑑みてなされたものであって、各登録画像上におけるサンプル点の設定作業の負担を軽減し、また、画像集合の特徴を学習してそれらの特徴を効率良く表現した知識を利用することで、本人の画像と他人の画像の識別を効率的に行って認識率を高めることができる画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムを提供することを目的とする。
【0012】
【課題を解決するための手段】
上記目的を達成するために、請求項1の発明に係る画像認識装置は、本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識装置において、前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成手段と、前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成手段と、前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出手段と、前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出手段と、前記登録画像サンプル点検出手段により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出手段により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定手段とを備えたことを特徴とする。
【0013】
また、請求項2の発明に係る画像認識装置は、請求項1に係る発明において、前記部分空間作成手段は、前記画像集合内の画像における特徴ベクトルと前記平均画像における特徴ベクトルとの相関を用いて前記平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出する第1の検出手段と、前記第1の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定的な特徴ベクトルの部分空間を作成する暫定部分空間作成手段と、前記画像集合内の画像における特徴ベクトルの前記部分空間への距離に基づいて前記平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出する第2の検出手段と、前記第2の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて前記暫定部分空間作成手段により作成された前記部分空間を修正する部分空間修正手段とを備えたことを特徴とする。
【0014】
また、請求項3の発明に係る画像認識装置は、請求項2に係る発明において、前記暫定部分空間作成手段は、前記画像集合から本人の画像ペアを用意して、前記第1の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出する第1の本人差部分空間算出手段と、前記画像集合から他人の画像ペアを用意して、前記第1の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第1の他人差部分空間算出手段と、前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第1の認識部分空間作成手段とを備えたことを特徴とする。
【0015】
また、請求項4の発明に係る画像認識装置は、請求項2に係る発明において、前記部分空間修正手段は、前記画像集合から本人の画像ペアを用意して、前記第2の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出する第2の本人差部分空間算出手段と、前記画像集合から他人の画像ペアを用意して、前記第2の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第2の他人差部分空間算出手段と、前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第2の認識部分空間作成手段と、前記第2の認識部分空間作成手段で作成された該部分空間が収束するまで前記第2の検出手段と前記第2の本人差部分空間算出手段と前記第2の他人差部分空間算出手段と前記第2の認識部分空間作成手段とを繰り返し用いることにより前記部分空間を更新する認識部分空間更新手段とを備えたことを特徴とする。
【0016】
また、請求項5の発明に係る画像認識装置は、請求項1〜4のいずれか一つに係る発明において、前記登録画像サンプル点検出手段は、前記平均画像上のサンプル点に対応する該登録画像上のサンプル点を該登録画像における特徴ベクトルと前記部分空間との距離に基づいて検出することを特徴とする。
【0017】
また、請求項6の発明に係る画像認識装置は、請求項1〜5のいずれか一つに係る発明において、前記入力画像サンプル点検出手段は、前記登録画像上のサンプル点に対応する該入力画像上のサンプル点を該入力画像における特徴ベクトルと前記登録画像における特徴ベクトルの前記部分空間内での相関に基づいて検出することを特徴とする。
【0018】
また、請求項7の発明に係る画像認識装置は、請求項1〜6のいずれか一つに係る発明において、前記照合判定手段は、前記登録画像上と前記入力画像上の対応する前記サンプル点における特徴ベクトルの前記部分空間内での相関に基づいて類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行うことを特徴とする。
【0019】
また、請求項8の発明に係る画像認識方法は、本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識方法において、前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と、を含んだことを特徴とする。
【0020】
また、請求項9の発明に係るプログラムは、本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識方法をコンピュータに実行させるプログラムであって、前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と、をコンピュータに実行させることを特徴とする。
【0021】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムの好適な実施の形態を詳細に説明する。なお以下では、顔画像を用いた顔画像認識の場合について説明する。
【0022】
まず、本実施の形態に係る画像認識処理の概念について説明する。図1は、本実施の形態に係る画像認識処理の概念を説明するための説明図である。
【0023】
図1に示すように、本実施の形態に係る顔画像認識処理は、オフラインでの学習時処理と照合時処理の2つの大きな処理からなり、学習時処理で顔画像の特徴を学習した知識13を利用して照合処理を行うよう構成されている。
【0024】
まず、オフラインでの学習時処理の処理手順を説明する。最初に、顔画像集合10内の各画像に対し、両目、鼻、口の位置を指定する。ただし、ここでは最低限両目の位置を指定すればよい。そして、各顔画像の両目、鼻、口の位置が重なるように正規化し、各画素の濃淡値を平均して平均顔画像11を作成する。
【0025】
ここで、「画像集合」とは、複数の人物における身体の所定の部位に関する画像の集まりであり、またある特定の人物に関しても顔の表情や掌の開き加減、撮影角度等の相違によって異なる複数の本人画像を含むものである。この画像集合は登録画像の集合と同一である必要はない。
【0026】
次に、作成された平均顔画像11上に任意の数のサンプル点を指定する。図1では、平均顔画像11上に100個のサンプル点を指定した平均顔画像の例12が示されている。そして、平均顔画像11の特徴ベクトルと顔画像集合10内の各画像の特徴ベクトルの相関を用いて、平均顔画像11上のサンプル点に対応する顔画像集合10内の各画像上のサンプル点を検出する。そして、検出されたサンプル点上で、顔画像集合10内の各画像における特徴ベクトルの部分空間を主成分分析の手法を用いて作成する。この部分空間は暫定的なもので、後に修正される。
【0027】
ここで、「特徴ベクトル」とは、サンプル点周辺における局所的な領域での画素の濃淡値やその濃淡値の変化率等の特徴量の集まりを一つのベクトルとして表したものであり、それらの特徴量を各々有する複数の画素の集まりからなるデジタル顔画像が与えられれば容易に作成することができる。
【0028】
ここで、本実施の形態で用いられる部分空間の概念について説明する。図2は、本実施の形態に係る部分空間の概念を説明するための説明図である。特徴ベクトル空間20内において、本人の変動部分空間22は顔の表情や撮影角度等の相違によって異なる複数の本人画像ペアの特徴ベクトルの差から構成され、他人の変動部分空間21は本人と他人との画像ペアの特徴ベクトルの差から構成される。目的とする部分空間23は本人の変動部分空間22の補空間と他人の変動部分空間21の交わりより導くことができる。以降、このようにして構成された部分空間を「認識部分空間」と呼ぶ。
【0029】
図1の説明に戻ると、顔画像集合10内の画像を用いて作成された特徴ベクトルの暫定的な認識部分空間23は、顔画像集合10内の各画像における特徴ベクトルの認識部分空間23への距離に基づいて修正される。
【0030】
具体的には、顔画像集合10内の各画像における特徴ベクトルの認識部分空間23への距離を計算し、その距離が小さくなるような各画像上のサンプル点を検出する。サンプル点が検出されたらそのサンプル点の各画像における特徴ベクトルを基にして新しい認識部分空間23を作成し、作成された認識部分空間23が収束するまで、特徴ベクトルの認識部分空間23への距離に基づいたサンプル点検出処理と、顔画像集合10内の各画像のサンプル点における特徴ベクトルを基にした部分空間作成処理とを繰り返し、認識部分空間23の修正を行う。得られた認識部分空間23は、顔画像の特徴を学習した知識13として画像照合時に利用される。
【0031】
ここで、本実施の形態で用いられる、特徴ベクトルの認識部分空間23への距離を用いた画像のサンプル点の検出の概念について説明する。図3は、本実施の形態に係る特徴ベクトルの認識部分空間23への距離を用いた顔画像上のサンプル点検出の概念を説明する説明図である。
【0032】
図3において、顔画像の特徴ベクトル30の認識部分空間23への距離31は、その値が小さいほど認識部分空間23内に抽出された顔の特徴に対応する特徴がその顔画像上に良く現れていることを意味する。すなわち、この距離が小さくなるようにサンプル点を選ぶことにより、平均顔画像11上のサンプル点に対応したサンプル点をその画像上に設定することができる。
【0033】
図1の説明に戻り、次に、照合時処理の処理手順を説明する。まず、登録画像14における特徴ベクトルの認識部分空間23への距離を計算し、その距離が小さくなるような登録画像上のサンプル点を検出する。図1には、登録画像14上にサンプル点を検出した登録画像の例15が示されている。
【0034】
入力画像16と照合するための登録画像14を複数の登録画像の集合内から選択する方法には、その複数の登録画像の集合内から登録画像14を次々に選択する方法や、本人によって入力されたID番号等で関連付けられた登録画像14を特定して選択する方法等がある。
【0035】
ここで、「登録画像」とは、濃淡値を各々有する複数の画素の集まりからなるデジタル顔画像と、そのデジタル顔画像の複数の画素において、画素の周辺における局所的な領域で作成された特徴ベクトルからなる特徴ベクトル情報とを指している。但し、登録画像に特徴ベクトル情報を少なくとも含んでいれば、顔画像の照合時処理を行うことができる。
【0036】
また、入力画像16に関しては、登録画像14上の検出されたサンプル点に対応するサンプル点を、認識部分空間23内における入力画像16と登録画像14の特徴ベクトルの相関を用いて検出する。図1には、入力画像16上にサンプル点を検出した入力画像の例17が示されている。
【0037】
図4は、本実施の形態に係る入力画像16上のサンプル点検出の概念を説明する説明図である。図4に示されるように、入力画像16の特徴ベクトルと登録画像14の特徴ベクトルを認識部分空間23上へ射影し、射影された入力画像の特徴ベクトル40と射影された登録画像の特徴ベクトル41間の相関値を、射影された両特徴ベクトル間のなす角θの余弦、すなわちcos θで算出する。この値が大きいほど、そのサンプル点における両画像の特徴が類似していることを意味する。
【0038】
図1の説明に戻って、登録画像14と入力画像16上の対応するサンプル点が検出されたら、次に、そのサンプル点において認識部分空間23内へ射影された登録画像14の特徴ベクトルと入力画像16の特徴ベクトルを用いて両特徴ベクトルの相関値を認識部分空間23内で算出する。この処理をすべてのサンプル点に対して行う。そして、その入力画像16と登録画像14の画像ペアに対する相関値の平均値を算出し、類似度とする。図1において、平均顔画像11上に100個のサンプル点を設定した例12では、100個の相関値の平均値(類似度)を算出する。そして、その類似度に基づいて本人と他人の識別判定を行う。
【0039】
次に、本実施の形態に係る顔画像認識装置の構成について説明する。図5は本実施の形態に係る顔画像認識装置の構成を示す機能ブロック図である。
【0040】
図5に示すように、本実施の形態に係る顔画像認識装置50は、顔画像入力受付部51と、正規化処理部52と、顔画像学習部53と、登録画像記憶部54と、登録画像サンプル点検出部55と、入力画像サンプル点検出部56と、類似度算出部57と、照合判定部58とを備えている。
【0041】
顔画像入力受付部51は、学習用の顔画像集合、入力顔画像、登録用顔画像を装置内に取り込むための受付部であり、受け付けた画像を正規化処理部52に出力する。
【0042】
正規化処理部52は、顔画像入力受付部51から画像を取得し、画像に正規化処理をして各画像の顔のサイズを整合させ、受け取った画像が学習用の顔画像集合の画像であれば顔画像学習部53へ、登録用顔画像であれば登録画像記憶部54へ、入力顔画像であれば入力画像サンプル点検出部56へ正規化した画像を出力する。
【0043】
顔画像学習部53は、正規化された顔画像集合を正規化処理部52から取得し、その顔画像集合10を用いて平均顔画像11を作成し、その平均顔画像11を用いて特徴ベクトルの認識部分空間23を作成する。
【0044】
登録画像記憶部54は、顔画像入力受付部51に登録用顔画像が受け付けられたときに、正規化処理部52によって正規化された登録用画像14を取得して記憶する。
【0045】
登録画像サンプル点検出部55は、登録画像14と入力画像16との間で照合判定が行われる際に、顔画像学習部53から認識部分空間23を読み込み、登録画像記憶部54から登録画像14を読み込んで、登録画像14における特徴ベクトルの認識部分空間23への距離を用いて登録画像14上のサンプル点を検出する。
【0046】
入力画像サンプル点検出部56は、登録画像14と入力画像16との間で照合判定が行われる際に、顔画像学習部53から認識部分空間23を読み込み、正規化処理部52から入力画像16を読み込み、登録画像サンプル点検出部55から登録画像14と登録画像14上のサンプル点情報を読み込み、登録画像14と入力画像16との特徴ベクトルの認識部分空間23内での相関を計算して入力画像16上のサンプル点を検出する。
【0047】
類似度算出部57は、登録画像14と入力画像16のサンプル点情報と、入力画像サンプル点検出部56で計算された各サンプル点における登録画像14と入力画像16の特徴ベクトルの認識部分空間23内での相関値データを読み込み、登録画像14と入力画像16の間の類似度を算出する。
【0048】
照合判定部58は、類似度算出部57で得られた登録画像14と入力画像16の類似度を読み込み、その類似度に基づいて登録画像14と入力画像16との照合判定を行い、照合結果を出力する。
【0049】
以降、図1に示された、本実施の形態に係る画像認識処理をさらに具体的に説明する。図6は、本実施の形態に係る顔画像データを正規化する正規化処理のフローチャートである。この処理は正規化処理部52によって行われる。なお、ここでは顔画像入力受付部51が受け付けた画像が学習用の顔画像集合であった場合を示してある。
【0050】
まず、平均顔画像11を仮に設けその画像上に仮の両目位置を設定する(ステップS601)。次に、顔画像受付部51を通じて顔画像集合10内の顔画像データを読み出し(ステップS602)、読み出した各顔画像データの両目、鼻、口の位置を指定する(ステップS603)。ただし、ここでは最低限両目の位置を指定すればよい。
【0051】
両目、鼻、口の位置が指定された後、各顔画像データの両目位置が平均顔画像11の両目位置に重なるようにアフィン変換を行い(ステップS604)、アフィン変換後の各顔画像データの両目、鼻、口の正規位置を算出する(ステップS605)。そして、算出された両目、鼻、口の正規位置の平均値を算出し(ステップS606)、平均顔画像11の両目、鼻、口の位置を設定する(ステップS607)。
【0052】
平均顔画像11の両目、鼻、口の位置が設定されたら、各顔画像データの両目、鼻、口の位置が平均顔画像11の両目、鼻、口の位置に重なるようにアフィン変換を行い(ステップS608)、画像集合10内の各顔画像の正規化画像を作成する(ステップS609)。
【0053】
なお、ここでは顔画像入力受付部51が受け付けた画像が学習用の顔画像集合10であった場合を示したが、学習時処理が終了して、受け付けた画像が入力顔画像あるいは登録用顔画像であった場合には、すでに平均顔画像11の両目、鼻、口の位置が学習時において設定されているので、顔画像データを読み出し(ステップS602)、読み出した顔画像データの両目、鼻、口の位置を指定し(ステップS603)、顔画像データの両目、鼻、口の位置が平均顔画像11の両目、鼻、口の位置に重なるようアフィン変換を行い(ステップS608)、読み込んだ画像の正規化画像を作成する(ステップS609)処理を行うだけでよい。
【0054】
次に、顔画像学習部53において顔画像集合10から特徴ベクトルの認識部分空間23を作成する処理について説明する。図7は、本実施の形態に係る顔画像集合10から特徴ベクトルの認識部分空間23を作成する認識部分空間作成処理のフローチャートである。
【0055】
まず、学習用の顔画像集合10からN個の顔画像データを読み込む(ステップS701)。読み込まれたN個の顔画像データの対応する各画素の濃淡値の平均を算出し(ステップS702)、平均顔画像11を作成する(ステップS703)。そして、作成された平均顔画像11上にM個のサンプル点を設定する(ステップS704)。
【0056】
同様に、N個の顔画像集合10内の各顔画像データ上にも平均顔画像11上のサンプル点に対応するM個のサンプル点を設定し(ステップS705)、対応するM個のサンプル点上で平均顔画像11とN個の各顔画像データの特徴ベクトル間の相関を計算する(ステップS706)。この特徴ベクトル間の相関がある閾値よりも大きいかどうかを調べ(ステップS707)、相関が大きい場合は、N個の各顔画像データ上に平均顔画像11のM個のサンプル点に対応するサンプル点を確定する(ステップS708)。相関が小さい場合は、N個の各顔画像データ上にM個のサンプル点を設定し直し(ステップS705)、相関が大きくなるサンプル点が見つかるまでこれらの処理(ステップS705〜ステップS707)を繰り返す。
【0057】
そして、N個の各顔画像データ上に平均顔画像11のM個のサンプル点に対応するサンプル点を確定(ステップS708)した後、N個の各顔画像データ上の各々M個のサンプル点における特徴ベクトルの認識部分空間23をM個作成する(ステップS709)。
【0058】
次に、図7の認識部分空間23を作成する処理(ステップS709)において、サンプル点での認識部分空間23を作成する具体的な作成処理について説明する。図8は、本実施の形態に係るサンプル点での認識部分空間23を作成する認識部分空間作成処理のフローチャートである。
【0059】
まず、N個の学習用の顔画像集合10内の顔画像データからNs組の本人画像のデータペアを選択する(ステップS801)。本人画像のデータペアとは、顔の表情や撮影角度等の相違によって異なる複数の本人画像からなるものである。そして、データペアの対応するサンプル点における特徴ベクトルの差分を計算し(ステップS802)、それを基にして本人差部分空間Ssを算出する(ステップS803)。
【0060】
次に、N個の学習用の顔画像集合10内の顔画像データからNо組の他人の画像のデータペアを選択し(ステップS804)、データペアの対応するサンプル点における特徴ベクトルの差分を計算し(ステップS805)、それを基にして他人差部分空間Sоを算出する(ステップS806)。
【0061】
本人差部分空間Ssと他人差部分空間Sоが算出されたら、本人差部分空間Ssの補空間SsCと他人差部分空間Sоとの交わりS、すなわち
S = So ∩ SsC
を算出し、これを認識部分空間23とする(ステップS807)。
【0062】
次に、図8の本人差部分空間Ssおよび他人差部分空間Sоを作成する処理(ステップS803、ステップS806)において、サンプル点での特徴ベクトルを基にして部分空間を作成する具体的な処理について説明する。図9は、本実施の形態に係る特徴ベクトルを基にして部分空間を作成する部分空間作成処理のフローチャートである。
【0063】
まず、R次元のN個の特徴ベクトルXi(1≦i≦N)を入力する(ステップS901)。そして、R行R列の相関行列Mを
M(k,l) = 1/N Σ Xi(k)Xi(l)
の算定式を用いて算出する(ステップS902)。ここで、1≦k,l≦Rである。
【0064】
相関行列Mが得られたらそれを用いてR個の固有値を計算し(ステップS903)、大きいほうからr個(r≦R)の固有値を抽出して(ステップS904)、r個の固有値に対応する固有ベクトルが張る空間を算出し、r次元の部分空間を求める(ステップS905)。これは数学的には主成分分析という統計的手法と同一である。
【0065】
次に、図8の本人差部分空間Ssの補空間SsCと他人差部分空間Soとの交わりを算出することによって認識部分空間23を作成する処理(ステップS807)において、本人差部分空間Ssと他人差部分空間Soから認識部分空間23を算出する具体的な処理について説明する。図10は、本実施の形態に係る認識部分空間23を算出する認識部分空間算出処理のフローチャートである。
【0066】
まず、本人差部分空間Ssの射影行列Psを算出し(ステップS1001)、次に他人差部分空間Soの射影行列Poを算出する(ステップS1002)。そして、定数α(0≦α≦1)を設定し、式
P = α Pо + (1 − α)(I − Ps)
により、行列Pを算出する(ステップS1003)。ここで、Iは単位行列である。αは他人差部分空間と本人差部分空間の補集合との重みを調整するパラメータであり、任意に指定できる。以下、この行列Pを混合行列と呼ぶこととする。
【0067】
そして、混合行列の固有値を算出し(ステップS1004)、その固有値に対する閾値を設定する(ステップS1005)。混合行列の固有値の取りうる範囲は0以上1以下であり、閾値は1に近く、1以下の値に設定する。そして、閾値以上の固有値を抽出してその固有値に対する固有ベクトルが張る空間を算出し、認識部分空間23とする(ステップS1006)。
【0068】
次に、顔画像学習部53において、図7で示された処理により作成された認識部分空間23を、学習用の顔画像集合10を用いて修正しながら顔の特徴を学習する具体的な処理について説明する。図11は、本実施の形態に係る顔画像集合10から特徴ベクトルの認識部分空間23を修正する認識部分空間修正処理のフローチャートである。
【0069】
まず、認識部分空間23の収束計算の最大反復回数を設定し(ステップS1101)、学習用の顔画像集合10内のN個の各顔画像上に平均顔画像11上のM個のサンプル点に対応するM個のサンプル点を設定する(ステップS1102)。そして、N個の各顔画像におけるM個の特徴ベクトルの対応するM個の認識部分空間23への距離を計算する(ステップS1103)。
【0070】
そして、この認識部分空間23への距離がある閾値よりも小さいかどうかを調べ(ステップS1104)、距離が小さい場合は、N個の各顔画像データ上に平均顔画像11上のM個のサンプル点に対応するサンプル点を確定する(ステップS1105)。距離が大きい場合は、N個の各顔画像データ上にM個のサンプル点を設定し直し(ステップS1102)、距離が小さくなるサンプル点が見つかるまでこれらの処理(ステップS1102〜ステップS1104)を繰り返す。
【0071】
N個の各顔画像データ上に平均顔画像11上のM個のサンプル点に対応するサンプル点が確定(ステップS1105)されたら、N個の各顔画像データ上の各々M個のサンプル点における特徴ベクトルの認識部分空間23をM個作成する(ステップS1106)。そして、この認識部分空間23が収束したかどうかを調べ(ステップS1107)、収束した場合は学習が終了したとして認識部分空間23の修正処理を終える。収束しなかった場合には、次に、収束計算の反復回数が設定した最大反復回数より小さいかどうかを調べ(ステップS1108)、小さくない場合には認識部分空間23の修正処理を終え、小さい場合には、N個の各顔画像データ上にM個のサンプル点を設定し直して(ステップS1102)、認識部分空間23が収束するまでこれらの処理(ステップS1102〜ステップS1108)を繰り返す。
【0072】
次に、図11に示された、認識部分空間23が収束したかどうかを調べる処理(ステップS1107)の具体的な手順について説明する。図12は、本実施の形態に係る認識部分空間23の収束を判定する認識部分空間収束判定処理のフローチャートである。
【0073】
まず、修正前後の2つの認識部分空間23に対する正準角の閾値を設定し(ステップS1201)、その正準角を算出する(ステップS1202)。そして、複数の正準角の内、最小の正準角が閾値よりも小さいかどうかを調べ(ステップS1203)、小さい場合は認識部分空間23が収束したと判定し(ステップS1204)、小さくない場合は認識部分空間23が未収束と判定する(ステップS1205)。
【0074】
次に、登録画像14と入力画像16を照合して本人確認を行う照合判定処理の処理手順を説明する。図13は、本実施の形態に係る照合判定処理の処理手順を示すフローチャートである。
【0075】
まず、登録画像サンプル点検出部55は、登録画像記憶部54に記憶されている登録画像14と顔画像学習部53により作成された認識部分空間23のデータを読み込み、登録画像14上に平均顔画像11上のサンプル点に対応するM個のサンプル点を設定する(ステップS1301)。そして、対応する各サンプル点上で登録画像14の特徴ベクトルの認識部分空間23への距離を算出する(ステップS1302)。この距離の概念は、図3において既に説明したものである。
【0076】
その後、この認識部分空間23への距離がある閾値よりも小さいかどうかを調べ(ステップS1303)、距離が小さい場合は、N個の各顔画像データ上に平均顔画像11のM個のサンプル点に対応するサンプル点を確定する(ステップS1304)。距離が小さくない場合には、N個の各顔画像データ上にM個のサンプル点を設定し直し(ステップS1301)、距離が小さくなるサンプル点が見つかるまでこれらの処理(ステップS1301〜ステップS1303)を繰り返す。これらの処理(ステップS1301〜ステップS1304)は、登録画像サンプル点検出部55にて行われる。
【0077】
次に、入力画像サンプル点検出部56は、正規化処理部52より正規化された入力画像16と、顔画像学習部53より作成された認識部分空間データ23と、登録画像サンプル点検出部55より検出されたサンプル点データと正規化された登録画像14とをそれぞれ読み込み、入力画像16上に登録画像14上のサンプル点に対応するM個のサンプル点を設定する(ステップS1305)。そして、対応するサンプル点上で登録画像14と入力画像16の特徴ベクトルの各認識部分空間23内での相関を算出する(ステップS1306)。
【0078】
その後、この登録画像14と入力画像16の特徴ベクトルの認識部分空間23内での相関がある閾値よりも大きいかどうかを調べ(ステップS1307)、相関が大きい場合は、入力画像16上に登録画像14上のM個のサンプル点に対応するサンプル点を確定する(ステップS1308)。相関が小さい場合は、入力画像16上にM個のサンプル点を設定し直し(ステップS1305)、相関が閾値よりも大きくなるサンプル点が見つかるまでこれらの処理(ステップS1305〜ステップS1307)を繰り返す。これらの処理(ステップS1305〜ステップS1308)は、入力画像サンプル点検出部56にて行われる。
【0079】
この認識部分空間23内での相関の概念は、図4において既に説明したものであり、具体的には、認識部分空間23上に射影された登録画像14と入力画像16の両特徴ベクトル間のなす角θの余弦、すなわちcos θで表される。
【0080】
登録画像14と入力画像16の対応するサンプル点が確定されると(ステップS1308)、類似度算出部57は、その確定されたサンプル点間における登録画像14と入力画像16の相関値データを入力画像サンプル点検出部56から読み込み、登録画像14と入力画像16間の類似度を各サンプル点における相関値の平均値を求めることにより算出する(ステップS1309)。そして、照合判定部58は、この類似度の大小に基づいて登録画像14と入力画像16の照合判定を行い(ステップS1310)、登録画像14に対応する本人であるかどうかの判定結果を出力する(ステップS1311)。
【0081】
次に、本実施の形態に係る顔画像認識装置のハードウェア構成について説明する。図14は本実施の形態に係る顔画像認識装置のシステム構成を示すブロック図である。
【0082】
図14に示すように、この顔画像認識装置50は、インターフェース部64と、演算制御部65と、主記憶部66と、補助記憶部67とからなり、入力装置68と、表示装置69とが接続されている、コンピュータを利用したスタンドアローン型における構成である。
【0083】
また、この顔画像認識装置50には、入力画像を取り込むためのCCDカメラ60がインターフェース64を介して接続されており、CCDカメラ60は画像入力部61と、画像メモリ62と、インターフェース部63で構成されている。
【0084】
まず、CCDカメラ60の構成について具体的に説明する。画像入力部61は、被写体である顔からの光をレンズで集光し、CCD(Charge Coupled Device)を使用して顔画像を電気信号に変換し、ディジタルデータに変換して顔画像データを画像メモリ62に記録する。
【0085】
画像メモリ62は画像入力部61のバッファメモリとして利用され、顔画像認識装置50が顔画像の入力を受け付けることができない場合に、顔画像データを一時的に記憶する。顔画像認識装置50が入力画像の受け付け可能な状態となれば、インターフェース部63を通じて顔画像データが顔画像認識装置50に出力される。
【0086】
次に、顔画像認識装置50の構成について具体的に説明する。インターフェース部64は、演算制御部65の制御のもと、CCDカメラ60からの入力画像の受け付けを行い、また入力装置68からのデータの受け付け、表示装置69へのデータの受け渡しを行う。
【0087】
入力装置68は、キーボード、マウス、タッチパネル等で構成され、顔画像認識プログラム実行時には、顔画像に対し両目、鼻、口の位置を指定する際(ステップS603)や作成された平均顔上にサンプル点を指定する際(ステップS704)等に用いられる。
【0088】
表示装置69は、ディスプレイモニタであり、顔画像認識プログラムを実行時には、平均顔画像11上のサンプル点の表示、登録画像14上のサンプル点の表示、入力画像16上のサンプル点の表示、あるいは照合判定結果の表示(ステップS1311)等に用いられる。
【0089】
補助記憶部67は、例えば、フロッピー(登録商標)ディスクドライブ装置(FDD)、ハードディスクドライブ装置(HDD)、CD−ROM、CD−R、CD−RW等からデータを読み込むことができるCDドライブ装置、DVD−ROM、DVD−R、DVD−RW、DVD−RAM等からデータを読み込むことができるDVDドライブ装置等である。
【0090】
本実施の形態の顔画像認識装置50で実行される顔画像認識プログラムは、FD、CD−ROMまたはDVD−ROM等に実行可能な形式のファイルで記録されて提供される。そして、フロッピー(登録商標)ディスクドライブ装置、CDドライブ装置またはDVDドライブ等によって読み出されて実行される。
【0091】
また、学習用の顔画像集合10内の顔画像データおよび登録用の顔画像データもFD、CD−ROMまたはDVD−ROM等により提供され、フロッピー(登録商標)ディスクドライブ装置、CDドライブ装置またはDVDドライブによって読み出されて、学習用の顔画像データは顔画像学習部53において記憶、処理され、登録用の顔画像データは登録画像記憶部54に記憶されるようになっている。この補助記憶部67は、本発明の記憶手段を構成するものである。
【0092】
なお、この補助記憶部67は顔画像認識装置50内に直接接続されている必要はなく、補助記憶部67がネットワーク上に存在する構成であってもよい。例えば、インターネットやLAN上に顔画像サーバを設置し、学習用の顔画像データや登録用の顔画像データを記憶して、必要に応じてダウンロードする構成としてもよい。この場合には、顔画像認識装置50には、さらにモデムやLANボード等の通信部を設ける必要がある。
【0093】
また、本実施の形態の顔画像認識装置50は、システム全体を制御するCPU等の演算制御部65と、RAMとROM等の記憶媒体からなる主記憶部66が設けられている。ROMには予めブートプログラム等が記憶されており、RAMにはHDから読み出したOS(オペレーションシステム)の一部および顔画像認識プログラム等が記憶され、演算制御部65がこれらのプログラムを実行する。さらに、RAMには顔画像認識プログラムの実行時に読み出された各種の顔画像データ、サンプル点データ、演算結果等が記憶される。
【0094】
上述してきたように、本実施の形態では、まず、顔画像集合10からサンプル点を指定するのに用いる平均顔画像11を作成し、平均顔画像11上のサンプル点に対応する顔画像集合10内の各顔画像上のサンプル点を検出して特徴ベクトルの認識部分空間23を作成し、その認識部分空間23を用いて平均顔画像11上のサンプル点に対応する登録画像14上のサンプル点を検出し、認識部分空間23と登録画像14を用いて登録画像14上のサンプル点に対応する入力画像16上のサンプル点を検出し、検出された登録画像14と入力画像16の認識部分空間23内での特徴ベクトルの類似度を算出し、登録画像14と入力画像16の照合判定を行うよう構成したので、サンプル点を平均顔画像11上にだけ指定すればよくサンプル点設定に係る作業負担を低減することができる。
【0095】
また、照合判定に部分空間を用い、さらに、その部分空間を顔の表情や撮影角度等の相違による本人変動に影響されにくく、また、他人画像との特徴の差が大きく現れるように部分空間を構成して認識部分空間23としたので、本人画像と他人画像の識別能力を高めることができる。
【0096】
なお、本実施の形態では、画像認識装置の認識対象画像が顔画像である場合を示したが、本発明はこれに限定されるものではなく、何らかの目印となるものが含まれる身体の所定の部位にも適用できる。例えば、掌紋の例では、顔の場合の目鼻口に対応するものとして手筋を用いることができる。
【0097】
すなわち、顔画像の場合は平均顔画像11を作成する際に両目、鼻、口の位置を指定したが(ステップS603)、掌紋画像の場合には代わりに手筋の位置を指定すればよい。また、特徴ベクトルとしては掌紋の隆起線の方向、曲率等の特徴量を用いればよい。それ以外の処理は顔画像の場合と変わるところがないので、掌紋画像認識装置を容易に実現することができる。
【0098】
【発明の効果】
以上説明したように、請求項1の発明によれば、身体の所定の部位に関する複数の画像集合から平均画像を作成し、該平均画像上に設定されたサンプル点に対応する画像集合内の画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成し、設定された平均画像上のサンプル点に対応する登録画像上のサンプル点を作成された部分空間を用いて検出し、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を作成された部分空間を用いて検出し、作成された部分空間内で検出された登録画像と入力画像上のサンプル点における特徴ベクトルの類似度を算出して登録画像と入力画像とを照合し本人確認を行うため、各登録画像上にサンプル点を指定する必要がなく、平均画像上にのみサンプル点を指定すればよいため、サンプル点の指定に係る作業の負担を軽減し、サンプル点を記憶する記憶容量を低減させることが可能な画像処理装置が得られるという効果を奏する。
【0099】
また、個々人の画像の特徴を特徴ベクトルの部分空間を用いて表現するので、万人に共通する特徴を除去し個人の特徴が強調され、効率良く画像の特徴を知識として抽出することができ、本人画像と他人画像の識別能力を向上させることが可能な画像処理装置が得られるという効果を奏する。
【0100】
また、請求項2の発明によれば、画像集合内の画像における特徴ベクトルと平均画像における特徴ベクトルとの相関を用いて平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出し、検出された該画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定的な特徴ベクトルの部分空間を作成し、該画像集合内の画像における特徴ベクトルの該部分空間への距離に基づいて平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出し、検出された該画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定部分空間作成手段により作成された特徴ベクトルの部分空間を修正することとしたので、特徴ベクトルの部分空間を作成する際に、平均画像上のサンプル点に対応する画像集合内の画像上のサンプル点を効率よく検出し、部分空間を作成することが可能な画像認識装置が得られるという効果を奏する。
【0101】
また、請求項3の発明によれば、画像集合から本人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出し、また画像集合から他人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出し、算出された本人差部分空間の補空間と他人差部分空間の交わり部を算出して該交わり部を部分空間とすることとしたので、本人画像の変動が除外されるため、顔の表情や掌の開き加減、撮影角度等の相違による本人画像の変動によるノイズに強く、また本人と他人との変動が強調されるので該部分空間に効率良く知識を抽出することができ、本人画像と他人画像との識別能力を向上させることが可能な画像認識装置が得られるという効果を奏する。
【0102】
また、請求項4の発明によれば、画像集合から本人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出し、また画像集合から他人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出し、算出された本人差部分空間の補空間と他人差部分空間の交わり部を算出して該交わり部を部分空間とし、そこで作成された該部分空間が収束するまで、第2の検出手段と第2の本人差部分空間算出手段と第2の他人差部分空間算出手段と第2の認識部分空間作成手段とを繰り返し用いることにより該部分空間を更新することとしたので、暫定部分空間作成手段により作成された暫定的な部分空間よりもより精度良く画像集合の特徴を抽出した部分空間を作成することができ、その部分空間を用いて本人画像と他人画像とを識別する際に識別能力を向上させることが可能な画像認識装置が得られるという効果を奏する。
【0103】
また、請求項5の発明によれば、平均画像上のサンプル点に対応する登録画像上のサンプル点を、該登録画像における特徴ベクトルと部分空間との距離に基づいて検出することとしたので、平均画像と登録画像の間で顔の表情や掌の開き加減、撮影角度等の相違があった場合でも、平均画像のサンプル点に対応する登録画像上のサンプル点を精度良く検出することが可能な画像認識装置が得られるという効果を奏する。
【0104】
また、請求項6の発明によれば、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を、該入力画像における特徴ベクトルと該登録画像における特徴ベクトルの部分空間内での相関に基づいて検出することとしたので、入力画像と登録画像との間で顔の表情や掌の開き加減、撮影角度等の相違があった場合でも、登録画像との照合が行われる入力画像上のサンプル点を精度良く検出することが可能な画像認識装置が得られるという効果を奏する。
【0105】
また、請求項7の発明によれば、検出された登録画像と入力画像上のサンプル点間における特徴ベクトルの部分空間内での相関に基づいて類似度を算出して入力画像と登録画像とを照合し本人確認を行うこととしたので、入力画像と登録画像の間で表情や掌の開き加減、撮影角度等の相違があった場合でも、精度良く効率的に照合判定を行うことが可能な画像認識装置が得られるという効果を奏する。
【0106】
また、請求項8の発明によれば、身体の所定の部位に関する複数の画像集合から平均画像を作成し、該平均画像上に設定されたサンプル点に対応する画像集合内の画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成し、設定された平均画像上のサンプル点に対応する登録画像上のサンプル点を作成された部分空間を用いて検出し、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を作成された部分空間を用いて検出し、作成された部分空間内で検出された登録画像と入力画像上のサンプル点における特徴ベクトルの類似度を算出して入力画像と登録画像とを照合し本人確認を行うため、各登録画像上にサンプル点を指定する必要がなく、平均画像上にのみサンプル点を指定すればよいため、サンプル点の指定に係る作業の負担を軽減し、サンプル点を記憶する記憶容量を低減させることが可能な画像認識方法が得られるという効果を奏する。
【0107】
また、個々人の画像の特徴を特徴ベクトルの部分空間を用いて表現するので、万人に共通する特徴を除去し個人の特徴が強調され、効率良く画像の特徴を知識として抽出することができ、本人画像と他人画像の識別能力を向上させることが可能な画像認識方法が得られるという効果を奏する。
【0108】
また、請求項9の発明によれば、身体の所定の部位に関する複数の画像集合から平均画像を作成し、該平均画像上に設定されたサンプル点に対応する画像集合内の画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成し、設定された平均画像上のサンプル点に対応する登録画像上のサンプル点を作成された部分空間を用いて検出し、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を作成された部分空間を用いて検出し、作成された部分空間内で検出された登録画像と入力画像上のサンプル点における特徴ベクトルの類似度を算出して入力画像と登録画像とを照合し本人確認を行うため、各登録画像上にサンプル点を指定する必要がなく、平均画像上にのみサンプル点を指定すればよいため、サンプル点の指定に係る作業の負担を軽減し、サンプル点を記憶する記憶容量を低減させることが可能なプログラムが得られるという効果を奏する。
【0109】
また、個々人の画像の特徴を特徴ベクトルの部分空間を用いて表現するので、万人に共通する特徴を除去し個人の特徴が強調され、効率良く画像の特徴を知識として抽出することができ、本人画像と他人画像の識別能力を向上させることが可能なプログラムが得られるという効果を奏する。
【図面の簡単な説明】
【図1】本実施の形態に係る画像認識処理の概念を説明するための説明図である。
【図2】本実施の形態に係る部分空間の概念を説明するための説明図である。
【図3】本実施の形態に係る特徴ベクトルの認識部分空間への距離を用いた顔画像上のサンプル点検出の概念を説明する説明図である。
【図4】本実施の形態に係る入力画像上のサンプル点検出の概念を説明する説明図である。
【図5】本実施の形態に係る顔画像認識装置の構成を示す機能ブロック図である。
【図6】本実施の形態に係る顔画像データを正規化する正規化処理のフローチャートである。
【図7】本実施の形態に係る顔画像集合から特徴ベクトルの認識部分空間を作成する認識部分空間作成処理のフローチャートである。
【図8】本実施の形態に係るサンプル点での認識部分空間を作成する認識部分空間作成処理のフローチャートである。
【図9】本実施の形態に係る特徴ベクトルを基にして部分空間を作成する部分空間作成処理のフローチャートである。
【図10】本実施の形態に係る認識部分空間を算出する認識部分空間算出処理のフローチャートである。
【図11】本実施の形態に係る顔画像集合から特徴ベクトルの認識部分空間を修正する認識部分空間修正処理のフローチャートである。
【図12】本実施の形態に係る認識部分空間の収束を判定する認識部分空間収束判定処理のフローチャートである。
【図13】本実施の形態に係る照合判定処理の処理手順を示すフローチャートである。
【図14】本実施の形態に係る顔画像認識装置のシステム構成を示すブロック図である。
【符号の説明】
10 顔画像集合
11 平均顔画像
12 100個のサンプル点を指定した平均顔画像の例
13 知識
14 登録画像
15 サンプル点を検出した登録画像の例
16 入力画像
17 サンプル点を検出した入力画像の例
20 特徴ベクトル空間
21 他人の変動部分空間
22 本人の変動部分空間
23 目的とする認識部分空間
30 顔画像の特徴ベクトル
31 特徴ベクトルの認識部分空間への距離
40 入力画像の特徴ベクトルの認識部分空間への射影
41 登録画像の特徴ベクトルの認識部分空間への射影
50 顔画像認識装置
51 顔画像入力受付部
52 正規化処理部
53 顔画像学習部
54 登録画像記憶部
55 登録画像サンプル点検出部
56 入力画像サンプル点検出部
57 類似度検出部
58 照合判定部
61 画像入力部
62 画像メモリ
63、64 インターフェース部
65 演算制御部(CPU)
66 主記憶部(ROM、RAM)
67 補助記憶部
68 入力装置
69 表示装置
[0001]
BACKGROUND OF THE INVENTION
According to the present invention, an image is obtained by comparing local features at sample points between an input image obtained by capturing a predetermined part of a person's body such as a face and a palm print and a plurality of registered images of the person and others related to the part. The present invention relates to an image recognition apparatus that collates and confirms identity, an image recognition method, and a program that causes a computer to execute the method, and in particular, an image recognition apparatus that can efficiently identify a person's image and another person's image and increase the recognition rate. The present invention relates to an image recognition method and a program for causing a computer to execute the method.
[0002]
[Prior art]
Conventionally, in a security system related to admission management, access to a computer, and the like, a technique for identifying a person and others using the physical characteristics of an individual has been used. In the method of verifying the identity by comparing the input image with a registered image such as a face or palm print that has been registered in advance, the facial expression, the degree of opening of the palm, the shooting angle, etc. Due to the influence of the difference, it is not possible to exhibit high discrimination ability simply by superimposing the input image and a plurality of registered images and comparing the degree of matching.
[0003]
As an image recognition method for verifying the identity by comparing the input image with the registered image, the size of each image in the image set is normalized, and the feature vector subspace consisting of the gray value of each pixel of the normalized image is mainly used. An eigenface method is generally known that is generated by component analysis, projects feature vectors of an input image and a registered image onto a partial space, calculates similarity, and makes a collation determination.
[0004]
According to this conventional technique, since the input face image and the registered face image are collated based on each fixed pixel between the input image and the registered image, there is a difference in facial expression, shooting angle, etc. Thus, when the image is distorted or misaligned between the input face image and the registered face image, there is a problem that the ability to discriminate between the person and others falls.
[0005]
For this reason, sample points are designated at portions that are marks of the face such as the eyes, nose and mouth on the registered images of the face, and the positions of the sample points on the input image corresponding to the sample points are calculated for the similarity between the two images. And a technique for comparing local characteristics of both images between the obtained sample points is disclosed (for example, see Non-Patent Document 1).
[0006]
That is, in this prior art, even when distortion or deviation occurs between the registered image and the input image due to differences in facial expression or shooting angle, etc., it is possible to deal with sample points on the registered image by calculating similarity. Since the sample points on the input image to be detected can be detected, the above problems are alleviated, and the ability to discriminate between the person and others can be improved.
[0007]
[Non-Patent Document 1]
L. Wiskott, 3 others, “Face Recognition by Elastic Bunch Graph Matching”, Eye Triple E Transactions on Pattern・ Analysis and Machine Intelligence (IEEE Transactions On Pattern Analysis And Machine Intelligence), 1997, Vol. 19, No. 7, p. 775-779
[0008]
[Problems to be solved by the invention]
However, when this conventional technique (for example, refer to Non-Patent Document 1) is used, in order to perform collation between the input image and a plurality of registered images at the corresponding sample points, all the registered images are sampled in advance. It is necessary to specify points, and as the number of registered images increases, the burden of the sample point specifying work increases, and the storage capacity for storing the sample points of each registered image increases. .
[0009]
In addition, since the registered images such as faces and palm prints used for collation and the input image include features common to all people, it is difficult to clearly detect individual features, and it is difficult to improve identification ability. There is a problem.
[0010]
Furthermore, although it can deal with some distortions and shifts of the input image with respect to the registered image caused by differences in facial expressions, palm opening, shooting angle, etc., it can reduce fluctuations in the image of the same person and reduce the image of others There is a problem that it is difficult to further improve the discrimination capability because no processing that emphasizes the difference from the above is performed.
[0011]
The present invention has been made in view of the above problems (problems), and reduces the burden of setting sample points on each registered image, and also learns the characteristics of an image set to make those characteristics efficient. Providing an image recognition apparatus, an image recognition method, and a program for causing a computer to execute the method that can efficiently identify a person's image and another person's image by using well-represented knowledge and increase the recognition rate The purpose is to do.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, an image recognition apparatus according to the first aspect of the present invention provides a sample between an input image obtained by capturing a predetermined part of a person's body and a plurality of registered images of the person and others relating to the part. In an image recognition apparatus that compares an image by comparing local features at points and performs identity verification, an average image creating unit that creates an average image from a plurality of images in an image set related to the part; Subspace generating means for detecting a sample point on each image in the image set corresponding to the set sample point and generating a subspace of a feature vector at the sample point; and a sample point on the average image Registered image sample point detecting means for detecting a corresponding sample point on the registered image using the partial space, and before corresponding to the sample point on the registered image Input image sample point detection means for detecting sample points on the input image using the partial space, feature vectors at the sample points on the registered image detected by the registered image sample point detection means, and the input image sample inspection Collation determination means for calculating the similarity in the partial space with the feature vector at the sample point on the input image detected by the output means, and comparing the input image with the registered image to confirm the identity. It is characterized by having.
[0013]
According to a second aspect of the present invention, in the image recognition apparatus according to the first aspect, the partial space creating means uses a correlation between a feature vector in the image in the image set and a feature vector in the average image. First detection means for detecting a sample point on the image in the image set corresponding to the sample point set on the average image, and an image in the image set detected by the first detection means Temporary subspace creation means for creating a partial space of a temporary feature vector using the feature vector at the upper sample point, and the average image based on the distance to the partial space of the feature vector in the image in the image set Second detection means for detecting a sample point on the image in the image set corresponding to the sample point set above, and the second detection means detected by the second detection means Characterized in that a subspace modifying means for modifying the partial space created by the provisional partial space creating means using the feature vectors at the sample point on the image of the image in the set.
[0014]
According to a third aspect of the present invention, in the image recognition apparatus according to the second aspect of the present invention, the provisional partial space creating means prepares an image pair of the person from the image set, and the first detecting means First principal difference subspace calculating means for calculating a principal difference subspace by calculating a difference between feature vectors at the sample points of the image pair corresponding to the detected sample point set on the average image; Prepare another person's image pair from the image set, and calculate the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the first detection means. A first other person difference subspace calculating means for calculating the other person difference subspace, and calculating a crossing portion between the complement space of the principal difference subspace and the other person subspace, and setting the crossing portion to the subspace. Characterized by comprising a first recognition moiety space creating means for.
[0015]
According to a fourth aspect of the present invention, in the image recognition apparatus according to the second aspect of the present invention, the partial space correction means prepares an image pair of the user from the image set and detects the image pair by the second detection means. Second principal difference subspace calculating means for calculating a principal difference subspace by calculating a difference between feature vectors at the sample points of the image pair corresponding to the sample points set on the averaged image, An image pair of another person is prepared from the image set, and a difference between feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the second detection unit is obtained. A second person difference subspace calculating means for calculating a person difference subspace, and calculating an intersection between the complement space of the person difference subspace and the person difference subspace, and making the intersection a subspace. Second recognition subspace creation means, the second detection means, the second personal difference subspace calculation means, and the second until the partial space created by the second recognition subspace creation means converges. And a recognition subspace update means for updating the partial space by repeatedly using two different person subspace calculation means and the second recognition subspace creation means.
[0016]
An image recognition apparatus according to a fifth aspect of the present invention is the image recognition apparatus according to any one of the first to fourth aspects, wherein the registered image sample point detecting means is configured to register the registration points corresponding to the sample points on the average image. A sample point on the image is detected based on a distance between a feature vector in the registered image and the partial space.
[0017]
An image recognition apparatus according to a sixth aspect of the present invention is the image recognition apparatus according to any one of the first to fifth aspects, wherein the input image sample point detecting means corresponds to the input corresponding to the sample point on the registered image. A sample point on the image is detected based on a correlation in the partial space between the feature vector in the input image and the feature vector in the registered image.
[0018]
An image recognition apparatus according to a seventh aspect of the present invention is the image recognition apparatus according to any one of the first to sixth aspects, wherein the collation determining means corresponds to the sample points on the registered image and the input image. The similarity is calculated based on the correlation of the feature vector in the partial space, and the input image and the registered image are collated to confirm the identity.
[0019]
According to an eighth aspect of the present invention, there is provided an image recognition method including a local feature at a sample point between an input image obtained by capturing a predetermined part of a person's body and a plurality of registered images of the person and others relating to the part. In the image recognition method for verifying the identity by comparing the images by comparing the average image creation step of creating an average image from a plurality of images in the image set relating to the part, and the sample points set on the average image A subspace creating step for detecting a sample point on each image in the image set corresponding to the image and creating a subspace of a feature vector at the sample point; and on the registered image corresponding to the sample point on the average image A registered image sample point detecting step for detecting a sample point of the registered image using the partial space, and a sample on the input image corresponding to the sample point on the registered image An input image sample point detecting step for detecting points using the subspace, a feature vector at a sample point on the registered image detected by the registered image sample point detecting step, and an input image sample point detecting step And a collation determining step of calculating the similarity in the partial space with the feature vector at the sample point on the input image and collating the input image with the registered image to perform identity verification. Features.
[0020]
Further, the program according to the invention of claim 9 compares local features at sample points between an input image obtained by capturing a predetermined part of the body of the person and a plurality of registered images of the person and others regarding the part. A program for causing a computer to execute an image recognition method for verifying an identity by comparing images, and an average image creating step for creating an average image from a plurality of images in an image set related to the region; Detecting a sample point on each image in the image set corresponding to the set sample point and generating a subspace of a feature vector at the sample point; and a sample point on the average image A registered image sample point detecting step for detecting a corresponding sample point on the registered image using the partial space; and a sample on the registered image. An input image sample point detecting step for detecting a sample point on the input image corresponding to the input image using the partial space, a feature vector at the sample point on the registered image detected by the registered image sample point detecting step, and the Collation for calculating the similarity in the partial space with the feature vector at the sample point on the input image detected by the input image sample point detection step and collating the input image with the registered image for identity verification The determination step is caused to be executed by a computer.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an image recognition apparatus, an image recognition method, and a program for causing a computer to execute the method according to the present invention will be described below in detail with reference to the accompanying drawings. Hereinafter, a case of face image recognition using a face image will be described.
[0022]
First, the concept of the image recognition process according to the present embodiment will be described. FIG. 1 is an explanatory diagram for explaining the concept of image recognition processing according to the present embodiment.
[0023]
As shown in FIG. 1, the face image recognition process according to the present embodiment is composed of two major processes, an offline learning process and a collation process, and knowledge 13 in which the facial image features are learned by the learning process. It is comprised so that a collation process may be performed using.
[0024]
First, a processing procedure of offline learning processing will be described. First, the positions of both eyes, nose, and mouth are designated for each image in the face image set 10. However, the positions of both eyes should be specified at least here. Then, normalization is performed so that the positions of both eyes, nose, and mouth of each face image overlap, and the average face image 11 is created by averaging the gray value of each pixel.
[0025]
Here, the “image set” is a collection of images related to a predetermined part of the body of a plurality of persons, and a plurality of different persons also differ depending on differences in facial expressions, palm open / close, imaging angle, etc. The person's own image is included. This image set need not be identical to the set of registered images.
[0026]
Next, an arbitrary number of sample points are designated on the created average face image 11. FIG. 1 shows an average face image example 12 in which 100 sample points are designated on the average face image 11. Then, using the correlation between the feature vector of the average face image 11 and the feature vector of each image in the face image set 10, sample points on each image in the face image set 10 corresponding to the sample points on the average face image 11 are used. Is detected. Then, on the detected sample points, a feature vector partial space in each image in the face image set 10 is created using a principal component analysis technique. This subspace is provisional and will be modified later.
[0027]
Here, the “feature vector” represents a collection of feature quantities such as a gray value of a pixel and a change rate of the gray value in a local region around the sample point as one vector. If a digital face image composed of a collection of a plurality of pixels each having a feature amount is given, it can be easily created.
[0028]
Here, the concept of the partial space used in the present embodiment will be described. FIG. 2 is an explanatory diagram for explaining the concept of the partial space according to the present embodiment. In the feature vector space 20, the person's variation subspace 22 is composed of differences in feature vectors of a plurality of individual image pairs depending on differences in facial expressions, shooting angles, and the like. It is comprised from the difference of the feature vector of an image pair. The target subspace 23 can be derived from the intersection of the person's own subspace 22 and the other person's subspace 21. Hereinafter, the partial space configured in this way is referred to as a “recognition partial space”.
[0029]
Returning to the description of FIG. 1, the provisional recognition subspace 23 of the feature vector created using the images in the face image set 10 is transferred to the feature vector recognition subspace 23 in each image in the face image set 10. It is corrected based on the distance.
[0030]
Specifically, the distance to the recognition subspace 23 of the feature vector in each image in the face image set 10 is calculated, and a sample point on each image that decreases the distance is detected. When a sample point is detected, a new recognition subspace 23 is created based on the feature vector in each image at that sample point, and the distance of the feature vector to the recognition subspace 23 until the created recognition subspace 23 converges. The recognition point space 23 is corrected by repeating the sample point detection processing based on the above and the partial space creation processing based on the feature vector at the sample point of each image in the face image set 10. The obtained recognition subspace 23 is used at the time of image collation as knowledge 13 obtained by learning the features of the face image.
[0031]
Here, the concept of detection of sample points of an image using the distance of the feature vector to the recognition subspace 23 used in the present embodiment will be described. FIG. 3 is an explanatory diagram for explaining the concept of sample point detection on a face image using the distance of the feature vector to the recognition subspace 23 according to the present embodiment.
[0032]
In FIG. 3, as the distance 31 of the feature vector 30 of the face image to the recognition subspace 23 is smaller, the feature corresponding to the facial feature extracted in the recognition subspace 23 appears more frequently on the face image. Means that That is, by selecting a sample point so that this distance becomes small, a sample point corresponding to the sample point on the average face image 11 can be set on the image.
[0033]
Returning to the description of FIG. 1, the processing procedure of the collation processing will be described next. First, the distance to the recognition subspace 23 of the feature vector in the registered image 14 is calculated, and sample points on the registered image that reduce the distance are detected. FIG. 1 shows an example 15 of a registered image in which sample points are detected on the registered image 14.
[0034]
As a method for selecting the registered image 14 to be collated with the input image 16 from a set of a plurality of registered images, a method for selecting the registered images 14 one after another from the set of the plurality of registered images, or a method for inputting by the person himself / herself. For example, there is a method of specifying and selecting the registered image 14 associated with the ID number.
[0035]
Here, “registered image” means a digital face image composed of a collection of a plurality of pixels each having a gray value, and a feature created in a local region around the pixels in the plurality of pixels of the digital face image This refers to feature vector information consisting of vectors. However, if at least the feature vector information is included in the registered image, it is possible to perform face image matching processing.
[0036]
For the input image 16, sample points corresponding to the detected sample points on the registered image 14 are detected using the correlation between the feature vectors of the input image 16 and the registered image 14 in the recognition subspace 23. FIG. 1 shows an input image example 17 in which sample points are detected on the input image 16.
[0037]
FIG. 4 is an explanatory diagram for explaining the concept of sample point detection on the input image 16 according to the present embodiment. As shown in FIG. 4, the feature vector of the input image 16 and the feature vector of the registered image 14 are projected onto the recognition subspace 23, and the feature vector 40 of the projected input image and the feature vector 41 of the projected registered image are projected. The correlation value between them is calculated as the cosine of the angle θ between the projected feature vectors, that is, cos θ. A larger value means that the features of both images at the sample point are similar.
[0038]
Returning to the description of FIG. 1, when the corresponding sample points on the registered image 14 and the input image 16 are detected, the feature vector of the registered image 14 projected into the recognition subspace 23 at the sample point and the input are next input. A correlation value between both feature vectors is calculated in the recognition subspace 23 using the feature vector of the image 16. This process is performed for all sample points. And the average value of the correlation value with respect to the image pair of the input image 16 and the registration image 14 is calculated, and it is set as similarity. In FIG. 1, in Example 12 in which 100 sample points are set on the average face image 11, an average value (similarity) of 100 correlation values is calculated. Then, based on the similarity, the person and others are identified.
[0039]
Next, the configuration of the face image recognition apparatus according to this embodiment will be described. FIG. 5 is a functional block diagram showing the configuration of the face image recognition apparatus according to the present embodiment.
[0040]
As shown in FIG. 5, the face image recognition device 50 according to the present embodiment includes a face image input receiving unit 51, a normalization processing unit 52, a face image learning unit 53, a registered image storage unit 54, and a registration. An image sample point detection unit 55, an input image sample point detection unit 56, a similarity calculation unit 57, and a collation determination unit 58 are provided.
[0041]
The face image input reception unit 51 is a reception unit for taking a learning face image set, an input face image, and a registration face image into the apparatus, and outputs the received image to the normalization processing unit 52.
[0042]
The normalization processing unit 52 acquires an image from the face image input receiving unit 51, normalizes the image to match the size of the face of each image, and the received image is an image of a learning face image set. If there is a registered face image, the normalized image is output to the registered image storage unit 54, and if it is an input face image, the normalized image is output to the input image sample point detecting unit 56.
[0043]
The face image learning unit 53 acquires a normalized face image set from the normalization processing unit 52, creates an average face image 11 using the face image set 10, and uses the average face image 11 to generate a feature vector. The recognition subspace 23 is created.
[0044]
The registration image storage unit 54 acquires and stores the registration image 14 normalized by the normalization processing unit 52 when the registration face image is received by the face image input reception unit 51.
[0045]
The registered image sample point detection unit 55 reads the recognition subspace 23 from the face image learning unit 53 and performs registration image 14 from the registered image storage unit 54 when collation determination is performed between the registered image 14 and the input image 16. And the sample point on the registered image 14 is detected using the distance of the feature vector in the registered image 14 to the recognition partial space 23.
[0046]
The input image sample point detection unit 56 reads the recognition subspace 23 from the face image learning unit 53 and performs the input image 16 from the normalization processing unit 52 when collation determination is performed between the registered image 14 and the input image 16. And the sample point information on the registered image 14 and the registered image 14 is read from the registered image sample point detection unit 55, and the correlation of the feature vectors of the registered image 14 and the input image 16 in the recognition subspace 23 is calculated. Sample points on the input image 16 are detected.
[0047]
The similarity calculating unit 57 recognizes the sample point information of the registered image 14 and the input image 16, and the recognition subspace 23 of the feature vector of the registered image 14 and the input image 16 at each sample point calculated by the input image sample point detecting unit 56. The correlation value data is read, and the similarity between the registered image 14 and the input image 16 is calculated.
[0048]
The collation determining unit 58 reads the similarity between the registered image 14 and the input image 16 obtained by the similarity calculating unit 57, performs collation determination between the registered image 14 and the input image 16 based on the similarity, and performs a collation result. Is output.
[0049]
Hereinafter, the image recognition processing according to the present embodiment shown in FIG. 1 will be described more specifically. FIG. 6 is a flowchart of normalization processing for normalizing face image data according to the present embodiment. This processing is performed by the normalization processing unit 52. Here, a case where the image received by the face image input receiving unit 51 is a learning face image set is shown.
[0050]
First, an average face image 11 is provisionally provided, and provisional positions of both eyes are set on the image (step S601). Next, the face image data in the face image set 10 is read through the face image receiving unit 51 (step S602), and the positions of both eyes, nose and mouth of each read face image data are designated (step S603). However, the positions of both eyes should be specified at least here.
[0051]
After the positions of both eyes, nose and mouth are designated, affine transformation is performed so that the positions of both eyes of each face image data overlap with the positions of both eyes of the average face image 11 (step S604). The normal positions of both eyes, nose and mouth are calculated (step S605). Then, the average value of the calculated normal positions of both eyes, nose and mouth is calculated (step S606), and the positions of both eyes, nose and mouth of the average face image 11 are set (step S607).
[0052]
When the positions of both eyes, nose and mouth of the average face image 11 are set, affine transformation is performed so that the positions of both eyes, nose and mouth of each face image data overlap with the positions of both eyes, nose and mouth of the average face image 11. (Step S608), a normalized image of each face image in the image set 10 is created (Step S609).
[0053]
Although the case where the image received by the face image input receiving unit 51 is the learning face image set 10 is shown here, the learning process is completed and the received image is the input face image or the registration face. If it is an image, the positions of both eyes, nose and mouth of the average face image 11 have already been set during learning, so the face image data is read (step S602), and both eyes and nose of the read face image data are read. The position of the mouth is designated (step S603), and affine transformation is performed so that the positions of both eyes, nose and mouth of the face image data overlap with the positions of both eyes, nose and mouth of the average face image 11 (step S608). It is only necessary to create a normalized image of the image (step S609).
[0054]
Next, the process of creating the feature vector recognition subspace 23 from the face image set 10 in the face image learning unit 53 will be described. FIG. 7 is a flowchart of a recognition subspace creation process for creating a feature vector recognition subspace 23 from the face image set 10 according to the present embodiment.
[0055]
First, N face image data are read from the learning face image set 10 (step S701). The average of the shade values of the corresponding pixels of the read N face image data is calculated (step S702), and the average face image 11 is created (step S703). Then, M sample points are set on the created average face image 11 (step S704).
[0056]
Similarly, M sample points corresponding to the sample points on the average face image 11 are set on each face image data in the N face image sets 10 (step S705), and the corresponding M sample points are set. Above, the correlation between the average face image 11 and the feature vectors of the N face image data is calculated (step S706). It is checked whether or not the correlation between the feature vectors is larger than a certain threshold (step S707). If the correlation is large, samples corresponding to M sample points of the average face image 11 on each of N face image data. A point is determined (step S708). If the correlation is small, M sample points are set again on each of the N face image data (step S705), and these processes (steps S705 to S707) are repeated until a sample point with a large correlation is found. .
[0057]
Then, after confirming sample points corresponding to M sample points of the average face image 11 on each of N face image data (step S708), each of M sample points on each of N face image data. M feature vector recognition subspaces 23 are created (step S709).
[0058]
Next, a specific creation process for creating the recognition subspace 23 at the sample points in the process of creating the recognition subspace 23 in FIG. 7 (step S709) will be described. FIG. 8 is a flowchart of a recognition subspace creation process for creating a recognition subspace 23 at sample points according to the present embodiment.
[0059]
First, Ns sets of personal image data pairs are selected from the face image data in the N learning face image sets 10 (step S801). The personal image data pair is composed of a plurality of personal images that differ depending on differences in facial expressions, photographing angles, and the like. Then, the difference between the feature vectors at the corresponding sample points of the data pair is calculated (step S802), and the principal difference subspace Ss is calculated based on the difference (step S803).
[0060]
Next, a data pair of images of other people is selected from the face image data in the N learning face image sets 10 (step S804), and a feature vector difference at a corresponding sample point of the data pair is calculated. (Step S805), and the other person difference subspace So is calculated based on the result (Step S806).
[0061]
When the personal difference subspace Ss and the different person subspace Ss are calculated, the complementary space Ss of the personal difference subspace Ss is calculated.CAnd S between other people's difference subspace Sо, that is,
S = So ∩ SsC
Is calculated as a recognition subspace 23 (step S807).
[0062]
Next, a specific process for creating a subspace based on a feature vector at a sample point in the process of creating the principal difference subspace Ss and the other person difference subspace Sо in FIG. 8 (steps S803 and S806). explain. FIG. 9 is a flowchart of a partial space creation process for creating a partial space based on the feature vector according to the present embodiment.
[0063]
First, R-dimensional N feature vectors Xi (1 ≦ i ≦ N) are input (step S901). And the correlation matrix M of R rows and R columns is
M (k, l) = 1 / N Σ Xi (k) Xi (l)
Is calculated using the above formula (step S902). Here, 1 ≦ k and l ≦ R.
[0064]
When the correlation matrix M is obtained, R eigenvalues are calculated using the correlation matrix M (step S903), and r (r ≦ R) eigenvalues are extracted from the larger one (step S904) to correspond to the r eigenvalues. A space spanned by the eigenvector is calculated to obtain an r-dimensional subspace (step S905). This is mathematically the same as the statistical method called principal component analysis.
[0065]
Next, the complementary space Ss of the personal difference subspace Ss in FIG.CIn the process of creating the recognition subspace 23 by calculating the intersection of the person difference subspace So and the other person difference subspace So (step S807), the specific subspace 23 is calculated from the person difference subspace Ss and the person difference subspace So. Processing will be described. FIG. 10 is a flowchart of a recognition subspace calculation process for calculating the recognition subspace 23 according to the present embodiment.
[0066]
First, the projection matrix Ps of the personal difference subspace Ss is calculated (step S1001), and then the projection matrix Po of the different person subspace So is calculated (step S1002). Then, set a constant α (0 ≦ α ≦ 1)
P = α Pо + (1 − α) (I − Ps)
Thus, the matrix P is calculated (step S1003). Here, I is a unit matrix. α is a parameter for adjusting the weight between the different person difference subspace and the complement of the person difference subspace, and can be arbitrarily specified. Hereinafter, this matrix P is referred to as a mixing matrix.
[0067]
Then, an eigenvalue of the mixing matrix is calculated (step S1004), and a threshold for the eigenvalue is set (step S1005). The possible range of eigenvalues of the mixing matrix is 0 or more and 1 or less, and the threshold is set to a value close to 1 or 1 or less. Then, eigenvalues greater than or equal to the threshold are extracted, a space spanned by eigenvectors for the eigenvalues is calculated, and set as a recognition subspace 23 (step S1006).
[0068]
Next, in the face image learning unit 53, specific processing for learning facial features while correcting the recognition subspace 23 created by the processing shown in FIG. 7 using the learning face image set 10. Will be described. FIG. 11 is a flowchart of recognition subspace correction processing for correcting the feature vector recognition subspace 23 from the face image set 10 according to the present embodiment.
[0069]
First, the maximum number of iterations of the convergence calculation of the recognition subspace 23 is set (step S1101), and M sample points on the average face image 11 are placed on each of the N face images in the learning face image set 10. Corresponding M sample points are set (step S1102). Then, the distances to the M recognition subspaces 23 corresponding to the M feature vectors in the N face images are calculated (step S1103).
[0070]
Then, it is checked whether or not the distance to the recognition subspace 23 is smaller than a certain threshold value (step S1104). If the distance is small, M samples on the average face image 11 are included in each of N face image data. A sample point corresponding to the point is determined (step S1105). If the distance is large, M sample points are set again on each of the N face image data (step S1102), and these processes (steps S1102 to S1104) are repeated until a sample point with a small distance is found. .
[0071]
When sample points corresponding to M sample points on the average face image 11 are determined on the N face image data (step S1105), the sample points at the M sample points on the N face image data are determined. M feature vector recognition subspaces 23 are created (step S1106). Then, it is checked whether or not the recognition subspace 23 has converged (step S1107). When the recognition subspace 23 has converged, the correction processing of the recognition subspace 23 is finished assuming that the learning has ended. If not converged, it is next checked whether or not the number of iterations for convergence calculation is smaller than the set maximum number of iterations (step S1108). In this case, M sample points are set again on each of the N face image data (step S1102), and these processes (steps S1102 to S1108) are repeated until the recognition subspace 23 converges.
[0072]
Next, a specific procedure of the process (step S1107) for checking whether or not the recognition subspace 23 has converged shown in FIG. 11 will be described. FIG. 12 is a flowchart of a recognition subspace convergence determination process for determining convergence of the recognition subspace 23 according to the present embodiment.
[0073]
First, a canonical angle threshold is set for the two recognition subspaces 23 before and after correction (step S1201), and the canonical angle is calculated (step S1202). Then, it is checked whether or not the smallest canonical angle among the plurality of canonical angles is smaller than the threshold value (step S1203). If smaller, it is determined that the recognition subspace 23 has converged (step S1204). Determines that the recognition subspace 23 has not converged (step S1205).
[0074]
Next, the processing procedure of the collation determination process for collating the registered image 14 and the input image 16 to confirm the identity will be described. FIG. 13 is a flowchart showing a processing procedure of collation determination processing according to the present embodiment.
[0075]
First, the registered image sample point detection unit 55 reads the registered image 14 stored in the registered image storage unit 54 and the data of the recognition subspace 23 created by the face image learning unit 53, and reads the average face on the registered image 14. M sample points corresponding to the sample points on the image 11 are set (step S1301). Then, the distance of the feature vector of the registered image 14 to the recognition subspace 23 is calculated on each corresponding sample point (step S1302). The concept of this distance has already been explained in FIG.
[0076]
Thereafter, it is checked whether or not the distance to the recognition subspace 23 is smaller than a certain threshold value (step S1303). If the distance is small, M sample points of the average face image 11 on each of the N face image data. A sample point corresponding to is determined (step S1304). If the distance is not small, M sample points are reset on each of the N face image data (step S1301), and these processes (steps S1301 to S1303) are performed until a sample point with a small distance is found. repeat. These processes (steps S1301 to S1304) are performed by the registered image sample point detection unit 55.
[0077]
Next, the input image sample point detection unit 56 includes the input image 16 normalized by the normalization processing unit 52, the recognition subspace data 23 created by the face image learning unit 53, and the registered image sample point detection unit 55. The detected sample point data and the normalized registered image 14 are read, and M sample points corresponding to the sample points on the registered image 14 are set on the input image 16 (step S1305). Then, the correlation of the feature vectors of the registered image 14 and the input image 16 on the corresponding sample points in each recognition subspace 23 is calculated (step S1306).
[0078]
Thereafter, it is checked whether or not the correlation between the feature vectors of the registered image 14 and the input image 16 in the recognition subspace 23 is larger than a certain threshold (step S1307). If the correlation is large, the registered image is displayed on the input image 16. The sample points corresponding to the M sample points on 14 are determined (step S1308). If the correlation is small, M sample points are set again on the input image 16 (step S1305), and these processes (steps S1305 to S1307) are repeated until a sample point whose correlation is greater than the threshold is found. These processes (steps S1305 to S1308) are performed by the input image sample point detection unit 56.
[0079]
The concept of the correlation in the recognition subspace 23 has already been described with reference to FIG. 4, and specifically, between the feature vectors of the registered image 14 and the input image 16 projected onto the recognition subspace 23. The cosine of the angle θ formed, that is, cos θ.
[0080]
When the corresponding sample points of the registered image 14 and the input image 16 are determined (step S1308), the similarity calculation unit 57 inputs the correlation value data of the registered image 14 and the input image 16 between the determined sample points. Reading from the image sample point detection unit 56, the similarity between the registered image 14 and the input image 16 is calculated by obtaining the average value of the correlation values at each sample point (step S1309). Then, the collation determination unit 58 performs collation determination between the registered image 14 and the input image 16 based on the degree of similarity (step S1310), and outputs a determination result as to whether or not the person corresponds to the registered image 14. (Step S1311).
[0081]
Next, the hardware configuration of the face image recognition apparatus according to this embodiment will be described. FIG. 14 is a block diagram showing a system configuration of the face image recognition apparatus according to the present embodiment.
[0082]
As shown in FIG. 14, the face image recognition device 50 includes an interface unit 64, a calculation control unit 65, a main storage unit 66, and an auxiliary storage unit 67, and includes an input device 68 and a display device 69. This is a connected stand-alone configuration using a computer.
[0083]
In addition, a CCD camera 60 for capturing an input image is connected to the face image recognition device 50 via an interface 64, and the CCD camera 60 includes an image input unit 61, an image memory 62, and an interface unit 63. It is configured.
[0084]
First, the configuration of the CCD camera 60 will be specifically described. The image input unit 61 collects light from the face that is the subject with a lens, converts the face image into an electrical signal using a CCD (Charge Coupled Device), converts the face image into digital data, and converts the face image data into an image. Record in the memory 62.
[0085]
The image memory 62 is used as a buffer memory of the image input unit 61, and temporarily stores the face image data when the face image recognition device 50 cannot accept the input of the face image. When the face image recognition device 50 is ready to accept an input image, the face image data is output to the face image recognition device 50 through the interface unit 63.
[0086]
Next, the configuration of the face image recognition device 50 will be specifically described. The interface unit 64 receives an input image from the CCD camera 60, receives data from the input device 68, and transfers data to the display device 69 under the control of the arithmetic control unit 65.
[0087]
The input device 68 is composed of a keyboard, a mouse, a touch panel, etc., and when executing the face image recognition program, when specifying the positions of both eyes, nose, and mouth with respect to the face image (step S603), a sample is formed on the created average face. This is used when a point is designated (step S704).
[0088]
The display device 69 is a display monitor, and when executing the face image recognition program, display of sample points on the average face image 11, display of sample points on the registered image 14, display of sample points on the input image 16, or This is used for displaying the collation determination result (step S1311).
[0089]
The auxiliary storage unit 67 is, for example, a CD drive device that can read data from a floppy (registered trademark) disk drive device (FDD), a hard disk drive device (HDD), a CD-ROM, a CD-R, a CD-RW, etc. A DVD drive device that can read data from a DVD-ROM, DVD-R, DVD-RW, DVD-RAM, or the like.
[0090]
The face image recognition program executed by the face image recognition apparatus 50 according to the present embodiment is recorded and provided as a file in an executable format on an FD, CD-ROM, DVD-ROM, or the like. The program is read and executed by a floppy (registered trademark) disk drive device, a CD drive device, a DVD drive, or the like.
[0091]
Further, the face image data in the learning face image set 10 and the face image data for registration are also provided by FD, CD-ROM, DVD-ROM or the like, and are a floppy (registered trademark) disk drive device, CD drive device or DVD. The face image data for learning is read out by the drive and stored and processed in the face image learning unit 53, and the face image data for registration is stored in the registered image storage unit 54. The auxiliary storage unit 67 constitutes a storage unit of the present invention.
[0092]
The auxiliary storage unit 67 does not need to be directly connected to the face image recognition device 50, and the auxiliary storage unit 67 may be present on the network. For example, a face image server may be installed on the Internet or a LAN to store learning face image data and registration face image data, and download them as necessary. In this case, the face image recognition device 50 needs to be further provided with a communication unit such as a modem or a LAN board.
[0093]
Further, the face image recognition apparatus 50 of the present embodiment is provided with an arithmetic control unit 65 such as a CPU for controlling the entire system, and a main storage unit 66 composed of storage media such as a RAM and a ROM. A boot program and the like are stored in advance in the ROM, and a part of an OS (operation system) read from the HD, a face image recognition program, and the like are stored in the RAM, and the arithmetic control unit 65 executes these programs. Further, the RAM stores various face image data, sample point data, calculation results, and the like read out when the face image recognition program is executed.
[0094]
As described above, in the present embodiment, first, an average face image 11 used to designate sample points from the face image set 10 is created, and the face image set 10 corresponding to the sample points on the average face image 11 is created. Sample points on each face image are detected to create a feature vector recognition subspace 23, and the sample points on the registered image 14 corresponding to the sample points on the average face image 11 using the recognition subspace 23. Are detected, sample points on the input image 16 corresponding to the sample points on the registered image 14 are detected using the recognition subspace 23 and the registered image 14, and the recognized partial space of the detected registered image 14 and input image 16 is detected. 23, the similarity of the feature vectors in the image 23 is calculated and the registered image 14 and the input image 16 are collated. Therefore, the sample points need only be specified on the average face image 11. It is possible to reduce the work load on the.
[0095]
In addition, a partial space is used for collation judgment, and the partial space is not easily affected by fluctuations of the person due to differences in facial expressions, shooting angles, etc. Since it is configured as the recognition subspace 23, it is possible to enhance the discrimination ability between the person image and the other person image.
[0096]
In the present embodiment, the case where the recognition target image of the image recognition apparatus is a face image has been shown. However, the present invention is not limited to this, and a predetermined body including a mark is included. It can also be applied to sites. For example, in the palm print example, the hand muscles can be used as the one corresponding to the eyes and nose of the face.
[0097]
That is, in the case of a face image, the positions of both eyes, nose, and mouth are specified when creating the average face image 11 (step S603), but in the case of a palm print image, the position of the hand muscles may be specified instead. Further, as the feature vector, a feature amount such as the direction of the raised line of the palm print, the curvature, etc. may be used. Since the other processes are the same as those of the face image, the palm print image recognition apparatus can be easily realized.
[0098]
【The invention's effect】
As described above, according to the invention of claim 1, an average image is created from a plurality of image sets related to a predetermined part of the body, and images in the image set corresponding to the sample points set on the average image The upper sample point is detected to create a feature vector subspace at the sample point, and the sample point on the registered image corresponding to the sample point on the set average image is detected using the created subspace. The sample points on the input image corresponding to the detected sample points on the registered image are detected using the created subspace, and the registered image detected in the created subspace and the sample points on the input image Therefore, it is not necessary to specify sample points on each registered image, and the sample points are specified only on the average image. Because it is sufficient, to reduce the burden of the work according to the specification of the sample points, an effect that sample point storing stores capacity can be reduced as the image processing device can be obtained.
[0099]
In addition, since the feature of each individual image is expressed using the partial space of the feature vector, the features common to all people are removed, the individual features are emphasized, and the features of the image can be efficiently extracted as knowledge. There is an effect that an image processing apparatus capable of improving the discrimination ability between the person image and the other person image is obtained.
[0100]
According to the second aspect of the present invention, on the image in the image set corresponding to the sample point set on the average image using the correlation between the feature vector in the image in the image set and the feature vector in the average image. A sub-space of the feature vector in the image in the image set is created by using the feature vector at the sample point on the image in the detected image set A sample point on the image in the image set corresponding to the sample point set on the average image based on the distance to the space is detected, and a feature vector at the sample point on the image in the detected image set is detected. Since the partial space of the feature vector created by the provisional partial space creating means is modified, the sample vector on the average image is created when creating the partial space of the feature vector. The sample point on the image of the image set corresponding to Le point detected efficiently, an effect that the image recognition apparatus capable of creating a subspace can be obtained.
[0101]
According to the invention of claim 3, an image pair of the person is prepared from the image set, and the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained. The difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained by calculating the difference subspace of the person and preparing another person's image pair from the image set. Since the subspace is calculated, and the intersection of the calculated difference space of the personal difference subspace and the subspace of the other person is calculated and the intersection is defined as the subspace, the fluctuation of the personal image is excluded. It is resistant to noise caused by fluctuations in the person's image due to differences in facial expressions, palm opening, shooting angle, etc., and fluctuations between the person and others are emphasized, so knowledge can be efficiently extracted into the subspace. ,Book Image and others image and discriminating ability image recognition apparatus which can improve an effect that can be obtained.
[0102]
According to the invention of claim 4, an image pair of the person is prepared from the image set, and the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained. The difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained by calculating the difference subspace of the person and preparing another person's image pair from the image set. Calculating the subspace, calculating the intersection of the calculated subspace of the principal difference and the subspace of the other person and making the intersection as a subspace, until the subspace created there converges The subspace is updated by repeatedly using the detecting means, the second person difference subspace calculating means, the second other person difference subspace calculating means, and the second recognition subspace creating means. Part It is possible to create a subspace in which the feature of the image set is extracted with higher accuracy than the provisional subspace created by the space creation means, and when identifying the person image and the other person image using the subspace There is an effect that an image recognition apparatus capable of improving the discrimination ability is obtained.
[0103]
Further, according to the invention of claim 5, since the sample point on the registered image corresponding to the sample point on the average image is detected based on the distance between the feature vector and the partial space in the registered image, Even if there is a difference in facial expression, palm opening, shooting angle, etc. between the average image and the registered image, it is possible to accurately detect sample points on the registered image corresponding to the sample points of the average image An effect is obtained that a simple image recognition apparatus can be obtained.
[0104]
According to the invention of claim 6, the sample points on the input image corresponding to the detected sample points on the registered image are obtained by subtracting the feature vector in the input image and the feature vector in the registered image in the subspace. Since the detection is based on the correlation, the input image is collated with the registered image even if there is a difference in facial expression, palm opening, shooting angle, etc. between the input image and the registered image. There is an effect that an image recognition apparatus capable of accurately detecting the upper sample point is obtained.
[0105]
According to the invention of claim 7, the similarity is calculated based on the correlation in the partial space of the feature vector between the detected registered image and the sample points on the input image, and the input image and the registered image are obtained. Because verification is performed and identity verification is performed, even if there is a difference in facial expression, open / closed palm, shooting angle, etc. between the input image and the registered image, it is possible to accurately and efficiently perform verification determination. There exists an effect that an image recognition device is obtained.
[0106]
According to the invention of claim 8, an average image is created from a plurality of image sets relating to a predetermined part of the body, and the sample points on the image in the image set corresponding to the sample points set on the average image And a feature vector partial space at the sample point is created, and a sample point on the registered image corresponding to the set sample point on the average image is detected using the created partial space, The sample points on the input image corresponding to the sample points on the registered image are detected using the created subspace, and the registered image detected in the created subspace and the feature vectors at the sample points on the input image Since the similarity is calculated and the input image and the registered image are checked for identity verification, there is no need to specify a sample point on each registered image, and it is only necessary to specify a sample point on the average image. , To reduce the burden of the work according to the specification of the sample points, an effect that the image recognition method capable of reducing the storage capacity for storing sample points are obtained.
[0107]
In addition, since the feature of each individual image is expressed using the partial space of the feature vector, the features common to all people are removed, the individual features are emphasized, and the features of the image can be efficiently extracted as knowledge. There is an effect that an image recognition method capable of improving the discrimination ability between the person image and the other person image is obtained.
[0108]
According to the invention of claim 9, an average image is created from a plurality of image sets relating to a predetermined part of the body, and the sample points on the image in the image set corresponding to the sample points set on the average image And a feature vector partial space at the sample point is created, and a sample point on the registered image corresponding to the set sample point on the average image is detected using the created partial space, The sample points on the input image corresponding to the sample points on the registered image are detected using the created subspace, and the registered image detected in the created subspace and the feature vectors at the sample points on the input image Since the similarity is calculated and the input image and the registered image are checked for identity verification, there is no need to specify a sample point on each registered image, and it is only necessary to specify a sample point on the average image. , To reduce the burden of the work according to the specification of the sample points, an effect that can program to reduce the storage capacity for storing the sample points are obtained.
[0109]
In addition, since the feature of each individual image is expressed using the partial space of the feature vector, the features common to all people are removed, the individual features are emphasized, and the features of the image can be efficiently extracted as knowledge. There is an effect that it is possible to obtain a program capable of improving the discrimination ability between the person image and the other person image.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram for explaining a concept of image recognition processing according to the present embodiment;
FIG. 2 is an explanatory diagram for explaining a concept of a partial space according to the present embodiment.
FIG. 3 is an explanatory diagram for explaining a concept of sample point detection on a face image using a distance from a feature vector to a recognition subspace according to the present embodiment;
FIG. 4 is an explanatory diagram for explaining a concept of sample point detection on an input image according to the present embodiment.
FIG. 5 is a functional block diagram showing a configuration of a face image recognition apparatus according to the present embodiment.
FIG. 6 is a flowchart of normalization processing for normalizing face image data according to the present embodiment.
FIG. 7 is a flowchart of recognition subspace creation processing for creating a feature vector recognition subspace from a face image set according to the present embodiment;
FIG. 8 is a flowchart of a recognition subspace creation process for creating a recognition subspace at sample points according to the present embodiment.
FIG. 9 is a flowchart of a partial space creation process for creating a partial space based on a feature vector according to the present embodiment.
FIG. 10 is a flowchart of a recognition subspace calculation process for calculating a recognition subspace according to the present embodiment.
FIG. 11 is a flowchart of a recognition subspace correction process for correcting a feature vector recognition subspace from a face image set according to the present embodiment;
FIG. 12 is a flowchart of recognition subspace convergence determination processing for determining the convergence of the recognition subspace according to the present embodiment.
FIG. 13 is a flowchart showing a processing procedure of collation determination processing according to the present embodiment.
FIG. 14 is a block diagram showing a system configuration of a face image recognition apparatus according to the present embodiment.
[Explanation of symbols]
10 Face image set
11 Average face image
12 Example of average face image with 100 sample points specified
13 Knowledge
14 Registration images
15 Example of registered image with sample points detected
16 input images
17 Example of input image with sample points detected
20 Feature vector space
21 Other people's variable subspace
22 Fluctuating subspace of the person
23 Target recognition subspace
30 Feature vector of face image
31 Distance of feature vector to recognition subspace
40 Projection of feature vector of input image to recognition subspace
41 Projection of feature vector of registered image to recognition subspace
50 Face image recognition device
51 Face image input reception part
52 Normalization processing unit
53 Face Image Learning Department
54 Registered image storage
55 Registered image sample point detector
56 Input image sample point detector
57 Similarity detection unit
58 Collation determination unit
61 Image input section
62 Image memory
63, 64 interface part
65 Arithmetic Control Unit (CPU)
66 Main memory (ROM, RAM)
67 Auxiliary storage
68 Input device
69 Display device

Claims (9)

本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識装置において、
前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成手段と、
前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成手段と、
前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出手段と、
前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出手段と、
前記登録画像サンプル点検出手段により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出手段により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定手段と
を備えたことを特徴とする画像認識装置。
An image for verifying an identity by comparing local features at sample points between an input image obtained by capturing a predetermined part of the person's body and a plurality of registered images of the person and others relating to the part. In the recognition device,
Average image creating means for creating an average image from a plurality of images in the image set relating to the part;
A subspace creating means for detecting a sample point on each image in the image set corresponding to the sample point set on the average image and creating a subspace of the feature vector at the sample point;
Registered image sample point detection means for detecting a sample point on the registered image corresponding to a sample point on the average image using the partial space;
Input image sample point detection means for detecting a sample point on the input image corresponding to a sample point on the registered image using the partial space;
Within the partial space between the feature vector at the sample point on the registered image detected by the registered image sample point detection means and the feature vector at the sample point on the input image detected by the input image sample point detection means An image recognition apparatus comprising: a collation determining unit that calculates the similarity of the input image and collates the input image with the registered image to perform identity verification.
前記部分空間作成手段は、前記画像集合内の画像における特徴ベクトルと前記平均画像における特徴ベクトルとの相関を用いて前記平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出する第1の検出手段と、
前記第1の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定的な特徴ベクトルの部分空間を作成する暫定部分空間作成手段と、
前記画像集合内の画像における特徴ベクトルの前記部分空間への距離に基づいて前記平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出する第2の検出手段と、
前記第2の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて前記暫定部分空間作成手段により作成された前記部分空間を修正する部分空間修正手段と
を備えたことを特徴とする請求項1に記載の画像認識装置。
The partial space creating means uses the correlation between the feature vector in the image in the image set and the feature vector in the average image to set the image on the image in the image set corresponding to the sample point set on the average image. First detection means for detecting sample points;
Provisional subspace creation means for creating a subspace of a provisional feature vector using a feature vector at a sample point on an image in the image set detected by the first detection means;
Second detection means for detecting a sample point on the image in the image set corresponding to the sample point set on the average image based on a distance of the feature vector in the image in the image set to the partial space When,
Subspace correction means for correcting the subspace created by the provisional subspace creation means using a feature vector at a sample point on an image in the image set detected by the second detection means. The image recognition apparatus according to claim 1.
前記暫定部分空間作成手段は、前記画像集合から本人の画像ペアを用意して、前記第1の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出する第1の本人差部分空間算出手段と、
前記画像集合から他人の画像ペアを用意して、前記第1の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第1の他人差部分空間算出手段と、
前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第1の認識部分空間作成手段と
を備えたことを特徴とする請求項2に記載の画像認識装置。
The provisional subspace creating means prepares an image pair of the person from the image set, and the sample of the image pair corresponding to the sample point set on the average image detected by the first detecting means A first principal difference subspace calculating means for calculating a principal difference subspace by obtaining a difference between feature vectors at points;
Prepare another person's image pair from the image set, and calculate the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the first detection means. A first other person difference subspace calculating means for calculating and calculating another person difference subspace;
3. A first recognition subspace creating means for calculating a crossing portion between the complementary space of the personal difference subspace and the different person subspace and using the crossing portion as a subspace. The image recognition apparatus described in 1.
前記部分空間修正手段は、前記画像集合から本人の画像ペアを用意して、前記第2の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出する第2の本人差部分空間算出手段と、
前記画像集合から他人の画像ペアを用意して、前記第2の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第2の他人差部分空間算出手段と、
前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第2の認識部分空間作成手段と、
前記第2の認識部分空間作成手段で作成された該部分空間が収束するまで前記第2の検出手段と前記第2の本人差部分空間算出手段と前記第2の他人差部分空間算出手段と前記第2の認識部分空間作成手段とを繰り返し用いることにより前記部分空間を更新する認識部分空間更新手段と
を備えたことを特徴とする請求項2に記載の画像認識装置。
The subspace correction means prepares an image pair of the person from the image set, and the sample points of the image pair corresponding to the sample points set on the average image detected by the second detection means Second principal difference subspace calculating means for calculating a principal difference subspace by obtaining a difference between feature vectors in
Preparing an image pair of another person from the image set, and calculating a difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the second detection unit; Second other person difference subspace calculating means for calculating and calculating another person difference subspace;
A second recognizing subspace creating means for calculating a crossing part between the complementary space of the personal difference subspace and the different person subspace and using the crossing part as a subspace;
Until the partial space created by the second recognition subspace creating means converges, the second detecting means, the second personal difference subspace calculating means, the second different person difference subspace calculating means, The image recognition apparatus according to claim 2, further comprising a recognition subspace updating unit that updates the partial space by repeatedly using a second recognition subspace creation unit.
前記登録画像サンプル点検出手段は、前記平均画像上のサンプル点に対応する該登録画像上のサンプル点を該登録画像における特徴ベクトルと前記部分空間との距離に基づいて検出することを特徴とする請求項1〜4のいずれか一つに記載の画像認識装置。The registered image sample point detecting means detects a sample point on the registered image corresponding to a sample point on the average image based on a distance between a feature vector in the registered image and the partial space. The image recognition apparatus as described in any one of Claims 1-4. 前記入力画像サンプル点検出手段は、前記登録画像上のサンプル点に対応する該入力画像上のサンプル点を該入力画像における特徴ベクトルと前記登録画像における特徴ベクトルの前記部分空間内での相関に基づいて検出することを特徴とする請求項1〜5のいずれか一つに記載の画像認識装置。The input image sample point detection unit is configured to determine a sample point on the input image corresponding to the sample point on the registered image based on a correlation in the partial space between a feature vector in the input image and a feature vector in the registered image. The image recognition apparatus according to claim 1, wherein the image recognition apparatus detects the image recognition apparatus. 前記照合判定手段は、前記登録画像上と前記入力画像上の対応する前記サンプル点における特徴ベクトルの前記部分空間内での相関に基づいて類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行うことを特徴とする請求項1〜6のいずれか一つに記載の画像認識装置。The collation determining means calculates similarity based on the correlation in the partial space of feature vectors at the corresponding sample points on the registered image and the input image, and calculates the input image and the registered image. The image recognition apparatus according to claim 1, wherein collation is performed to confirm the identity. 本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識方法において、
前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、
前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、
前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、
前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、
前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と
を含んだことを特徴とする画像認識方法。
An image for verifying an identity by comparing local features at sample points between an input image obtained by capturing a predetermined part of the person's body and a plurality of registered images of the person and others relating to the part. In the recognition method,
An average image creating step of creating an average image from a plurality of images in the image set relating to the part;
A subspace creating step of detecting a sample point on each image in the image set corresponding to the sample point set on the average image and creating a subspace of the feature vector at the sample point;
A registered image sample point detecting step of detecting, using the partial space, a sample point on the registered image corresponding to a sample point on the average image;
An input image sample point detection step of detecting a sample point on the input image corresponding to a sample point on the registered image using the partial space;
In the partial space between the feature vector at the sample point on the registered image detected by the registered image sample point detection step and the feature vector at the sample point on the input image detected by the input image sample point detection step An image recognition method comprising: a collation determination step of calculating a similarity level of the input image and collating the input image with the registered image to perform identity verification.
本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識方法をコンピュータに実行させるプログラムであって、
前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、
前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、
前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、
前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、
前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と
をコンピュータに実行させるプログラム。
An image for verifying an identity by comparing local features at sample points between an input image obtained by capturing a predetermined part of the person's body and a plurality of registered images of the person and others relating to the part. A program for causing a computer to execute a recognition method,
An average image creating step of creating an average image from a plurality of images in the image set relating to the part;
A subspace creating step of detecting a sample point on each image in the image set corresponding to the sample point set on the average image and creating a subspace of the feature vector at the sample point;
A registered image sample point detecting step of detecting, using the partial space, a sample point on the registered image corresponding to a sample point on the average image;
An input image sample point detection step of detecting a sample point on the input image corresponding to a sample point on the registered image using the partial space;
In the partial space between the feature vector at the sample point on the registered image detected by the registered image sample point detection step and the feature vector at the sample point on the input image detected by the input image sample point detection step A program for causing a computer to execute a collation determination step of calculating the similarity and collating the input image with the registered image to confirm the identity.
JP2002284153A 2002-09-27 2002-09-27 Image recognition apparatus, image recognition method, and program for causing computer to execute the method Expired - Fee Related JP4187494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002284153A JP4187494B2 (en) 2002-09-27 2002-09-27 Image recognition apparatus, image recognition method, and program for causing computer to execute the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002284153A JP4187494B2 (en) 2002-09-27 2002-09-27 Image recognition apparatus, image recognition method, and program for causing computer to execute the method

Publications (2)

Publication Number Publication Date
JP2004118731A JP2004118731A (en) 2004-04-15
JP4187494B2 true JP4187494B2 (en) 2008-11-26

Family

ID=32277807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002284153A Expired - Fee Related JP4187494B2 (en) 2002-09-27 2002-09-27 Image recognition apparatus, image recognition method, and program for causing computer to execute the method

Country Status (1)

Country Link
JP (1) JP4187494B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4606779B2 (en) * 2004-06-07 2011-01-05 グローリー株式会社 Image recognition apparatus, image recognition method, and program causing computer to execute the method
JP4577771B2 (en) * 2005-02-15 2010-11-10 Kddi株式会社 Face image recognition device
JP5628570B2 (en) * 2010-06-28 2014-11-19 グローリー株式会社 Image collation device and image collation method
CN103415859A (en) * 2010-12-29 2013-11-27 汤姆逊许可公司 Method for face registration
JP5755012B2 (en) 2011-04-21 2015-07-29 キヤノン株式会社 Information processing apparatus, processing method thereof, program, and imaging apparatus
WO2015128961A1 (en) * 2014-02-26 2015-09-03 株式会社日立製作所 Face authentication system
FR3127602A1 (en) 2021-09-27 2023-03-31 Idemia Identity & Security France method for generating an augmented image and associated device

Also Published As

Publication number Publication date
JP2004118731A (en) 2004-04-15

Similar Documents

Publication Publication Date Title
JP4606779B2 (en) Image recognition apparatus, image recognition method, and program causing computer to execute the method
KR102455633B1 (en) Liveness test method and apparatus
US20210287026A1 (en) Method and apparatus with liveness verification
JP4501937B2 (en) Face feature point detection device, feature point detection device
JP4156430B2 (en) Face verification method and system using automatic database update method
CN110326001B (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
JP6026119B2 (en) Biological information processing device
US20080192991A1 (en) Magnetic Resonance Imaging at Several Rf Frequencies
JP2018206239A (en) Authentication device and authentication method
JP5480532B2 (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
JP2020184331A (en) Liveness detection method and apparatus, face authentication method and apparatus
JP5226570B2 (en) Image detection apparatus, image detection method, and image detection program
JP4187494B2 (en) Image recognition apparatus, image recognition method, and program for causing computer to execute the method
WO2021131029A1 (en) Filter generation device, estimation device, facial authentication system, filter generation method, and recording medium
KR20200119425A (en) Apparatus and method for domain adaptation-based object recognition
JP4887966B2 (en) Verification device
JP4099981B2 (en) Image recognition system, image recognition method, and image recognition program
CN114913404A (en) Model training method, face image living body detection method, electronic device and storage medium
KR100898766B1 (en) Face recognition system, the method of face recognition registration and confirmation
KR102570071B1 (en) Liveness test method and liveness test apparatus, biometrics authentication method and face authentication apparatus
JP7337541B2 (en) Information processing device, information processing method and program
US10984085B2 (en) Biometric recognition for uncontrolled acquisition environments
EP3506152A1 (en) Information processing apparatus, recording medium for recording biometric authentication program, and biometric authentication method
US20230222782A1 (en) Adversarial example detection device, adversarial example detection method, and program
EP4102383A1 (en) Authentication method, information processing device, and authentication program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050613

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080909

R150 Certificate of patent or registration of utility model

Ref document number: 4187494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees