JP4187494B2 - Image recognition apparatus, image recognition method, and program for causing computer to execute the method - Google Patents
Image recognition apparatus, image recognition method, and program for causing computer to execute the method Download PDFInfo
- Publication number
- JP4187494B2 JP4187494B2 JP2002284153A JP2002284153A JP4187494B2 JP 4187494 B2 JP4187494 B2 JP 4187494B2 JP 2002284153 A JP2002284153 A JP 2002284153A JP 2002284153 A JP2002284153 A JP 2002284153A JP 4187494 B2 JP4187494 B2 JP 4187494B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- sample point
- subspace
- registered
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、顔や掌紋など本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像の間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムに関し、特に、本人画像と他人画像の識別を効率的に行って認識率を高めることができる画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムに関する。
【0002】
【従来の技術】
従来、入場管理やコンピュータへのアクセス等に係るセキュリティシステムにおいて個人の身体的特徴を利用して本人と他人を識別する技術が利用されているが、顔や掌紋等をCCD(Charge Coupled Device)カメラ等で撮影して入力画像とし、その入力画像と予め登録してある顔や掌紋等の登録画像とを照合し本人確認をする方法においては、顔の表情や掌の開き加減あるいは撮影角度等の相違の影響により、単に入力画像と複数の登録画像を重ね合わせて一致の度合いを比較するだけでは高い識別能力を発揮することができない。
【0003】
入力画像と登録画像を照合して本人確認を行う画像認識法としては、画像集合中の各画像の大きさを正規化して正規化画像の各画素の濃淡値からなる特徴ベクトルの部分空間を主成分分析により生成し、入力画像と登録画像の特徴ベクトルを部分空間上に射影して類似度を計算し照合判定する固有顔(Eigenface)法が一般的に知られている。
【0004】
この従来技術によれば、入力顔画像と登録顔画像の照合は入力画像と登録画像との間での固定された各画素を基準として行われるため、顔の表情や撮影角度等の相違が存在して入力顔画像と登録顔画像の間で画像のゆがみやずれ等が生じた場合に、本人と他人の識別能力が低下するという問題がある。
【0005】
このため、顔の登録画像上の目鼻口等の顔の目印となる部分にサンプル点を指定し、それらサンプル点に対応する入力画像上のサンプル点の位置を両画像の類似度を計算することによって求め、求められたサンプル点間においてそれら両画像の局所的な特徴を比較する技術が開示されている(例えば、非特許文献1参照。)。
【0006】
すなわち、この従来技術では、顔の表情あるいは撮影角度等の相違によって登録画像と入力画像の間でゆがみやずれ等が生じた場合でも、類似度を計算することにより登録画像上のサンプル点に対応する入力画像上のサンプル点を検出することができるので、上記の問題点が緩和され、本人と他人との識別能力を高めることができる。
【0007】
【非特許文献1】
エル・ウィスコット(L. Wiskott),外3名,「フェイス・レコグニション・バイ・エラスティック・バンチ・グラフ・マッチング(Face Recognition by Elastic Bunch Graph Matching)」,アイトリプルイー・トランザクションズ・オン・パターン・アナリシス・アンド・マシーン・インテリジェンス(IEEE Transactions On Pattern Analysis And Machine Intelligence),1997年,第19巻,第7号,p.775−779
【0008】
【発明が解決しようとする課題】
しかしながら、この従来技術(例えば、非特許文献1参照。)を用いた場合、対応するサンプル点において入力画像と複数の登録画像の間での照合を行うため、予めすべての登録画像に対してサンプル点を指定しておく必要があり、登録画像の数が増加するほどサンプル点の指定作業に負担がかかり、また、各登録画像のサンプル点を記憶するための記憶容量が増加するという問題がある。
【0009】
また、照合に使用される顔や掌紋等の登録画像と入力画像には万人に共通する特徴も含まれているので、個人の特徴が明瞭に検知されにくく、識別能力の向上が困難であるという問題がある。
【0010】
更に、顔の表情や掌の開き加減、撮影角度等の相違によって生じる登録画像に対する入力画像のゆがみやずれ等にある程度対処することができるものの、同一人物の画像の変動を軽減し、他人の画像との相違を強調するような処理は行わないため、識別能力のさらなる向上は困難であるという問題がある。
【0011】
本発明は、上記問題(課題)に鑑みてなされたものであって、各登録画像上におけるサンプル点の設定作業の負担を軽減し、また、画像集合の特徴を学習してそれらの特徴を効率良く表現した知識を利用することで、本人の画像と他人の画像の識別を効率的に行って認識率を高めることができる画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムを提供することを目的とする。
【0012】
【課題を解決するための手段】
上記目的を達成するために、請求項1の発明に係る画像認識装置は、本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識装置において、前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成手段と、前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成手段と、前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出手段と、前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出手段と、前記登録画像サンプル点検出手段により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出手段により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定手段とを備えたことを特徴とする。
【0013】
また、請求項2の発明に係る画像認識装置は、請求項1に係る発明において、前記部分空間作成手段は、前記画像集合内の画像における特徴ベクトルと前記平均画像における特徴ベクトルとの相関を用いて前記平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出する第1の検出手段と、前記第1の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定的な特徴ベクトルの部分空間を作成する暫定部分空間作成手段と、前記画像集合内の画像における特徴ベクトルの前記部分空間への距離に基づいて前記平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出する第2の検出手段と、前記第2の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて前記暫定部分空間作成手段により作成された前記部分空間を修正する部分空間修正手段とを備えたことを特徴とする。
【0014】
また、請求項3の発明に係る画像認識装置は、請求項2に係る発明において、前記暫定部分空間作成手段は、前記画像集合から本人の画像ペアを用意して、前記第1の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出する第1の本人差部分空間算出手段と、前記画像集合から他人の画像ペアを用意して、前記第1の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第1の他人差部分空間算出手段と、前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第1の認識部分空間作成手段とを備えたことを特徴とする。
【0015】
また、請求項4の発明に係る画像認識装置は、請求項2に係る発明において、前記部分空間修正手段は、前記画像集合から本人の画像ペアを用意して、前記第2の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出する第2の本人差部分空間算出手段と、前記画像集合から他人の画像ペアを用意して、前記第2の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第2の他人差部分空間算出手段と、前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第2の認識部分空間作成手段と、前記第2の認識部分空間作成手段で作成された該部分空間が収束するまで前記第2の検出手段と前記第2の本人差部分空間算出手段と前記第2の他人差部分空間算出手段と前記第2の認識部分空間作成手段とを繰り返し用いることにより前記部分空間を更新する認識部分空間更新手段とを備えたことを特徴とする。
【0016】
また、請求項5の発明に係る画像認識装置は、請求項1〜4のいずれか一つに係る発明において、前記登録画像サンプル点検出手段は、前記平均画像上のサンプル点に対応する該登録画像上のサンプル点を該登録画像における特徴ベクトルと前記部分空間との距離に基づいて検出することを特徴とする。
【0017】
また、請求項6の発明に係る画像認識装置は、請求項1〜5のいずれか一つに係る発明において、前記入力画像サンプル点検出手段は、前記登録画像上のサンプル点に対応する該入力画像上のサンプル点を該入力画像における特徴ベクトルと前記登録画像における特徴ベクトルの前記部分空間内での相関に基づいて検出することを特徴とする。
【0018】
また、請求項7の発明に係る画像認識装置は、請求項1〜6のいずれか一つに係る発明において、前記照合判定手段は、前記登録画像上と前記入力画像上の対応する前記サンプル点における特徴ベクトルの前記部分空間内での相関に基づいて類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行うことを特徴とする。
【0019】
また、請求項8の発明に係る画像認識方法は、本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識方法において、前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と、を含んだことを特徴とする。
【0020】
また、請求項9の発明に係るプログラムは、本人の身体の所定の部位を取り込んだ入力画像と前記部位に関する本人および他人の複数の登録画像との間で、サンプル点における局所的な特徴を比較することによって画像を照合し本人確認を行う画像認識方法をコンピュータに実行させるプログラムであって、前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と、をコンピュータに実行させることを特徴とする。
【0021】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラムの好適な実施の形態を詳細に説明する。なお以下では、顔画像を用いた顔画像認識の場合について説明する。
【0022】
まず、本実施の形態に係る画像認識処理の概念について説明する。図1は、本実施の形態に係る画像認識処理の概念を説明するための説明図である。
【0023】
図1に示すように、本実施の形態に係る顔画像認識処理は、オフラインでの学習時処理と照合時処理の2つの大きな処理からなり、学習時処理で顔画像の特徴を学習した知識13を利用して照合処理を行うよう構成されている。
【0024】
まず、オフラインでの学習時処理の処理手順を説明する。最初に、顔画像集合10内の各画像に対し、両目、鼻、口の位置を指定する。ただし、ここでは最低限両目の位置を指定すればよい。そして、各顔画像の両目、鼻、口の位置が重なるように正規化し、各画素の濃淡値を平均して平均顔画像11を作成する。
【0025】
ここで、「画像集合」とは、複数の人物における身体の所定の部位に関する画像の集まりであり、またある特定の人物に関しても顔の表情や掌の開き加減、撮影角度等の相違によって異なる複数の本人画像を含むものである。この画像集合は登録画像の集合と同一である必要はない。
【0026】
次に、作成された平均顔画像11上に任意の数のサンプル点を指定する。図1では、平均顔画像11上に100個のサンプル点を指定した平均顔画像の例12が示されている。そして、平均顔画像11の特徴ベクトルと顔画像集合10内の各画像の特徴ベクトルの相関を用いて、平均顔画像11上のサンプル点に対応する顔画像集合10内の各画像上のサンプル点を検出する。そして、検出されたサンプル点上で、顔画像集合10内の各画像における特徴ベクトルの部分空間を主成分分析の手法を用いて作成する。この部分空間は暫定的なもので、後に修正される。
【0027】
ここで、「特徴ベクトル」とは、サンプル点周辺における局所的な領域での画素の濃淡値やその濃淡値の変化率等の特徴量の集まりを一つのベクトルとして表したものであり、それらの特徴量を各々有する複数の画素の集まりからなるデジタル顔画像が与えられれば容易に作成することができる。
【0028】
ここで、本実施の形態で用いられる部分空間の概念について説明する。図2は、本実施の形態に係る部分空間の概念を説明するための説明図である。特徴ベクトル空間20内において、本人の変動部分空間22は顔の表情や撮影角度等の相違によって異なる複数の本人画像ペアの特徴ベクトルの差から構成され、他人の変動部分空間21は本人と他人との画像ペアの特徴ベクトルの差から構成される。目的とする部分空間23は本人の変動部分空間22の補空間と他人の変動部分空間21の交わりより導くことができる。以降、このようにして構成された部分空間を「認識部分空間」と呼ぶ。
【0029】
図1の説明に戻ると、顔画像集合10内の画像を用いて作成された特徴ベクトルの暫定的な認識部分空間23は、顔画像集合10内の各画像における特徴ベクトルの認識部分空間23への距離に基づいて修正される。
【0030】
具体的には、顔画像集合10内の各画像における特徴ベクトルの認識部分空間23への距離を計算し、その距離が小さくなるような各画像上のサンプル点を検出する。サンプル点が検出されたらそのサンプル点の各画像における特徴ベクトルを基にして新しい認識部分空間23を作成し、作成された認識部分空間23が収束するまで、特徴ベクトルの認識部分空間23への距離に基づいたサンプル点検出処理と、顔画像集合10内の各画像のサンプル点における特徴ベクトルを基にした部分空間作成処理とを繰り返し、認識部分空間23の修正を行う。得られた認識部分空間23は、顔画像の特徴を学習した知識13として画像照合時に利用される。
【0031】
ここで、本実施の形態で用いられる、特徴ベクトルの認識部分空間23への距離を用いた画像のサンプル点の検出の概念について説明する。図3は、本実施の形態に係る特徴ベクトルの認識部分空間23への距離を用いた顔画像上のサンプル点検出の概念を説明する説明図である。
【0032】
図3において、顔画像の特徴ベクトル30の認識部分空間23への距離31は、その値が小さいほど認識部分空間23内に抽出された顔の特徴に対応する特徴がその顔画像上に良く現れていることを意味する。すなわち、この距離が小さくなるようにサンプル点を選ぶことにより、平均顔画像11上のサンプル点に対応したサンプル点をその画像上に設定することができる。
【0033】
図1の説明に戻り、次に、照合時処理の処理手順を説明する。まず、登録画像14における特徴ベクトルの認識部分空間23への距離を計算し、その距離が小さくなるような登録画像上のサンプル点を検出する。図1には、登録画像14上にサンプル点を検出した登録画像の例15が示されている。
【0034】
入力画像16と照合するための登録画像14を複数の登録画像の集合内から選択する方法には、その複数の登録画像の集合内から登録画像14を次々に選択する方法や、本人によって入力されたID番号等で関連付けられた登録画像14を特定して選択する方法等がある。
【0035】
ここで、「登録画像」とは、濃淡値を各々有する複数の画素の集まりからなるデジタル顔画像と、そのデジタル顔画像の複数の画素において、画素の周辺における局所的な領域で作成された特徴ベクトルからなる特徴ベクトル情報とを指している。但し、登録画像に特徴ベクトル情報を少なくとも含んでいれば、顔画像の照合時処理を行うことができる。
【0036】
また、入力画像16に関しては、登録画像14上の検出されたサンプル点に対応するサンプル点を、認識部分空間23内における入力画像16と登録画像14の特徴ベクトルの相関を用いて検出する。図1には、入力画像16上にサンプル点を検出した入力画像の例17が示されている。
【0037】
図4は、本実施の形態に係る入力画像16上のサンプル点検出の概念を説明する説明図である。図4に示されるように、入力画像16の特徴ベクトルと登録画像14の特徴ベクトルを認識部分空間23上へ射影し、射影された入力画像の特徴ベクトル40と射影された登録画像の特徴ベクトル41間の相関値を、射影された両特徴ベクトル間のなす角θの余弦、すなわちcos θで算出する。この値が大きいほど、そのサンプル点における両画像の特徴が類似していることを意味する。
【0038】
図1の説明に戻って、登録画像14と入力画像16上の対応するサンプル点が検出されたら、次に、そのサンプル点において認識部分空間23内へ射影された登録画像14の特徴ベクトルと入力画像16の特徴ベクトルを用いて両特徴ベクトルの相関値を認識部分空間23内で算出する。この処理をすべてのサンプル点に対して行う。そして、その入力画像16と登録画像14の画像ペアに対する相関値の平均値を算出し、類似度とする。図1において、平均顔画像11上に100個のサンプル点を設定した例12では、100個の相関値の平均値(類似度)を算出する。そして、その類似度に基づいて本人と他人の識別判定を行う。
【0039】
次に、本実施の形態に係る顔画像認識装置の構成について説明する。図5は本実施の形態に係る顔画像認識装置の構成を示す機能ブロック図である。
【0040】
図5に示すように、本実施の形態に係る顔画像認識装置50は、顔画像入力受付部51と、正規化処理部52と、顔画像学習部53と、登録画像記憶部54と、登録画像サンプル点検出部55と、入力画像サンプル点検出部56と、類似度算出部57と、照合判定部58とを備えている。
【0041】
顔画像入力受付部51は、学習用の顔画像集合、入力顔画像、登録用顔画像を装置内に取り込むための受付部であり、受け付けた画像を正規化処理部52に出力する。
【0042】
正規化処理部52は、顔画像入力受付部51から画像を取得し、画像に正規化処理をして各画像の顔のサイズを整合させ、受け取った画像が学習用の顔画像集合の画像であれば顔画像学習部53へ、登録用顔画像であれば登録画像記憶部54へ、入力顔画像であれば入力画像サンプル点検出部56へ正規化した画像を出力する。
【0043】
顔画像学習部53は、正規化された顔画像集合を正規化処理部52から取得し、その顔画像集合10を用いて平均顔画像11を作成し、その平均顔画像11を用いて特徴ベクトルの認識部分空間23を作成する。
【0044】
登録画像記憶部54は、顔画像入力受付部51に登録用顔画像が受け付けられたときに、正規化処理部52によって正規化された登録用画像14を取得して記憶する。
【0045】
登録画像サンプル点検出部55は、登録画像14と入力画像16との間で照合判定が行われる際に、顔画像学習部53から認識部分空間23を読み込み、登録画像記憶部54から登録画像14を読み込んで、登録画像14における特徴ベクトルの認識部分空間23への距離を用いて登録画像14上のサンプル点を検出する。
【0046】
入力画像サンプル点検出部56は、登録画像14と入力画像16との間で照合判定が行われる際に、顔画像学習部53から認識部分空間23を読み込み、正規化処理部52から入力画像16を読み込み、登録画像サンプル点検出部55から登録画像14と登録画像14上のサンプル点情報を読み込み、登録画像14と入力画像16との特徴ベクトルの認識部分空間23内での相関を計算して入力画像16上のサンプル点を検出する。
【0047】
類似度算出部57は、登録画像14と入力画像16のサンプル点情報と、入力画像サンプル点検出部56で計算された各サンプル点における登録画像14と入力画像16の特徴ベクトルの認識部分空間23内での相関値データを読み込み、登録画像14と入力画像16の間の類似度を算出する。
【0048】
照合判定部58は、類似度算出部57で得られた登録画像14と入力画像16の類似度を読み込み、その類似度に基づいて登録画像14と入力画像16との照合判定を行い、照合結果を出力する。
【0049】
以降、図1に示された、本実施の形態に係る画像認識処理をさらに具体的に説明する。図6は、本実施の形態に係る顔画像データを正規化する正規化処理のフローチャートである。この処理は正規化処理部52によって行われる。なお、ここでは顔画像入力受付部51が受け付けた画像が学習用の顔画像集合であった場合を示してある。
【0050】
まず、平均顔画像11を仮に設けその画像上に仮の両目位置を設定する(ステップS601)。次に、顔画像受付部51を通じて顔画像集合10内の顔画像データを読み出し(ステップS602)、読み出した各顔画像データの両目、鼻、口の位置を指定する(ステップS603)。ただし、ここでは最低限両目の位置を指定すればよい。
【0051】
両目、鼻、口の位置が指定された後、各顔画像データの両目位置が平均顔画像11の両目位置に重なるようにアフィン変換を行い(ステップS604)、アフィン変換後の各顔画像データの両目、鼻、口の正規位置を算出する(ステップS605)。そして、算出された両目、鼻、口の正規位置の平均値を算出し(ステップS606)、平均顔画像11の両目、鼻、口の位置を設定する(ステップS607)。
【0052】
平均顔画像11の両目、鼻、口の位置が設定されたら、各顔画像データの両目、鼻、口の位置が平均顔画像11の両目、鼻、口の位置に重なるようにアフィン変換を行い(ステップS608)、画像集合10内の各顔画像の正規化画像を作成する(ステップS609)。
【0053】
なお、ここでは顔画像入力受付部51が受け付けた画像が学習用の顔画像集合10であった場合を示したが、学習時処理が終了して、受け付けた画像が入力顔画像あるいは登録用顔画像であった場合には、すでに平均顔画像11の両目、鼻、口の位置が学習時において設定されているので、顔画像データを読み出し(ステップS602)、読み出した顔画像データの両目、鼻、口の位置を指定し(ステップS603)、顔画像データの両目、鼻、口の位置が平均顔画像11の両目、鼻、口の位置に重なるようアフィン変換を行い(ステップS608)、読み込んだ画像の正規化画像を作成する(ステップS609)処理を行うだけでよい。
【0054】
次に、顔画像学習部53において顔画像集合10から特徴ベクトルの認識部分空間23を作成する処理について説明する。図7は、本実施の形態に係る顔画像集合10から特徴ベクトルの認識部分空間23を作成する認識部分空間作成処理のフローチャートである。
【0055】
まず、学習用の顔画像集合10からN個の顔画像データを読み込む(ステップS701)。読み込まれたN個の顔画像データの対応する各画素の濃淡値の平均を算出し(ステップS702)、平均顔画像11を作成する(ステップS703)。そして、作成された平均顔画像11上にM個のサンプル点を設定する(ステップS704)。
【0056】
同様に、N個の顔画像集合10内の各顔画像データ上にも平均顔画像11上のサンプル点に対応するM個のサンプル点を設定し(ステップS705)、対応するM個のサンプル点上で平均顔画像11とN個の各顔画像データの特徴ベクトル間の相関を計算する(ステップS706)。この特徴ベクトル間の相関がある閾値よりも大きいかどうかを調べ(ステップS707)、相関が大きい場合は、N個の各顔画像データ上に平均顔画像11のM個のサンプル点に対応するサンプル点を確定する(ステップS708)。相関が小さい場合は、N個の各顔画像データ上にM個のサンプル点を設定し直し(ステップS705)、相関が大きくなるサンプル点が見つかるまでこれらの処理(ステップS705〜ステップS707)を繰り返す。
【0057】
そして、N個の各顔画像データ上に平均顔画像11のM個のサンプル点に対応するサンプル点を確定(ステップS708)した後、N個の各顔画像データ上の各々M個のサンプル点における特徴ベクトルの認識部分空間23をM個作成する(ステップS709)。
【0058】
次に、図7の認識部分空間23を作成する処理(ステップS709)において、サンプル点での認識部分空間23を作成する具体的な作成処理について説明する。図8は、本実施の形態に係るサンプル点での認識部分空間23を作成する認識部分空間作成処理のフローチャートである。
【0059】
まず、N個の学習用の顔画像集合10内の顔画像データからNs組の本人画像のデータペアを選択する(ステップS801)。本人画像のデータペアとは、顔の表情や撮影角度等の相違によって異なる複数の本人画像からなるものである。そして、データペアの対応するサンプル点における特徴ベクトルの差分を計算し(ステップS802)、それを基にして本人差部分空間Ssを算出する(ステップS803)。
【0060】
次に、N個の学習用の顔画像集合10内の顔画像データからNо組の他人の画像のデータペアを選択し(ステップS804)、データペアの対応するサンプル点における特徴ベクトルの差分を計算し(ステップS805)、それを基にして他人差部分空間Sоを算出する(ステップS806)。
【0061】
本人差部分空間Ssと他人差部分空間Sоが算出されたら、本人差部分空間Ssの補空間SsCと他人差部分空間Sоとの交わりS、すなわち
S = So ∩ SsC
を算出し、これを認識部分空間23とする(ステップS807)。
【0062】
次に、図8の本人差部分空間Ssおよび他人差部分空間Sоを作成する処理(ステップS803、ステップS806)において、サンプル点での特徴ベクトルを基にして部分空間を作成する具体的な処理について説明する。図9は、本実施の形態に係る特徴ベクトルを基にして部分空間を作成する部分空間作成処理のフローチャートである。
【0063】
まず、R次元のN個の特徴ベクトルXi(1≦i≦N)を入力する(ステップS901)。そして、R行R列の相関行列Mを
M(k,l) = 1/N Σ Xi(k)Xi(l)
の算定式を用いて算出する(ステップS902)。ここで、1≦k,l≦Rである。
【0064】
相関行列Mが得られたらそれを用いてR個の固有値を計算し(ステップS903)、大きいほうからr個(r≦R)の固有値を抽出して(ステップS904)、r個の固有値に対応する固有ベクトルが張る空間を算出し、r次元の部分空間を求める(ステップS905)。これは数学的には主成分分析という統計的手法と同一である。
【0065】
次に、図8の本人差部分空間Ssの補空間SsCと他人差部分空間Soとの交わりを算出することによって認識部分空間23を作成する処理(ステップS807)において、本人差部分空間Ssと他人差部分空間Soから認識部分空間23を算出する具体的な処理について説明する。図10は、本実施の形態に係る認識部分空間23を算出する認識部分空間算出処理のフローチャートである。
【0066】
まず、本人差部分空間Ssの射影行列Psを算出し(ステップS1001)、次に他人差部分空間Soの射影行列Poを算出する(ステップS1002)。そして、定数α(0≦α≦1)を設定し、式
P = α Pо + (1 − α)(I − Ps)
により、行列Pを算出する(ステップS1003)。ここで、Iは単位行列である。αは他人差部分空間と本人差部分空間の補集合との重みを調整するパラメータであり、任意に指定できる。以下、この行列Pを混合行列と呼ぶこととする。
【0067】
そして、混合行列の固有値を算出し(ステップS1004)、その固有値に対する閾値を設定する(ステップS1005)。混合行列の固有値の取りうる範囲は0以上1以下であり、閾値は1に近く、1以下の値に設定する。そして、閾値以上の固有値を抽出してその固有値に対する固有ベクトルが張る空間を算出し、認識部分空間23とする(ステップS1006)。
【0068】
次に、顔画像学習部53において、図7で示された処理により作成された認識部分空間23を、学習用の顔画像集合10を用いて修正しながら顔の特徴を学習する具体的な処理について説明する。図11は、本実施の形態に係る顔画像集合10から特徴ベクトルの認識部分空間23を修正する認識部分空間修正処理のフローチャートである。
【0069】
まず、認識部分空間23の収束計算の最大反復回数を設定し(ステップS1101)、学習用の顔画像集合10内のN個の各顔画像上に平均顔画像11上のM個のサンプル点に対応するM個のサンプル点を設定する(ステップS1102)。そして、N個の各顔画像におけるM個の特徴ベクトルの対応するM個の認識部分空間23への距離を計算する(ステップS1103)。
【0070】
そして、この認識部分空間23への距離がある閾値よりも小さいかどうかを調べ(ステップS1104)、距離が小さい場合は、N個の各顔画像データ上に平均顔画像11上のM個のサンプル点に対応するサンプル点を確定する(ステップS1105)。距離が大きい場合は、N個の各顔画像データ上にM個のサンプル点を設定し直し(ステップS1102)、距離が小さくなるサンプル点が見つかるまでこれらの処理(ステップS1102〜ステップS1104)を繰り返す。
【0071】
N個の各顔画像データ上に平均顔画像11上のM個のサンプル点に対応するサンプル点が確定(ステップS1105)されたら、N個の各顔画像データ上の各々M個のサンプル点における特徴ベクトルの認識部分空間23をM個作成する(ステップS1106)。そして、この認識部分空間23が収束したかどうかを調べ(ステップS1107)、収束した場合は学習が終了したとして認識部分空間23の修正処理を終える。収束しなかった場合には、次に、収束計算の反復回数が設定した最大反復回数より小さいかどうかを調べ(ステップS1108)、小さくない場合には認識部分空間23の修正処理を終え、小さい場合には、N個の各顔画像データ上にM個のサンプル点を設定し直して(ステップS1102)、認識部分空間23が収束するまでこれらの処理(ステップS1102〜ステップS1108)を繰り返す。
【0072】
次に、図11に示された、認識部分空間23が収束したかどうかを調べる処理(ステップS1107)の具体的な手順について説明する。図12は、本実施の形態に係る認識部分空間23の収束を判定する認識部分空間収束判定処理のフローチャートである。
【0073】
まず、修正前後の2つの認識部分空間23に対する正準角の閾値を設定し(ステップS1201)、その正準角を算出する(ステップS1202)。そして、複数の正準角の内、最小の正準角が閾値よりも小さいかどうかを調べ(ステップS1203)、小さい場合は認識部分空間23が収束したと判定し(ステップS1204)、小さくない場合は認識部分空間23が未収束と判定する(ステップS1205)。
【0074】
次に、登録画像14と入力画像16を照合して本人確認を行う照合判定処理の処理手順を説明する。図13は、本実施の形態に係る照合判定処理の処理手順を示すフローチャートである。
【0075】
まず、登録画像サンプル点検出部55は、登録画像記憶部54に記憶されている登録画像14と顔画像学習部53により作成された認識部分空間23のデータを読み込み、登録画像14上に平均顔画像11上のサンプル点に対応するM個のサンプル点を設定する(ステップS1301)。そして、対応する各サンプル点上で登録画像14の特徴ベクトルの認識部分空間23への距離を算出する(ステップS1302)。この距離の概念は、図3において既に説明したものである。
【0076】
その後、この認識部分空間23への距離がある閾値よりも小さいかどうかを調べ(ステップS1303)、距離が小さい場合は、N個の各顔画像データ上に平均顔画像11のM個のサンプル点に対応するサンプル点を確定する(ステップS1304)。距離が小さくない場合には、N個の各顔画像データ上にM個のサンプル点を設定し直し(ステップS1301)、距離が小さくなるサンプル点が見つかるまでこれらの処理(ステップS1301〜ステップS1303)を繰り返す。これらの処理(ステップS1301〜ステップS1304)は、登録画像サンプル点検出部55にて行われる。
【0077】
次に、入力画像サンプル点検出部56は、正規化処理部52より正規化された入力画像16と、顔画像学習部53より作成された認識部分空間データ23と、登録画像サンプル点検出部55より検出されたサンプル点データと正規化された登録画像14とをそれぞれ読み込み、入力画像16上に登録画像14上のサンプル点に対応するM個のサンプル点を設定する(ステップS1305)。そして、対応するサンプル点上で登録画像14と入力画像16の特徴ベクトルの各認識部分空間23内での相関を算出する(ステップS1306)。
【0078】
その後、この登録画像14と入力画像16の特徴ベクトルの認識部分空間23内での相関がある閾値よりも大きいかどうかを調べ(ステップS1307)、相関が大きい場合は、入力画像16上に登録画像14上のM個のサンプル点に対応するサンプル点を確定する(ステップS1308)。相関が小さい場合は、入力画像16上にM個のサンプル点を設定し直し(ステップS1305)、相関が閾値よりも大きくなるサンプル点が見つかるまでこれらの処理(ステップS1305〜ステップS1307)を繰り返す。これらの処理(ステップS1305〜ステップS1308)は、入力画像サンプル点検出部56にて行われる。
【0079】
この認識部分空間23内での相関の概念は、図4において既に説明したものであり、具体的には、認識部分空間23上に射影された登録画像14と入力画像16の両特徴ベクトル間のなす角θの余弦、すなわちcos θで表される。
【0080】
登録画像14と入力画像16の対応するサンプル点が確定されると(ステップS1308)、類似度算出部57は、その確定されたサンプル点間における登録画像14と入力画像16の相関値データを入力画像サンプル点検出部56から読み込み、登録画像14と入力画像16間の類似度を各サンプル点における相関値の平均値を求めることにより算出する(ステップS1309)。そして、照合判定部58は、この類似度の大小に基づいて登録画像14と入力画像16の照合判定を行い(ステップS1310)、登録画像14に対応する本人であるかどうかの判定結果を出力する(ステップS1311)。
【0081】
次に、本実施の形態に係る顔画像認識装置のハードウェア構成について説明する。図14は本実施の形態に係る顔画像認識装置のシステム構成を示すブロック図である。
【0082】
図14に示すように、この顔画像認識装置50は、インターフェース部64と、演算制御部65と、主記憶部66と、補助記憶部67とからなり、入力装置68と、表示装置69とが接続されている、コンピュータを利用したスタンドアローン型における構成である。
【0083】
また、この顔画像認識装置50には、入力画像を取り込むためのCCDカメラ60がインターフェース64を介して接続されており、CCDカメラ60は画像入力部61と、画像メモリ62と、インターフェース部63で構成されている。
【0084】
まず、CCDカメラ60の構成について具体的に説明する。画像入力部61は、被写体である顔からの光をレンズで集光し、CCD(Charge Coupled Device)を使用して顔画像を電気信号に変換し、ディジタルデータに変換して顔画像データを画像メモリ62に記録する。
【0085】
画像メモリ62は画像入力部61のバッファメモリとして利用され、顔画像認識装置50が顔画像の入力を受け付けることができない場合に、顔画像データを一時的に記憶する。顔画像認識装置50が入力画像の受け付け可能な状態となれば、インターフェース部63を通じて顔画像データが顔画像認識装置50に出力される。
【0086】
次に、顔画像認識装置50の構成について具体的に説明する。インターフェース部64は、演算制御部65の制御のもと、CCDカメラ60からの入力画像の受け付けを行い、また入力装置68からのデータの受け付け、表示装置69へのデータの受け渡しを行う。
【0087】
入力装置68は、キーボード、マウス、タッチパネル等で構成され、顔画像認識プログラム実行時には、顔画像に対し両目、鼻、口の位置を指定する際(ステップS603)や作成された平均顔上にサンプル点を指定する際(ステップS704)等に用いられる。
【0088】
表示装置69は、ディスプレイモニタであり、顔画像認識プログラムを実行時には、平均顔画像11上のサンプル点の表示、登録画像14上のサンプル点の表示、入力画像16上のサンプル点の表示、あるいは照合判定結果の表示(ステップS1311)等に用いられる。
【0089】
補助記憶部67は、例えば、フロッピー(登録商標)ディスクドライブ装置(FDD)、ハードディスクドライブ装置(HDD)、CD−ROM、CD−R、CD−RW等からデータを読み込むことができるCDドライブ装置、DVD−ROM、DVD−R、DVD−RW、DVD−RAM等からデータを読み込むことができるDVDドライブ装置等である。
【0090】
本実施の形態の顔画像認識装置50で実行される顔画像認識プログラムは、FD、CD−ROMまたはDVD−ROM等に実行可能な形式のファイルで記録されて提供される。そして、フロッピー(登録商標)ディスクドライブ装置、CDドライブ装置またはDVDドライブ等によって読み出されて実行される。
【0091】
また、学習用の顔画像集合10内の顔画像データおよび登録用の顔画像データもFD、CD−ROMまたはDVD−ROM等により提供され、フロッピー(登録商標)ディスクドライブ装置、CDドライブ装置またはDVDドライブによって読み出されて、学習用の顔画像データは顔画像学習部53において記憶、処理され、登録用の顔画像データは登録画像記憶部54に記憶されるようになっている。この補助記憶部67は、本発明の記憶手段を構成するものである。
【0092】
なお、この補助記憶部67は顔画像認識装置50内に直接接続されている必要はなく、補助記憶部67がネットワーク上に存在する構成であってもよい。例えば、インターネットやLAN上に顔画像サーバを設置し、学習用の顔画像データや登録用の顔画像データを記憶して、必要に応じてダウンロードする構成としてもよい。この場合には、顔画像認識装置50には、さらにモデムやLANボード等の通信部を設ける必要がある。
【0093】
また、本実施の形態の顔画像認識装置50は、システム全体を制御するCPU等の演算制御部65と、RAMとROM等の記憶媒体からなる主記憶部66が設けられている。ROMには予めブートプログラム等が記憶されており、RAMにはHDから読み出したOS(オペレーションシステム)の一部および顔画像認識プログラム等が記憶され、演算制御部65がこれらのプログラムを実行する。さらに、RAMには顔画像認識プログラムの実行時に読み出された各種の顔画像データ、サンプル点データ、演算結果等が記憶される。
【0094】
上述してきたように、本実施の形態では、まず、顔画像集合10からサンプル点を指定するのに用いる平均顔画像11を作成し、平均顔画像11上のサンプル点に対応する顔画像集合10内の各顔画像上のサンプル点を検出して特徴ベクトルの認識部分空間23を作成し、その認識部分空間23を用いて平均顔画像11上のサンプル点に対応する登録画像14上のサンプル点を検出し、認識部分空間23と登録画像14を用いて登録画像14上のサンプル点に対応する入力画像16上のサンプル点を検出し、検出された登録画像14と入力画像16の認識部分空間23内での特徴ベクトルの類似度を算出し、登録画像14と入力画像16の照合判定を行うよう構成したので、サンプル点を平均顔画像11上にだけ指定すればよくサンプル点設定に係る作業負担を低減することができる。
【0095】
また、照合判定に部分空間を用い、さらに、その部分空間を顔の表情や撮影角度等の相違による本人変動に影響されにくく、また、他人画像との特徴の差が大きく現れるように部分空間を構成して認識部分空間23としたので、本人画像と他人画像の識別能力を高めることができる。
【0096】
なお、本実施の形態では、画像認識装置の認識対象画像が顔画像である場合を示したが、本発明はこれに限定されるものではなく、何らかの目印となるものが含まれる身体の所定の部位にも適用できる。例えば、掌紋の例では、顔の場合の目鼻口に対応するものとして手筋を用いることができる。
【0097】
すなわち、顔画像の場合は平均顔画像11を作成する際に両目、鼻、口の位置を指定したが(ステップS603)、掌紋画像の場合には代わりに手筋の位置を指定すればよい。また、特徴ベクトルとしては掌紋の隆起線の方向、曲率等の特徴量を用いればよい。それ以外の処理は顔画像の場合と変わるところがないので、掌紋画像認識装置を容易に実現することができる。
【0098】
【発明の効果】
以上説明したように、請求項1の発明によれば、身体の所定の部位に関する複数の画像集合から平均画像を作成し、該平均画像上に設定されたサンプル点に対応する画像集合内の画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成し、設定された平均画像上のサンプル点に対応する登録画像上のサンプル点を作成された部分空間を用いて検出し、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を作成された部分空間を用いて検出し、作成された部分空間内で検出された登録画像と入力画像上のサンプル点における特徴ベクトルの類似度を算出して登録画像と入力画像とを照合し本人確認を行うため、各登録画像上にサンプル点を指定する必要がなく、平均画像上にのみサンプル点を指定すればよいため、サンプル点の指定に係る作業の負担を軽減し、サンプル点を記憶する記憶容量を低減させることが可能な画像処理装置が得られるという効果を奏する。
【0099】
また、個々人の画像の特徴を特徴ベクトルの部分空間を用いて表現するので、万人に共通する特徴を除去し個人の特徴が強調され、効率良く画像の特徴を知識として抽出することができ、本人画像と他人画像の識別能力を向上させることが可能な画像処理装置が得られるという効果を奏する。
【0100】
また、請求項2の発明によれば、画像集合内の画像における特徴ベクトルと平均画像における特徴ベクトルとの相関を用いて平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出し、検出された該画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定的な特徴ベクトルの部分空間を作成し、該画像集合内の画像における特徴ベクトルの該部分空間への距離に基づいて平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出し、検出された該画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定部分空間作成手段により作成された特徴ベクトルの部分空間を修正することとしたので、特徴ベクトルの部分空間を作成する際に、平均画像上のサンプル点に対応する画像集合内の画像上のサンプル点を効率よく検出し、部分空間を作成することが可能な画像認識装置が得られるという効果を奏する。
【0101】
また、請求項3の発明によれば、画像集合から本人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出し、また画像集合から他人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出し、算出された本人差部分空間の補空間と他人差部分空間の交わり部を算出して該交わり部を部分空間とすることとしたので、本人画像の変動が除外されるため、顔の表情や掌の開き加減、撮影角度等の相違による本人画像の変動によるノイズに強く、また本人と他人との変動が強調されるので該部分空間に効率良く知識を抽出することができ、本人画像と他人画像との識別能力を向上させることが可能な画像認識装置が得られるという効果を奏する。
【0102】
また、請求項4の発明によれば、画像集合から本人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて本人差部分空間を算出し、また画像集合から他人の画像ペアを用意して、平均画像上に設定されたサンプル点に対応する該画像ペアのサンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出し、算出された本人差部分空間の補空間と他人差部分空間の交わり部を算出して該交わり部を部分空間とし、そこで作成された該部分空間が収束するまで、第2の検出手段と第2の本人差部分空間算出手段と第2の他人差部分空間算出手段と第2の認識部分空間作成手段とを繰り返し用いることにより該部分空間を更新することとしたので、暫定部分空間作成手段により作成された暫定的な部分空間よりもより精度良く画像集合の特徴を抽出した部分空間を作成することができ、その部分空間を用いて本人画像と他人画像とを識別する際に識別能力を向上させることが可能な画像認識装置が得られるという効果を奏する。
【0103】
また、請求項5の発明によれば、平均画像上のサンプル点に対応する登録画像上のサンプル点を、該登録画像における特徴ベクトルと部分空間との距離に基づいて検出することとしたので、平均画像と登録画像の間で顔の表情や掌の開き加減、撮影角度等の相違があった場合でも、平均画像のサンプル点に対応する登録画像上のサンプル点を精度良く検出することが可能な画像認識装置が得られるという効果を奏する。
【0104】
また、請求項6の発明によれば、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を、該入力画像における特徴ベクトルと該登録画像における特徴ベクトルの部分空間内での相関に基づいて検出することとしたので、入力画像と登録画像との間で顔の表情や掌の開き加減、撮影角度等の相違があった場合でも、登録画像との照合が行われる入力画像上のサンプル点を精度良く検出することが可能な画像認識装置が得られるという効果を奏する。
【0105】
また、請求項7の発明によれば、検出された登録画像と入力画像上のサンプル点間における特徴ベクトルの部分空間内での相関に基づいて類似度を算出して入力画像と登録画像とを照合し本人確認を行うこととしたので、入力画像と登録画像の間で表情や掌の開き加減、撮影角度等の相違があった場合でも、精度良く効率的に照合判定を行うことが可能な画像認識装置が得られるという効果を奏する。
【0106】
また、請求項8の発明によれば、身体の所定の部位に関する複数の画像集合から平均画像を作成し、該平均画像上に設定されたサンプル点に対応する画像集合内の画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成し、設定された平均画像上のサンプル点に対応する登録画像上のサンプル点を作成された部分空間を用いて検出し、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を作成された部分空間を用いて検出し、作成された部分空間内で検出された登録画像と入力画像上のサンプル点における特徴ベクトルの類似度を算出して入力画像と登録画像とを照合し本人確認を行うため、各登録画像上にサンプル点を指定する必要がなく、平均画像上にのみサンプル点を指定すればよいため、サンプル点の指定に係る作業の負担を軽減し、サンプル点を記憶する記憶容量を低減させることが可能な画像認識方法が得られるという効果を奏する。
【0107】
また、個々人の画像の特徴を特徴ベクトルの部分空間を用いて表現するので、万人に共通する特徴を除去し個人の特徴が強調され、効率良く画像の特徴を知識として抽出することができ、本人画像と他人画像の識別能力を向上させることが可能な画像認識方法が得られるという効果を奏する。
【0108】
また、請求項9の発明によれば、身体の所定の部位に関する複数の画像集合から平均画像を作成し、該平均画像上に設定されたサンプル点に対応する画像集合内の画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成し、設定された平均画像上のサンプル点に対応する登録画像上のサンプル点を作成された部分空間を用いて検出し、検出された登録画像上のサンプル点に対応する入力画像上のサンプル点を作成された部分空間を用いて検出し、作成された部分空間内で検出された登録画像と入力画像上のサンプル点における特徴ベクトルの類似度を算出して入力画像と登録画像とを照合し本人確認を行うため、各登録画像上にサンプル点を指定する必要がなく、平均画像上にのみサンプル点を指定すればよいため、サンプル点の指定に係る作業の負担を軽減し、サンプル点を記憶する記憶容量を低減させることが可能なプログラムが得られるという効果を奏する。
【0109】
また、個々人の画像の特徴を特徴ベクトルの部分空間を用いて表現するので、万人に共通する特徴を除去し個人の特徴が強調され、効率良く画像の特徴を知識として抽出することができ、本人画像と他人画像の識別能力を向上させることが可能なプログラムが得られるという効果を奏する。
【図面の簡単な説明】
【図1】本実施の形態に係る画像認識処理の概念を説明するための説明図である。
【図2】本実施の形態に係る部分空間の概念を説明するための説明図である。
【図3】本実施の形態に係る特徴ベクトルの認識部分空間への距離を用いた顔画像上のサンプル点検出の概念を説明する説明図である。
【図4】本実施の形態に係る入力画像上のサンプル点検出の概念を説明する説明図である。
【図5】本実施の形態に係る顔画像認識装置の構成を示す機能ブロック図である。
【図6】本実施の形態に係る顔画像データを正規化する正規化処理のフローチャートである。
【図7】本実施の形態に係る顔画像集合から特徴ベクトルの認識部分空間を作成する認識部分空間作成処理のフローチャートである。
【図8】本実施の形態に係るサンプル点での認識部分空間を作成する認識部分空間作成処理のフローチャートである。
【図9】本実施の形態に係る特徴ベクトルを基にして部分空間を作成する部分空間作成処理のフローチャートである。
【図10】本実施の形態に係る認識部分空間を算出する認識部分空間算出処理のフローチャートである。
【図11】本実施の形態に係る顔画像集合から特徴ベクトルの認識部分空間を修正する認識部分空間修正処理のフローチャートである。
【図12】本実施の形態に係る認識部分空間の収束を判定する認識部分空間収束判定処理のフローチャートである。
【図13】本実施の形態に係る照合判定処理の処理手順を示すフローチャートである。
【図14】本実施の形態に係る顔画像認識装置のシステム構成を示すブロック図である。
【符号の説明】
10 顔画像集合
11 平均顔画像
12 100個のサンプル点を指定した平均顔画像の例
13 知識
14 登録画像
15 サンプル点を検出した登録画像の例
16 入力画像
17 サンプル点を検出した入力画像の例
20 特徴ベクトル空間
21 他人の変動部分空間
22 本人の変動部分空間
23 目的とする認識部分空間
30 顔画像の特徴ベクトル
31 特徴ベクトルの認識部分空間への距離
40 入力画像の特徴ベクトルの認識部分空間への射影
41 登録画像の特徴ベクトルの認識部分空間への射影
50 顔画像認識装置
51 顔画像入力受付部
52 正規化処理部
53 顔画像学習部
54 登録画像記憶部
55 登録画像サンプル点検出部
56 入力画像サンプル点検出部
57 類似度検出部
58 照合判定部
61 画像入力部
62 画像メモリ
63、64 インターフェース部
65 演算制御部(CPU)
66 主記憶部(ROM、RAM)
67 補助記憶部
68 入力装置
69 表示装置[0001]
BACKGROUND OF THE INVENTION
According to the present invention, an image is obtained by comparing local features at sample points between an input image obtained by capturing a predetermined part of a person's body such as a face and a palm print and a plurality of registered images of the person and others related to the part. The present invention relates to an image recognition apparatus that collates and confirms identity, an image recognition method, and a program that causes a computer to execute the method, and in particular, an image recognition apparatus that can efficiently identify a person's image and another person's image and increase the recognition rate. The present invention relates to an image recognition method and a program for causing a computer to execute the method.
[0002]
[Prior art]
Conventionally, in a security system related to admission management, access to a computer, and the like, a technique for identifying a person and others using the physical characteristics of an individual has been used. In the method of verifying the identity by comparing the input image with a registered image such as a face or palm print that has been registered in advance, the facial expression, the degree of opening of the palm, the shooting angle, etc. Due to the influence of the difference, it is not possible to exhibit high discrimination ability simply by superimposing the input image and a plurality of registered images and comparing the degree of matching.
[0003]
As an image recognition method for verifying the identity by comparing the input image with the registered image, the size of each image in the image set is normalized, and the feature vector subspace consisting of the gray value of each pixel of the normalized image is mainly used. An eigenface method is generally known that is generated by component analysis, projects feature vectors of an input image and a registered image onto a partial space, calculates similarity, and makes a collation determination.
[0004]
According to this conventional technique, since the input face image and the registered face image are collated based on each fixed pixel between the input image and the registered image, there is a difference in facial expression, shooting angle, etc. Thus, when the image is distorted or misaligned between the input face image and the registered face image, there is a problem that the ability to discriminate between the person and others falls.
[0005]
For this reason, sample points are designated at portions that are marks of the face such as the eyes, nose and mouth on the registered images of the face, and the positions of the sample points on the input image corresponding to the sample points are calculated for the similarity between the two images. And a technique for comparing local characteristics of both images between the obtained sample points is disclosed (for example, see Non-Patent Document 1).
[0006]
That is, in this prior art, even when distortion or deviation occurs between the registered image and the input image due to differences in facial expression or shooting angle, etc., it is possible to deal with sample points on the registered image by calculating similarity. Since the sample points on the input image to be detected can be detected, the above problems are alleviated, and the ability to discriminate between the person and others can be improved.
[0007]
[Non-Patent Document 1]
L. Wiskott, 3 others, “Face Recognition by Elastic Bunch Graph Matching”, Eye Triple E Transactions on Pattern・ Analysis and Machine Intelligence (IEEE Transactions On Pattern Analysis And Machine Intelligence), 1997, Vol. 19, No. 7, p. 775-779
[0008]
[Problems to be solved by the invention]
However, when this conventional technique (for example, refer to Non-Patent Document 1) is used, in order to perform collation between the input image and a plurality of registered images at the corresponding sample points, all the registered images are sampled in advance. It is necessary to specify points, and as the number of registered images increases, the burden of the sample point specifying work increases, and the storage capacity for storing the sample points of each registered image increases. .
[0009]
In addition, since the registered images such as faces and palm prints used for collation and the input image include features common to all people, it is difficult to clearly detect individual features, and it is difficult to improve identification ability. There is a problem.
[0010]
Furthermore, although it can deal with some distortions and shifts of the input image with respect to the registered image caused by differences in facial expressions, palm opening, shooting angle, etc., it can reduce fluctuations in the image of the same person and reduce the image of others There is a problem that it is difficult to further improve the discrimination capability because no processing that emphasizes the difference from the above is performed.
[0011]
The present invention has been made in view of the above problems (problems), and reduces the burden of setting sample points on each registered image, and also learns the characteristics of an image set to make those characteristics efficient. Providing an image recognition apparatus, an image recognition method, and a program for causing a computer to execute the method that can efficiently identify a person's image and another person's image by using well-represented knowledge and increase the recognition rate The purpose is to do.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, an image recognition apparatus according to the first aspect of the present invention provides a sample between an input image obtained by capturing a predetermined part of a person's body and a plurality of registered images of the person and others relating to the part. In an image recognition apparatus that compares an image by comparing local features at points and performs identity verification, an average image creating unit that creates an average image from a plurality of images in an image set related to the part; Subspace generating means for detecting a sample point on each image in the image set corresponding to the set sample point and generating a subspace of a feature vector at the sample point; and a sample point on the average image Registered image sample point detecting means for detecting a corresponding sample point on the registered image using the partial space, and before corresponding to the sample point on the registered image Input image sample point detection means for detecting sample points on the input image using the partial space, feature vectors at the sample points on the registered image detected by the registered image sample point detection means, and the input image sample inspection Collation determination means for calculating the similarity in the partial space with the feature vector at the sample point on the input image detected by the output means, and comparing the input image with the registered image to confirm the identity. It is characterized by having.
[0013]
According to a second aspect of the present invention, in the image recognition apparatus according to the first aspect, the partial space creating means uses a correlation between a feature vector in the image in the image set and a feature vector in the average image. First detection means for detecting a sample point on the image in the image set corresponding to the sample point set on the average image, and an image in the image set detected by the first detection means Temporary subspace creation means for creating a partial space of a temporary feature vector using the feature vector at the upper sample point, and the average image based on the distance to the partial space of the feature vector in the image in the image set Second detection means for detecting a sample point on the image in the image set corresponding to the sample point set above, and the second detection means detected by the second detection means Characterized in that a subspace modifying means for modifying the partial space created by the provisional partial space creating means using the feature vectors at the sample point on the image of the image in the set.
[0014]
According to a third aspect of the present invention, in the image recognition apparatus according to the second aspect of the present invention, the provisional partial space creating means prepares an image pair of the person from the image set, and the first detecting means First principal difference subspace calculating means for calculating a principal difference subspace by calculating a difference between feature vectors at the sample points of the image pair corresponding to the detected sample point set on the average image; Prepare another person's image pair from the image set, and calculate the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the first detection means. A first other person difference subspace calculating means for calculating the other person difference subspace, and calculating a crossing portion between the complement space of the principal difference subspace and the other person subspace, and setting the crossing portion to the subspace. Characterized by comprising a first recognition moiety space creating means for.
[0015]
According to a fourth aspect of the present invention, in the image recognition apparatus according to the second aspect of the present invention, the partial space correction means prepares an image pair of the user from the image set and detects the image pair by the second detection means. Second principal difference subspace calculating means for calculating a principal difference subspace by calculating a difference between feature vectors at the sample points of the image pair corresponding to the sample points set on the averaged image, An image pair of another person is prepared from the image set, and a difference between feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the second detection unit is obtained. A second person difference subspace calculating means for calculating a person difference subspace, and calculating an intersection between the complement space of the person difference subspace and the person difference subspace, and making the intersection a subspace. Second recognition subspace creation means, the second detection means, the second personal difference subspace calculation means, and the second until the partial space created by the second recognition subspace creation means converges. And a recognition subspace update means for updating the partial space by repeatedly using two different person subspace calculation means and the second recognition subspace creation means.
[0016]
An image recognition apparatus according to a fifth aspect of the present invention is the image recognition apparatus according to any one of the first to fourth aspects, wherein the registered image sample point detecting means is configured to register the registration points corresponding to the sample points on the average image. A sample point on the image is detected based on a distance between a feature vector in the registered image and the partial space.
[0017]
An image recognition apparatus according to a sixth aspect of the present invention is the image recognition apparatus according to any one of the first to fifth aspects, wherein the input image sample point detecting means corresponds to the input corresponding to the sample point on the registered image. A sample point on the image is detected based on a correlation in the partial space between the feature vector in the input image and the feature vector in the registered image.
[0018]
An image recognition apparatus according to a seventh aspect of the present invention is the image recognition apparatus according to any one of the first to sixth aspects, wherein the collation determining means corresponds to the sample points on the registered image and the input image. The similarity is calculated based on the correlation of the feature vector in the partial space, and the input image and the registered image are collated to confirm the identity.
[0019]
According to an eighth aspect of the present invention, there is provided an image recognition method including a local feature at a sample point between an input image obtained by capturing a predetermined part of a person's body and a plurality of registered images of the person and others relating to the part. In the image recognition method for verifying the identity by comparing the images by comparing the average image creation step of creating an average image from a plurality of images in the image set relating to the part, and the sample points set on the average image A subspace creating step for detecting a sample point on each image in the image set corresponding to the image and creating a subspace of a feature vector at the sample point; and on the registered image corresponding to the sample point on the average image A registered image sample point detecting step for detecting a sample point of the registered image using the partial space, and a sample on the input image corresponding to the sample point on the registered image An input image sample point detecting step for detecting points using the subspace, a feature vector at a sample point on the registered image detected by the registered image sample point detecting step, and an input image sample point detecting step And a collation determining step of calculating the similarity in the partial space with the feature vector at the sample point on the input image and collating the input image with the registered image to perform identity verification. Features.
[0020]
Further, the program according to the invention of claim 9 compares local features at sample points between an input image obtained by capturing a predetermined part of the body of the person and a plurality of registered images of the person and others regarding the part. A program for causing a computer to execute an image recognition method for verifying an identity by comparing images, and an average image creating step for creating an average image from a plurality of images in an image set related to the region; Detecting a sample point on each image in the image set corresponding to the set sample point and generating a subspace of a feature vector at the sample point; and a sample point on the average image A registered image sample point detecting step for detecting a corresponding sample point on the registered image using the partial space; and a sample on the registered image. An input image sample point detecting step for detecting a sample point on the input image corresponding to the input image using the partial space, a feature vector at the sample point on the registered image detected by the registered image sample point detecting step, and the Collation for calculating the similarity in the partial space with the feature vector at the sample point on the input image detected by the input image sample point detection step and collating the input image with the registered image for identity verification The determination step is caused to be executed by a computer.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an image recognition apparatus, an image recognition method, and a program for causing a computer to execute the method according to the present invention will be described below in detail with reference to the accompanying drawings. Hereinafter, a case of face image recognition using a face image will be described.
[0022]
First, the concept of the image recognition process according to the present embodiment will be described. FIG. 1 is an explanatory diagram for explaining the concept of image recognition processing according to the present embodiment.
[0023]
As shown in FIG. 1, the face image recognition process according to the present embodiment is composed of two major processes, an offline learning process and a collation process, and knowledge 13 in which the facial image features are learned by the learning process. It is comprised so that a collation process may be performed using.
[0024]
First, a processing procedure of offline learning processing will be described. First, the positions of both eyes, nose, and mouth are designated for each image in the face image set 10. However, the positions of both eyes should be specified at least here. Then, normalization is performed so that the positions of both eyes, nose, and mouth of each face image overlap, and the
[0025]
Here, the “image set” is a collection of images related to a predetermined part of the body of a plurality of persons, and a plurality of different persons also differ depending on differences in facial expressions, palm open / close, imaging angle, etc. The person's own image is included. This image set need not be identical to the set of registered images.
[0026]
Next, an arbitrary number of sample points are designated on the created
[0027]
Here, the “feature vector” represents a collection of feature quantities such as a gray value of a pixel and a change rate of the gray value in a local region around the sample point as one vector. If a digital face image composed of a collection of a plurality of pixels each having a feature amount is given, it can be easily created.
[0028]
Here, the concept of the partial space used in the present embodiment will be described. FIG. 2 is an explanatory diagram for explaining the concept of the partial space according to the present embodiment. In the
[0029]
Returning to the description of FIG. 1, the
[0030]
Specifically, the distance to the
[0031]
Here, the concept of detection of sample points of an image using the distance of the feature vector to the
[0032]
In FIG. 3, as the
[0033]
Returning to the description of FIG. 1, the processing procedure of the collation processing will be described next. First, the distance to the
[0034]
As a method for selecting the registered
[0035]
Here, “registered image” means a digital face image composed of a collection of a plurality of pixels each having a gray value, and a feature created in a local region around the pixels in the plurality of pixels of the digital face image This refers to feature vector information consisting of vectors. However, if at least the feature vector information is included in the registered image, it is possible to perform face image matching processing.
[0036]
For the
[0037]
FIG. 4 is an explanatory diagram for explaining the concept of sample point detection on the
[0038]
Returning to the description of FIG. 1, when the corresponding sample points on the registered
[0039]
Next, the configuration of the face image recognition apparatus according to this embodiment will be described. FIG. 5 is a functional block diagram showing the configuration of the face image recognition apparatus according to the present embodiment.
[0040]
As shown in FIG. 5, the face
[0041]
The face image
[0042]
The
[0043]
The face
[0044]
The registration
[0045]
The registered image sample
[0046]
The input image sample
[0047]
The
[0048]
The collation determining unit 58 reads the similarity between the registered
[0049]
Hereinafter, the image recognition processing according to the present embodiment shown in FIG. 1 will be described more specifically. FIG. 6 is a flowchart of normalization processing for normalizing face image data according to the present embodiment. This processing is performed by the
[0050]
First, an
[0051]
After the positions of both eyes, nose and mouth are designated, affine transformation is performed so that the positions of both eyes of each face image data overlap with the positions of both eyes of the average face image 11 (step S604). The normal positions of both eyes, nose and mouth are calculated (step S605). Then, the average value of the calculated normal positions of both eyes, nose and mouth is calculated (step S606), and the positions of both eyes, nose and mouth of the
[0052]
When the positions of both eyes, nose and mouth of the
[0053]
Although the case where the image received by the face image
[0054]
Next, the process of creating the feature
[0055]
First, N face image data are read from the learning face image set 10 (step S701). The average of the shade values of the corresponding pixels of the read N face image data is calculated (step S702), and the
[0056]
Similarly, M sample points corresponding to the sample points on the
[0057]
Then, after confirming sample points corresponding to M sample points of the
[0058]
Next, a specific creation process for creating the
[0059]
First, Ns sets of personal image data pairs are selected from the face image data in the N learning face image sets 10 (step S801). The personal image data pair is composed of a plurality of personal images that differ depending on differences in facial expressions, photographing angles, and the like. Then, the difference between the feature vectors at the corresponding sample points of the data pair is calculated (step S802), and the principal difference subspace Ss is calculated based on the difference (step S803).
[0060]
Next, a data pair of images of other people is selected from the face image data in the N learning face image sets 10 (step S804), and a feature vector difference at a corresponding sample point of the data pair is calculated. (Step S805), and the other person difference subspace So is calculated based on the result (Step S806).
[0061]
When the personal difference subspace Ss and the different person subspace Ss are calculated, the complementary space Ss of the personal difference subspace Ss is calculated.CAnd S between other people's difference subspace Sо, that is,
S = So ∩ SsC
Is calculated as a recognition subspace 23 (step S807).
[0062]
Next, a specific process for creating a subspace based on a feature vector at a sample point in the process of creating the principal difference subspace Ss and the other person difference subspace Sо in FIG. 8 (steps S803 and S806). explain. FIG. 9 is a flowchart of a partial space creation process for creating a partial space based on the feature vector according to the present embodiment.
[0063]
First, R-dimensional N feature vectors Xi (1 ≦ i ≦ N) are input (step S901). And the correlation matrix M of R rows and R columns is
M (k, l) = 1 / N Σ Xi (k) Xi (l)
Is calculated using the above formula (step S902). Here, 1 ≦ k and l ≦ R.
[0064]
When the correlation matrix M is obtained, R eigenvalues are calculated using the correlation matrix M (step S903), and r (r ≦ R) eigenvalues are extracted from the larger one (step S904) to correspond to the r eigenvalues. A space spanned by the eigenvector is calculated to obtain an r-dimensional subspace (step S905). This is mathematically the same as the statistical method called principal component analysis.
[0065]
Next, the complementary space Ss of the personal difference subspace Ss in FIG.CIn the process of creating the
[0066]
First, the projection matrix Ps of the personal difference subspace Ss is calculated (step S1001), and then the projection matrix Po of the different person subspace So is calculated (step S1002). Then, set a constant α (0 ≦ α ≦ 1)
P = α Pо + (1 − α) (I − Ps)
Thus, the matrix P is calculated (step S1003). Here, I is a unit matrix. α is a parameter for adjusting the weight between the different person difference subspace and the complement of the person difference subspace, and can be arbitrarily specified. Hereinafter, this matrix P is referred to as a mixing matrix.
[0067]
Then, an eigenvalue of the mixing matrix is calculated (step S1004), and a threshold for the eigenvalue is set (step S1005). The possible range of eigenvalues of the mixing matrix is 0 or more and 1 or less, and the threshold is set to a value close to 1 or 1 or less. Then, eigenvalues greater than or equal to the threshold are extracted, a space spanned by eigenvectors for the eigenvalues is calculated, and set as a recognition subspace 23 (step S1006).
[0068]
Next, in the face
[0069]
First, the maximum number of iterations of the convergence calculation of the
[0070]
Then, it is checked whether or not the distance to the
[0071]
When sample points corresponding to M sample points on the
[0072]
Next, a specific procedure of the process (step S1107) for checking whether or not the
[0073]
First, a canonical angle threshold is set for the two
[0074]
Next, the processing procedure of the collation determination process for collating the registered
[0075]
First, the registered image sample
[0076]
Thereafter, it is checked whether or not the distance to the
[0077]
Next, the input image sample
[0078]
Thereafter, it is checked whether or not the correlation between the feature vectors of the registered
[0079]
The concept of the correlation in the
[0080]
When the corresponding sample points of the registered
[0081]
Next, the hardware configuration of the face image recognition apparatus according to this embodiment will be described. FIG. 14 is a block diagram showing a system configuration of the face image recognition apparatus according to the present embodiment.
[0082]
As shown in FIG. 14, the face
[0083]
In addition, a
[0084]
First, the configuration of the
[0085]
The
[0086]
Next, the configuration of the face
[0087]
The
[0088]
The
[0089]
The
[0090]
The face image recognition program executed by the face
[0091]
Further, the face image data in the learning face image set 10 and the face image data for registration are also provided by FD, CD-ROM, DVD-ROM or the like, and are a floppy (registered trademark) disk drive device, CD drive device or DVD. The face image data for learning is read out by the drive and stored and processed in the face
[0092]
The
[0093]
Further, the face
[0094]
As described above, in the present embodiment, first, an
[0095]
In addition, a partial space is used for collation judgment, and the partial space is not easily affected by fluctuations of the person due to differences in facial expressions, shooting angles, etc. Since it is configured as the
[0096]
In the present embodiment, the case where the recognition target image of the image recognition apparatus is a face image has been shown. However, the present invention is not limited to this, and a predetermined body including a mark is included. It can also be applied to sites. For example, in the palm print example, the hand muscles can be used as the one corresponding to the eyes and nose of the face.
[0097]
That is, in the case of a face image, the positions of both eyes, nose, and mouth are specified when creating the average face image 11 (step S603), but in the case of a palm print image, the position of the hand muscles may be specified instead. Further, as the feature vector, a feature amount such as the direction of the raised line of the palm print, the curvature, etc. may be used. Since the other processes are the same as those of the face image, the palm print image recognition apparatus can be easily realized.
[0098]
【The invention's effect】
As described above, according to the invention of claim 1, an average image is created from a plurality of image sets related to a predetermined part of the body, and images in the image set corresponding to the sample points set on the average image The upper sample point is detected to create a feature vector subspace at the sample point, and the sample point on the registered image corresponding to the sample point on the set average image is detected using the created subspace. The sample points on the input image corresponding to the detected sample points on the registered image are detected using the created subspace, and the registered image detected in the created subspace and the sample points on the input image Therefore, it is not necessary to specify sample points on each registered image, and the sample points are specified only on the average image. Because it is sufficient, to reduce the burden of the work according to the specification of the sample points, an effect that sample point storing stores capacity can be reduced as the image processing device can be obtained.
[0099]
In addition, since the feature of each individual image is expressed using the partial space of the feature vector, the features common to all people are removed, the individual features are emphasized, and the features of the image can be efficiently extracted as knowledge. There is an effect that an image processing apparatus capable of improving the discrimination ability between the person image and the other person image is obtained.
[0100]
According to the second aspect of the present invention, on the image in the image set corresponding to the sample point set on the average image using the correlation between the feature vector in the image in the image set and the feature vector in the average image. A sub-space of the feature vector in the image in the image set is created by using the feature vector at the sample point on the image in the detected image set A sample point on the image in the image set corresponding to the sample point set on the average image based on the distance to the space is detected, and a feature vector at the sample point on the image in the detected image set is detected. Since the partial space of the feature vector created by the provisional partial space creating means is modified, the sample vector on the average image is created when creating the partial space of the feature vector. The sample point on the image of the image set corresponding to Le point detected efficiently, an effect that the image recognition apparatus capable of creating a subspace can be obtained.
[0101]
According to the invention of claim 3, an image pair of the person is prepared from the image set, and the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained. The difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained by calculating the difference subspace of the person and preparing another person's image pair from the image set. Since the subspace is calculated, and the intersection of the calculated difference space of the personal difference subspace and the subspace of the other person is calculated and the intersection is defined as the subspace, the fluctuation of the personal image is excluded. It is resistant to noise caused by fluctuations in the person's image due to differences in facial expressions, palm opening, shooting angle, etc., and fluctuations between the person and others are emphasized, so knowledge can be efficiently extracted into the subspace. ,Book Image and others image and discriminating ability image recognition apparatus which can improve an effect that can be obtained.
[0102]
According to the invention of claim 4, an image pair of the person is prepared from the image set, and the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained. The difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image is obtained by calculating the difference subspace of the person and preparing another person's image pair from the image set. Calculating the subspace, calculating the intersection of the calculated subspace of the principal difference and the subspace of the other person and making the intersection as a subspace, until the subspace created there converges The subspace is updated by repeatedly using the detecting means, the second person difference subspace calculating means, the second other person difference subspace calculating means, and the second recognition subspace creating means. Part It is possible to create a subspace in which the feature of the image set is extracted with higher accuracy than the provisional subspace created by the space creation means, and when identifying the person image and the other person image using the subspace There is an effect that an image recognition apparatus capable of improving the discrimination ability is obtained.
[0103]
Further, according to the invention of claim 5, since the sample point on the registered image corresponding to the sample point on the average image is detected based on the distance between the feature vector and the partial space in the registered image, Even if there is a difference in facial expression, palm opening, shooting angle, etc. between the average image and the registered image, it is possible to accurately detect sample points on the registered image corresponding to the sample points of the average image An effect is obtained that a simple image recognition apparatus can be obtained.
[0104]
According to the invention of claim 6, the sample points on the input image corresponding to the detected sample points on the registered image are obtained by subtracting the feature vector in the input image and the feature vector in the registered image in the subspace. Since the detection is based on the correlation, the input image is collated with the registered image even if there is a difference in facial expression, palm opening, shooting angle, etc. between the input image and the registered image. There is an effect that an image recognition apparatus capable of accurately detecting the upper sample point is obtained.
[0105]
According to the invention of claim 7, the similarity is calculated based on the correlation in the partial space of the feature vector between the detected registered image and the sample points on the input image, and the input image and the registered image are obtained. Because verification is performed and identity verification is performed, even if there is a difference in facial expression, open / closed palm, shooting angle, etc. between the input image and the registered image, it is possible to accurately and efficiently perform verification determination. There exists an effect that an image recognition device is obtained.
[0106]
According to the invention of claim 8, an average image is created from a plurality of image sets relating to a predetermined part of the body, and the sample points on the image in the image set corresponding to the sample points set on the average image And a feature vector partial space at the sample point is created, and a sample point on the registered image corresponding to the set sample point on the average image is detected using the created partial space, The sample points on the input image corresponding to the sample points on the registered image are detected using the created subspace, and the registered image detected in the created subspace and the feature vectors at the sample points on the input image Since the similarity is calculated and the input image and the registered image are checked for identity verification, there is no need to specify a sample point on each registered image, and it is only necessary to specify a sample point on the average image. , To reduce the burden of the work according to the specification of the sample points, an effect that the image recognition method capable of reducing the storage capacity for storing sample points are obtained.
[0107]
In addition, since the feature of each individual image is expressed using the partial space of the feature vector, the features common to all people are removed, the individual features are emphasized, and the features of the image can be efficiently extracted as knowledge. There is an effect that an image recognition method capable of improving the discrimination ability between the person image and the other person image is obtained.
[0108]
According to the invention of claim 9, an average image is created from a plurality of image sets relating to a predetermined part of the body, and the sample points on the image in the image set corresponding to the sample points set on the average image And a feature vector partial space at the sample point is created, and a sample point on the registered image corresponding to the set sample point on the average image is detected using the created partial space, The sample points on the input image corresponding to the sample points on the registered image are detected using the created subspace, and the registered image detected in the created subspace and the feature vectors at the sample points on the input image Since the similarity is calculated and the input image and the registered image are checked for identity verification, there is no need to specify a sample point on each registered image, and it is only necessary to specify a sample point on the average image. , To reduce the burden of the work according to the specification of the sample points, an effect that can program to reduce the storage capacity for storing the sample points are obtained.
[0109]
In addition, since the feature of each individual image is expressed using the partial space of the feature vector, the features common to all people are removed, the individual features are emphasized, and the features of the image can be efficiently extracted as knowledge. There is an effect that it is possible to obtain a program capable of improving the discrimination ability between the person image and the other person image.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram for explaining a concept of image recognition processing according to the present embodiment;
FIG. 2 is an explanatory diagram for explaining a concept of a partial space according to the present embodiment.
FIG. 3 is an explanatory diagram for explaining a concept of sample point detection on a face image using a distance from a feature vector to a recognition subspace according to the present embodiment;
FIG. 4 is an explanatory diagram for explaining a concept of sample point detection on an input image according to the present embodiment.
FIG. 5 is a functional block diagram showing a configuration of a face image recognition apparatus according to the present embodiment.
FIG. 6 is a flowchart of normalization processing for normalizing face image data according to the present embodiment.
FIG. 7 is a flowchart of recognition subspace creation processing for creating a feature vector recognition subspace from a face image set according to the present embodiment;
FIG. 8 is a flowchart of a recognition subspace creation process for creating a recognition subspace at sample points according to the present embodiment.
FIG. 9 is a flowchart of a partial space creation process for creating a partial space based on a feature vector according to the present embodiment.
FIG. 10 is a flowchart of a recognition subspace calculation process for calculating a recognition subspace according to the present embodiment.
FIG. 11 is a flowchart of a recognition subspace correction process for correcting a feature vector recognition subspace from a face image set according to the present embodiment;
FIG. 12 is a flowchart of recognition subspace convergence determination processing for determining the convergence of the recognition subspace according to the present embodiment.
FIG. 13 is a flowchart showing a processing procedure of collation determination processing according to the present embodiment.
FIG. 14 is a block diagram showing a system configuration of a face image recognition apparatus according to the present embodiment.
[Explanation of symbols]
10 Face image set
11 Average face image
12 Example of average face image with 100 sample points specified
13 Knowledge
14 Registration images
15 Example of registered image with sample points detected
16 input images
17 Example of input image with sample points detected
20 Feature vector space
21 Other people's variable subspace
22 Fluctuating subspace of the person
23 Target recognition subspace
30 Feature vector of face image
31 Distance of feature vector to recognition subspace
40 Projection of feature vector of input image to recognition subspace
41 Projection of feature vector of registered image to recognition subspace
50 Face image recognition device
51 Face image input reception part
52 Normalization processing unit
53 Face Image Learning Department
54 Registered image storage
55 Registered image sample point detector
56 Input image sample point detector
57 Similarity detection unit
58 Collation determination unit
61 Image input section
62 Image memory
63, 64 interface part
65 Arithmetic Control Unit (CPU)
66 Main memory (ROM, RAM)
67 Auxiliary storage
68 Input device
69 Display device
Claims (9)
前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成手段と、
前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成手段と、
前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出手段と、
前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出手段と、
前記登録画像サンプル点検出手段により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出手段により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定手段と
を備えたことを特徴とする画像認識装置。An image for verifying an identity by comparing local features at sample points between an input image obtained by capturing a predetermined part of the person's body and a plurality of registered images of the person and others relating to the part. In the recognition device,
Average image creating means for creating an average image from a plurality of images in the image set relating to the part;
A subspace creating means for detecting a sample point on each image in the image set corresponding to the sample point set on the average image and creating a subspace of the feature vector at the sample point;
Registered image sample point detection means for detecting a sample point on the registered image corresponding to a sample point on the average image using the partial space;
Input image sample point detection means for detecting a sample point on the input image corresponding to a sample point on the registered image using the partial space;
Within the partial space between the feature vector at the sample point on the registered image detected by the registered image sample point detection means and the feature vector at the sample point on the input image detected by the input image sample point detection means An image recognition apparatus comprising: a collation determining unit that calculates the similarity of the input image and collates the input image with the registered image to perform identity verification.
前記第1の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて暫定的な特徴ベクトルの部分空間を作成する暫定部分空間作成手段と、
前記画像集合内の画像における特徴ベクトルの前記部分空間への距離に基づいて前記平均画像上に設定されたサンプル点に対応する該画像集合内の画像上のサンプル点を検出する第2の検出手段と、
前記第2の検出手段により検出された前記画像集合内の画像上のサンプル点における特徴ベクトルを用いて前記暫定部分空間作成手段により作成された前記部分空間を修正する部分空間修正手段と
を備えたことを特徴とする請求項1に記載の画像認識装置。The partial space creating means uses the correlation between the feature vector in the image in the image set and the feature vector in the average image to set the image on the image in the image set corresponding to the sample point set on the average image. First detection means for detecting sample points;
Provisional subspace creation means for creating a subspace of a provisional feature vector using a feature vector at a sample point on an image in the image set detected by the first detection means;
Second detection means for detecting a sample point on the image in the image set corresponding to the sample point set on the average image based on a distance of the feature vector in the image in the image set to the partial space When,
Subspace correction means for correcting the subspace created by the provisional subspace creation means using a feature vector at a sample point on an image in the image set detected by the second detection means. The image recognition apparatus according to claim 1.
前記画像集合から他人の画像ペアを用意して、前記第1の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第1の他人差部分空間算出手段と、
前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第1の認識部分空間作成手段と
を備えたことを特徴とする請求項2に記載の画像認識装置。The provisional subspace creating means prepares an image pair of the person from the image set, and the sample of the image pair corresponding to the sample point set on the average image detected by the first detecting means A first principal difference subspace calculating means for calculating a principal difference subspace by obtaining a difference between feature vectors at points;
Prepare another person's image pair from the image set, and calculate the difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the first detection means. A first other person difference subspace calculating means for calculating and calculating another person difference subspace;
3. A first recognition subspace creating means for calculating a crossing portion between the complementary space of the personal difference subspace and the different person subspace and using the crossing portion as a subspace. The image recognition apparatus described in 1.
前記画像集合から他人の画像ペアを用意して、前記第2の検出手段により検出された前記平均画像上に設定されたサンプル点に対応する該画像ペアの前記サンプル点における特徴ベクトル間の差分を求めて他人差部分空間を算出する第2の他人差部分空間算出手段と、
前記本人差部分空間の補空間と前記他人差部分空間との交わり部を算出して該交わり部を部分空間とする第2の認識部分空間作成手段と、
前記第2の認識部分空間作成手段で作成された該部分空間が収束するまで前記第2の検出手段と前記第2の本人差部分空間算出手段と前記第2の他人差部分空間算出手段と前記第2の認識部分空間作成手段とを繰り返し用いることにより前記部分空間を更新する認識部分空間更新手段と
を備えたことを特徴とする請求項2に記載の画像認識装置。The subspace correction means prepares an image pair of the person from the image set, and the sample points of the image pair corresponding to the sample points set on the average image detected by the second detection means Second principal difference subspace calculating means for calculating a principal difference subspace by obtaining a difference between feature vectors in
Preparing an image pair of another person from the image set, and calculating a difference between the feature vectors at the sample points of the image pair corresponding to the sample points set on the average image detected by the second detection unit; Second other person difference subspace calculating means for calculating and calculating another person difference subspace;
A second recognizing subspace creating means for calculating a crossing part between the complementary space of the personal difference subspace and the different person subspace and using the crossing part as a subspace;
Until the partial space created by the second recognition subspace creating means converges, the second detecting means, the second personal difference subspace calculating means, the second different person difference subspace calculating means, The image recognition apparatus according to claim 2, further comprising a recognition subspace updating unit that updates the partial space by repeatedly using a second recognition subspace creation unit.
前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、
前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、
前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、
前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、
前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と
を含んだことを特徴とする画像認識方法。An image for verifying an identity by comparing local features at sample points between an input image obtained by capturing a predetermined part of the person's body and a plurality of registered images of the person and others relating to the part. In the recognition method,
An average image creating step of creating an average image from a plurality of images in the image set relating to the part;
A subspace creating step of detecting a sample point on each image in the image set corresponding to the sample point set on the average image and creating a subspace of the feature vector at the sample point;
A registered image sample point detecting step of detecting, using the partial space, a sample point on the registered image corresponding to a sample point on the average image;
An input image sample point detection step of detecting a sample point on the input image corresponding to a sample point on the registered image using the partial space;
In the partial space between the feature vector at the sample point on the registered image detected by the registered image sample point detection step and the feature vector at the sample point on the input image detected by the input image sample point detection step An image recognition method comprising: a collation determination step of calculating a similarity level of the input image and collating the input image with the registered image to perform identity verification.
前記部位に関する画像集合内の複数の画像から平均画像を作成する平均画像作成工程と、
前記平均画像上に設定されたサンプル点に対応する前記画像集合内の各画像上のサンプル点を検出して該サンプル点における特徴ベクトルの部分空間を作成する部分空間作成工程と、
前記平均画像上のサンプル点に対応する前記登録画像上のサンプル点を前記部分空間を用いて検出する登録画像サンプル点検出工程と、
前記登録画像上のサンプル点に対応する前記入力画像上のサンプル点を前記部分空間を用いて検出する入力画像サンプル点検出工程と、
前記登録画像サンプル点検出工程により検出された前記登録画像上のサンプル点における特徴ベクトルと前記入力画像サンプル点検出工程により検出された前記入力画像上のサンプル点における特徴ベクトルとの前記部分空間内での類似度を算出して前記入力画像と前記登録画像とを照合し本人確認を行う照合判定工程と
をコンピュータに実行させるプログラム。An image for verifying an identity by comparing local features at sample points between an input image obtained by capturing a predetermined part of the person's body and a plurality of registered images of the person and others relating to the part. A program for causing a computer to execute a recognition method,
An average image creating step of creating an average image from a plurality of images in the image set relating to the part;
A subspace creating step of detecting a sample point on each image in the image set corresponding to the sample point set on the average image and creating a subspace of the feature vector at the sample point;
A registered image sample point detecting step of detecting, using the partial space, a sample point on the registered image corresponding to a sample point on the average image;
An input image sample point detection step of detecting a sample point on the input image corresponding to a sample point on the registered image using the partial space;
In the partial space between the feature vector at the sample point on the registered image detected by the registered image sample point detection step and the feature vector at the sample point on the input image detected by the input image sample point detection step A program for causing a computer to execute a collation determination step of calculating the similarity and collating the input image with the registered image to confirm the identity.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002284153A JP4187494B2 (en) | 2002-09-27 | 2002-09-27 | Image recognition apparatus, image recognition method, and program for causing computer to execute the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002284153A JP4187494B2 (en) | 2002-09-27 | 2002-09-27 | Image recognition apparatus, image recognition method, and program for causing computer to execute the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004118731A JP2004118731A (en) | 2004-04-15 |
JP4187494B2 true JP4187494B2 (en) | 2008-11-26 |
Family
ID=32277807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002284153A Expired - Fee Related JP4187494B2 (en) | 2002-09-27 | 2002-09-27 | Image recognition apparatus, image recognition method, and program for causing computer to execute the method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4187494B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4606779B2 (en) * | 2004-06-07 | 2011-01-05 | グローリー株式会社 | Image recognition apparatus, image recognition method, and program causing computer to execute the method |
JP4577771B2 (en) * | 2005-02-15 | 2010-11-10 | Kddi株式会社 | Face image recognition device |
JP5628570B2 (en) * | 2010-06-28 | 2014-11-19 | グローリー株式会社 | Image collation device and image collation method |
CN103415859A (en) * | 2010-12-29 | 2013-11-27 | 汤姆逊许可公司 | Method for face registration |
JP5755012B2 (en) | 2011-04-21 | 2015-07-29 | キヤノン株式会社 | Information processing apparatus, processing method thereof, program, and imaging apparatus |
WO2015128961A1 (en) * | 2014-02-26 | 2015-09-03 | 株式会社日立製作所 | Face authentication system |
FR3127602A1 (en) | 2021-09-27 | 2023-03-31 | Idemia Identity & Security France | method for generating an augmented image and associated device |
-
2002
- 2002-09-27 JP JP2002284153A patent/JP4187494B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004118731A (en) | 2004-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4606779B2 (en) | Image recognition apparatus, image recognition method, and program causing computer to execute the method | |
KR102455633B1 (en) | Liveness test method and apparatus | |
US20210287026A1 (en) | Method and apparatus with liveness verification | |
JP4501937B2 (en) | Face feature point detection device, feature point detection device | |
JP4156430B2 (en) | Face verification method and system using automatic database update method | |
CN110326001B (en) | System and method for performing fingerprint-based user authentication using images captured with a mobile device | |
JP6026119B2 (en) | Biological information processing device | |
US20080192991A1 (en) | Magnetic Resonance Imaging at Several Rf Frequencies | |
JP2018206239A (en) | Authentication device and authentication method | |
JP5480532B2 (en) | Image processing apparatus, image processing method, and program for causing computer to execute the method | |
JP2020184331A (en) | Liveness detection method and apparatus, face authentication method and apparatus | |
JP5226570B2 (en) | Image detection apparatus, image detection method, and image detection program | |
JP4187494B2 (en) | Image recognition apparatus, image recognition method, and program for causing computer to execute the method | |
WO2021131029A1 (en) | Filter generation device, estimation device, facial authentication system, filter generation method, and recording medium | |
KR20200119425A (en) | Apparatus and method for domain adaptation-based object recognition | |
JP4887966B2 (en) | Verification device | |
JP4099981B2 (en) | Image recognition system, image recognition method, and image recognition program | |
CN114913404A (en) | Model training method, face image living body detection method, electronic device and storage medium | |
KR100898766B1 (en) | Face recognition system, the method of face recognition registration and confirmation | |
KR102570071B1 (en) | Liveness test method and liveness test apparatus, biometrics authentication method and face authentication apparatus | |
JP7337541B2 (en) | Information processing device, information processing method and program | |
US10984085B2 (en) | Biometric recognition for uncontrolled acquisition environments | |
EP3506152A1 (en) | Information processing apparatus, recording medium for recording biometric authentication program, and biometric authentication method | |
US20230222782A1 (en) | Adversarial example detection device, adversarial example detection method, and program | |
EP4102383A1 (en) | Authentication method, information processing device, and authentication program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050613 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20051213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080902 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4187494 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110919 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110919 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120919 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120919 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130919 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130919 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |