JP4553526B2 - Personal verification device - Google Patents

Personal verification device Download PDF

Info

Publication number
JP4553526B2
JP4553526B2 JP2001246782A JP2001246782A JP4553526B2 JP 4553526 B2 JP4553526 B2 JP 4553526B2 JP 2001246782 A JP2001246782 A JP 2001246782A JP 2001246782 A JP2001246782 A JP 2001246782A JP 4553526 B2 JP4553526 B2 JP 4553526B2
Authority
JP
Japan
Prior art keywords
face image
contribution
feature
similarity
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001246782A
Other languages
Japanese (ja)
Other versions
JP2003058888A (en
Inventor
修 徳見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2001246782A priority Critical patent/JP4553526B2/en
Publication of JP2003058888A publication Critical patent/JP2003058888A/en
Application granted granted Critical
Publication of JP4553526B2 publication Critical patent/JP4553526B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

【0001】
【発明の属する分野】
本発明は、顔画像、指紋、音声、虹彩、DNAなど人間の身体的特徴に基づいて個人認証する照合装置に関し、特に複数の特徴量に重み付けして本人照合を行う個人照合装置に関する。
【0002】
【従来の技術】
従来、個人照合装置には、顔画像、指紋画像、音声信号などから複数の特徴量を抽出し、予め登録されている本人の特徴と照合するものが提案されている。
例えば、顔画像照合装置では、顔の輪郭、目や口等の部位配置、目等の形状などの複数の特徴ごとに特徴量を抽出し、登録顔画像の各特徴量との類似度を算出する。それぞれの類似度に対して予め実験や研究にて得られた一般的な知見に基づく寄与度にて重み付けを行い、本人か否かを照合している。一般的な知見とは、目の形状や輪郭は個人性が高く、鼻は個人性が低いなどである。
【0003】
【発明が解決しようとする課題】
しかし、従来の個人照合装置では、一般的な知見に基づいて各特徴量に対する重み付けを行っている為、登録者ごとの個人性を考慮した重み付けができなかった。一般的には「目の形状等」に対する重み付けが大きくなるが、人によっては「部位配置」が最も個人性を示す場合がある。従来の個人照合装置では、このような場合であっても、「目の形状等」の重み付けを大きくするのみであり、「部位配置」の重み付けを大きくできず、個人単位での個別対応性に欠けるという問題があった。
かかる個別対応性を図れないために、本人棄却率・他人許容率が上昇し、個人照合装置の信頼性が損なわれるという課題があった。
そこで、本発明の目的は、照合者の特徴上に現れる個人性に合わせて、特徴に重み付けを行うことができる個人照合装置を実現し、個人照合装置の信頼性を向上させることを目的とする。
【0004】
【課題を解決するための手段】
かかる目的を達成するために、本発明は、身体的特徴を示す複数の特徴を抽出し、特徴ごとの個人照合への寄与度を考慮した個人照合装置であって、照合者の身体的特徴を入力する入力手段と、基準となる身体的特徴を含む基準情報及び登録者の身体的特徴を含む登録情報それぞれから前記複数の特徴ごとに特徴量を抽出する特徴量抽出手段と、特徴ごとに前記基準情報と登録情報との類似度を前記特徴量抽出手段にて抽出した特徴量を用いて算出する類似度算出手段と、類似度から各特徴の照合に対する寄与度を算出する寄与度算出手段と、寄与度にて重付けした類似度を用いて個人照合する判定手段とを具備することを特徴とした個人照合装置を提供する。
かかる構成によれば、各特徴の本人判定への寄与度を任意の基準情報と登録情報との類似度を基に決めるので、登録者毎の個人性を反映した各特徴の重み付けが可能となる。
【0005】
また、本発明の好適な態様では、寄与度算出手段が、予め得られた基準寄与度を類似度に応じて補正する。これにより、一般的な知見から得られる基準寄与度から極端に逸脱した重み付けがされることを防止できる。
【0006】
本発明の好適な態様では、寄与度算出手段が、類似度が低いほど寄与度を高くする。これにより、基準情報と登録情報が大きく相違する特徴量ほど大きな重付けがされるので、登録情報の個人性を照合に反映できる。
【0007】
また、本発明の好適な態様では、基準情報は複数人の情報を平均化して生成したものを用いる。これにより、一般的な身体的特徴に対する登録者の個人性を引き出すことが可能となるので、個人照合装置に汎用性を持たせることが可能となる。
【0008】
また、本発明の好適な態様では、身体的特徴として顔画像を用いる。これにより、一つの身体的特徴を示す顔画像から複数の特徴である顔の輪郭、部位配置などを用いることができる。
【0009】
また、本発明の好適な態様では、身体的特徴として顔画像及び音声信号を用いる。これにより、顔画像から得られる特徴と音声信号から得られる特徴を用いることができる。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態として、本発明を顔画像照合装置1に適用した態様を説明する。
図2は、顔画像照合装置1の全体ブロック図である。顔画像照合装置1は、レンズ・CCD素子などから構成される照合者の顔を撮影する撮像部110と、操作部であるテンキー120と、ROM/RAMにて構成されプログラムや寄与度134等を記憶する記憶部130と、LCDやLEDにて構成され照合結果等を操作者に提示する表示部140と、管理対象である出入口扉の電気錠160に対して施錠/解錠信号を出力する出力部150と、CPU等にて構成され顔画像照合装置1の全体を制御する制御部100とから構成される。なお、画像入力部111及び操作入力部121は、それぞれ撮像部110又はテンキー120からの操作をA/D変換して制御部100へ入力するA/D変換器である。
制御部100は、登録処理101、照合処理102、電気錠制御処理103などを実行する。
記憶部130には、基準寄与度131、基準顔画像132、登録顔画像133、寄与度134、プログラム等135を記憶している。
出力部150は、管理対象である出入口扉に設置される電気錠160が接続されている。
【0011】
次に、顔画像照合装置1の制御部100における各処理を説明する。
先ず、図3を参照して、登録処理101の一つである基準顔画像132の生成処理について述べる。登録処理101とは、管理者によりテンキー120にて登録モードに設定された場合における処理である。登録モードは、管理者がIDコード等をテンキー120から入力して、正規の管理者であることが認証された場合に移行される。
【0012】
ここで、基準顔画像132とは、登録者の顔画像から個人性が強い特徴量を抽出するための基準となる顔画像である。顔画像照合装置に汎用性を持たせるならば、日本人の平均的な顔画像を用いるのが好ましい。登録者が男性であれば男性の平均的な顔画像を用いても良い。この他に年齢や人種等を考慮することも可能である。また、基準顔画像132は、任意に固定的に定めた顔画像であっても良く、照合者に応じて選択しても良い。
【0013】
本実施の形態では、図3に示す複数の顔画像の特徴ごとに特徴量を平均化処理した後に統合した基準顔画像132が記憶部130に記憶されている。平均化処理は、先ず、任意に選択した複数の顔画像の各々から輪郭・左目・右目・鼻・口といった特徴として採用される部位ごとに特徴量を抽出する。なお、部位抽出処理は、例えば背景画像との差分により輪郭を抽出したり、水平エッジが強い領域を目として抽出するなど一般的な方法を用いる。次に、各部位毎に大きさ等のマッチング処理を施した上、部位毎に各画素の輝度平均を求めることにより、複数の顔画像における各部位を平均化する。そして、平均化された各部位を統合して一つの基準顔画像132を得る。このようにして生成された基準顔画像132は、複数の顔画像における個人性が平均化されるため、個人性の少ない基準に相応しい顔画像となる。 このようにして得られた基準顔画像132は、予め記憶部130に記憶される。なお、平均化処理した基準顔画像132を用いているが、これに限られるものではなく、任意の顔画像を基準顔画像132としても良い。
【0014】
次に、制御部100にて行う登録処理101について、図1を参照して説明する。
先ず、基準顔画像132及び登録顔画像133を記憶部130から読み出す。
ここで、登録顔画像133とは、顔画像照合装置にて出入を許可された人の顔画像である。登録顔画像133は、管理者によって登録モードにした後、登録者の顔を撮像部110にて撮影し、画像入力部111にてA/D変換されてデジタル画像として記憶部130に記憶されている。なお、登録顔画像133は、登録者毎にIDコードとともに記憶されている。
基準顔画像132及び登録顔画像133のそれぞれから「輪郭」、「部位配置」、「左目」、「右目」、「鼻」及び「口」の各特徴ごとに特徴量を特徴量抽出手段2にて抽出する。
すなわち、「右目」および「左目」の抽出は、まず人物の写っていない背景画像と基準顔画像等との差分として抽出される領域から、ソーベル・オペレータ等によりエッジを抽出する。このうち水平エッジが強く、且つ標準的な「右目」あるいは「左目」のテンプレート画像によるずらしマッチングを行った結果、マッチング度合いが強い領域を候補領域とする。以上の処理により抽出された候補領域のうち、顔の垂直中心線に対してほぼ左右対象かつ頭部領域の上半分に位置している領域を目領域とすることによって抽出する。
「鼻」は、「右目」と「左目」を結んだ線の中点より下の予め設定した領域において、エッジの形状が逆T字型をした領域として抽出する。
「口」は、「鼻」より下の予め設定した領域において、横エッジが強い領域として抽出する。カラーカメラを使用した場合には、周辺領域と比較して相対的に赤成分の強いという特徴を組み合わせることも可能である。
「輪郭」は、頭部領域の形状を示す特徴であり、入力顔画像と背景画像との差分として抽出される頭部および首を含む領域と、顎の形状を組み合わせることにより定める。顎の形状は、例えば入力顔画像の「口」を中心とする放物線状の領域において、顎の形状に沿って首に生ずる影との境界として抽出する。背景画像との差分として抽出された領域のうち顎形状より上部に位置する領域のエッジを抽出することにより、「輪郭」を抽出する。
「部位配置」は、「右目」、「左目」領域の重心座標間の水平距離、該重心座標の中点と「鼻」領域の重心座標間の垂直距離、該重心座標の中点と「口」領域の重心座標間の垂直距離、「鼻」領域と「口」領域の重心座標間の垂直距離、「右目」あるいは「左目」領域の重心座標を結んだ直線と「鼻」領域の重心座標との成す角度、「右目」あるいは「左目」領域の重心座標を結んだ直線と「口」領域の重心座標との成す角度等により表す。
【0015】
次に、特徴量抽出手段2にて抽出された基準顔画像132から抽出した各特徴量と、登録顔画像133から抽出した各特徴量との類似度を、特徴ごとに類似度算出手段3にて算出する。
各特徴の類似度について、具体的に説明する。
「輪郭」の類似度は、基準顔画像132及び登録顔画像133から抽出された「輪郭」間のエッジにより囲まれた差分面積すなわち隙間面積を算出する。この結果、輪郭形状に関する特徴(例えば「顎が尖っている」や「鰓が張っている」等)の違いを表現する。
「部位配置」の類似度は、各部位の相対位置に関する特徴(「目の間隔が広い」や「部位が顔の中央に集まっている」等)を示す各部位の重心座標間の距離や角度をもとに算出する。
「右目」、「左目」、「鼻」、「口」の類似度は、形状(目が大きい/細い/垂れている/上がり目である、口が広い/狭い/厚い/薄い)を示すエッジ間の隙間面積、エッジ強度の差、エッジ勾配の差をもとに算出する。あるいは部位領域画像に対してずらしマッチングを行うことにより得られる相関値として類似度を求めることも可能である。例えばカラーカメラを用いている場合には、色(明るさ、色彩度など)を示す濃淡画像や色相画像、彩度画像等を用いることができる。
このように、各特徴量毎に算出した類似度は、距離あるいは角度といった異なる尺度である為、これらの大小関係を比較することが可能な同一の尺度に合わせておく必要がある。
先ず、算出された値の大小関係を統一する。すなわち、「値が大きい程類似している」という類似度の性質に従うよう、距離や角度の値から逆数を算出したり、あるいは所定の値から引いた値とする等の処理を行う。
次に、算出された値の原点を統一する。基準顔画像132と、基準顔画像132の算出に用いた全ての顔画像との間で予め類似度を求めておき、これらの平均値で基準顔画像132及び登録顔画像133から抽出された特徴量間の類似度を除すことにより、平均値が1となるよう正規化を行う。
そして、算出された値の分散を統一する。基準顔画像132と、基準顔画像132の算出に用いた全ての顔画像との間で求めた類似度の分散値を用いて、前記正規化した値を補正する。この結果、算出される類似度の分散を一定の範囲内に収める。
【0016】
次に、寄与度算出手段4にて実行する寄与度134の算出方法について説明する。
先ず、各特徴ごとの基準寄与度131を記憶部130から読み出す。ここで、基準寄与度131とは、各特徴が本人照合に寄与する程度であって、実験的又は研究による知見から得られた度合いである。例えば、「右目」、「左目」、「鼻」、「口」の4部位について、個別に照合実験を行い、得られた照合性能を基に実験的に重みを検討したところ、「目」(左右含む)、「口」、「鼻」の順に重みを高くすることにより照合精度が向上することが分かっている。
また、井上らの発表によれば、心理学的側面から考察した結果、「目の大きさ」と「目より下の顔輪郭」が識別に重要な特徴であるという知見が得られている(化技誌
第34巻 第3号, p249-p254)。
これら結果を勘案し求めた「基準寄与度131」の一例を図4に示す。
類似度は、その値が大きい程、登録顔画像133が基準顔画像132に類似しているという性質を持つ。このことから、類似している特徴に対する寄与度を低下させる為、基準寄与度131(B)を類似度(S)で除算する(この値を補正前寄与度(W')とする)。尚、類似度(S)が限りなく0に近い場合や0の場合は寄与度が無限大となり、上記特徴以外は無視されてしまう。この様に寄与度134が異常に逸脱した値とならないよう、類似度(S)に下限値を設ける。例えば類似度(S)の下限値を「0.4」に定めた場合、類似度(S)がこれ以下の場合には「0.4」を用いる。尚、図4では、実際に算出した「輪郭」の類似度(S)が「0.3」であったが、これを予め定めた上記下限値「0.4」に置き換えている。上限も同様にして設定する。
寄与度134(W)は、補正前寄与度(W')を、全特徴量に対して得られた補正前寄与度(W')の総和(図4の場合「1.146」)で除算することにより正規化した値として算出する。
図4に、算出結果の例を示す。「輪郭」の場合は、類似度が「0.4」で基準寄与度(B)131が「0.15」であり、補正前寄与度W´の総和が「1.146」であるので、寄与度134は「0.327」となるが、算出した寄与度の総和を「1」にする為最大の寄与度である「輪郭」の寄与度で調整し「0.326」とする。基準顔画像132と比較して「輪郭」に個人性があるため、従来用いていた寄与度である基準寄与度131「0.15」に比べ、高くなっていることが分かる。「鼻」の場合は、類似度が「1.4」で基準寄与度131が「0.10」であるから上記と同じ計算を行うと、寄与度134は「0.062」となる。基準顔画像132と比較して「鼻」は個人性が低いため、基準寄与度131「0.10」に比べ低下していることが分かる。
尚、知見から得られる各特徴の寄与度である基準寄与度131が得られない場合であっても、基準寄与度131を全て「1」とすることにより、上記寄与度算出法をそのまま用いることができる。
各算出された寄与度134は、登録顔画像133と対応付けて記憶部130に記憶される(記憶処理5)。
なお、本実施の形態の登録顔画像133は、輪郭に最も個人性が強く現れ、鼻に個人性が少ない人物のものである。
このようにして、管理している出入口扉への出入の許可を受けている被照合者を登録する。なお、複数人の登録をする場合は、同様の処理を繰り返すこととなる。
【0017】
次に、図5を参照して、個人照合装置の照合処理102について説明する。
先ず、照合者は表示部140のガイダンスに従い、テンキー120から自己のIDコードを入力するとともに、撮像部110にて顔を撮影する。顔撮影時には、例えば表示部140に両眼位置の目安と撮影中の顔が写し出されるので、照合者はその位置に合うように調整する。位置調整ができたところで、顔画像確定のためにテンキー120操作を行う。
顔画像確定のためのテンキー120から入力を受けると、図5に示す照合処理102が実行される。
先に入力されたIDコードに基づき、照合者の登録顔画像133を記憶部130から読み出す。特徴量抽出手段2では、登録顔画像133と入力された顔画像それぞれから「輪郭」「部位配置」「左目」「右目」「鼻」及び「口」の各特徴量を抽出する。抽出された特徴量が類似度算出手段3に入力される。
類似度算出手段3では、基準顔画像132から抽出された各特徴量と、登録顔画像133から抽出した各特徴量との類似度を各特徴量毎に算出する。なお、特徴量抽出手段2及び類似度算出手段3とは、図1にて説明した特徴量抽出処理手段2及び類似度算出処理手段3と同じ処理を実行する。
そして、算出された各類似度に対し、重付け処理6を行う。すなわち、記憶部130に記憶されている寄与度134を該当する類似度に対して乗じることにより、各特徴量の判定用の類似度を算出する。更に、全ての特徴量に対して得られた判定用の類似度の総和を求めることにより、個人性を反映させた総合類似度を算出する。このように、各特徴量に個人性に応じた重みを付与することにより、個人性が多く含まれている特徴量を個人性が乏しい特徴量に比べ重視することができる。この結果、他人と異なる特徴、すなわち個人性を重視した照合が可能となる。
この総合類似度に基づいて総合判定7にて本人か否かを判定する。すなわち、総合類似度が、所定値を越えている場合に照合者が登録者本人であるとの判断をする。他方、所定値以下の場合は、本人でないとの判断をする。
判定の結果、本人と確認すると、表示部140に「お入りください」等の表示を行い、出力部150から電気錠160へ解錠信号を送出する。解錠信号を受信すると、電気錠160が解錠される。なお、電気錠制御は、電気錠制御処理103として実行される。
他方、本人でないと判定すれば、表示部140にその旨を表示するのみで、電気錠160は解錠しない。
これによって、照合者が本人であれば出入口扉を通過でき、本人以外の者の通過を拒否できる。
【0018】
本実施の形態では、顔画像による個人照合装置について説明したが、これに限られるものではなく、指紋画像や音声信号についても同様に適用できる。なお、指紋画像や音声信号に適用する場合は、特徴量として、それぞれの認証技術として確立されている特徴量が適宜に選択されることは言うまでもない。例えば、音声信号の場合について説明する。ここでは、個人照合に用いる音声が照合者毎に予め固定されている“発声内容固定型”の話者照合を例に説明する。まず、入力された音声信号を所定のフレーム長及びフレーム周期にてフレーム分析し、HMM等の公知の認識手法により音韻に相当するフレームを抽出する。この結果得られる音韻系列が目や鼻といった顔画像における各特徴に相当する。抽出された音韻系列から、特徴量として例えば周波数強度分布の概形であるスペクトル包絡に相当するLPCケプストラム係数を算出する。音韻系列が連続した複数フレームとして抽出された場合には、例えばその中央に位置するフレームからLPCケプストラム係数を算出したり、あるいは各フレーム毎に算出したLPCケプストラム係数を平均化した値を用いる。抽出された各特徴量について、前記顔画像による場合と同様な処理を行うことにより、個人性を考慮して各音韻系列に重み付けすることが可能となる。なお、類似度の算出手段・寄与度算出手段等の処理は、音声信号の認証技術として既に一般化している手法が用いられる。種々の手法があるが、本発明の本質でないことから説明は省略する。
【0019】
また、本実施の形態では、顔画像から抽出される複数の特徴にて説明したが、顔画像と音声信号や、顔画像と指紋画像など種々の身体的特徴を組み合わせたときの各特徴の寄与度に適用してもよい。例えば、顔画像と音声信号とを組み合わせた場合について説明する。まず。個人性の基準となる基準情報として、前述した基準顔画像と、基準音声情報とを予め記憶部130に記憶しておく。なお、基準情報の意義については、前述した通りである。次に、特徴量抽出手段2においては、登録顔画像と登録音声情報との双方から前述した特徴量を抽出する。具体的には、顔画像の場合「輪郭」「部位配置」等であり、音声信号の場合「音韻系列」である。このように、顔画像と音声信号のそれぞれに含まれる複数の特徴量を用いても良いが、顔画像情報及び音声信号をそれぞれ全体として、一つの特徴量とし顔画像と音声信号の二つの特徴量を抽出することとしても良い。
【0020】
【発明の効果】
本発明によれば、各特徴に個人性に応じた重みを付与することにより、個人性が多く含まれている特徴を個人性が乏しい特徴に比べ重視して照合を行うことができる。この結果、他人と異なる特徴、すなわち個人性を重視した高精度な照合が可能となる。
【図面の簡単な説明】
【図1】顔画像照合装置での登録処理を説明する図
【図2】顔画像照合装置のブロック図
【図3】基準顔画像の生成を説明する図
【図4】基準寄与度の一例を説明する図
【図5】顔画像照合装置での照合処理を説明する図
【符号の説明】
1…顔画像照合装置
100…制御部、101…登録処理、102…照合処理、103…電気錠制御処理
110…撮像部、111…画像入力部、120…テンキー、121…操作入力部
130…記憶部、131…基準寄与度、132…基準顔画像、133…登録顔画像、134…寄与度、135…プログラム等、136…照合顔画像
140…表示部、150…出力部、160…電気錠、
2…特徴量抽出手段、3…類似度算出手段、4…寄与度算出手段、5…記憶処理、
6…重付け処理、7…総合判定、8…電気錠制御等
[0001]
[Field of the Invention]
The present invention relates to a collation apparatus that performs personal authentication based on human physical features such as facial images, fingerprints, voices, irises, and DNAs, and more particularly to a personal collation apparatus that performs personal verification by weighting a plurality of feature amounts.
[0002]
[Prior art]
Conventionally, a personal verification device has been proposed in which a plurality of feature amounts are extracted from a face image, a fingerprint image, an audio signal, and the like, and collated with a personal feature registered in advance.
For example, in the face image matching device, feature amounts are extracted for each of a plurality of features such as face contours, part arrangements such as eyes and mouths, and shapes of eyes, and the degree of similarity with each feature amount of a registered face image is calculated. To do. Each similarity is weighted with a contribution based on general knowledge obtained in advance through experiments and research, and whether or not it is the person is verified. General knowledge is that the shape and contour of the eyes are highly personal, and the nose is not very personal.
[0003]
[Problems to be solved by the invention]
However, in the conventional personal verification device, since weighting is performed on each feature amount based on general knowledge, weighting considering personality for each registrant cannot be performed. In general, weighting for “eye shape and the like” becomes large, but “part arrangement” may show the individuality most depending on the person. Even in such a case, the conventional personal verification device only increases the weight of “eye shape etc.” and cannot increase the weight of “part arrangement”. There was a problem of lacking.
Since such individual correspondence cannot be achieved, there is a problem that the rejection rate and the other person's acceptance rate increase, and the reliability of the personal verification device is impaired.
Accordingly, an object of the present invention is to realize a personal verification device capable of weighting features in accordance with the personality appearing on the characteristics of the collator, and to improve the reliability of the personal verification device. .
[0004]
[Means for Solving the Problems]
In order to achieve such an object, the present invention is a personal verification device that extracts a plurality of features indicating physical features and takes into account the contribution to personal verification for each feature, Input means for inputting, feature information extracting means for extracting feature values for each of the plurality of features from each of the reference information including physical features serving as a reference and the registered information including physical features of the registrant; Similarity calculating means for calculating the similarity between the reference information and the registered information using the feature amount extracted by the feature amount extracting means; and a contribution degree calculating means for calculating a contribution degree for matching each feature from the similarity degree; And a personal verification device characterized by comprising a determination means for performing personal verification using the degree of similarity weighted by the contribution.
According to this configuration, the degree of contribution of each feature to identity determination is determined based on the similarity between arbitrary reference information and registration information, and thus it is possible to weight each feature that reflects the individuality of each registrant. .
[0005]
In a preferred aspect of the present invention, the contribution calculation means corrects the reference contribution obtained in advance according to the similarity. Thereby, it is possible to prevent weighting that deviates extremely from the standard contribution obtained from general knowledge.
[0006]
In a preferred aspect of the present invention, the contribution calculation means increases the contribution as the similarity is lower. As a result, since feature values that are greatly different from the reference information and the registered information are given greater weight, the personality of the registered information can be reflected in the verification.
[0007]
In a preferred aspect of the present invention, the reference information is generated by averaging information of a plurality of people. Thereby, since it becomes possible to extract the individuality of the registrant with respect to general physical characteristics, it is possible to make the personal verification device versatile.
[0008]
In a preferred aspect of the present invention, a face image is used as a physical feature. As a result, it is possible to use a plurality of facial contours, part arrangements, and the like from a facial image showing one physical feature.
[0009]
In a preferred aspect of the present invention, a face image and an audio signal are used as physical features. Thereby, the feature obtained from the face image and the feature obtained from the audio signal can be used.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, as an embodiment of the present invention, a mode in which the present invention is applied to the face image matching device 1 will be described.
FIG. 2 is an overall block diagram of the face image matching device 1. The face image collation apparatus 1 is composed of an imaging unit 110 that captures a collator's face composed of a lens, a CCD element, etc., a numeric keypad 120 that is an operation unit, and a ROM / RAM. A storage unit 130 for storing, a display unit 140 composed of an LCD or LED and presenting a collation result to the operator, and an output for outputting a lock / unlock signal to the electric lock 160 of the doorway to be managed And a control unit 100 that is configured by a CPU and the like and that controls the entire face image matching device 1. Note that the image input unit 111 and the operation input unit 121 are A / D converters that respectively A / D convert operations from the imaging unit 110 or the numeric keypad 120 and input them to the control unit 100.
The control unit 100 executes a registration process 101, a verification process 102, an electric lock control process 103, and the like.
The storage unit 130 stores a reference contribution 131, a reference face image 132, a registered face image 133, a contribution 134, a program 135, and the like.
The output unit 150 is connected to an electric lock 160 installed at a doorway to be managed.
[0011]
Next, each process in the control unit 100 of the face image matching device 1 will be described.
First, the generation process of the reference face image 132, which is one of the registration processes 101, will be described with reference to FIG. The registration process 101 is a process when the administrator sets the registration mode with the numeric keypad 120. The registration mode is shifted when the administrator inputs an ID code or the like from the numeric keypad 120 and is authenticated as a regular administrator.
[0012]
Here, the reference face image 132 is a face image serving as a reference for extracting a feature amount having a strong individuality from the face image of the registrant. If the face image collation device is versatile, it is preferable to use an average Japanese face image. If the registrant is a male, an average facial image of a male may be used. In addition, it is possible to consider age, race, and the like. The reference face image 132 may be a face image that is arbitrarily fixed and may be selected according to the collator.
[0013]
In the present embodiment, the reference face image 132 that is integrated after the feature amount is averaged for each of the features of the plurality of face images shown in FIG. In the averaging process, first, a feature amount is extracted from each of a plurality of arbitrarily selected face images for each part adopted as a feature such as contour, left eye, right eye, nose, and mouth. Note that the part extraction processing uses a general method such as extracting a contour based on a difference from a background image or extracting an area having a strong horizontal edge as an eye. Next, after performing a matching process such as a size for each part, a luminance average of each pixel is obtained for each part, thereby averaging each part in a plurality of face images. Then, the averaged parts are integrated to obtain one reference face image 132. The reference face image 132 generated in this way is a face image suitable for a reference with less individuality because the individuality of a plurality of face images is averaged. The reference face image 132 obtained in this way is stored in the storage unit 130 in advance. The reference face image 132 subjected to the averaging process is used. However, the present invention is not limited to this, and any face image may be used as the reference face image 132.
[0014]
Next, the registration process 101 performed by the control unit 100 will be described with reference to FIG.
First, the reference face image 132 and the registered face image 133 are read from the storage unit 130.
Here, the registered face image 133 is a face image of a person permitted to enter and exit by the face image matching device. The registered face image 133 is set to the registration mode by the administrator, and then the registrant's face is photographed by the imaging unit 110, A / D converted by the image input unit 111, and stored as a digital image in the storage unit 130. Yes. The registered face image 133 is stored together with an ID code for each registrant.
Feature amounts are extracted from the reference face image 132 and the registered face image 133 for each feature of “contour”, “part location”, “left eye”, “right eye”, “nose”, and “mouth” to the feature amount extraction unit 2. To extract.
That is, in the extraction of “right eye” and “left eye”, first, an edge is extracted by a Sobel operator or the like from an area extracted as a difference between a background image in which a person is not captured and a reference face image or the like. Of these, regions that have strong horizontal edges and that have a strong matching degree as a result of the shift matching using the standard “right eye” or “left eye” template image are determined as candidate regions. Out of the candidate areas extracted by the above processing, an area that is substantially in the left and right direction and located in the upper half of the head area with respect to the vertical center line of the face is extracted as an eye area.
The “nose” is extracted as an inverted T-shaped region in a predetermined region below the midpoint of the line connecting the “right eye” and “left eye”.
“Mouth” is extracted as a region having a strong horizontal edge in a preset region below “nose”. When a color camera is used, it is possible to combine the characteristics that the red component is relatively stronger than the surrounding area.
The “contour” is a feature indicating the shape of the head region, and is determined by combining the region including the head and neck extracted as the difference between the input face image and the background image and the shape of the jaw. The shape of the jaw is extracted as a boundary with a shadow formed on the neck along the shape of the jaw, for example, in a parabolic region centered on the “mouth” of the input face image. The “contour” is extracted by extracting the edge of the region located above the jaw shape from the region extracted as the difference from the background image.
“Partial arrangement” includes the horizontal distance between the centroid coordinates of the “right eye” and “left eye” areas, the vertical distance between the centroid coordinates of the centroid coordinates and the centroid coordinates of the “nose” area, the midpoint of the centroid coordinates and the “mouth” The vertical distance between the centroid coordinates of the “region”, the vertical distance between the centroid coordinates of the “nose” region and the “mouth” region, the centroid coordinates of the “nose” region and the straight line connecting the centroid coordinates of the “right eye” or “left eye” region And the angle formed by the straight line connecting the barycentric coordinates of the “right eye” or “left eye” area and the barycentric coordinates of the “mouth” area.
[0015]
Next, the similarity between each feature amount extracted from the reference face image 132 extracted by the feature amount extraction unit 2 and each feature amount extracted from the registered face image 133 is sent to the similarity calculation unit 3 for each feature. To calculate.
The similarity of each feature will be specifically described.
The similarity between “contours” is calculated as a difference area surrounded by edges between “contours” extracted from the reference face image 132 and the registered face image 133, that is, a gap area. As a result, a difference in characteristics related to the contour shape (for example, “the jaw is sharp”, “the heel is stretched”, etc.) is expressed.
The similarity of “part placement” refers to the distance and angle between the barycentric coordinates of each part indicating characteristics related to the relative position of each part (such as “wide eye spacing” or “parts gathered in the center of the face”). Calculate based on
The similarity of “right eye”, “left eye”, “nose”, and “mouth” is between edges indicating the shape (large eyes / thin / hanging / upward eyes, wide mouth / narrow / thick / thin) Are calculated based on the gap area, edge strength difference, and edge gradient difference. Alternatively, it is also possible to obtain the similarity as a correlation value obtained by shifting and matching the region image. For example, when a color camera is used, a grayscale image, a hue image, a saturation image, or the like indicating a color (brightness, color saturation, etc.) can be used.
Thus, since the similarity calculated for each feature amount is a different scale such as a distance or an angle, it is necessary to match with the same scale that can compare these magnitude relationships.
First, the magnitude relationship of the calculated values is unified. That is, processing such as calculating a reciprocal from a distance or angle value or subtracting from a predetermined value is performed so as to follow a similarity property of “similar as the value increases”.
Next, the origin of the calculated value is unified. Similarities are obtained in advance between the reference face image 132 and all the face images used to calculate the reference face image 132, and the features extracted from the reference face image 132 and the registered face image 133 using these average values. Normalization is performed so that the average value becomes 1 by dividing the similarity between the quantities.
Then, the variance of the calculated values is unified. The normalized value is corrected using the variance value of the similarity obtained between the reference face image 132 and all the face images used to calculate the reference face image 132. As a result, the variance of the calculated similarity is kept within a certain range.
[0016]
Next, a method for calculating the contribution 134 executed by the contribution calculation unit 4 will be described.
First, the reference contribution 131 for each feature is read from the storage unit 130. Here, the reference contribution 131 is a degree to which each feature contributes to the personal verification, and is a degree obtained from experimental or research findings. For example, a matching experiment was performed individually on four parts of “right eye”, “left eye”, “nose”, and “mouth”, and weights were experimentally examined based on the obtained matching performance. It is known that collation accuracy is improved by increasing the weight in the order of “mouth” and “nose”.
In addition, according to the presentation by Inoue et al., As a result of consideration from a psychological aspect, it was found that "eye size" and "face contour below eyes" are important features for identification ( Chemical Journal Vol.34 No.3, p249-p254).
An example of the “reference contribution 131” obtained in consideration of these results is shown in FIG.
As the degree of similarity is larger, the registered face image 133 is more similar to the reference face image 132. Therefore, in order to reduce the contribution to similar features, the reference contribution 131 (B) is divided by the similarity (S) (this value is defined as the pre-correction contribution (W ′)). When the similarity (S) is as close as possible to 0 or 0, the contribution is infinite, and the other features are ignored. In this way, a lower limit is set for the similarity (S) so that the contribution 134 does not deviate abnormally. For example, when the lower limit of the similarity (S) is set to “0.4”, “0.4” is used when the similarity (S) is less than this. In FIG. 4, the actually calculated similarity (S) of “contour” is “0.3”, but this is replaced with the predetermined lower limit value “0.4”. Set the upper limit in the same way.
The contribution 134 (W) is obtained by dividing the pre-correction contribution (W ′) by the sum of the pre-correction contribution (W ′) obtained for all the feature quantities (“1.146” in FIG. 4). Is calculated as a normalized value.
FIG. 4 shows an example of the calculation result. In the case of “contour”, the similarity is “0.4”, the reference contribution (B) 131 is “0.15”, and the sum of the contributions W ′ before correction is “1.146”, so the contribution 134 is “0.327”. However, in order to set the sum of the calculated contributions to “1”, it is adjusted to “0.326” by adjusting the contribution of the “contour” which is the maximum contribution. Since the “contour” has individuality as compared with the reference face image 132, it can be seen that the “contour” is higher than the reference contribution 131 “0.15”, which is the contribution used conventionally. In the case of “nose”, the similarity is “1.4” and the reference contribution 131 is “0.10”, so if the same calculation as described above is performed, the contribution 134 becomes “0.062”. It can be seen that the “nose” is lower in personality than the reference face image 132, and is therefore lower than the reference contribution 131 “0.10”.
Even if the reference contribution 131 that is the contribution of each feature obtained from the knowledge is not obtained, the above contribution calculation method is used as it is by setting the reference contribution 131 to “1”. Can do.
Each calculated contribution 134 is stored in the storage unit 130 in association with the registered face image 133 (storage process 5).
It should be noted that the registered face image 133 of the present embodiment is that of a person who has the strongest personality in the contour and has little personality in the nose.
In this way, the person to be verified who is permitted to enter and exit the managed entrance door is registered. In addition, when registering a plurality of people, the same processing is repeated.
[0017]
Next, referring to FIG. 5, the collation processing 102 of the personal collation apparatus will be described.
First, the collator inputs his / her ID code from the numeric keypad 120 according to the guidance of the display unit 140 and photographs the face by the imaging unit 110. At the time of photographing a face, for example, an indication of the binocular position and the face being photographed are displayed on the display unit 140, so that the collator adjusts to match that position. When the position is adjusted, the numeric keypad 120 is operated to determine the face image.
When an input is received from the numeric keypad 120 for determining the face image, a collation process 102 shown in FIG. 5 is executed.
Based on the ID code input previously, the registered face image 133 of the collator is read from the storage unit 130. The feature amount extraction unit 2 extracts feature amounts of “contour”, “part location”, “left eye”, “right eye”, “nose”, and “mouth” from the registered face image 133 and the input face image. The extracted feature amount is input to the similarity calculation means 3.
The similarity calculation unit 3 calculates the similarity between each feature quantity extracted from the reference face image 132 and each feature quantity extracted from the registered face image 133 for each feature quantity. The feature amount extraction unit 2 and the similarity calculation unit 3 perform the same processing as the feature amount extraction processing unit 2 and the similarity calculation processing unit 3 described with reference to FIG.
Then, a weighting process 6 is performed for each calculated similarity. That is, the similarity for determination of each feature amount is calculated by multiplying the corresponding degree of similarity by the contribution degree 134 stored in the storage unit 130. Furthermore, the total similarity that reflects the individuality is calculated by obtaining the sum of the similarities for determination obtained for all the feature quantities. In this way, by assigning a weight according to individuality to each feature amount, it is possible to place importance on feature amounts that contain a lot of individuality compared to feature amounts that have poor individuality. As a result, it is possible to perform collation with emphasis on characteristics different from others, that is, individuality.
Based on the total similarity, it is determined in the comprehensive determination 7 whether or not the user is the person himself / herself. That is, when the total similarity exceeds a predetermined value, it is determined that the collator is the registrant. On the other hand, if it is less than the predetermined value, it is determined that the person is not the person.
As a result of the determination, if the user is confirmed, the display unit 140 displays “Please enter” and sends an unlock signal from the output unit 150 to the electric lock 160. When the unlock signal is received, the electric lock 160 is unlocked. The electric lock control is executed as an electric lock control process 103.
On the other hand, if it is determined that the user is not the person himself / herself, only that fact is displayed on the display unit 140 and the electric lock 160 is not unlocked.
As a result, if the collator is the person himself / herself, the person can pass through the entrance / exit door and can reject the passage of persons other than the person himself / herself.
[0018]
In the present embodiment, the personal collation device using a face image has been described. However, the present invention is not limited to this, and the present invention can be similarly applied to a fingerprint image and an audio signal. In addition, when applying to a fingerprint image or an audio | voice signal, it cannot be overemphasized that the feature-value established as each authentication technique is selected suitably as a feature-value. For example, the case of an audio signal will be described. Here, a description will be given by taking as an example “speaking content fixed type” speaker verification in which the voice used for personal verification is fixed in advance for each collator. First, the input speech signal is subjected to frame analysis with a predetermined frame length and frame period, and a frame corresponding to a phoneme is extracted by a known recognition method such as HMM. The phoneme sequence obtained as a result corresponds to each feature in the face image such as eyes and nose. From the extracted phoneme sequence, for example, an LPC cepstrum coefficient corresponding to a spectrum envelope, which is an outline of the frequency intensity distribution, is calculated as a feature amount. When the phoneme series is extracted as a plurality of continuous frames, for example, an LPC cepstrum coefficient is calculated from a frame located at the center thereof, or a value obtained by averaging the LPC cepstrum coefficients calculated for each frame is used. For each extracted feature quantity, by performing the same process as in the case of the face image, it is possible to weight each phoneme series in consideration of individuality. For the processing of the similarity calculation means, the contribution calculation means, and the like, a method that has already been generalized as an audio signal authentication technique is used. Although there are various methods, the description is omitted because it is not the essence of the present invention.
[0019]
In this embodiment, a plurality of features extracted from a face image have been described. However, the contribution of each feature when combining various physical features such as a face image and an audio signal, or a face image and a fingerprint image. May be applied at any time. For example, a case where a face image and an audio signal are combined will be described. First. The reference face image and the reference voice information described above are stored in advance in the storage unit 130 as reference information serving as a reference for personality. The significance of the reference information is as described above. Next, the feature amount extraction unit 2 extracts the above-described feature amount from both the registered face image and the registered voice information. Specifically, it is “contour”, “part arrangement” or the like in the case of a face image, and “phonological sequence” in the case of a speech signal. As described above, a plurality of feature amounts included in each of the face image and the sound signal may be used. However, the face image information and the sound signal as a whole are regarded as one feature amount, and the two features of the face image and the sound signal are combined. It is good also as extracting quantity.
[0020]
【The invention's effect】
According to the present invention, by assigning a weight according to individuality to each feature, it is possible to perform collation with emphasis on features that contain a lot of individuality compared to features that have little individuality. As a result, it is possible to perform high-precision collation that emphasizes different characteristics from others, that is, individuality.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating registration processing in a face image matching device. FIG. 2 is a block diagram of the face image matching device. FIG. 3 is a diagram illustrating generation of a reference face image. FIG. 5 is a diagram explaining collation processing in the face image collation apparatus.
1 ... Face image matching device
100: Control unit, 101: Registration process, 102: Verification process, 103: Electric lock control process
110: Imaging unit, 111 ... Image input unit, 120 ... Numeric keypad, 121 ... Operation input unit
130: storage unit, 131: reference contribution, 132: reference face image, 133: registered face image, 134: contribution, 135: program, etc. 136: collation face image
140 ... display unit, 150 ... output unit, 160 ... electric lock,
2 ... feature quantity extraction means, 3 ... similarity calculation means, 4 ... contribution calculation means, 5 ... storage processing,
6 ... Weighting processing, 7 ... Overall judgment, 8 ... Electric lock control, etc.

Claims (1)

人の顔画像から複数の特徴を抽出し、特徴ごとの個人照合への寄与度を考慮した個人照合装置であって、
照合者の顔画像を入力する入力手段と、
複数人の顔画像を平均化して生成した基準顔画像および登録顔画像それぞれから前記複数の特徴毎に特徴量を算出する特徴量抽出手段と、
前記特徴ごとに前記基準顔画像と登録顔画像との類似度を前記特徴量抽出手段にて抽出した特徴量を用いて算出する類似度算出手段と、
予め定めた基準寄与度を前記類似度で除算して、各特徴の照合に対する寄与度を算出する寄与度算出手段と、
前記寄与度にて重み付けした類似度を用いて個人照合する判定手段とを具備することを特徴とした個人照合装置。
A personal verification device that extracts a plurality of features from a human face image and considers the contribution to personal verification for each feature,
An input means for inputting the face image of the collator;
A feature amount extraction means for calculating a feature amount for each of the plurality of features from a reference face image and a registered face image generated by averaging a plurality of face images ;
Similarity calculation means for calculating the similarity between the reference face image and the registered face image for each feature using the feature quantity extracted by the feature quantity extraction means;
A contribution calculation means for dividing a predetermined reference contribution by the similarity and calculating a contribution to matching of each feature ;
A personal verification apparatus comprising: a determination unit that performs personal verification using the similarity weighted by the contribution.
JP2001246782A 2001-08-15 2001-08-15 Personal verification device Expired - Fee Related JP4553526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001246782A JP4553526B2 (en) 2001-08-15 2001-08-15 Personal verification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001246782A JP4553526B2 (en) 2001-08-15 2001-08-15 Personal verification device

Publications (2)

Publication Number Publication Date
JP2003058888A JP2003058888A (en) 2003-02-28
JP4553526B2 true JP4553526B2 (en) 2010-09-29

Family

ID=19076251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001246782A Expired - Fee Related JP4553526B2 (en) 2001-08-15 2001-08-15 Personal verification device

Country Status (1)

Country Link
JP (1) JP4553526B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1846228A (en) * 2003-09-01 2006-10-11 松下电器产业株式会社 Electronic device having user authentication function
JP2005078413A (en) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd Electronic device and method of outputting response information for electronic device
JP4827403B2 (en) * 2003-12-16 2011-11-30 キヤノン株式会社 Pattern identification method and apparatus, and program thereof
US8209172B2 (en) 2003-12-16 2012-06-26 Canon Kabushiki Kaisha Pattern identification method, apparatus, and program
JP2005258769A (en) * 2004-03-11 2005-09-22 Toshiba Corp Id card updating system
JP4543903B2 (en) * 2004-11-30 2010-09-15 パナソニック電工株式会社 Image processing device
KR100844114B1 (en) * 2004-10-25 2008-07-04 마츠시다 덴코 가부시키가이샤 Spatial information determining apparatus
JP5008269B2 (en) * 2005-04-08 2012-08-22 キヤノン株式会社 Information processing apparatus and information processing method
JP4855180B2 (en) * 2006-08-25 2012-01-18 株式会社日立国際電気 Image processing system
JPWO2008081527A1 (en) * 2006-12-27 2010-04-30 パナソニック株式会社 Authentication device, portable terminal device, and authentication method
JP5014307B2 (en) * 2008-10-29 2012-08-29 三菱電機株式会社 Image recognition system and air conditioner
JP5577729B2 (en) * 2010-02-12 2014-08-27 オムロン株式会社 Monitoring device and method, and program
JP5505323B2 (en) * 2011-01-25 2014-05-28 富士通株式会社 Biometric authentication device, control program for controlling biometric authentication device, control method for controlling biometric authentication device, and control method for biometric authentication system
WO2013035150A1 (en) 2011-09-05 2013-03-14 株式会社モルフォ Facial authentication system, facial authentication method, and facial authentication program
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
WO2015136716A1 (en) * 2014-03-14 2015-09-17 オムロン株式会社 Image processing device, image sensor, and image processing method
JP6438693B2 (en) * 2014-07-09 2018-12-19 ワム・システム・デザイン株式会社 Authentication apparatus, authentication method, and program
JP6894685B2 (en) * 2016-09-29 2021-06-30 株式会社カブク Information processing equipment, information processing methods and programs
SG11202103136VA (en) 2018-09-28 2021-04-29 Nec Corp Authentication device, authentication method, and storage medium
WO2023074229A1 (en) * 2021-11-01 2023-05-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, information processing device, and information processing program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148985A (en) * 1998-11-17 2000-05-30 Hitachi Ltd Personal authentication system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07128031A (en) * 1993-10-29 1995-05-19 Sony Corp Face-image recognition apparatus
JPH10302034A (en) * 1997-04-24 1998-11-13 N T T Data:Kk Authentication system, card issuing device, authentication device, card for authentication and authentication method
JP3861421B2 (en) * 1997-11-28 2006-12-20 日本ビクター株式会社 Personal identification device
JP3804725B2 (en) * 1998-04-14 2006-08-02 武雄 金出 Bill identification device and method for creating identification reference data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148985A (en) * 1998-11-17 2000-05-30 Hitachi Ltd Personal authentication system

Also Published As

Publication number Publication date
JP2003058888A (en) 2003-02-28

Similar Documents

Publication Publication Date Title
JP4553526B2 (en) Personal verification device
JP4611575B2 (en) Face image collation device for personal authentication
Chadha et al. Face recognition using discrete cosine transform for global and local features
WO2017198014A1 (en) Identity authentication method and apparatus
US8515136B2 (en) Image processing device, image device, image processing method
US8422746B2 (en) Face authentication system and authentication method thereof
US20060280340A1 (en) Conjunctival scans for personal identification
JP4351982B2 (en) Personal authentication method, apparatus and program
JP2007206833A (en) Biological collation method and device
JPH09251534A (en) Device and method for authenticating person
Marcel et al. Improving face verification using skin color information
US11756338B2 (en) Authentication device, authentication method, and recording medium
CN109101949A (en) A kind of human face in-vivo detection method based on colour-video signal frequency-domain analysis
Pigeon et al. Image-based multimodal face authentication
Syambas et al. Image processing and face detection analysis on face verification based on the age stages
Karungaru et al. Face recognition using genetic algorithm based template matching
KR100862526B1 (en) Method and system constructing moving image database and face recognition method and system using the same
CN110110582A (en) In conjunction with the face identification method and system of 3D structure light, infrared light and visible light
JP2690132B2 (en) Personal verification method and device
JP3620938B2 (en) Personal identification device
JP2005084979A (en) Face authentication system, method and program
Mok et al. Person authentication using ASM based lip shape and intensity information
JP2000293689A (en) Device and method for authenticating individual
Nandakumar et al. Incorporating ancillary information in multibiometric systems
JPH1063858A (en) Method for identifying individual and device therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100713

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4553526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees