JP4553526B2 - Personal verification device - Google Patents
Personal verification device Download PDFInfo
- Publication number
- JP4553526B2 JP4553526B2 JP2001246782A JP2001246782A JP4553526B2 JP 4553526 B2 JP4553526 B2 JP 4553526B2 JP 2001246782 A JP2001246782 A JP 2001246782A JP 2001246782 A JP2001246782 A JP 2001246782A JP 4553526 B2 JP4553526 B2 JP 4553526B2
- Authority
- JP
- Japan
- Prior art keywords
- face image
- contribution
- feature
- similarity
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Complex Calculations (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Description
【0001】
【発明の属する分野】
本発明は、顔画像、指紋、音声、虹彩、DNAなど人間の身体的特徴に基づいて個人認証する照合装置に関し、特に複数の特徴量に重み付けして本人照合を行う個人照合装置に関する。
【0002】
【従来の技術】
従来、個人照合装置には、顔画像、指紋画像、音声信号などから複数の特徴量を抽出し、予め登録されている本人の特徴と照合するものが提案されている。
例えば、顔画像照合装置では、顔の輪郭、目や口等の部位配置、目等の形状などの複数の特徴ごとに特徴量を抽出し、登録顔画像の各特徴量との類似度を算出する。それぞれの類似度に対して予め実験や研究にて得られた一般的な知見に基づく寄与度にて重み付けを行い、本人か否かを照合している。一般的な知見とは、目の形状や輪郭は個人性が高く、鼻は個人性が低いなどである。
【0003】
【発明が解決しようとする課題】
しかし、従来の個人照合装置では、一般的な知見に基づいて各特徴量に対する重み付けを行っている為、登録者ごとの個人性を考慮した重み付けができなかった。一般的には「目の形状等」に対する重み付けが大きくなるが、人によっては「部位配置」が最も個人性を示す場合がある。従来の個人照合装置では、このような場合であっても、「目の形状等」の重み付けを大きくするのみであり、「部位配置」の重み付けを大きくできず、個人単位での個別対応性に欠けるという問題があった。
かかる個別対応性を図れないために、本人棄却率・他人許容率が上昇し、個人照合装置の信頼性が損なわれるという課題があった。
そこで、本発明の目的は、照合者の特徴上に現れる個人性に合わせて、特徴に重み付けを行うことができる個人照合装置を実現し、個人照合装置の信頼性を向上させることを目的とする。
【0004】
【課題を解決するための手段】
かかる目的を達成するために、本発明は、身体的特徴を示す複数の特徴を抽出し、特徴ごとの個人照合への寄与度を考慮した個人照合装置であって、照合者の身体的特徴を入力する入力手段と、基準となる身体的特徴を含む基準情報及び登録者の身体的特徴を含む登録情報それぞれから前記複数の特徴ごとに特徴量を抽出する特徴量抽出手段と、特徴ごとに前記基準情報と登録情報との類似度を前記特徴量抽出手段にて抽出した特徴量を用いて算出する類似度算出手段と、類似度から各特徴の照合に対する寄与度を算出する寄与度算出手段と、寄与度にて重付けした類似度を用いて個人照合する判定手段とを具備することを特徴とした個人照合装置を提供する。
かかる構成によれば、各特徴の本人判定への寄与度を任意の基準情報と登録情報との類似度を基に決めるので、登録者毎の個人性を反映した各特徴の重み付けが可能となる。
【0005】
また、本発明の好適な態様では、寄与度算出手段が、予め得られた基準寄与度を類似度に応じて補正する。これにより、一般的な知見から得られる基準寄与度から極端に逸脱した重み付けがされることを防止できる。
【0006】
本発明の好適な態様では、寄与度算出手段が、類似度が低いほど寄与度を高くする。これにより、基準情報と登録情報が大きく相違する特徴量ほど大きな重付けがされるので、登録情報の個人性を照合に反映できる。
【0007】
また、本発明の好適な態様では、基準情報は複数人の情報を平均化して生成したものを用いる。これにより、一般的な身体的特徴に対する登録者の個人性を引き出すことが可能となるので、個人照合装置に汎用性を持たせることが可能となる。
【0008】
また、本発明の好適な態様では、身体的特徴として顔画像を用いる。これにより、一つの身体的特徴を示す顔画像から複数の特徴である顔の輪郭、部位配置などを用いることができる。
【0009】
また、本発明の好適な態様では、身体的特徴として顔画像及び音声信号を用いる。これにより、顔画像から得られる特徴と音声信号から得られる特徴を用いることができる。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態として、本発明を顔画像照合装置1に適用した態様を説明する。
図2は、顔画像照合装置1の全体ブロック図である。顔画像照合装置1は、レンズ・CCD素子などから構成される照合者の顔を撮影する撮像部110と、操作部であるテンキー120と、ROM/RAMにて構成されプログラムや寄与度134等を記憶する記憶部130と、LCDやLEDにて構成され照合結果等を操作者に提示する表示部140と、管理対象である出入口扉の電気錠160に対して施錠/解錠信号を出力する出力部150と、CPU等にて構成され顔画像照合装置1の全体を制御する制御部100とから構成される。なお、画像入力部111及び操作入力部121は、それぞれ撮像部110又はテンキー120からの操作をA/D変換して制御部100へ入力するA/D変換器である。
制御部100は、登録処理101、照合処理102、電気錠制御処理103などを実行する。
記憶部130には、基準寄与度131、基準顔画像132、登録顔画像133、寄与度134、プログラム等135を記憶している。
出力部150は、管理対象である出入口扉に設置される電気錠160が接続されている。
【0011】
次に、顔画像照合装置1の制御部100における各処理を説明する。
先ず、図3を参照して、登録処理101の一つである基準顔画像132の生成処理について述べる。登録処理101とは、管理者によりテンキー120にて登録モードに設定された場合における処理である。登録モードは、管理者がIDコード等をテンキー120から入力して、正規の管理者であることが認証された場合に移行される。
【0012】
ここで、基準顔画像132とは、登録者の顔画像から個人性が強い特徴量を抽出するための基準となる顔画像である。顔画像照合装置に汎用性を持たせるならば、日本人の平均的な顔画像を用いるのが好ましい。登録者が男性であれば男性の平均的な顔画像を用いても良い。この他に年齢や人種等を考慮することも可能である。また、基準顔画像132は、任意に固定的に定めた顔画像であっても良く、照合者に応じて選択しても良い。
【0013】
本実施の形態では、図3に示す複数の顔画像の特徴ごとに特徴量を平均化処理した後に統合した基準顔画像132が記憶部130に記憶されている。平均化処理は、先ず、任意に選択した複数の顔画像の各々から輪郭・左目・右目・鼻・口といった特徴として採用される部位ごとに特徴量を抽出する。なお、部位抽出処理は、例えば背景画像との差分により輪郭を抽出したり、水平エッジが強い領域を目として抽出するなど一般的な方法を用いる。次に、各部位毎に大きさ等のマッチング処理を施した上、部位毎に各画素の輝度平均を求めることにより、複数の顔画像における各部位を平均化する。そして、平均化された各部位を統合して一つの基準顔画像132を得る。このようにして生成された基準顔画像132は、複数の顔画像における個人性が平均化されるため、個人性の少ない基準に相応しい顔画像となる。 このようにして得られた基準顔画像132は、予め記憶部130に記憶される。なお、平均化処理した基準顔画像132を用いているが、これに限られるものではなく、任意の顔画像を基準顔画像132としても良い。
【0014】
次に、制御部100にて行う登録処理101について、図1を参照して説明する。
先ず、基準顔画像132及び登録顔画像133を記憶部130から読み出す。
ここで、登録顔画像133とは、顔画像照合装置にて出入を許可された人の顔画像である。登録顔画像133は、管理者によって登録モードにした後、登録者の顔を撮像部110にて撮影し、画像入力部111にてA/D変換されてデジタル画像として記憶部130に記憶されている。なお、登録顔画像133は、登録者毎にIDコードとともに記憶されている。
基準顔画像132及び登録顔画像133のそれぞれから「輪郭」、「部位配置」、「左目」、「右目」、「鼻」及び「口」の各特徴ごとに特徴量を特徴量抽出手段2にて抽出する。
すなわち、「右目」および「左目」の抽出は、まず人物の写っていない背景画像と基準顔画像等との差分として抽出される領域から、ソーベル・オペレータ等によりエッジを抽出する。このうち水平エッジが強く、且つ標準的な「右目」あるいは「左目」のテンプレート画像によるずらしマッチングを行った結果、マッチング度合いが強い領域を候補領域とする。以上の処理により抽出された候補領域のうち、顔の垂直中心線に対してほぼ左右対象かつ頭部領域の上半分に位置している領域を目領域とすることによって抽出する。
「鼻」は、「右目」と「左目」を結んだ線の中点より下の予め設定した領域において、エッジの形状が逆T字型をした領域として抽出する。
「口」は、「鼻」より下の予め設定した領域において、横エッジが強い領域として抽出する。カラーカメラを使用した場合には、周辺領域と比較して相対的に赤成分の強いという特徴を組み合わせることも可能である。
「輪郭」は、頭部領域の形状を示す特徴であり、入力顔画像と背景画像との差分として抽出される頭部および首を含む領域と、顎の形状を組み合わせることにより定める。顎の形状は、例えば入力顔画像の「口」を中心とする放物線状の領域において、顎の形状に沿って首に生ずる影との境界として抽出する。背景画像との差分として抽出された領域のうち顎形状より上部に位置する領域のエッジを抽出することにより、「輪郭」を抽出する。
「部位配置」は、「右目」、「左目」領域の重心座標間の水平距離、該重心座標の中点と「鼻」領域の重心座標間の垂直距離、該重心座標の中点と「口」領域の重心座標間の垂直距離、「鼻」領域と「口」領域の重心座標間の垂直距離、「右目」あるいは「左目」領域の重心座標を結んだ直線と「鼻」領域の重心座標との成す角度、「右目」あるいは「左目」領域の重心座標を結んだ直線と「口」領域の重心座標との成す角度等により表す。
【0015】
次に、特徴量抽出手段2にて抽出された基準顔画像132から抽出した各特徴量と、登録顔画像133から抽出した各特徴量との類似度を、特徴ごとに類似度算出手段3にて算出する。
各特徴の類似度について、具体的に説明する。
「輪郭」の類似度は、基準顔画像132及び登録顔画像133から抽出された「輪郭」間のエッジにより囲まれた差分面積すなわち隙間面積を算出する。この結果、輪郭形状に関する特徴(例えば「顎が尖っている」や「鰓が張っている」等)の違いを表現する。
「部位配置」の類似度は、各部位の相対位置に関する特徴(「目の間隔が広い」や「部位が顔の中央に集まっている」等)を示す各部位の重心座標間の距離や角度をもとに算出する。
「右目」、「左目」、「鼻」、「口」の類似度は、形状(目が大きい/細い/垂れている/上がり目である、口が広い/狭い/厚い/薄い)を示すエッジ間の隙間面積、エッジ強度の差、エッジ勾配の差をもとに算出する。あるいは部位領域画像に対してずらしマッチングを行うことにより得られる相関値として類似度を求めることも可能である。例えばカラーカメラを用いている場合には、色(明るさ、色彩度など)を示す濃淡画像や色相画像、彩度画像等を用いることができる。
このように、各特徴量毎に算出した類似度は、距離あるいは角度といった異なる尺度である為、これらの大小関係を比較することが可能な同一の尺度に合わせておく必要がある。
先ず、算出された値の大小関係を統一する。すなわち、「値が大きい程類似している」という類似度の性質に従うよう、距離や角度の値から逆数を算出したり、あるいは所定の値から引いた値とする等の処理を行う。
次に、算出された値の原点を統一する。基準顔画像132と、基準顔画像132の算出に用いた全ての顔画像との間で予め類似度を求めておき、これらの平均値で基準顔画像132及び登録顔画像133から抽出された特徴量間の類似度を除すことにより、平均値が1となるよう正規化を行う。
そして、算出された値の分散を統一する。基準顔画像132と、基準顔画像132の算出に用いた全ての顔画像との間で求めた類似度の分散値を用いて、前記正規化した値を補正する。この結果、算出される類似度の分散を一定の範囲内に収める。
【0016】
次に、寄与度算出手段4にて実行する寄与度134の算出方法について説明する。
先ず、各特徴ごとの基準寄与度131を記憶部130から読み出す。ここで、基準寄与度131とは、各特徴が本人照合に寄与する程度であって、実験的又は研究による知見から得られた度合いである。例えば、「右目」、「左目」、「鼻」、「口」の4部位について、個別に照合実験を行い、得られた照合性能を基に実験的に重みを検討したところ、「目」(左右含む)、「口」、「鼻」の順に重みを高くすることにより照合精度が向上することが分かっている。
また、井上らの発表によれば、心理学的側面から考察した結果、「目の大きさ」と「目より下の顔輪郭」が識別に重要な特徴であるという知見が得られている(化技誌
第34巻 第3号, p249-p254)。
これら結果を勘案し求めた「基準寄与度131」の一例を図4に示す。
類似度は、その値が大きい程、登録顔画像133が基準顔画像132に類似しているという性質を持つ。このことから、類似している特徴に対する寄与度を低下させる為、基準寄与度131(B)を類似度(S)で除算する(この値を補正前寄与度(W')とする)。尚、類似度(S)が限りなく0に近い場合や0の場合は寄与度が無限大となり、上記特徴以外は無視されてしまう。この様に寄与度134が異常に逸脱した値とならないよう、類似度(S)に下限値を設ける。例えば類似度(S)の下限値を「0.4」に定めた場合、類似度(S)がこれ以下の場合には「0.4」を用いる。尚、図4では、実際に算出した「輪郭」の類似度(S)が「0.3」であったが、これを予め定めた上記下限値「0.4」に置き換えている。上限も同様にして設定する。
寄与度134(W)は、補正前寄与度(W')を、全特徴量に対して得られた補正前寄与度(W')の総和(図4の場合「1.146」)で除算することにより正規化した値として算出する。
図4に、算出結果の例を示す。「輪郭」の場合は、類似度が「0.4」で基準寄与度(B)131が「0.15」であり、補正前寄与度W´の総和が「1.146」であるので、寄与度134は「0.327」となるが、算出した寄与度の総和を「1」にする為最大の寄与度である「輪郭」の寄与度で調整し「0.326」とする。基準顔画像132と比較して「輪郭」に個人性があるため、従来用いていた寄与度である基準寄与度131「0.15」に比べ、高くなっていることが分かる。「鼻」の場合は、類似度が「1.4」で基準寄与度131が「0.10」であるから上記と同じ計算を行うと、寄与度134は「0.062」となる。基準顔画像132と比較して「鼻」は個人性が低いため、基準寄与度131「0.10」に比べ低下していることが分かる。
尚、知見から得られる各特徴の寄与度である基準寄与度131が得られない場合であっても、基準寄与度131を全て「1」とすることにより、上記寄与度算出法をそのまま用いることができる。
各算出された寄与度134は、登録顔画像133と対応付けて記憶部130に記憶される(記憶処理5)。
なお、本実施の形態の登録顔画像133は、輪郭に最も個人性が強く現れ、鼻に個人性が少ない人物のものである。
このようにして、管理している出入口扉への出入の許可を受けている被照合者を登録する。なお、複数人の登録をする場合は、同様の処理を繰り返すこととなる。
【0017】
次に、図5を参照して、個人照合装置の照合処理102について説明する。
先ず、照合者は表示部140のガイダンスに従い、テンキー120から自己のIDコードを入力するとともに、撮像部110にて顔を撮影する。顔撮影時には、例えば表示部140に両眼位置の目安と撮影中の顔が写し出されるので、照合者はその位置に合うように調整する。位置調整ができたところで、顔画像確定のためにテンキー120操作を行う。
顔画像確定のためのテンキー120から入力を受けると、図5に示す照合処理102が実行される。
先に入力されたIDコードに基づき、照合者の登録顔画像133を記憶部130から読み出す。特徴量抽出手段2では、登録顔画像133と入力された顔画像それぞれから「輪郭」「部位配置」「左目」「右目」「鼻」及び「口」の各特徴量を抽出する。抽出された特徴量が類似度算出手段3に入力される。
類似度算出手段3では、基準顔画像132から抽出された各特徴量と、登録顔画像133から抽出した各特徴量との類似度を各特徴量毎に算出する。なお、特徴量抽出手段2及び類似度算出手段3とは、図1にて説明した特徴量抽出処理手段2及び類似度算出処理手段3と同じ処理を実行する。
そして、算出された各類似度に対し、重付け処理6を行う。すなわち、記憶部130に記憶されている寄与度134を該当する類似度に対して乗じることにより、各特徴量の判定用の類似度を算出する。更に、全ての特徴量に対して得られた判定用の類似度の総和を求めることにより、個人性を反映させた総合類似度を算出する。このように、各特徴量に個人性に応じた重みを付与することにより、個人性が多く含まれている特徴量を個人性が乏しい特徴量に比べ重視することができる。この結果、他人と異なる特徴、すなわち個人性を重視した照合が可能となる。
この総合類似度に基づいて総合判定7にて本人か否かを判定する。すなわち、総合類似度が、所定値を越えている場合に照合者が登録者本人であるとの判断をする。他方、所定値以下の場合は、本人でないとの判断をする。
判定の結果、本人と確認すると、表示部140に「お入りください」等の表示を行い、出力部150から電気錠160へ解錠信号を送出する。解錠信号を受信すると、電気錠160が解錠される。なお、電気錠制御は、電気錠制御処理103として実行される。
他方、本人でないと判定すれば、表示部140にその旨を表示するのみで、電気錠160は解錠しない。
これによって、照合者が本人であれば出入口扉を通過でき、本人以外の者の通過を拒否できる。
【0018】
本実施の形態では、顔画像による個人照合装置について説明したが、これに限られるものではなく、指紋画像や音声信号についても同様に適用できる。なお、指紋画像や音声信号に適用する場合は、特徴量として、それぞれの認証技術として確立されている特徴量が適宜に選択されることは言うまでもない。例えば、音声信号の場合について説明する。ここでは、個人照合に用いる音声が照合者毎に予め固定されている“発声内容固定型”の話者照合を例に説明する。まず、入力された音声信号を所定のフレーム長及びフレーム周期にてフレーム分析し、HMM等の公知の認識手法により音韻に相当するフレームを抽出する。この結果得られる音韻系列が目や鼻といった顔画像における各特徴に相当する。抽出された音韻系列から、特徴量として例えば周波数強度分布の概形であるスペクトル包絡に相当するLPCケプストラム係数を算出する。音韻系列が連続した複数フレームとして抽出された場合には、例えばその中央に位置するフレームからLPCケプストラム係数を算出したり、あるいは各フレーム毎に算出したLPCケプストラム係数を平均化した値を用いる。抽出された各特徴量について、前記顔画像による場合と同様な処理を行うことにより、個人性を考慮して各音韻系列に重み付けすることが可能となる。なお、類似度の算出手段・寄与度算出手段等の処理は、音声信号の認証技術として既に一般化している手法が用いられる。種々の手法があるが、本発明の本質でないことから説明は省略する。
【0019】
また、本実施の形態では、顔画像から抽出される複数の特徴にて説明したが、顔画像と音声信号や、顔画像と指紋画像など種々の身体的特徴を組み合わせたときの各特徴の寄与度に適用してもよい。例えば、顔画像と音声信号とを組み合わせた場合について説明する。まず。個人性の基準となる基準情報として、前述した基準顔画像と、基準音声情報とを予め記憶部130に記憶しておく。なお、基準情報の意義については、前述した通りである。次に、特徴量抽出手段2においては、登録顔画像と登録音声情報との双方から前述した特徴量を抽出する。具体的には、顔画像の場合「輪郭」「部位配置」等であり、音声信号の場合「音韻系列」である。このように、顔画像と音声信号のそれぞれに含まれる複数の特徴量を用いても良いが、顔画像情報及び音声信号をそれぞれ全体として、一つの特徴量とし顔画像と音声信号の二つの特徴量を抽出することとしても良い。
【0020】
【発明の効果】
本発明によれば、各特徴に個人性に応じた重みを付与することにより、個人性が多く含まれている特徴を個人性が乏しい特徴に比べ重視して照合を行うことができる。この結果、他人と異なる特徴、すなわち個人性を重視した高精度な照合が可能となる。
【図面の簡単な説明】
【図1】顔画像照合装置での登録処理を説明する図
【図2】顔画像照合装置のブロック図
【図3】基準顔画像の生成を説明する図
【図4】基準寄与度の一例を説明する図
【図5】顔画像照合装置での照合処理を説明する図
【符号の説明】
1…顔画像照合装置
100…制御部、101…登録処理、102…照合処理、103…電気錠制御処理
110…撮像部、111…画像入力部、120…テンキー、121…操作入力部
130…記憶部、131…基準寄与度、132…基準顔画像、133…登録顔画像、134…寄与度、135…プログラム等、136…照合顔画像
140…表示部、150…出力部、160…電気錠、
2…特徴量抽出手段、3…類似度算出手段、4…寄与度算出手段、5…記憶処理、
6…重付け処理、7…総合判定、8…電気錠制御等[0001]
[Field of the Invention]
The present invention relates to a collation apparatus that performs personal authentication based on human physical features such as facial images, fingerprints, voices, irises, and DNAs, and more particularly to a personal collation apparatus that performs personal verification by weighting a plurality of feature amounts.
[0002]
[Prior art]
Conventionally, a personal verification device has been proposed in which a plurality of feature amounts are extracted from a face image, a fingerprint image, an audio signal, and the like, and collated with a personal feature registered in advance.
For example, in the face image matching device, feature amounts are extracted for each of a plurality of features such as face contours, part arrangements such as eyes and mouths, and shapes of eyes, and the degree of similarity with each feature amount of a registered face image is calculated. To do. Each similarity is weighted with a contribution based on general knowledge obtained in advance through experiments and research, and whether or not it is the person is verified. General knowledge is that the shape and contour of the eyes are highly personal, and the nose is not very personal.
[0003]
[Problems to be solved by the invention]
However, in the conventional personal verification device, since weighting is performed on each feature amount based on general knowledge, weighting considering personality for each registrant cannot be performed. In general, weighting for “eye shape and the like” becomes large, but “part arrangement” may show the individuality most depending on the person. Even in such a case, the conventional personal verification device only increases the weight of “eye shape etc.” and cannot increase the weight of “part arrangement”. There was a problem of lacking.
Since such individual correspondence cannot be achieved, there is a problem that the rejection rate and the other person's acceptance rate increase, and the reliability of the personal verification device is impaired.
Accordingly, an object of the present invention is to realize a personal verification device capable of weighting features in accordance with the personality appearing on the characteristics of the collator, and to improve the reliability of the personal verification device. .
[0004]
[Means for Solving the Problems]
In order to achieve such an object, the present invention is a personal verification device that extracts a plurality of features indicating physical features and takes into account the contribution to personal verification for each feature, Input means for inputting, feature information extracting means for extracting feature values for each of the plurality of features from each of the reference information including physical features serving as a reference and the registered information including physical features of the registrant; Similarity calculating means for calculating the similarity between the reference information and the registered information using the feature amount extracted by the feature amount extracting means; and a contribution degree calculating means for calculating a contribution degree for matching each feature from the similarity degree; And a personal verification device characterized by comprising a determination means for performing personal verification using the degree of similarity weighted by the contribution.
According to this configuration, the degree of contribution of each feature to identity determination is determined based on the similarity between arbitrary reference information and registration information, and thus it is possible to weight each feature that reflects the individuality of each registrant. .
[0005]
In a preferred aspect of the present invention, the contribution calculation means corrects the reference contribution obtained in advance according to the similarity. Thereby, it is possible to prevent weighting that deviates extremely from the standard contribution obtained from general knowledge.
[0006]
In a preferred aspect of the present invention, the contribution calculation means increases the contribution as the similarity is lower. As a result, since feature values that are greatly different from the reference information and the registered information are given greater weight, the personality of the registered information can be reflected in the verification.
[0007]
In a preferred aspect of the present invention, the reference information is generated by averaging information of a plurality of people. Thereby, since it becomes possible to extract the individuality of the registrant with respect to general physical characteristics, it is possible to make the personal verification device versatile.
[0008]
In a preferred aspect of the present invention, a face image is used as a physical feature. As a result, it is possible to use a plurality of facial contours, part arrangements, and the like from a facial image showing one physical feature.
[0009]
In a preferred aspect of the present invention, a face image and an audio signal are used as physical features. Thereby, the feature obtained from the face image and the feature obtained from the audio signal can be used.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, as an embodiment of the present invention, a mode in which the present invention is applied to the face image matching
FIG. 2 is an overall block diagram of the face
The
The
The
[0011]
Next, each process in the
First, the generation process of the
[0012]
Here, the
[0013]
In the present embodiment, the
[0014]
Next, the
First, the
Here, the registered
Feature amounts are extracted from the
That is, in the extraction of “right eye” and “left eye”, first, an edge is extracted by a Sobel operator or the like from an area extracted as a difference between a background image in which a person is not captured and a reference face image or the like. Of these, regions that have strong horizontal edges and that have a strong matching degree as a result of the shift matching using the standard “right eye” or “left eye” template image are determined as candidate regions. Out of the candidate areas extracted by the above processing, an area that is substantially in the left and right direction and located in the upper half of the head area with respect to the vertical center line of the face is extracted as an eye area.
The “nose” is extracted as an inverted T-shaped region in a predetermined region below the midpoint of the line connecting the “right eye” and “left eye”.
“Mouth” is extracted as a region having a strong horizontal edge in a preset region below “nose”. When a color camera is used, it is possible to combine the characteristics that the red component is relatively stronger than the surrounding area.
The “contour” is a feature indicating the shape of the head region, and is determined by combining the region including the head and neck extracted as the difference between the input face image and the background image and the shape of the jaw. The shape of the jaw is extracted as a boundary with a shadow formed on the neck along the shape of the jaw, for example, in a parabolic region centered on the “mouth” of the input face image. The “contour” is extracted by extracting the edge of the region located above the jaw shape from the region extracted as the difference from the background image.
“Partial arrangement” includes the horizontal distance between the centroid coordinates of the “right eye” and “left eye” areas, the vertical distance between the centroid coordinates of the centroid coordinates and the centroid coordinates of the “nose” area, the midpoint of the centroid coordinates and the “mouth” The vertical distance between the centroid coordinates of the “region”, the vertical distance between the centroid coordinates of the “nose” region and the “mouth” region, the centroid coordinates of the “nose” region and the straight line connecting the centroid coordinates of the “right eye” or “left eye” region And the angle formed by the straight line connecting the barycentric coordinates of the “right eye” or “left eye” area and the barycentric coordinates of the “mouth” area.
[0015]
Next, the similarity between each feature amount extracted from the
The similarity of each feature will be specifically described.
The similarity between “contours” is calculated as a difference area surrounded by edges between “contours” extracted from the
The similarity of “part placement” refers to the distance and angle between the barycentric coordinates of each part indicating characteristics related to the relative position of each part (such as “wide eye spacing” or “parts gathered in the center of the face”). Calculate based on
The similarity of “right eye”, “left eye”, “nose”, and “mouth” is between edges indicating the shape (large eyes / thin / hanging / upward eyes, wide mouth / narrow / thick / thin) Are calculated based on the gap area, edge strength difference, and edge gradient difference. Alternatively, it is also possible to obtain the similarity as a correlation value obtained by shifting and matching the region image. For example, when a color camera is used, a grayscale image, a hue image, a saturation image, or the like indicating a color (brightness, color saturation, etc.) can be used.
Thus, since the similarity calculated for each feature amount is a different scale such as a distance or an angle, it is necessary to match with the same scale that can compare these magnitude relationships.
First, the magnitude relationship of the calculated values is unified. That is, processing such as calculating a reciprocal from a distance or angle value or subtracting from a predetermined value is performed so as to follow a similarity property of “similar as the value increases”.
Next, the origin of the calculated value is unified. Similarities are obtained in advance between the
Then, the variance of the calculated values is unified. The normalized value is corrected using the variance value of the similarity obtained between the
[0016]
Next, a method for calculating the
First, the
In addition, according to the presentation by Inoue et al., As a result of consideration from a psychological aspect, it was found that "eye size" and "face contour below eyes" are important features for identification ( Chemical Journal Vol.34 No.3, p249-p254).
An example of the “
As the degree of similarity is larger, the registered
The contribution 134 (W) is obtained by dividing the pre-correction contribution (W ′) by the sum of the pre-correction contribution (W ′) obtained for all the feature quantities (“1.146” in FIG. 4). Is calculated as a normalized value.
FIG. 4 shows an example of the calculation result. In the case of “contour”, the similarity is “0.4”, the reference contribution (B) 131 is “0.15”, and the sum of the contributions W ′ before correction is “1.146”, so the
Even if the
Each
It should be noted that the registered
In this way, the person to be verified who is permitted to enter and exit the managed entrance door is registered. In addition, when registering a plurality of people, the same processing is repeated.
[0017]
Next, referring to FIG. 5, the
First, the collator inputs his / her ID code from the
When an input is received from the
Based on the ID code input previously, the registered
The
Then, a
Based on the total similarity, it is determined in the comprehensive determination 7 whether or not the user is the person himself / herself. That is, when the total similarity exceeds a predetermined value, it is determined that the collator is the registrant. On the other hand, if it is less than the predetermined value, it is determined that the person is not the person.
As a result of the determination, if the user is confirmed, the
On the other hand, if it is determined that the user is not the person himself / herself, only that fact is displayed on the
As a result, if the collator is the person himself / herself, the person can pass through the entrance / exit door and can reject the passage of persons other than the person himself / herself.
[0018]
In the present embodiment, the personal collation device using a face image has been described. However, the present invention is not limited to this, and the present invention can be similarly applied to a fingerprint image and an audio signal. In addition, when applying to a fingerprint image or an audio | voice signal, it cannot be overemphasized that the feature-value established as each authentication technique is selected suitably as a feature-value. For example, the case of an audio signal will be described. Here, a description will be given by taking as an example “speaking content fixed type” speaker verification in which the voice used for personal verification is fixed in advance for each collator. First, the input speech signal is subjected to frame analysis with a predetermined frame length and frame period, and a frame corresponding to a phoneme is extracted by a known recognition method such as HMM. The phoneme sequence obtained as a result corresponds to each feature in the face image such as eyes and nose. From the extracted phoneme sequence, for example, an LPC cepstrum coefficient corresponding to a spectrum envelope, which is an outline of the frequency intensity distribution, is calculated as a feature amount. When the phoneme series is extracted as a plurality of continuous frames, for example, an LPC cepstrum coefficient is calculated from a frame located at the center thereof, or a value obtained by averaging the LPC cepstrum coefficients calculated for each frame is used. For each extracted feature quantity, by performing the same process as in the case of the face image, it is possible to weight each phoneme series in consideration of individuality. For the processing of the similarity calculation means, the contribution calculation means, and the like, a method that has already been generalized as an audio signal authentication technique is used. Although there are various methods, the description is omitted because it is not the essence of the present invention.
[0019]
In this embodiment, a plurality of features extracted from a face image have been described. However, the contribution of each feature when combining various physical features such as a face image and an audio signal, or a face image and a fingerprint image. May be applied at any time. For example, a case where a face image and an audio signal are combined will be described. First. The reference face image and the reference voice information described above are stored in advance in the
[0020]
【The invention's effect】
According to the present invention, by assigning a weight according to individuality to each feature, it is possible to perform collation with emphasis on features that contain a lot of individuality compared to features that have little individuality. As a result, it is possible to perform high-precision collation that emphasizes different characteristics from others, that is, individuality.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating registration processing in a face image matching device. FIG. 2 is a block diagram of the face image matching device. FIG. 3 is a diagram illustrating generation of a reference face image. FIG. 5 is a diagram explaining collation processing in the face image collation apparatus.
1 ... Face image matching device
100: Control unit, 101: Registration process, 102: Verification process, 103: Electric lock control process
110: Imaging unit, 111 ... Image input unit, 120 ... Numeric keypad, 121 ... Operation input unit
130: storage unit, 131: reference contribution, 132: reference face image, 133: registered face image, 134: contribution, 135: program, etc. 136: collation face image
140 ... display unit, 150 ... output unit, 160 ... electric lock,
2 ... feature quantity extraction means, 3 ... similarity calculation means, 4 ... contribution calculation means, 5 ... storage processing,
6 ... Weighting processing, 7 ... Overall judgment, 8 ... Electric lock control, etc.
Claims (1)
照合者の顔画像を入力する入力手段と、
複数人の顔画像を平均化して生成した基準顔画像および登録顔画像それぞれから前記複数の特徴毎に特徴量を算出する特徴量抽出手段と、
前記特徴ごとに前記基準顔画像と登録顔画像との類似度を前記特徴量抽出手段にて抽出した特徴量を用いて算出する類似度算出手段と、
予め定めた基準寄与度を前記類似度で除算して、各特徴の照合に対する寄与度を算出する寄与度算出手段と、
前記寄与度にて重み付けした類似度を用いて個人照合する判定手段とを具備することを特徴とした個人照合装置。A personal verification device that extracts a plurality of features from a human face image and considers the contribution to personal verification for each feature,
An input means for inputting the face image of the collator;
A feature amount extraction means for calculating a feature amount for each of the plurality of features from a reference face image and a registered face image generated by averaging a plurality of face images ;
Similarity calculation means for calculating the similarity between the reference face image and the registered face image for each feature using the feature quantity extracted by the feature quantity extraction means;
A contribution calculation means for dividing a predetermined reference contribution by the similarity and calculating a contribution to matching of each feature ;
A personal verification apparatus comprising: a determination unit that performs personal verification using the similarity weighted by the contribution.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001246782A JP4553526B2 (en) | 2001-08-15 | 2001-08-15 | Personal verification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001246782A JP4553526B2 (en) | 2001-08-15 | 2001-08-15 | Personal verification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003058888A JP2003058888A (en) | 2003-02-28 |
JP4553526B2 true JP4553526B2 (en) | 2010-09-29 |
Family
ID=19076251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001246782A Expired - Fee Related JP4553526B2 (en) | 2001-08-15 | 2001-08-15 | Personal verification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4553526B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1846228A (en) * | 2003-09-01 | 2006-10-11 | 松下电器产业株式会社 | Electronic device having user authentication function |
JP2005078413A (en) * | 2003-09-01 | 2005-03-24 | Matsushita Electric Ind Co Ltd | Electronic device and method of outputting response information for electronic device |
JP4827403B2 (en) * | 2003-12-16 | 2011-11-30 | キヤノン株式会社 | Pattern identification method and apparatus, and program thereof |
US8209172B2 (en) | 2003-12-16 | 2012-06-26 | Canon Kabushiki Kaisha | Pattern identification method, apparatus, and program |
JP2005258769A (en) * | 2004-03-11 | 2005-09-22 | Toshiba Corp | Id card updating system |
JP4543903B2 (en) * | 2004-11-30 | 2010-09-15 | パナソニック電工株式会社 | Image processing device |
KR100844114B1 (en) * | 2004-10-25 | 2008-07-04 | 마츠시다 덴코 가부시키가이샤 | Spatial information determining apparatus |
JP5008269B2 (en) * | 2005-04-08 | 2012-08-22 | キヤノン株式会社 | Information processing apparatus and information processing method |
JP4855180B2 (en) * | 2006-08-25 | 2012-01-18 | 株式会社日立国際電気 | Image processing system |
JPWO2008081527A1 (en) * | 2006-12-27 | 2010-04-30 | パナソニック株式会社 | Authentication device, portable terminal device, and authentication method |
JP5014307B2 (en) * | 2008-10-29 | 2012-08-29 | 三菱電機株式会社 | Image recognition system and air conditioner |
JP5577729B2 (en) * | 2010-02-12 | 2014-08-27 | オムロン株式会社 | Monitoring device and method, and program |
JP5505323B2 (en) * | 2011-01-25 | 2014-05-28 | 富士通株式会社 | Biometric authentication device, control program for controlling biometric authentication device, control method for controlling biometric authentication device, and control method for biometric authentication system |
WO2013035150A1 (en) | 2011-09-05 | 2013-03-14 | 株式会社モルフォ | Facial authentication system, facial authentication method, and facial authentication program |
JPWO2013035150A1 (en) * | 2011-09-05 | 2015-03-23 | 株式会社モルフォ | Face authentication system, face authentication method, and face authentication program |
WO2015136716A1 (en) * | 2014-03-14 | 2015-09-17 | オムロン株式会社 | Image processing device, image sensor, and image processing method |
JP6438693B2 (en) * | 2014-07-09 | 2018-12-19 | ワム・システム・デザイン株式会社 | Authentication apparatus, authentication method, and program |
JP6894685B2 (en) * | 2016-09-29 | 2021-06-30 | 株式会社カブク | Information processing equipment, information processing methods and programs |
SG11202103136VA (en) | 2018-09-28 | 2021-04-29 | Nec Corp | Authentication device, authentication method, and storage medium |
WO2023074229A1 (en) * | 2021-11-01 | 2023-05-04 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing method, information processing device, and information processing program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148985A (en) * | 1998-11-17 | 2000-05-30 | Hitachi Ltd | Personal authentication system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07128031A (en) * | 1993-10-29 | 1995-05-19 | Sony Corp | Face-image recognition apparatus |
JPH10302034A (en) * | 1997-04-24 | 1998-11-13 | N T T Data:Kk | Authentication system, card issuing device, authentication device, card for authentication and authentication method |
JP3861421B2 (en) * | 1997-11-28 | 2006-12-20 | 日本ビクター株式会社 | Personal identification device |
JP3804725B2 (en) * | 1998-04-14 | 2006-08-02 | 武雄 金出 | Bill identification device and method for creating identification reference data |
-
2001
- 2001-08-15 JP JP2001246782A patent/JP4553526B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148985A (en) * | 1998-11-17 | 2000-05-30 | Hitachi Ltd | Personal authentication system |
Also Published As
Publication number | Publication date |
---|---|
JP2003058888A (en) | 2003-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4553526B2 (en) | Personal verification device | |
JP4611575B2 (en) | Face image collation device for personal authentication | |
Chadha et al. | Face recognition using discrete cosine transform for global and local features | |
WO2017198014A1 (en) | Identity authentication method and apparatus | |
US8515136B2 (en) | Image processing device, image device, image processing method | |
US8422746B2 (en) | Face authentication system and authentication method thereof | |
US20060280340A1 (en) | Conjunctival scans for personal identification | |
JP4351982B2 (en) | Personal authentication method, apparatus and program | |
JP2007206833A (en) | Biological collation method and device | |
JPH09251534A (en) | Device and method for authenticating person | |
Marcel et al. | Improving face verification using skin color information | |
US11756338B2 (en) | Authentication device, authentication method, and recording medium | |
CN109101949A (en) | A kind of human face in-vivo detection method based on colour-video signal frequency-domain analysis | |
Pigeon et al. | Image-based multimodal face authentication | |
Syambas et al. | Image processing and face detection analysis on face verification based on the age stages | |
Karungaru et al. | Face recognition using genetic algorithm based template matching | |
KR100862526B1 (en) | Method and system constructing moving image database and face recognition method and system using the same | |
CN110110582A (en) | In conjunction with the face identification method and system of 3D structure light, infrared light and visible light | |
JP2690132B2 (en) | Personal verification method and device | |
JP3620938B2 (en) | Personal identification device | |
JP2005084979A (en) | Face authentication system, method and program | |
Mok et al. | Person authentication using ASM based lip shape and intensity information | |
JP2000293689A (en) | Device and method for authenticating individual | |
Nandakumar et al. | Incorporating ancillary information in multibiometric systems | |
JPH1063858A (en) | Method for identifying individual and device therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100706 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100713 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130723 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4553526 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |