JP2004246459A - Method of calculating rotational displacement angle between fingerprint images and fingerprint image collation device - Google Patents

Method of calculating rotational displacement angle between fingerprint images and fingerprint image collation device Download PDF

Info

Publication number
JP2004246459A
JP2004246459A JP2003033521A JP2003033521A JP2004246459A JP 2004246459 A JP2004246459 A JP 2004246459A JP 2003033521 A JP2003033521 A JP 2003033521A JP 2003033521 A JP2003033521 A JP 2003033521A JP 2004246459 A JP2004246459 A JP 2004246459A
Authority
JP
Japan
Prior art keywords
fingerprint
fingerprint image
image
reference point
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003033521A
Other languages
Japanese (ja)
Inventor
Hideyo Takeuchi
英世 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuo Hatsujo KK
Chuo Spring Co Ltd
Original Assignee
Chuo Hatsujo KK
Chuo Spring Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chuo Hatsujo KK, Chuo Spring Co Ltd filed Critical Chuo Hatsujo KK
Priority to JP2003033521A priority Critical patent/JP2004246459A/en
Publication of JP2004246459A publication Critical patent/JP2004246459A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correct a rotational displacement between fingerprint images even if the fingerprint images have no background areas. <P>SOLUTION: The x-directional and y-directional displacement amounts (δx and δy) of two fingerprint images to be collated are determined. The center (reference point) of one fingerprint image to be collated is determined, and the center of the other fingerprint image is corrected with the displacement amounts (δx and δy). Rotating-directional spectral patterns are determined from the one fingerprint image and the corrected other fingerprint image. The rotating-directional spectral patterns are moved and collated, whereby the rotational displacement angle δθ of the two fingerprint images to be collated is determined. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】本発明は、指紋画像の照合を行なう指紋照合技術に関し、詳しくは、照合される指紋画像間の回転ズレを補正するための技術に関する。
【0002】
【従来の技術】指紋照合装置では、指紋採取部への指の置き方によって採取される指紋画像が異なるものとなる。例えば、指紋採取部に対して異なる向きで指が置かれると、得られた指紋画像の間には回転ズレが発生する。照合する指紋画像間に回転ズレがあると、両指紋画像が同一指から採取されたものであっても同一と判断されないことが生じる。このため、従来から指紋画像間の回転ズレを補正するための技術が開発されている(例えば、特許文献1,特許文献2参照)。前者の文献に開示された技術では、指紋画像(指紋領域と背景領域を含むもの)が入力される入力層と、指紋の重心位置(x,y)と傾きθを出力する出力層と、入力層と出力層を接続する中間層とでニューラルネットワークが構築される。学習用データには傾いていない指紋画像を使用し、その指紋画像の位置と傾きを人工的に変えながら学習を行わせる。学習後のニューラルネットワークに指紋画像を入力すると、その指紋画像の傾きが出力される。各指紋画像の傾きが分かれば、それらの値から指紋画像間の回転ズレ角を算出することができる。
一方、後者の文献に開示された技術では、指紋画像を指紋が写っている指紋領域と、それ以外の背景領域に分類する。次に、指紋領域と背景領域の境界線(すなわち、指紋領域の輪郭線)を楕円に近似する。そして、近似された楕円についてその傾きを求め、その求めた傾きを指紋画像の傾きとする。この方法によっても、各指紋画像の傾きが求められ、それらの傾きから指紋画像間の回転ズレ角を算出することができる。
なお、指紋照合とは異なる画像(例えば印鑑画像)に対して回転補正を行う技術として特許文献3に開示された技術も知られている。この技術では、照合する2つの印鑑画像にそれぞれエッジ強調・2値化処理を行い、処理後の画像からエッジ上の点を抽出する。そして、その抽出されたエッジ上の点に対してハフ変換・フーリエ変換を行い、変換後のパターンを照合することで回転ズレ角を算出する。
【0003】
【特許文献1】
特開2001−76144
【特許文献2】
特開2001−76145
【特許文献3】
特開平9−245167号
【0004】
【発明が解決しようとする課題】しかしながら、上述した特許文献1と特許文献2の技術では、指紋画像毎に傾きを求めなければならず、傾きを求めるためには対象となる指紋画像に指紋領域と背景領域が含まれていることが条件となる。このため、指紋採取部の面積が小さい等の理由によって背景領域を有しない指紋画像の場合は、その傾き(ひいては、指紋画像間の回転ズレ角)を求めることができないという問題があった。
本発明は、上述した実情に鑑みてなされたものであり、その目的は、背景領域を有しない指紋画像でもそれら指紋画像間の回転ズレを補正することが可能となる技術を提供する。
【0005】
なお、特許文献3に開示された技術については、採取した原画像にエッジ強調処理や2値化処理を施さなければならない。このような前処理は原画像から重要な情報(指紋隆線情報)を取り除いてしまう可能性があり、これによって回転ズレ角が算出できない場合が生じ得る。したがって、この方法を指紋画像の回転ズレ補正に用いることはできない。
また、指紋画像から抽出されるマニューシャ(特徴点)により指紋画像の回転ズレを補正することも考えられる。すなわち、各指紋画像からマニューシャを抽出し、対応するマニューシャの相対的な位置関係から回転ズレを補正する。しかしながら、マニューシャを用いる方法では各指紋画像からマニューシャを抽出するための処理(例えば、2値化、細線化、マニューシャ抽出)が必要となり、処理に時間を要してしまう。
【0006】
【課題を解決するための手段と作用と効果】上記課題を解決するために創作された本願発明の方法は、指紋画像間の回転ズレ角を算出する方法であって、一方の指紋画像に対しては、その指紋画像内に設定された第1基準点を通る基準走査線を第1基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第1のスペクトルパターンを取得し、他方の指紋画像に対しては、その指紋画像内において前記第1基準点と対応する第2基準点を通る基準走査線を第2基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第2のスペクトルパターンを取得し、取得された第1のスペクトルパターンに対して第2のスペクトルパターンを回転方向に所定角度範囲内でずらしながら相関度を算出し、相関度が最大となるときのズレ角を指紋画像間の回転ズレ角に決定する。
上記の方法では、一方の指紋画像については第1基準点を中心とし、他方の指紋画像については第2基準点(第1基準点に対応する点)を中心とし、それぞれ回転方向のスペクトルパターンを取得する。そして、2つのスペクトルパターンを回転方向にずらしながら相関度を算出し、相関度が最大となるときのズレ角を指紋画像間の回転ズレ角とする。したがって、この方法では一方の指紋画像に対する他方の指紋画像の相対的な回転ズレ角を直接求めるようにしているため(すなわち、両指紋画像の傾きを個別には求めていないため)、背景領域を有していない指紋画像同士であっても回転ズレ角を算出することができる。
なお、対象となる2つの指紋画像が同一指から採取されたものではない場合は、上記方法により得られた回転ズレ角は実際の回転ズレ角とは異なるものとなる。しかしながら、このような場合はもともと2つの指紋画像が異なるものと判定されるべき場合であって、指紋画像間の回転ズレ角を正確に算出する意義もないので問題は生じない。
【0007】
上記の方法において、指紋画像間のx−y方向の位置ズレが無視できるような場合(例えば、指紋採取面に指をガイドする指ガイドが設けられている場合等)には、他方の指紋画像において基準となる第2基準点は予め設定しておくことができる。ただし、指紋画像間のx−y方向の位置ズレが無視できない場合(例えば、指ガイドがある場合でもより照合精度が要求されるとき)には、次に記載する構成を採用することが好ましい。
すなわち、前記第2基準点は、2つの指紋画像間のx−y方向の位置ズレ量によって第1基準点を補正することで得られる。このような構成によると、2つの指紋画像のx−y方向の位置ズレの影響を排除して回転ズレ角を算出することができる。
【0008】
また、上記課題を解決するために創作された本願発明の装置は、識別対象者から採取した指紋画像と登録されている指紋画像を照合することで識別対象者が登録者か否かを判別する指紋照合装置であって、指紋を採取して指紋画像を出力する指紋画像採取手段と、採取された指紋画像と登録されている指紋画像とを照合する手段とを備える。
そして、指紋照合手段は、採取された指紋画像と登録指紋画像のx−y方向の位置ズレ量を算出し、照合する一方の指紋画像に対しては、その指紋画像内に設定された第1基準点を通る基準走査線を第1基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第1のスペクトルパターンを取得し、照合する他方の指紋画像に対しては、算出されたx−y方向の位置ズレ量を用いて第1基準点を補正することで第2基準点を求め、その第2基準点を通る基準走査線を第2基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第2のスペクトルパターンを取得し、取得された第1のスペクトルパターンに対して第2のスペクトルパターンを回転方向に所定角度範囲内でずらしながら相関度を算出し、相関度が最大となるときのズレ角と算出されたx−y方向の位置ズレ量とを用いて照合する指紋画像間の回転ズレ及び位置ズレを補正して2つの指紋画像が同一か否かを判定する。
上記の装置では、採取された指紋画像と登録されている指紋画像の相対的な位置ズレや回転ズレが補正されてから同一性が判定されるため、同一指に係る指紋画像同士が異なる指紋画像と判定される確率を低くすることができる。
【0009】
また本願は、2つの指紋画像を照合するための指紋照合方法を提供する。
すなわち、本願に係る方法は、(1)一方の指紋画像に対して、その指紋画像内に設定された第1基準点を通る基準走査線を第1基準点を中心に所定の角度間隔で順次回転させることで得られる走査線群の濃度値分布を取得する工程と、(2)他方の指紋画像に対して、その指紋画像内において前記第1基準点と対応する第2基準点を通る基準走査線を第2基準点を中心に所定の角度間隔で順次回転させることで得られる走査線群の濃度値分布を取得する工程と、(3)第1の画像から取得された濃度値分布から回転方向に関して第1の特徴情報を抽出する工程と、(4)第2の画像から取得された濃度値分布から回転方向に関して第2の特徴情報を抽出する工程と、(5)抽出された第1の特徴情報に対して第2の特徴情報を回転方向に所定角度でずらしながら相関度を算出する工程とを有する。この方法では、指紋画像内の対応する基準点(第1基準点と第2基準点)を中心に走査線を回転させることによって指紋画像から濃度値分布を得ている。このため、各指紋画像から得られた2つの濃度値分布は、x方向,y方向にズレはなく、回転方向にのみズレているだけとなる。そして、2つの濃度値分布からそれぞれ回転方向に特徴情報を抽出し、この特徴情報を回転方向にずらしながら相関度を算出する。したがって、算出された相関度の最大値は回転方向のズレまで補正されたもの、すなわち2つの指紋画像のズレ(x方向,y方向,回転方向)が補正されたものとすることができる。
なお、濃度値分布から抽出する「特徴情報」としては、パターン照合に使用することができる種々の情報を用いることができる。例えば、走査線上の指紋隆線部分の間隔(ピッチ)をパターン化したピッチパターンや、走査線と指紋隆線との交差数や、各走査線の指紋隆線長さをパターン化した最長隆線分布波形(特開平7−57085号参照)を用いることができる。
【0010】
上述したように、上記の方法で算出された相関度の最大値は回転方向のズレが補正されたものとなることから、その相関度により2つの指紋画像の同一性を判定することもできるし、2つの指紋画像の回転ズレ角を算出することもできる。すなわち、上記の方法において、算出された相関度のうち最大のものが所定の閾値を超えるときに、2つの指紋画像を同一指から採取したものであると決定することができる。
また、上記の方法において、算出された相関度が最大となるときの2つの特徴情報のズレ角を2つの指紋画像間の回転ズレ角に決定することもできる。
【0011】
【発明の実施の形態】本発明の回転ズレ角算出方法を用いた一実施形態に係る指紋画像の位置ズレ補正方法について図面を参照して説明する。
まず、図1に基づいて本実施形態に係る位置ズレ補正方法の概要を説明する。同図中、左列1段目に示される指紋画像1と右列1段目に示される指紋画像2はいずれも同一人の同一指から採取した指紋画像であって、位置ズレ補正処理前のものである。また、図中2段目以降には、両指紋画像の位置ズレを補正する過程で得られる画像をそれぞれ示している。
図1に示すように、指紋画像2は、指紋画像1に対して位置ズレ(x方向,y方向,θ方向)が生じている。この位置ズレを補正するために、指紋画像1に対する指紋画像2の位置ズレ量(x方向,y方向,θ方向)を算出する必要が生じる。
本実施形態では、まず、指紋画像1に対する指紋画像2のx方向(水平方向)とy方向(直角方向)の位置ズレ量(δx,δy)を算出する。位置ズレ量(δx,δy)を算出する方法としては、例えば、各指紋画像から抽出したx方向とy方向の群遅延スペクトル(以下、GDSという)を移動照合する方法を用いることができる。指紋画像からGDSを算出する手順及び2つのGDSを移動照合する手順については後で詳述する。位置ズレ量(δx,δy)が算出されると、その位置ズレ量(δx,δy)を用いて指紋画像2の位置補正を行う。位置補正を行った後の指紋画像2が図1の右列2段目に示されている。図から明らかなように、2段目に示されている指紋画像2は、1段目に示されている指紋画像2に対してx軸方向にδx移動し、y軸方向にδy移動している。
x方向とy方向の位置ズレが補正されると、次に、指紋画像1に対する指紋画像2の回転方向の位置ズレ量(回転ズレ角δθ)を算出する。回転ズレ角δθを算出するためには、まず、指紋画像1と位置ズレ補正後の指紋画像2からそれぞれ回転指紋波形パターンを求め、次いで、それら回転指紋波形パターンから群遅延スペクトル(以下、回転GDSという)を算出する。図1の3段目には、2段目に示す指紋画像から抽出した回転指紋波形パターン(左側)と回転GDS(右側)が併せて示されている。指紋画像から回転指紋波形パターンを作成する手順及び回転指紋波形パターンから回転GDSを算出する手順については後で詳述する。
各回転指紋波形パターンから回転GDSがそれぞれ算出されると、δx,δyの場合と同様に、それらを移動照合することで回転ズレ角δθを算出する。回転ズレ角δθを算出する手順は、2つのGDSからx方向又はy方向の位置ズレ量を算出する手順と同様の手順で行うことができる。回転ズレ角δθが算出されると、その回転ズレ角δθを用いて指紋画像2の位置補正を行う。回転方向の位置補正後の指紋画像2が図1の最下段に示されている。図から明らかなように、位置補正後の指紋画像2(最下段に示される画像)は位置補正前の指紋画像(2段目に示される画像)に対してδθだけ回転している。
【0012】
以上、本実施形態の概要を述べたが、次にその詳細を説明する。まず、2つの指紋画像(指紋画像1と指紋画像2)間のx方向とy方向の位置ズレ量(δx,δy)を算出する手順について、図2〜図5を用いて説明する。
図2は指紋センサ等によって採取される指紋画像データの構成を説明するための図である。図2に示すように、採取される指紋画像データは、x方向にnドット、y方向にmドットのn×mドットの2次元データである。各ドット(座標値(a,b)で表す(0≦a≦n−1、0≦b≦m−1))の濃淡はディジタル値dで表される。
【0013】
図3(a)には、採取された指紋画像データ、その指紋画像データから抽出されたx方向とy方向のGDSが併せて示されている。指紋画像データからGDS(x方向とy方向)を算出するためには、まず、指紋画像データ(n×mドット)をx方向に延びるm本の走査線に分解し、また、y方向に延びるn本の走査線に分解する。
次に、x方向の各走査線について、当該走査線上の濃度値変化(走査線上の各点の左端点からの距離(x座標の値)とその濃度値dとの関係)を求める。y方向の各走査線についても同様に、走査線上の濃度値変化(走査線上の各点の上端点からの距離(y座標の値)とその濃度値dとの関係)を求める。走査線上の濃度値変化の一例が図3(b)に示されている。指紋隆線上の点は濃度値が高く(暗く)、指紋谷線上の点は濃度値が低く(明るく)なるため、図3(b)に示すように走査線上の濃度値は周期的に変化している。
【0014】
x方向とy方向の各走査線について濃度値変化が求まると、その濃度値変化を時系列信号とみなして周波数変換処理を行い、x方向とy方向のそれぞれについてGDSパターンを算出する。具体的には、走査線毎に周波数変換処理を行い、全ての走査線からGDSデータを算出する。図4は、1本の走査線から抽出したGDSデータの一例を示している。図4に示すように、1本の走査線からは周波数チャンネル(ch,0≦ch≦15)毎に複数のGDSデータ(GDS強度)が算出される。
なお、指紋画像データはx方向にm本、y方向にn本の走査線に分解される。したがって、本明細書では抽出されたGDS強度をx方向又はy方向の走査線番号(i)と周波数チャンネル(ch)によって決まる関数として定義する。
GDS=GDS(i,ch)
以下、指紋画像をx方向の走査線に分解し、分解された各走査線から抽出された全GDSデータ〔すなわち、GDS(i,ch)(0≦i≦m−1,0≦ch≦15)〕をx方向のGDSパターンといい、指紋画像をy方向の走査線に分解し、分解された各走査線から抽出された全GDSデータ〔すなわち、GDS(i,ch)(0≦i≦n−1,0≦ch≦15)〕をy方向のGDSパターンという。
上述した手順で抽出されたx方向とy方向のGDSパターンをGDS強度に応じて濃淡を付けて(すなわち、GDS強度が大きい部分を濃く、GDS強度が小さい部分を淡く)二次元的に表したものが、図3(a)に示されている。すなわち、x方向のGDSパターンが指紋画像の右側方に表示され、y方向のGDSパターンが指紋画像の下方に表示されている。
【0015】
上述した手順で指紋画像1と指紋画像2のそれぞれからx方向とy方向のGDSパターンが算出されると、これらを用いて2つの指紋画像間のx方向とy方向の位置ズレ量(δx,δy)を算出する。位置ズレ量を算出する手順の一例を図5を用いて説明する。
なお、x方向の位置ズレ量δxはy方向のGDSパターンを用いて算出し、一方、y方向の位置ズレ量δyはx方向のGDSパターンを用いて算出する。x方向の位置ズレ量δxを算出する手順とy方向の位置ズレ量δyを算出する手順は、用いるGDSパターンが異なるだけで手順自体は同様である。したがって、以下の説明では、x方向の位置ズレ量δxを算出する手順についてのみ述べる。
【0016】
x方向の位置ズレ量δxの算出は、まず、一方のGDSパターン(例えば、指紋画像1から抽出したy方向のGDSパターン)を他方のGDSパターン(例えば、指紋画像2から抽出したy方向のGDSパターン)に対してx方向に複数の位置にずらし、各位置で2つのGDSパターンの非類似度を算出する(いわゆる、移動照合を行う)。図5(b)に示す2つのy方向のGDSパターンについて非類似度を算出した例が、図5(a)に示されている。図5(a)では、非類似度(本実施形態では、距離distという)を縦軸とし、2つのGDSパターンのズレ量(本実施形態では、ズレ幅wdという)を横軸としている。図5(a)から明らかなように、一方のGDSパターンに対して他方のGDSパターンを−30走査線〜+30走査線の範囲内でずらし、この範囲内において非類似度(すなわち、距離dist)が算出されている。
所定の範囲内でずらしたときの距離distが算出されると、距離distが最小となるときのズレ幅wdを特定する。特定されたズレ幅は、2つの指紋画像のx方向の位置ズレ量δxとなる。すなわち、同一指に係る2つのGDSパターンにおいては、2つの指紋画像の指の中心のずれが大きくなるほど2つのGDSパターンの距離distは大きくなり、逆に、2つの指紋画像の指の中心のずれが小さくなるほど2つのGDSパターンの距離distは小さくなる。したがって、距離distが最小となるときのズレ幅を2つの指紋画像の位置ズレ量とすることができる。図5(a)では、+16走査線の位置が比較する2つの指紋画像の位置ズレ量となっている。
【0017】
なお、上述した距離distは以下の手順で算出される。既に説明したように、GDSパターンは走査線(i番目)とチャンネル(ch)の関数GDS(i,ch)として表される。一方の指紋画像(例えば、指紋画像1)のGDSパターンをGDS(i,ch)とし、他方の指紋画像(例えば、指紋画像2)のGDSパターンをGDS(i,ch)とすると、一方のGDSパターンGDS(i,ch)に対して他方のGDSパターンGDS(i,ch)を走査線方向にjだけずらしたときの距離distは次の式で算出される。
dist=ΣΣ|GDS(i,ch)−GDS(i−j,ch)|
また、x方向のGDSパターンについて算出された距離(dist)の最小値と、y方向のGDSパターンについて算出された距離(dist)の最小値は、2つの指紋画像が同一であるか否かを判定する評価値とすることができる。
【0018】
上述した手順でx方向とy方向の位置ズレ量(δx,δy)が算出されると、算出された位置ズレ量(δx,δy)を用いて指紋画像1に対する指紋画像2のx方向とy方向の位置ズレが修正される。次に、指紋画像1と指紋画像2からそれぞれ回転指紋波形パターンを作成し、それら回転指紋波形パターンから回転GDSを算出する。
最初に、指紋画像1から回転指紋波形パターン及び回転GDSを作成する手順について説明する。回転指紋波形パターンを作成するためには、まず、指紋画像1内に基準となる基準点を設定する。例えば、指紋画像1については採取された指紋画像の中心点を基準点(例えば、(64,64))とする。
次に、基準点を通る基準走査線を所定の角度間隔で回転させ、回転角度毎に走査線を設定する。図6(b)〜(h)には、基準点を指紋画像の中心(64,64)とし、基準走査線を基準点を通る水平な直線とし、基準走査線を基準点を中心に所定の角度間隔で180°回転させたときの様子を示している。すなわち、図6(b)に示すように、指紋画像内には基準点(64,64)が設定され、その基準点(64,64)を通って水平に基準走査線が設けられる。基準走査線は、図6(b)〜(h)に示すように基準点を中心に時計回りに180°回転し、各回転角における基準走査線を当該回転角の走査線として設定する。例えば、基準走査線を1°間隔で180°回転させると、181本の走査線が設定される。そして、設定された各走査線について、当該走査線上の濃度値変化〔すなわち、走査線上の各点について、端点(例えば、図6(b)に示される基準走査線の左端点に相当する点)からの距離と濃度値の関係〕を取得する。各走査線について取得された濃度値変化が回転指紋波形パターンとなる。
取得された各走査線上の濃度値変化を回転角0°から180°まで上から順に並べたものが図7(a)に示されている。図7(a)から明らかなように、同図に示す回転指紋波形パターンは、縦軸方向が回転角とされ、横軸方向が走査線上の位置(端点からの距離)とされている。また、図7(a)中、回転角0°の走査線(▲1▼−▲3▼)は図6(a)に示す▲1▼−▲3▼の断面に相当し、回転角90°の走査線(▲2▼−▲4▼)は図6(a)に示す▲2▼−▲4▼の断面に相当し、回転角180°の走査線(▲3▼−▲1▼)は図6(a)に示す▲3▼−▲1▼の断面に相当する。
【0019】
上述した手順で図7(a)に示す回転指紋波形パターンが作成されると、その回転指紋波形パターンを横軸方向の走査線(すなわち、基準走査線を回転させることで設定される走査線)に分解し、分解された各走査線からGDSデータ(すなわち、回転GDS)を算出する。回転指紋波形パターンから回転GDSを算出する手順は、指紋画像からx方向のGDSパターン又はy方向のGDSパターンを算出する手順と同一であるため、ここではその詳細な手順の説明は省略する。図7(b)には、図7(a)に示す回転指紋波形パターンから抽出された回転GDSがGDS強度に応じて濃淡を付けて二次元的に表示されている。
【0020】
なお、上述の説明から明らかなように、回転角θのときの濃度値変化をline(θ,i)(i=0,…,n)とすると次に示す式が成立する。
line(θ,i)=line(θ+180゜,n−i)
すなわち、回転角θの走査線の向きを逆向き(始点と終点とを逆)にすると、その走査線は回転角(θ+180°)の走査線となるためである。
また、回転角θのときの濃度値変化line(θ,i)から算出したGDSをgds(θ,ch)とすると次に示す式が成立する。
gds(θ,ch)=gds(θ+180゜,ch)
すなわち、line(θ,i)の濃度値変化とline(θ+180゜,n−i)の濃度値変化は逆向きになるが、それらを周波数分解したときのGDS強度は異ならないためである。
【0021】
次に、指紋画像2から回転指紋波形パターンを作成し、その回転指紋波形パターンから回転GDSを算出する。指紋画像2から回転GDSを算出する手順を図8に示している。
図8に示すように、まず、指紋画像2の中心点(例えば、(64,64))をx方向とy方向の位置ズレ量(δx,δy)で修正する(図8(a)参照)。次に、修正された基準点(例えば、(64+δx,64+δy))を通る基準走査線を回転させて(図8(b)参照)、指紋画像1と同様の方法にて回転指紋波形パターン(図8(c)参照)、回転GDS(図8(d)参照)を算出する。
【0022】
指紋画像1と指紋画像2とからそれぞれ回転GDSを算出すると、x方向やy方向の位置ズレ量を算出する手順と略同様の手順で、指紋画像1と指紋画像2の回転ズレ角δθを算出する。
すなわち、指紋画像1から抽出した回転GDSに対し指紋画像2から抽出した回転GDSを回転角方向に0°〜180°までずらし、各位置で2つの回転GDSの非類似度(距離distθ)を算出する(図9参照)。そして、距離distθが最小となるときのズレ角θを、2つの指紋画像の回転ズレ角δθとする。図9(a)には、指紋画像1から抽出した回転GDSと指紋画像2から抽出した回転GDSを回転角方向に0°〜180°までずらしたときの回転角度と距離distθの関係が示されている。図から明らかなように、指紋画像1と指紋画像2の回転ズレ角δθは140°近辺の値となる。
上述した手順で算出された位置ズレ量(δx,δy,δθ)によって指紋画像2を位置補正した指紋画像が指紋画像1と併せて図10に示されている。図10から明らかなように、位置補正後の指紋画像2(図中右側に示されている)は、指紋画像1(図中左側に示されている)と指の中心が略一致し、指紋隆線の方向も略一致している。
【0023】
【実施例】以下、本発明の一実施例に係る指紋照合装置について図面を参照して説明する。
図11に示すように、指紋照合装置は、採取した指紋画像をディジタルデータとして出力する指紋画像採取部10と、出力された指紋画像データの有効性を判定する指紋画像判定部14と、有効と判定された指紋画像データをメモリ26へ登録する指紋登録部18と、指紋画像採取部10で採取した指紋画像と登録されている指紋画像との同一性を判定する指紋照合部20と、登録や照合等の動作を制御する制御部22と、登録か照合かの動作を選択するためのテンキー等を配設した入力部24とを備える。
【0024】
指紋画像採取部10には、電界強度方式の半導体指紋リーダ〔オーセンテック社製(FingerLoc2.1)〕が装備される。この指紋リーダには指紋採取面が設けられ、指紋採取面に指が押圧されるようになっている。指紋採取面に指が押圧されると、指紋隆線部分では指が指紋採取面に直接接触し、指紋谷線部分では指と指紋採取面との間に隙間が形成される。このため、指紋隆線部分と指紋谷線部分とでは検出される電界強度が異なり、この電界強度の相違から指紋画像を撮影する。撮影された指紋画像(指紋隆線の濃淡画像)は、2次元のディジタル濃淡データとして所定時間毎(例えば、数百ms)に内蔵メモリに格納される。
なお、指紋画像を採取する装置としては、上述した電界強度式の半導体指紋リーダには限られない。例えば、光学的に指紋画像を採取する装置(例えば、直角プリズム,光源,CCD素子等により構成される)を用いることができ、また、静電容量式の半導体指紋リーダや熱検知方式の半導体指紋リーダを用いることもできる。
【0025】
指紋画像判定部14は、指紋画像採取部10で採取された指紋画像データに対して、その指紋画像データが有効であるか否かを判定する。具体的には、指紋読取面に指が置き始められたか否かを判定する処理と、採取された指紋画像が有効か否かを判定する処理を行う。各処理の詳細は後で詳述する。
また、指紋登録部18の動作や指紋照合部20の動作については、次に説明する指紋登録時の処理と指紋照合時の処理において詳述するため、ここではその詳細な説明を省略する。
【0026】
つぎに、上述のように構成される指紋照合装置の“指紋登録時”の作動を、図12〜14のフローチャートに基づいて説明する。
識別対象者が登録処理(指紋画像を登録する処理)を開始するよう入力部24にコマンドを入力すると、制御部22は指紋画像採取部10に指紋画像採取処理を開始するよう指示を出す。これによって、指紋画像採取部10は指紋画像採取処理を開始する(S10)。
【0027】
指紋画像採取処理について図13を参照して説明する。図13に示すように指紋画像採取処理では、まず、指紋画像採取部10を作動状態として画像データを採取する(S32)。次に、ステップS32で採取した画像データに対して指紋画像判定部14が画質判定量1を算出する(S34)。ステップS34で算出される画質判定量1は、採取した画像データを2値化し、明部の面積と暗部の面積の比とされている。
ステップS36では、ステップS34で算出された画質判定量1を予め設定された閾値P1と比較することで、指紋読取面に指が置かれ始めたか否かの判定を行う。すなわち、指紋読取面に指が置き始められ、指紋読取面への指の押圧力が徐々に増加すると、ステップS34で算出される画質判定量1も徐々に大きくなる。このため、指紋読取面に指が置かれていない、又は、充分に置かれていないと、ステップS34で算出される画質判定量1も小さな値となる。したがって、算出された画質判定量1が所定の閾値P1を超えたか否かを判定することで、指紋読取面に指が置かれ始めたか否かを判定する。具体的には、算出された画質判定量1が閾値P1を超えると指紋読取面に指が置かれ始めたと判定し、算出された画質判定量1が閾値P1を超えないと指紋読取面に指が置かれ始めていないと判定する。
ステップS36で指が置かれ始めていないと判定された場合は、ステップS32に戻ってステップS32からの処理を繰り返す。
【0028】
ステップS36で指が指紋読取面に置かれ始めたと判定されると、ステップS34で算出された画質判定量1を変数1として記憶し(S38)、再度、指紋画像採取部10を作動状態として画像データを採取する(S40)。ステップS40で画像データを採取すると、その採取した画像データに基づいて指紋画像判定部14が画質判定量1を算出する(S42)。
ステップS42で画質判定量1が算出されると、その算出された画質判定量1と変数1として保存された画質判定量1とを比較し、画質判定量1の時間的変動が安定したかどうかを判断する(S44)。具体的には、ステップS42で算出された画質判定量1から変数1として保存されている画質判定量1を減算し、その値が予め設定された閾値P2未満となった場合を、画質判定量1の時間的変動が安定したと判定する。
ステップS44で画質判定量1の時間的変動が安定していないと判断されると、ステップS42で算出した画質判定量1を変数1として記憶し、再度、ステップS40からの処理を繰り返す。逆に、ステップS44で画質判定量1の時間的変動が安定したと判断されると、指紋画像採取処理を終了する。
したがって、指紋読取面へ指が充分に置かれ、かつ、指紋読取面への指の押圧力が安定した状態となったときの指紋画像が採取されることとなる。
【0029】
指紋画像採取処理が終了すると、図12に戻って、ステップS10で採取された指紋画像データの画質判定処理が行われる(S12)。画質判定処理を図14に基づいて説明する。
画質判定処理では、まず、採取された指紋画像データに対してラベリングを行う(S52)。次いで、ステップS52のラベリングで得られたラベル数を画質判定量2とする(S54)。ラベリングによって指紋画像の質を判定するのは、下記の理由による。すなわち、指紋隆線が潰れた指紋画像では、隣り合う指紋隆線どうしが分離せずに一体となるため、所定の濃度値以上で互いに連結している画素の塊の数(すなわち、ラベル数)が少なくなる。一方、指紋隆線が途切れたり、ノイズが多く含まれる指紋画像では、所定の濃度値以上で互いに連結している画素の塊の数(すなわち、ラベル数)が多くなる。そこで、ステップS52では、指紋画像をラベリングすることで得られるラベル数が第3閾値P3以上第4閾値P4以下となるときに、指紋画像内に明瞭な指紋隆線が多数存在すると判断する(すなわち、指紋画像の質が高いと評価する)。
なお、図13に示す指紋画像採取処理では、指紋読取面へ指が安定して置かれた否かを判定するために明部と暗部の比を画質判定量としたが、ステップS54では指紋画像の質を判定するためにラベル数を画質判定量としている。
画質判定量2が算出されると、算出された画質判定量2が閾値P3以上で、かつ、閾値P4以下となるか否かを判定する(S56)。算出された画質判定量2がP3以上P4以下とならないときは不明瞭な指紋画像と判断され(S58)、算出された画質判定量2がP3以上P4以下となるときは明瞭な指紋画像と判断する(S60)。
【0030】
画質判定処理が終了すると、図12に戻って、指紋画像採取部10で採取した指紋画像が有効であるか否かが判断される(S14)。すなわち、上述した画質判定処理で明瞭な指紋画像と判定された場合はステップS16に進み、不明瞭な指紋画像と判定された場合はステップS10に戻って、ステップS10からの処理が繰り返される。
ステップS16では、採取された指紋画像データをIDコード等(入力部24から入力される)と関連付けてメモリ26に登録する。
このように、本実施例ではステップS12の画質判定処理で明瞭な指紋画像と判断された指紋画像のみがメモリ26に登録され、不明瞭な指紋画像についてはメモリ26に登録されないこととなる。
【0031】
つぎに、“指紋照合時”における指紋照合装置の作動を、図15,16のフローチャートに基づいて説明する。
まず、識別対象者は指紋照合を行うことを入力部24から入力する(S72)。指紋照合を行うことが入力部24から入力されると、上述した指紋画像採取処理(図13参照)が行われる(S74)。指紋画像採取処理が終了すると、同じく上述した画質判定処理(図14参照)が行われ(S76)、次いで指紋画像採取部10で採取した画像データが有効かどうかがの判定が行われる(S78)。すなわち、ステップS76の画質判定処理において明瞭な指紋画像と判断されたものは「YES」と判定され、不明瞭な画像と判断されたものは「NO」と判定される。
ステップS78で採取した指紋画像データが有効でないと判定された場合は、ステップS74に戻って、ステップS74からの処理が繰り返される。
【0032】
ステップS78で採取した指紋画像データが有効であると判定されると、その指紋画像データと登録されている指紋画像データとの非類似度が算出される(S80)。ステップS80で照合する2つの指紋画像データから非類似度を算出する手順を図16のフローチャートを参照して説明する。
図16に示すように、まず、照合する2つの指紋画像(すなわち、ステップS74で採取された指紋画像と登録されている1つの指紋画像)からx方向とy方向のGDSパターンを算出する(S88)。例えば、図17に示す指紋画像1を登録されている指紋画像とし、指紋画像2を採取された指紋画像とする場合、両者からx方向とy方向のGDSパターンが算出される。算出されたx方向のGDSパターンは各指紋画像の右側に示され、算出されたy方向のGDSパターンは各指紋画像の下側に示されている。
次に、ステップS88で算出されたx方向のGDSパターンとy方向のGDSパターンをそれぞれ移動照合することで、x方向のGDSパターンの非類似度distとy方向のGDSパターンの非類似度distを算出すると共に、位置ズレ量(δx,δy)を算出する(S90)。図18には、図17に示す指紋画像2を算出された位置ズレ量(δx,δy)によって位置ズレを補正した後の状態が示されている。
ステップS92では、照合する2つの指紋画像から回転指紋波形パターンを作成し、その回転指紋波形パターンから回転GDSを算出する。図19には、2つの指紋画像から作成された回転指紋波形パターンと回転GDSを併せて示している。
照合する2つの指紋画像から回転GDSが算出されると、それらを移動照合することで2つの指紋画像の回転ズレ角δθを算出し(S94)、算出された回転ズレ角δθが閾値θs未満となるかを判定する(S96)。
【0033】
算出された回転ズレ角δθが閾値θs未満となる場合は、ステップS90で算出された各方向のGDSパターンの非類似度を足し合せて2つの指紋画像の非類似度とする(S104)。すなわち、算出された回転ズレ角δθが閾値θs未満となる場合は、2つの指紋画像の回転ズレは指紋照合に殆ど影響が無いと考えられる。したがって、回転ズレを補正する前に算出されたx方向のGDSパターンの非類似度distとy方向のGDSパターンの非類似度distとを足し合せ、2つの指紋画像の総合非類似度(dist+dist)とする。
【0034】
算出された回転ズレ角δθが閾値θs以上となる場合は、照合する2つの指紋画像の位置ズレを修正する(S98)。すなわち、ステップS90で算出された位置ズレ量(δx,δy)とステップS94で算出されたδθとで、一方の指紋画像の位置ズレを修正する。図20には、図17に示す指紋画像2を位置ズレおよび回転量(δx,δy,δθ)によって位置および回転ズレを補正した後の状態が示されている。
次に、位置ズレが補正された後の2つの指紋画像から再びx方向のGDSパターンとy方向のGDSパターンを算出し、その算出された各方向のGDSパターンを移動照合して各方向の非類似度(dist,dist)を算出する(S100)。なお、図20には、位置ズレが補正された後の指紋画像から算出されたGDSパターンが示されている。すなわち、各指紋画像の右側にはx方向のGDSパターンが示され、下側にはy方向のGDSパターンが示されている。
ステップS102では、ステップS100で算出された各方向の非類似度(dist,dist)を足し合せて、2つの指紋画像の総合非類似度(dist+dist)とする。
なお、上述した図16を用いたフローチャートは、採取された1つの指紋画像に対して1つの登録指紋画像を照合する例であったが、指紋照合装置に登録されている指紋画像が複数ある場合には、登録指紋画像毎に非類似度が算出される。そして、登録指紋画像毎にその非類似度が閾値を超えるか否か(すなわち、採取された指紋画像と登録指紋画像が同一指に係るか否か)が判断される。
【0035】
非類似度算出処理が終了すると、図15に戻って、算出された非類似度が閾値P5以下となるか否かを判定する(S82)。算出された非類似度が閾値P5以下となる場合は扉が開放され(S86)、算出された非類似度が閾値P5を超える場合にはブザーが鳴り入室が禁止される(S84)。
【0036】
上述したことから明らかなように本実施例の指紋照合装置では、照合する指紋画像間の回転ズレ角δθが閾値θs未満とのときは回転ズレの補正前に算出された非類似度を用いて指紋画像の同一性判定を行い、回転ズレ角δθが閾値θs以上のときは回転ズレの補正後に算出された非類似度を用いて指紋画像の同一性を判定する。したがって、回転ズレが大きい場合にはその回転ズレが補正されてから指紋画像の同一性判定が行われるため照合率を向上させることができる。
【0037】
以上、本発明の一実施例について詳細に説明したが、これは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、下記に記載の形態で好適に実施することができる。
【0038】
(1)上述した実施例では、算出された回転ズレ角δθが閾値θsより大きいときに指紋画像間の回転ズレを修正して総合非類似度を算出した(図16参照)。しかしながら、図21に示すように所定の収束条件を満足するまで位置ズレ補正と総合類似度の算出を繰返すようにしてもよい。
すなわち、図21に示す非類似度算出処理では、照合する2つの指紋画像からx方向とy方向のGDSパターンを算出し(S110)、算出したGDSパターンを移動照合することで位置ズレ量(δx,δy)を算出する(S112)。次いで、各指紋画像から回転GDSをそれぞれ算出し(S114)、それら回転GDSから回転ズレ角δθを算出する(S116)。そして、2つの指紋画像間の総合非類似度を算出する(S118)。総合非類似度としては、上述の実施例と同様、x方向とy方向のGDSパターンを移動照合することで算出される距離distとdistの和としてもよいし、これらの和にさらに回転GDSを移動照合することで算出される距離distθを加えたものとしてもよい。なお、上述した実施例においても、総合非類似度を(dist+dist+distθ)としてもよい。
ステップS118で総合非類似度が算出されると、次いで、予め設定された収束条件を満足するか否かを判定する(S120)。ステップS120の収束条件としては、例えば、(1)ループ回数(すなわち、ステップS110〜S118までを繰返した回数)=設定値、(2)ステップS118で算出された総合非類似<閾値未満、あるいは(3)回転角δθの変動量<閾値未満、等を用いることができる。また、これらの条件を組合せて収束条件としてもよい。
収束条件を満足しているときはステップS118で算出されている総合非類似度を最終的な総合非類似度として非類似度算出処理を終了し、収束条件を満足していないときはステップS110に戻ってステップS110からの処理を繰返すこととなる。
このような実施形態によると、所定の収束条件を満足するまで総合非類似度を算出する処理が繰返し行われる。したがって、使用目的(例えば、要求されるセキュリティ度)に応じて収束条件を設定することで、指紋照合装置の仕様を使用目的に適合させることができる。
【0039】
(2)上述した実施例においては、照合する指紋画像間の位置ズレ量(δx,δy)をx方向のGDSパターンとy方向のGDSパターンをそれぞれ移動照合することで算出していた。しかしながら、x方向とy方向の位置ズレ量(δx,δy)を算出する手順としては公知の種々の方法を用いることができる。例えば、隆線交差数を用いる方法(すなわち、x方向の隆線交差数を比較することでx方向の位置ズレ量δxを求め、y方向の隆線交差数を比較することでy方向の位置ズレ量δyを求める方法)等を用いることができる。
位置ズレ量(δx,δy)が算出された後は、上述した実施例や上記(1)の実施形態に開示された方法を適宜変更して実施することができる。例えば、算出された位置ズレ量(δx,δy)によって一方の指紋画像の位置ズレを補正し、補正後の指紋画像から回転GDSを算出する。次いで、算出された回転GDSを用いて回転ズレ角δθを算出し、その回転ズレ角δθにより指紋画像の回転ズレを補正する。そして、補正された指紋画像(すなわち、位置ズレ量(δx,δy,δθ)が補正された指紋画像)を周波数変換処理することでスペクトルパターン(例えば、x方向とy方向のGDSパターン)を算出し、それらスペクトルパターンを移動照合することで2つの指紋画像の同一性を判定する。
【0040】
(3)上述した実施例及び実施形態において行われる回転GDSの移動照合処理には、x方向やy方向のGDSパターンを照合するときに利用される各種の計算を高速化するための技術を利用することができる。例えば、特開2002−150289号に開示された技術〔すなわち、非類似度を算出する間隔が粗い状態で最小非類似度を探索する範囲を絞り込み、絞り込んだ範囲内で最小非類似度を探索する技術〕を利用することができる。
また、照合する回転GDSの一部(例えば、所定の走査線(0°〜180°のうち所定の角度範囲)から抽出した回転GDS)を用いて回転ズレ角δθを算出するようにしてもよい。さらに、上記(1)の実施形態において、第1回目の回転ズレ角δθは回転GDSの一部を用いて算出し、2回目以降の回転ズレ角δθは回転GDSの全部を用いて行うようにしてもよい。
【0041】
(4)上述した実施例に係る指紋照合装置に同一指から採取された複数の指紋画像が登録されている場合には、これらの指紋画像間の位置ズレ量(δx,δy,δθ)を予め算出し登録しておくことで、指紋照合時の計算量を少なくすることができる。
例えば、同一指から採取され登録された複数の指紋画像のうち1つを基準登録指紋画像とし、残りの登録指紋画像については基準登録指紋画像との位置ズレ量(δx,δy,δθ)を算出し登録しておく。
指紋照合時には、まず、採取された指紋画像と基準登録指紋画像の照合を行う。これによって、採取された指紋画像と基準登録指紋画像の位置ズレ量(δx,δy,δθ)が算出される。
つぎに、採取された指紋画像と残りの登録指紋画像(同一指に係るもの)の照合を行う。この際、登録されている位置ズレ量(δx,δy,δθ)と算出された位置ズレ量(δx,δy,δθ)を用いて、採取された指紋画像と登録指紋画像の位置ズレ量を算出する。すなわち、採取された指紋画像と登録指紋画像の位置ズレ量は(δx+δx,δy+δy,δθ+δθ)となる。つまり、採取された指紋画像と照合対象となっている登録指紋画像との位置ズレの補正は、まず、採取された指紋画像を基準指紋画像の位置まで移動させ(すなわち、(δx,δy,δθ)だけ移動させ)、次いで、基準指紋画像の位置から登録指紋画像の位置まで移動(すなわち、(δx,δy,δθ)だけ移動)させればよいためである。
上述のように採取された指紋画像と登録指紋画像との位置ズレ量が計算されるので、まず、計算された位置ズレ量で採取された指紋画像の位置ズレを補正し、次いで、x方向とy方向にGDSパターンを算出し、これら2つのGDSパターンから総合非類似度を算出する。そして、算出された総合非類似度によって採取された指紋画像と登録指紋画像の同一性を判定すればよい。したがって、この場合には回転GDSを算出することなく、指紋画像の同一性判定を行うことができる。
なお、上記の例とは異なり、登録されている位置ズレ量(δx,δy,δθ)と算出された位置ズレ量(δx,δy,δθ)を用いて、採取された指紋画像と登録指紋画像の位置ズレ量を予測するようにしてもよい。すなわち、採取された指紋画像と登録指紋画像の位置ズレ量は(δx+δx,δy+δy,δθ+δθ)の近辺にあると予測し、位置ズレ量を算出するときの探索範囲を狭めることができる。
【0042】
(5)上述した実施例では、指紋画像から抽出したGDSに基づいて指紋画像の位置ズレ量(δx,δy,δθ)の算出を行ったが、本発明はこれ以外にも各種周波数変換処理により得られたスペクトル(FFTスペクトル、DFTスペクトル、LPCスペクトル等)を用いて位置ズレ量(δx,δy,δθ)の算出を行うようにしても良い。また、周波数変換して得られたスペクトルを波形信号と見なしてフーリエ逆変換を行うことにより得られたケプストラムを用いて位置ズレ量(δx,δy,δθ)を算出してもよい。
【0043】
(6)上述した実施例では、回転指紋画像(すなわち回転指紋波形パターン)から抽出した回転GDSを用いて指紋画像間の回転ズレ角を算出したが、回転指紋画像から他の特徴情報を抽出しその特徴情報を用いて回転ズレ角を算出してもよい。例えば、図22に示すように、回転指紋画像(同図(a))から指紋ピッチパターン(同図(b))や指紋隆線交差数(同図(c))を抽出し、これらを回転方向に移動照合することによって回転ズレ角を算出してもよい。指紋ピッチパターンは回転方向の各走査線について隣り合う指紋隆線の間隔の平均値をパターン化したものであり、指紋隆線交差数は回転方向の各走査線についてその走査線と指紋隆線との交差数を求めることで得られる。
さらに、回転指紋画像の回転方向の各走査線から最長隆線分布波形を求め、この最長隆線分布波形を用いて回転ズレ角を算出することもできる。最長隆線分布波形を抽出する方法としては、特開平7−57085号に開示された方法を用いることができる。
【0044】
(7)上述した実施例では、回転指紋画像を得るために基準点を中心に両側に伸びる走査線(すなわち直径)を回転させたが、図23に示すように基準点を中心に片側に伸びる走査線(すなわち半径)を回転させて回転指紋画像(図24)を取得するようにしてもよい。
【0045】
(8)上述した実施例では、回転指紋画像から抽出した回転GDSを用いて指紋画像間の回転ズレ角を算出したが、この回転GDSを用いて指紋画像の同一性判定を行ってもよい。
【0046】
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数の目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る位置ズレ補正方法の概略を示す図
【図2】指紋画像のデータ構成を説明するための図
【図3】採取された指紋画像、その指紋画像から抽出されたGDSパターン及び一走査線上の濃度値変化の一例を示す図
【図4】一走査線上の濃度値変化から得られたGDSパターンの一例を示す図
【図5】照合する二つのGDSパターンの非類似度と、その非類似度が最小となるときのズレ幅を算出する手順を説明するための図
【図6】図1に示す指紋画像1から回転指紋波形パターンを作成する手順を説明するための図
【図7】作成された回転指紋波形パターンと、回転指紋波形パターンから作成された回転GDS
【図8】図1に示す指紋画像2から回転指紋波形パターンを作成し、その回転指紋波形パターンから回転GDSを作成するための手順の概略を示す図
【図9】回転GDSを移動照合したときの非類似度と回転角の関係を示す図
【図10】位置ズレと回転ズレが補正された状態を示す図
【図11】本発明の一実施例に係る指紋照合装置の全体構成を示すブロック図
【図12】指紋登録処理を示すフローチャート
【図13】指紋画像採取処理を示すフローチャート
【図14】画質判定処理を示すフローチャート
【図15】指紋照合処理を示すフローチャート
【図16】非類似度算出処理を示すフローチャート
【図17】照合する2つの指紋画像と、これらの指紋画像から抽出したx方向とy方向のGDSパターンを併せて示す図
【図18】図17に示す指紋画像のx方向とy方向の位置ズレを補正した状態を示す図
【図19】図18に示す指紋画像から作成した回転指紋波形パターンと、回転指紋波形パターンから抽出した回転GDSを併せて示す図
【図20】図17に示す指紋画像のx方向、y方向及び回転方向の位置ズレを補正した指紋画像と、その指紋画像からx方向とy方向に抽出したGDSパターンを併せて示す図
【図21】他の実施形態における非類似度算出処理を示すフローチャート
【図22】他の実施形態を説明するための図
【図23】回転指紋画像を作成するための他の方法を示す図
【図24】図23の方法で得られた回転指紋画像と回転GDS
【符号の説明】
10・・指紋画像採取部
14・・指紋画像判定部
18・・指紋登録部
20・・指紋照合部
22・・制御部
24・・入力部
[0001]
[0001] 1. Field of the Invention [0002] The present invention relates to a fingerprint collation technique for collating fingerprint images, and more particularly, to a technique for correcting a rotational displacement between fingerprint images to be collated.
[0002]
2. Description of the Related Art In a fingerprint collating apparatus, a fingerprint image to be collected differs depending on how a finger is placed on a fingerprint collecting section. For example, if a finger is placed in a different direction with respect to the fingerprint collection unit, a rotational shift occurs between the obtained fingerprint images. If there is a rotation shift between the fingerprint images to be compared, even if both fingerprint images are taken from the same finger, they may not be determined to be the same. For this reason, a technique for correcting a rotational shift between fingerprint images has conventionally been developed (for example, see Patent Documents 1 and 2). In the technique disclosed in the former document, an input layer to which a fingerprint image (including a fingerprint area and a background area) is input, an output layer to output the center of gravity (x, y) and inclination θ of the fingerprint, A neural network is constructed by the layers and an intermediate layer connecting the output layers. The learning data is obtained by using a fingerprint image that is not inclined, and learning is performed while artificially changing the position and inclination of the fingerprint image. When a fingerprint image is input to the trained neural network, the inclination of the fingerprint image is output. If the inclination of each fingerprint image is known, the rotation deviation angle between the fingerprint images can be calculated from those values.
On the other hand, according to the technique disclosed in the latter document, a fingerprint image is classified into a fingerprint area in which a fingerprint is shown and a background area other than the fingerprint area. Next, the boundary between the fingerprint area and the background area (that is, the outline of the fingerprint area) is approximated to an ellipse. Then, the inclination of the approximated ellipse is obtained, and the obtained inclination is used as the inclination of the fingerprint image. According to this method as well, the inclination of each fingerprint image is obtained, and the rotation shift angle between the fingerprint images can be calculated from the inclination.
A technique disclosed in Patent Document 3 is also known as a technique for performing rotation correction on an image (for example, a seal image) different from fingerprint matching. In this technique, edge emphasis / binarization processing is performed on two stamp images to be collated, and points on edges are extracted from the processed image. Then, a Hough transform / Fourier transform is performed on the extracted point on the edge, and the converted pattern is checked to calculate a rotation shift angle.
[0003]
[Patent Document 1]
JP 2001-76144A
[Patent Document 2]
JP-A-2001-76145
[Patent Document 3]
JP-A-9-245167
[0004]
However, in the techniques of Patent Document 1 and Patent Document 2 described above, the inclination must be obtained for each fingerprint image. In order to obtain the inclination, a fingerprint area is added to the target fingerprint image. And a background area. For this reason, in the case of a fingerprint image having no background region, for example, because the area of the fingerprint sampling unit is small, there has been a problem that its inclination (and, consequently, a rotational shift angle between the fingerprint images) cannot be obtained.
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a technique that can correct a rotational shift between fingerprint images even in a fingerprint image having no background region.
[0005]
In the technique disclosed in Patent Document 3, it is necessary to perform an edge enhancement process and a binarization process on a collected original image. Such preprocessing may remove important information (fingerprint ridge information) from the original image, and this may cause a case where the rotation shift angle cannot be calculated. Therefore, this method cannot be used for rotational displacement correction of a fingerprint image.
It is also conceivable to correct the rotational displacement of the fingerprint image by using minutiae (feature points) extracted from the fingerprint image. That is, the minutiae is extracted from each fingerprint image, and the rotational displacement is corrected based on the relative positional relationship of the corresponding minutiae. However, the method using minutiae requires processing for extracting minutiae from each fingerprint image (for example, binarization, thinning, and minutiae extraction), which takes time.
[0006]
The method of the present invention created to solve the above-mentioned problem is a method of calculating a rotation shift angle between fingerprint images, and the method comprises the steps of: For example, for a plurality of scanning lines obtained by sequentially rotating a reference scanning line passing through a first reference point set in the fingerprint image at predetermined angular intervals around the first reference point, the density on each scanning line A first spectral pattern is obtained by frequency-converting each value group, and a reference scanning line passing through a second reference point corresponding to the first reference point in the fingerprint image is obtained for the other fingerprint image. For a plurality of scanning lines obtained by sequentially rotating at predetermined angular intervals about the second reference point, a second spectral pattern is obtained by frequency-converting a density value group on each scanning line, and the obtained second spectral pattern is obtained. First Spect The second spectral pattern to calculate the degree of correlation while shifting within a predetermined angular range in the rotational direction with respect to the pattern, to determine the deviation angle when the correlation degree is maximum in the rotational shift angle between the fingerprint images.
In the above method, one fingerprint image is centered on a first reference point, and the other fingerprint image is centered on a second reference point (a point corresponding to the first reference point). get. Then, the degree of correlation is calculated while shifting the two spectral patterns in the rotation direction, and the deviation angle when the degree of correlation is maximum is defined as the rotational deviation angle between the fingerprint images. Therefore, in this method, the relative rotation angle of the other fingerprint image with respect to the one fingerprint image is directly obtained (that is, since the inclinations of both fingerprint images are not individually obtained), the background area is not changed. Even for fingerprint images that do not have one, the rotation shift angle can be calculated.
If the two target fingerprint images are not obtained from the same finger, the rotation angle obtained by the above method is different from the actual rotation angle. However, such a case is originally a case where two fingerprint images should be determined to be different, and there is no significance in accurately calculating the rotation shift angle between the fingerprint images, so that no problem occurs.
[0007]
In the above method, when the positional deviation between the fingerprint images in the xy direction is negligible (for example, when a finger guide for guiding a finger is provided on the fingerprint collecting surface), the other fingerprint image is used. Can be set in advance. However, when the positional deviation between the fingerprint images in the x-y direction cannot be ignored (for example, when the collation accuracy is required even with the finger guide), it is preferable to adopt the following configuration.
That is, the second reference point is obtained by correcting the first reference point based on the amount of positional deviation between the two fingerprint images in the xy directions. According to such a configuration, it is possible to calculate the rotational shift angle while eliminating the influence of the positional shift in the xy direction between the two fingerprint images.
[0008]
Further, the device of the present invention created to solve the above-described problem determines whether or not the identification target person is a registrant by comparing a fingerprint image collected from the identification target person with a registered fingerprint image. A fingerprint matching device, comprising: a fingerprint image collecting unit that collects a fingerprint and outputs a fingerprint image; and a unit that compares the collected fingerprint image with a registered fingerprint image.
Then, the fingerprint collating means calculates the amount of positional deviation in the xy direction between the collected fingerprint image and the registered fingerprint image, and for one fingerprint image to be collated, the first fingerprint set in the fingerprint image. For a plurality of scanning lines obtained by sequentially rotating a reference scanning line passing through a reference point at predetermined angular intervals around the first reference point, a first spectrum is obtained by frequency-converting a density value group on each scanning line. A second reference point is obtained by correcting the first reference point using the calculated positional deviation amount in the xy direction with respect to the other fingerprint image for acquiring and comparing the pattern, and obtaining the second reference point. For a plurality of scanning lines obtained by sequentially rotating a reference scanning line passing through points at predetermined angular intervals around a second reference point, a density value group on each scanning line is frequency-converted to obtain a second spectral pattern. And the first obtained The degree of correlation is calculated while shifting the second spectral pattern in the rotation direction within a predetermined angle range with respect to the spectral pattern, and the deviation angle when the correlation degree is maximized and the calculated position deviation amount in the xy direction are calculated. To determine whether the two fingerprint images are the same by correcting the rotational displacement and the positional displacement between the fingerprint images to be collated.
In the above-described device, the identity is determined after the relative positional shift and the rotational shift between the collected fingerprint image and the registered fingerprint image are corrected, so that the fingerprint images related to the same finger are different from each other. Can be reduced.
[0009]
The present application also provides a fingerprint matching method for matching two fingerprint images.
That is, the method according to the present application is as follows: (1) For one fingerprint image, a reference scanning line passing through a first reference point set in the fingerprint image is sequentially formed at predetermined angular intervals around the first reference point. Acquiring a density value distribution of the scanning line group obtained by rotating the image; and (2) a reference passing through the second reference point corresponding to the first reference point in the other fingerprint image in the fingerprint image. Acquiring a density value distribution of the scanning line group obtained by sequentially rotating the scanning lines at predetermined angular intervals about the second reference point; and (3) obtaining a density value distribution obtained from the first image. Extracting the first feature information with respect to the rotation direction, (4) extracting the second feature information with respect to the rotation direction from the density value distribution obtained from the second image, and (5) extracting the extracted second feature information. The second feature information is placed in the rotation direction with respect to the first feature information. And a step of calculating a degree of correlation while shifting an angle. In this method, a density value distribution is obtained from a fingerprint image by rotating a scanning line around corresponding reference points (a first reference point and a second reference point) in the fingerprint image. For this reason, the two density value distributions obtained from each fingerprint image are not shifted in the x and y directions, but are shifted only in the rotation direction. Then, feature information is extracted in the rotation direction from each of the two density value distributions, and the degree of correlation is calculated while shifting the feature information in the rotation direction. Therefore, the calculated maximum value of the correlation degree can be corrected to the deviation in the rotation direction, that is, the deviation (x direction, y direction, rotation direction) of the two fingerprint images can be corrected.
Note that as the “feature information” extracted from the density value distribution, various information that can be used for pattern matching can be used. For example, a pitch pattern in which the interval (pitch) between fingerprint ridge portions on a scanning line is patterned, the number of intersections between scanning lines and fingerprint ridges, and the longest ridge in which the fingerprint ridge length of each scanning line is patterned. A distribution waveform (see JP-A-7-57085) can be used.
[0010]
As described above, since the maximum value of the correlation calculated by the above method is obtained by correcting the deviation in the rotation direction, the identity of the two fingerprint images can be determined based on the correlation. It is also possible to calculate the rotational shift angle between two fingerprint images. That is, in the above method, when the largest one of the calculated correlations exceeds a predetermined threshold value, it can be determined that two fingerprint images are obtained from the same finger.
Further, in the above method, the shift angle between the two pieces of feature information when the calculated degree of correlation is maximum can be determined as the rotation shift angle between the two fingerprint images.
[0011]
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A method of correcting a position shift of a fingerprint image according to an embodiment using a rotation shift angle calculation method of the present invention will be described with reference to the drawings.
First, an outline of the position shift correction method according to the present embodiment will be described with reference to FIG. In the figure, the fingerprint image 1 shown in the first row of the left column and the fingerprint image 2 shown in the first row of the right column are both fingerprint images obtained from the same finger of the same person, Things. In the second and subsequent rows in the figure, images obtained in the process of correcting the positional deviation between both fingerprint images are shown.
As shown in FIG. 1, the fingerprint image 2 has a positional deviation (x direction, y direction, θ direction) with respect to the fingerprint image 1. In order to correct this positional deviation, it is necessary to calculate the positional deviation amount (x direction, y direction, θ direction) of the fingerprint image 2 with respect to the fingerprint image 1.
In the present embodiment, first, the positional deviation amounts (δx, δy) of the fingerprint image 2 in the x direction (horizontal direction) and the y direction (perpendicular direction) with respect to the fingerprint image 1 are calculated. As a method of calculating the positional shift amount (δx, δy), for example, a method of moving and collating a group delay spectrum (hereinafter, referred to as GDS) in the x direction and the y direction extracted from each fingerprint image can be used. The procedure for calculating the GDS from the fingerprint image and the procedure for moving and collating the two GDSs will be described later in detail. When the positional deviation amount (δx, δy) is calculated, the position of the fingerprint image 2 is corrected using the positional deviation amount (δx, δy). The fingerprint image 2 after performing the position correction is shown in the second row of the right column in FIG. As is clear from the figure, the fingerprint image 2 shown in the second row moves δx in the x-axis direction and δy in the y-axis direction with respect to the fingerprint image 2 shown in the first row. I have.
After the positional deviation in the x direction and the y direction is corrected, the amount of positional deviation (rotational deviation angle δθ) of the fingerprint image 2 in the rotation direction with respect to the fingerprint image 1 is calculated. In order to calculate the rotational deviation angle δθ, first, a rotational fingerprint waveform pattern is obtained from the fingerprint image 1 and the fingerprint image 2 after positional deviation correction, respectively, and then a group delay spectrum (hereinafter, rotational GDS) is obtained from the rotational fingerprint waveform patterns. Is calculated. The third row in FIG. 1 shows the rotated fingerprint waveform pattern (left) and the rotated GDS (right) extracted from the fingerprint image shown in the second row. A procedure for creating a rotated fingerprint waveform pattern from a fingerprint image and a procedure for calculating a rotated GDS from the rotated fingerprint waveform pattern will be described later in detail.
When the rotational GDS is calculated from each rotational fingerprint waveform pattern, the rotational deviation angle δθ is calculated by moving and collating them, as in the case of δx and δy. The procedure for calculating the rotational shift angle δθ can be performed in the same manner as the procedure for calculating the positional shift amount in the x direction or the y direction from the two GDSs. After the rotation shift angle δθ is calculated, the position of the fingerprint image 2 is corrected using the rotation shift angle δθ. The fingerprint image 2 after the position correction in the rotation direction is shown at the bottom of FIG. As is clear from the figure, the fingerprint image 2 after the position correction (the image shown at the bottom) is rotated by δθ with respect to the fingerprint image before the position correction (the image shown at the second stage).
[0012]
The outline of the present embodiment has been described above, and the details will be described next. First, a procedure for calculating the displacement (δx, δy) in the x direction and the y direction between two fingerprint images (the fingerprint image 1 and the fingerprint image 2) will be described with reference to FIGS.
FIG. 2 is a diagram for explaining the configuration of fingerprint image data collected by a fingerprint sensor or the like. As shown in FIG. 2, the fingerprint image data to be collected is two-dimensional data of n × m dots of n dots in the x direction and m dots in the y direction. The density of each dot (0 ≦ a ≦ n−1, 0 ≦ b ≦ m−1) represented by coordinate values (a, b) is represented by a digital value d.
[0013]
FIG. 3A shows the collected fingerprint image data and the GDSs in the x direction and the y direction extracted from the fingerprint image data. In order to calculate GDS (x and y directions) from fingerprint image data, first, the fingerprint image data (n × m dots) is decomposed into m scanning lines extending in the x direction, and is further extended in the y direction. Decompose into n scanning lines.
Next, for each scanning line in the x direction, a change in density value on the scanning line (the relationship between the distance (value of the x coordinate) from each left end point of each point on the scanning line and its density value d) is determined. Similarly, for each scanning line in the y direction, a change in density value on the scanning line (the relationship between the distance (the value of the y coordinate) of each point on the scanning line from the upper end point and the density value d) is obtained. FIG. 3B shows an example of a density value change on a scanning line. Since the points on the fingerprint ridge have a high density value (dark) and the points on the fingerprint valley have a low density (bright), the density value on the scanning line periodically changes as shown in FIG. ing.
[0014]
When a density value change is obtained for each of the scanning lines in the x direction and the y direction, the frequency conversion process is performed by regarding the density value change as a time series signal, and a GDS pattern is calculated for each of the x direction and the y direction. Specifically, frequency conversion processing is performed for each scanning line, and GDS data is calculated from all the scanning lines. FIG. 4 shows an example of GDS data extracted from one scanning line. As shown in FIG. 4, a plurality of GDS data (GDS intensity) is calculated for each frequency channel (ch, 0 ≦ ch ≦ 15) from one scanning line.
Note that the fingerprint image data is decomposed into m scanning lines in the x direction and n scanning lines in the y direction. Therefore, in this specification, the extracted GDS intensity is defined as a function determined by the scanning line number (i) in the x direction or the y direction and the frequency channel (ch).
GDS = GDS (i, ch)
Hereinafter, the fingerprint image is decomposed into scanning lines in the x direction, and all GDS data extracted from each decomposed scanning line [that is, GDS (i, ch) (0 ≦ i ≦ m−1, 0 ≦ ch ≦ 15) )] Is called a GDS pattern in the x direction, the fingerprint image is decomposed into scanning lines in the y direction, and all GDS data extracted from each decomposed scanning line [that is, GDS (i, ch) (0 ≦ i ≦ n−1, 0 ≦ ch ≦ 15)] is called a GDS pattern in the y direction.
The GDS patterns in the x direction and the y direction extracted in the above-described procedure are represented two-dimensionally by shading according to the GDS intensity (that is, a portion having a high GDS intensity is dark and a portion having a low GDS intensity is light). The thing is shown in FIG. That is, the GDS pattern in the x direction is displayed on the right side of the fingerprint image, and the GDS pattern in the y direction is displayed below the fingerprint image.
[0015]
When the GDS patterns in the x direction and the y direction are calculated from the fingerprint image 1 and the fingerprint image 2 by the above-described procedure, the positional deviation amount (δx, y) between the two fingerprint images in the x direction and the y direction is calculated. δy) is calculated. An example of a procedure for calculating the position shift amount will be described with reference to FIG.
Note that the positional deviation amount δx in the x direction is calculated using a GDS pattern in the y direction, while the positional deviation amount δy in the y direction is calculated using a GDS pattern in the x direction. The procedure for calculating the positional shift amount δx in the x direction and the procedure for calculating the positional shift amount δy in the y direction are the same, except for the GDS pattern used. Therefore, in the following description, only the procedure for calculating the positional deviation amount δx in the x direction will be described.
[0016]
The calculation of the position shift amount δx in the x direction is performed by first converting one GDS pattern (for example, the GDS pattern in the y direction extracted from the fingerprint image 1) into the other GDS pattern (for example, the GDS pattern in the y direction The pattern) is shifted to a plurality of positions in the x direction, and the dissimilarity between two GDS patterns is calculated at each position (so-called moving collation is performed). FIG. 5A shows an example in which the dissimilarity is calculated for the two GDS patterns in the y direction shown in FIG. In FIG. 5A, the dissimilarity (in this embodiment, referred to as distance dist) is set as the vertical axis, and the amount of deviation between the two GDS patterns (in this embodiment, referred to as deviation width wd) is set as the horizontal axis. As is clear from FIG. 5A, the other GDS pattern is shifted with respect to one GDS pattern within a range of −30 scanning lines to +30 scanning lines, and the dissimilarity (that is, the distance dist) within this range. Is calculated.
After calculating the distance dist when the distance dist is shifted within the predetermined range, the shift width wd when the distance dist is minimum is specified. The specified deviation width is the positional deviation amount δx between the two fingerprint images in the x direction. That is, in two GDS patterns related to the same finger, the distance dist between the two GDS patterns increases as the difference between the centers of the fingers of the two fingerprint images increases, and conversely, the difference between the centers of the fingers of the two fingerprint images increases. Is smaller, the distance dist between the two GDS patterns is smaller. Therefore, the shift width when the distance dist becomes minimum can be used as the shift amount between the two fingerprint images. In FIG. 5A, the position of the +16 scanning line is the amount of displacement between the two fingerprint images to be compared.
[0017]
The distance dist described above is calculated according to the following procedure. As described above, the GDS pattern is represented as a function GDS (i, ch) of the scanning line (i-th) and the channel (ch). GDS pattern of one fingerprint image (for example, fingerprint image 1) 1 (I, ch), and the GDS pattern of the other fingerprint image (for example, fingerprint image 2) is GDS 2 If (i, ch), one GDS pattern GDS 1 The other GDS pattern GDS for (i, ch) 2 The distance dist when (i, ch) is shifted by j in the scanning line direction is calculated by the following equation.
dist = ΣΣ | GDS 1 (I, ch) -GDS 2 (Ij, ch) |
Also, the distance (dist) calculated for the GDS pattern in the x direction x ) And the distance (dist) calculated for the GDS pattern in the y-direction. y ) Can be an evaluation value for determining whether two fingerprint images are the same.
[0018]
When the positional deviation amounts (δx, δy) in the x direction and the y direction are calculated by the above-described procedure, the x direction and y of the fingerprint image 2 with respect to the fingerprint image 1 are calculated using the calculated positional deviation amounts (δx, δy). The displacement of the direction is corrected. Next, a rotated fingerprint waveform pattern is created from each of the fingerprint images 1 and 2, and a rotated GDS is calculated from the rotated fingerprint waveform patterns.
First, a procedure for creating a rotated fingerprint waveform pattern and a rotated GDS from the fingerprint image 1 will be described. To create a rotated fingerprint waveform pattern, first, a reference point serving as a reference is set in the fingerprint image 1. For example, regarding the fingerprint image 1, the center point of the collected fingerprint image is set as a reference point (for example, (64, 64)).
Next, a reference scanning line passing through the reference point is rotated at a predetermined angle interval, and a scanning line is set for each rotation angle. 6B to 6H, the reference point is set to the center (64, 64) of the fingerprint image, the reference scan line is set to a horizontal straight line passing through the reference point, and the reference scan line is set to a predetermined center around the reference point. The state when rotated by 180 degrees at an angular interval is shown. That is, as shown in FIG. 6B, a reference point (64, 64) is set in the fingerprint image, and a reference scanning line is provided horizontally through the reference point (64, 64). As shown in FIGS. 6B to 6H, the reference scanning line is rotated clockwise by 180 ° about the reference point, and the reference scanning line at each rotation angle is set as the scanning line at the rotation angle. For example, if the reference scanning line is rotated 180 ° at 1 ° intervals, 181 scanning lines are set. Then, for each set scanning line, the density value change on the scanning line [that is, for each point on the scanning line, an end point (for example, a point corresponding to the left end point of the reference scanning line shown in FIG. 6B)) Between the distance from the camera and the density value]. The change in the density value acquired for each scanning line becomes a rotating fingerprint waveform pattern.
FIG. 7A shows the obtained density value changes on each scanning line arranged in order from the top from a rotation angle of 0 ° to 180 °. As is clear from FIG. 7A, in the rotated fingerprint waveform pattern shown in FIG. 7A, the vertical axis is the rotation angle, and the horizontal axis is the position on the scanning line (distance from the end point). Also, in FIG. 7A, a scanning line ((1)-(3)) having a rotation angle of 0 ° corresponds to the cross section (1)-(3) shown in FIG. The scanning line ([2]-[4]) corresponds to the cross section of [2]-[4] shown in FIG. 6 (a), and the scanning line ([3]-[1]) with a rotation angle of 180 ° is This corresponds to the cross section of (3)-(1) shown in FIG.
[0019]
When the rotated fingerprint waveform pattern shown in FIG. 7A is created by the above-described procedure, the rotated fingerprint waveform pattern is converted into a scanning line in the horizontal axis direction (that is, a scanning line set by rotating the reference scanning line). Then, GDS data (that is, rotation GDS) is calculated from each of the decomposed scanning lines. The procedure for calculating the rotated GDS from the rotated fingerprint waveform pattern is the same as the procedure for calculating the GDS pattern in the x direction or the GDS pattern in the y direction from the fingerprint image, and a detailed description thereof will be omitted. In FIG. 7B, the rotated GDS extracted from the rotated fingerprint waveform pattern shown in FIG. 7A is displayed two-dimensionally with shading according to the GDS intensity.
[0020]
As is clear from the above description, if the change in the density value at the rotation angle θ is line (θ, i) (i = 0,..., N), the following equation is established.
line (θ, i) = line (θ + 180 °, ni)
That is, when the direction of the scanning line at the rotation angle θ is reversed (the starting point and the end point are reversed), the scanning line becomes the scanning line at the rotation angle (θ + 180 °).
When the GDS calculated from the density value change line (θ, i) at the rotation angle θ is gds (θ, ch), the following equation is established.
gds (θ, ch) = gds (θ + 180 °, ch)
That is, the change in the density value of line (θ, i) and the change in the density value of line (θ + 180 °, ni) are in the opposite directions, but the GDS intensity when they are frequency-resolved does not differ.
[0021]
Next, a rotated fingerprint waveform pattern is created from the fingerprint image 2, and a rotated GDS is calculated from the rotated fingerprint waveform pattern. FIG. 8 shows a procedure for calculating the rotation GDS from the fingerprint image 2.
As shown in FIG. 8, first, the center point (for example, (64, 64)) of the fingerprint image 2 is corrected by the positional deviation amount (δx, δy) in the x direction and the y direction (see FIG. 8A). . Next, the reference scan line passing through the corrected reference point (for example, (64 + δx, 64 + δy)) is rotated (see FIG. 8B), and the rotated fingerprint waveform pattern (FIG. 8 (c)) and the rotation GDS (see FIG. 8 (d)).
[0022]
When the rotation GDS is calculated from the fingerprint image 1 and the fingerprint image 2, the rotation deviation angle δθ between the fingerprint image 1 and the fingerprint image 2 is calculated in substantially the same procedure as the procedure for calculating the positional deviation amount in the x direction and the y direction. I do.
That is, the rotated GDS extracted from the fingerprint image 1 1 GDS extracted from fingerprint image 2 for 2 Is shifted from 0 ° to 180 ° in the rotation angle direction, and the dissimilarity (distance dist) of the two rotation GDSs at each position θ ) Is calculated (see FIG. 9). And the distance dist θ Is minimized as the rotational deviation angle δθ between the two fingerprint images. FIG. 9A shows the rotated GDS extracted from the fingerprint image 1. 1 GDS extracted from fingerprint and fingerprint image 2 2 Angle and distance dist when is shifted from 0 ° to 180 ° in the rotation angle direction θ The relationship is shown. As is apparent from the figure, the rotational shift angle δθ between the fingerprint image 1 and the fingerprint image 2 takes a value near 140 °.
FIG. 10 shows a fingerprint image obtained by correcting the position of the fingerprint image 2 with the positional deviation amounts (δx, δy, δθ) calculated in the above-described procedure, together with the fingerprint image 1. As is clear from FIG. 10, the fingerprint image 2 (shown on the right side in the figure) after the position correction substantially matches the fingerprint image 1 (shown on the left side in the figure) with the center of the finger. The directions of the ridges also substantially coincide.
[0023]
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A fingerprint matching device according to one embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 11, the fingerprint matching device includes a fingerprint image collection unit 10 that outputs a collected fingerprint image as digital data, a fingerprint image determination unit 14 that determines the validity of the output fingerprint image data, A fingerprint registration unit 18 for registering the determined fingerprint image data in the memory 26; a fingerprint matching unit 20 for determining the identity of the fingerprint image collected by the fingerprint image collection unit 10 with the registered fingerprint image; The control unit 22 includes a control unit 22 that controls operations such as collation, and an input unit 24 provided with a numeric keypad or the like for selecting an operation of registration or collation.
[0024]
The fingerprint image collecting unit 10 is equipped with a semiconductor fingerprint reader (FingerLoc 2.1, manufactured by Authentic Corporation) of an electric field intensity system. The fingerprint reader is provided with a fingerprint collecting surface, and a finger is pressed against the fingerprint collecting surface. When the finger is pressed on the fingerprint collection surface, the finger directly contacts the fingerprint collection surface at the fingerprint ridge portion, and a gap is formed between the finger and the fingerprint collection surface at the fingerprint valley portion. For this reason, the detected electric field intensity differs between the fingerprint ridge portion and the fingerprint valley portion, and a fingerprint image is taken from the difference in the electric field intensity. The captured fingerprint image (shading image of the fingerprint ridge) is stored in a built-in memory at predetermined time intervals (for example, several hundred ms) as two-dimensional digital shading data.
It should be noted that a device for collecting a fingerprint image is not limited to the above-mentioned electric field intensity type semiconductor fingerprint reader. For example, a device that optically collects a fingerprint image (for example, configured by a rectangular prism, a light source, a CCD element, or the like) can be used. A reader can also be used.
[0025]
The fingerprint image determination unit 14 determines whether the fingerprint image data obtained by the fingerprint image collection unit 10 is valid. Specifically, a process of determining whether or not a finger has begun to be placed on the fingerprint reading surface and a process of determining whether or not the collected fingerprint image is valid are performed. Details of each processing will be described later.
Further, the operation of the fingerprint registration unit 18 and the operation of the fingerprint collation unit 20 will be described in detail in the processing at the time of fingerprint registration and the processing at the time of fingerprint collation, which will be described below.
[0026]
Next, the operation of the fingerprint collation apparatus configured as described above at the time of "fingerprint registration" will be described with reference to the flowcharts of FIGS.
When the person to be identified inputs a command to the input unit 24 to start the registration process (the process of registering a fingerprint image), the control unit 22 instructs the fingerprint image collection unit 10 to start the fingerprint image collection process. Thus, the fingerprint image collecting unit 10 starts the fingerprint image collecting process (S10).
[0027]
The fingerprint image collecting process will be described with reference to FIG. As shown in FIG. 13, in the fingerprint image collecting process, first, the fingerprint image collecting unit 10 is set to the operating state to collect image data (S32). Next, the fingerprint image determination unit 14 calculates the image quality determination amount 1 for the image data collected in step S32 (S34). The image quality determination amount 1 calculated in step S34 is a ratio of the area of the bright part to the area of the dark part by binarizing the collected image data.
In step S36, it is determined whether a finger has begun to be placed on the fingerprint reading surface by comparing the image quality determination amount 1 calculated in step S34 with a preset threshold value P1. That is, when the finger starts to be placed on the fingerprint reading surface and the pressing force of the finger on the fingerprint reading surface gradually increases, the image quality determination amount 1 calculated in step S34 also gradually increases. Therefore, if the finger is not placed on the fingerprint reading surface or is not sufficiently placed, the image quality determination amount 1 calculated in step S34 also becomes a small value. Therefore, by determining whether or not the calculated image quality determination amount 1 exceeds a predetermined threshold value P1, it is determined whether or not a finger has begun to be placed on the fingerprint reading surface. Specifically, when the calculated image quality determination amount 1 exceeds the threshold value P1, it is determined that the finger has begun to be placed on the fingerprint reading surface, and when the calculated image quality determination amount 1 does not exceed the threshold value P1, the finger is placed on the fingerprint reading surface. Is determined not to have been placed.
If it is determined in step S36 that the finger has not been placed, the process returns to step S32 and the processing from step S32 is repeated.
[0028]
When it is determined in step S36 that the finger has begun to be placed on the fingerprint reading surface, the image quality determination amount 1 calculated in step S34 is stored as a variable 1 (S38), and the fingerprint image collection unit 10 is again set to the operating state and the image is determined. Data is collected (S40). When the image data is collected in step S40, the fingerprint image determination unit 14 calculates the image quality determination amount 1 based on the collected image data (S42).
When the image quality determination amount 1 is calculated in step S42, the calculated image quality determination amount 1 is compared with the image quality determination amount 1 stored as the variable 1, and whether the temporal variation of the image quality determination amount 1 is stable is determined. Is determined (S44). Specifically, the image quality determination amount 1 stored as a variable 1 is subtracted from the image quality determination amount 1 calculated in step S42, and if the value is less than a preset threshold P2, the image quality determination amount It is determined that the temporal fluctuation of 1 has stabilized.
If it is determined in step S44 that the temporal variation of the image quality determination amount 1 is not stable, the image quality determination amount 1 calculated in step S42 is stored as a variable 1, and the processing from step S40 is repeated again. Conversely, if it is determined in step S44 that the temporal variation of the image quality determination amount 1 has stabilized, the fingerprint image capturing process ends.
Therefore, a fingerprint image is obtained when the finger is sufficiently placed on the fingerprint reading surface and the pressing force of the finger on the fingerprint reading surface is in a stable state.
[0029]
When the fingerprint image collecting process is completed, returning to FIG. 12, the image quality determining process of the fingerprint image data collected in step S10 is performed (S12). The image quality determination processing will be described with reference to FIG.
In the image quality determination processing, first, labeling is performed on the collected fingerprint image data (S52). Next, the number of labels obtained by the labeling in step S52 is set as the image quality determination amount 2 (S54). The quality of a fingerprint image is determined by labeling for the following reason. That is, in a fingerprint image in which fingerprint ridges are crushed, adjacent fingerprint ridges are united without being separated from each other. Therefore, the number of clusters of pixels connected to each other at a predetermined density value or more (ie, the number of labels) Is reduced. On the other hand, in a fingerprint image in which fingerprint ridges are interrupted or include a lot of noise, the number of clusters of pixels connected to each other at a predetermined density value or more (that is, the number of labels) increases. Therefore, in step S52, when the number of labels obtained by labeling the fingerprint image is equal to or more than the third threshold value P3 and equal to or less than the fourth threshold value P4, it is determined that a large number of clear fingerprint ridges exist in the fingerprint image (ie, , The quality of the fingerprint image is high).
In the fingerprint image collection process shown in FIG. 13, the ratio of the bright part to the dark part is used as the image quality determination amount in order to determine whether the finger is stably placed on the fingerprint reading surface. The number of labels is used as the image quality determination amount in order to determine the quality of the image.
When the image quality determination amount 2 is calculated, it is determined whether the calculated image quality determination amount 2 is equal to or more than the threshold value P3 and equal to or less than the threshold value P4 (S56). When the calculated image quality determination amount 2 is not P3 or more and P4 or less, it is determined that the image is an unclear fingerprint image (S58). When the calculated image quality determination amount 2 is P3 or more and P4 or less, it is determined that the image is a clear fingerprint image. (S60).
[0030]
When the image quality determination processing ends, returning to FIG. 12, it is determined whether the fingerprint image collected by the fingerprint image collection unit 10 is valid (S14). In other words, if it is determined in the above-described image quality determination process that the image is a clear fingerprint image, the process proceeds to step S16. If it is determined that the image is unclear, the process returns to step S10, and the processes from step S10 are repeated.
In step S16, the collected fingerprint image data is registered in the memory 26 in association with an ID code or the like (input from the input unit 24).
As described above, in this embodiment, only the fingerprint image determined to be a clear fingerprint image in the image quality determination processing in step S12 is registered in the memory 26, and the unclear fingerprint image is not registered in the memory 26.
[0031]
Next, the operation of the fingerprint collation apparatus at the time of "fingerprint collation" will be described with reference to the flowcharts of FIGS.
First, the identification subject inputs from the input unit 24 that fingerprint collation is to be performed (S72). When input of fingerprint collation is input from the input unit 24, the above-described fingerprint image collection processing (see FIG. 13) is performed (S74). When the fingerprint image collecting process is completed, the above-described image quality determining process (see FIG. 14) is performed (S76), and then it is determined whether the image data collected by the fingerprint image collecting unit 10 is valid (S78). . That is, an image determined to be a clear fingerprint image in the image quality determination processing in step S76 is determined to be “YES”, and an image determined to be an unclear image is determined to be “NO”.
If it is determined in step S78 that the fingerprint image data collected is not valid, the process returns to step S74, and the processing from step S74 is repeated.
[0032]
If it is determined that the fingerprint image data collected in step S78 is valid, the degree of dissimilarity between the fingerprint image data and the registered fingerprint image data is calculated (S80). The procedure for calculating the degree of dissimilarity from the two fingerprint image data to be collated in step S80 will be described with reference to the flowchart in FIG.
As shown in FIG. 16, first, the GDS patterns in the x direction and the y direction are calculated from the two fingerprint images to be collated (that is, the fingerprint image collected in step S74 and one registered fingerprint image) (S88). ). For example, when the fingerprint image 1 shown in FIG. 17 is a registered fingerprint image and the fingerprint image 2 is a collected fingerprint image, a GDS pattern in the x direction and the y direction is calculated from both. The calculated GDS pattern in the x direction is shown on the right side of each fingerprint image, and the calculated GDS pattern in the y direction is shown below each fingerprint image.
Next, the GDS pattern in the x direction and the GDS pattern in the y direction calculated in step S88 are respectively moved and collated, thereby dissimilarity dist of the GDS pattern in the x direction. x And the dissimilarity dist of the GDS pattern in the y direction y Is calculated, and the displacement amount (δx, δy) is calculated (S90). FIG. 18 shows a state of the fingerprint image 2 shown in FIG. 17 after the positional deviation is corrected by the calculated positional deviation amount (δx, δy).
In step S92, a rotated fingerprint waveform pattern is created from the two fingerprint images to be compared, and a rotated GDS is calculated from the rotated fingerprint waveform pattern. FIG. 19 also shows a rotated fingerprint waveform pattern and a rotated GDS created from two fingerprint images.
When the rotation GDS is calculated from the two fingerprint images to be compared, the rotation GDS is moved and collated to calculate the rotation deviation angle δθ of the two fingerprint images (S94). If the calculated rotation deviation angle δθ is smaller than the threshold θs, Is determined (S96).
[0033]
If the calculated rotational shift angle δθ is smaller than the threshold value θs, the dissimilarity of the GDS pattern in each direction calculated in step S90 is added to determine the dissimilarity of the two fingerprint images (S104). That is, when the calculated rotational deviation angle δθ is smaller than the threshold value θs, it is considered that the rotational deviation between the two fingerprint images has almost no effect on fingerprint collation. Therefore, the dissimilarity dist of the GDS pattern in the x direction calculated before correcting the rotational displacement. x And the dissimilarity dist of the GDS pattern in the y direction y And the total dissimilarity (dist) of the two fingerprint images x + Dist y ).
[0034]
When the calculated rotational deviation angle δθ is equal to or larger than the threshold value θs, the positional deviation between the two fingerprint images to be compared is corrected (S98). That is, the position shift of one fingerprint image is corrected by the position shift amount (δx, δy) calculated in step S90 and δθ calculated in step S94. FIG. 20 shows a state after the position and rotation of the fingerprint image 2 shown in FIG. 17 are corrected based on the position and rotation (δx, δy, δθ).
Next, the GDS pattern in the x direction and the GDS pattern in the y direction are calculated again from the two fingerprint images after the positional deviation has been corrected. Similarity (dist x , Dist y ) Is calculated (S100). FIG. 20 shows a GDS pattern calculated from the fingerprint image after the positional deviation has been corrected. That is, the GDS pattern in the x direction is shown on the right side of each fingerprint image, and the GDS pattern in the y direction is shown on the lower side.
In step S102, the dissimilarity (dist) in each direction calculated in step S100 x , Dist y ) Are added to the total dissimilarity (dist) of the two fingerprint images. x + Dist y ).
The above-described flowchart using FIG. 16 is an example in which one registered fingerprint image is collated with one collected fingerprint image. However, when there are a plurality of fingerprint images registered in the fingerprint collation device, , The dissimilarity is calculated for each registered fingerprint image. Then, it is determined for each registered fingerprint image whether or not the degree of dissimilarity exceeds a threshold (that is, whether or not the collected fingerprint image and the registered fingerprint image relate to the same finger).
[0035]
Upon completion of the dissimilarity calculation process, the process returns to FIG. 15, and it is determined whether the calculated dissimilarity is equal to or smaller than the threshold value P5 (S82). If the calculated degree of dissimilarity is equal to or less than the threshold value P5, the door is opened (S86). If the calculated degree of dissimilarity exceeds the threshold value P5, a buzzer sounds and entry to the room is prohibited (S84).
[0036]
As is apparent from the above description, in the fingerprint matching device of the present embodiment, when the rotation shift angle δθ between fingerprint images to be checked is less than the threshold θs, the dissimilarity calculated before the correction of the rotation shift is used. The identity of the fingerprint images is determined, and when the rotational shift angle δθ is equal to or larger than the threshold θs, the identity of the fingerprint images is determined using the dissimilarity calculated after the correction of the rotational shift. Therefore, when the rotational deviation is large, the identity of the fingerprint images is determined after the rotational deviation is corrected, so that the collation rate can be improved.
[0037]
As mentioned above, although one Example of this invention was described in detail, this is only an illustration and does not limit a claim. The technology described in the claims includes various modifications and alterations of the specific examples illustrated above. For example, it can be suitably implemented in the form described below.
[0038]
(1) In the above-described embodiment, when the calculated rotational deviation angle δθ is larger than the threshold value θs, the rotational deviation between fingerprint images is corrected to calculate the overall dissimilarity (see FIG. 16). However, as shown in FIG. 21, the positional deviation correction and the calculation of the overall similarity may be repeated until a predetermined convergence condition is satisfied.
That is, in the dissimilarity calculation process shown in FIG. 21, the GDS patterns in the x direction and the y direction are calculated from the two fingerprint images to be compared (S110), and the calculated GDS patterns are moved and collated to obtain the positional deviation amount (δx , Δy) are calculated (S112). Next, the rotation GDS is calculated from each fingerprint image (S114), and the rotation shift angle δθ is calculated from the rotation GDS (S116). Then, the total dissimilarity between the two fingerprint images is calculated (S118). The total dissimilarity is the distance dist calculated by moving and collating the GDS patterns in the x direction and the y direction, as in the above-described embodiment. x And dist y Or a distance dist calculated by moving and matching the rotational GDS with these sums. θ May be added. In the above-described embodiment, the total dissimilarity is calculated as (dist x + Dist y + Dist θ ).
When the total dissimilarity is calculated in step S118, it is then determined whether or not a preset convergence condition is satisfied (S120). As the convergence condition of step S120, for example, (1) the number of loops (that is, the number of times steps S110 to S118 are repeated) = set value, (2) the total dissimilarity calculated in step S118 <less than the threshold, or ( 3) The variation of the rotation angle δθ <the threshold may be used. Further, these conditions may be combined to form a convergence condition.
When the convergence condition is satisfied, the dissimilarity calculation processing is terminated by using the total dissimilarity calculated in step S118 as the final total dissimilarity, and when the convergence condition is not satisfied, the process proceeds to step S110. The process returns to repeat the processing from step S110.
According to such an embodiment, the process of calculating the total dissimilarity is repeatedly performed until a predetermined convergence condition is satisfied. Therefore, by setting the convergence condition according to the purpose of use (for example, the required degree of security), the specifications of the fingerprint matching device can be adapted to the purpose of use.
[0039]
(2) In the above-described embodiment, the positional deviation amount (δx, δy) between fingerprint images to be collated is calculated by moving and collating the GDS pattern in the x direction and the GDS pattern in the y direction. However, various well-known methods can be used as a procedure for calculating the positional deviation amounts (δx, δy) in the x direction and the y direction. For example, a method using the number of ridge intersections (that is, the position deviation amount δx in the x direction is determined by comparing the number of ridge intersections in the x direction, and the position in the y direction is determined by comparing the number of ridge intersections in the y direction. A method for determining the displacement amount δy) can be used.
After the position shift amount (δx, δy) is calculated, the method disclosed in the above-described example and the above-described embodiment (1) can be appropriately modified and executed. For example, the position shift of one fingerprint image is corrected based on the calculated position shift amount (δx, δy), and the rotation GDS is calculated from the corrected fingerprint image. Next, a rotation shift angle δθ is calculated using the calculated rotation GDS, and the rotation shift of the fingerprint image is corrected based on the rotation shift angle δθ. Then, a spectrum pattern (for example, a GDS pattern in the x direction and the y direction) is calculated by performing frequency conversion processing on the corrected fingerprint image (that is, the fingerprint image in which the positional deviation amounts (δx, δy, δθ) have been corrected). Then, the identity of the two fingerprint images is determined by moving and comparing the spectral patterns.
[0040]
(3) The technique for speeding up various calculations used when matching the GDS pattern in the x direction or the y direction is used in the moving matching processing of the rotating GDS performed in the above-described examples and embodiments. can do. For example, a technique disclosed in Japanese Patent Application Laid-Open No. 2002-150289 [that is, a range for searching for the minimum dissimilarity in a state where the interval for calculating the dissimilarity is coarse, is narrowed, and the minimum dissimilarity is searched for within the narrowed range. Technology] can be used.
Alternatively, the rotation deviation angle δθ may be calculated using a part of the rotation GDS to be compared (for example, a rotation GDS extracted from a predetermined scanning line (a predetermined angle range from 0 ° to 180 °)). . Further, in the above embodiment (1), the first rotational deviation angle δθ 1 Is calculated using a part of the rotation GDS, and the rotation deviation angle δθ after the second time i May be performed using the entire rotation GDS.
[0041]
(4) When a plurality of fingerprint images taken from the same finger are registered in the fingerprint matching device according to the above-described embodiment, the positional deviation amounts (δx, δy, δθ) between these fingerprint images are determined in advance. By calculating and registering, the amount of calculation at the time of fingerprint collation can be reduced.
For example, one of a plurality of fingerprint images collected and registered from the same finger is used as a reference registered fingerprint image, and the remaining registered fingerprint images are displaced from the reference registered fingerprint image (δx 1 , Δy 1 , Δθ 1 ) Is calculated and registered.
At the time of fingerprint collation, the collated fingerprint image is first collated with the reference registered fingerprint image. As a result, the positional deviation amount (δx 2 , Δy 2 , Δθ 2 ) Is calculated.
Next, the collected fingerprint image is collated with the remaining registered fingerprint images (for the same finger). At this time, the registered positional deviation amount (δx 1 , Δy 1 , Δθ 1 ) And the calculated positional deviation amount (δx 2 , Δy 2 , Δθ 2 ) Is used to calculate the amount of displacement between the collected fingerprint image and the registered fingerprint image. That is, the positional deviation amount between the collected fingerprint image and the registered fingerprint image is (δx 1 + Δx 2 , Δy 1 + Δy 2 , Δθ 1 + Δθ 2 ). That is, to correct the positional deviation between the collected fingerprint image and the registered fingerprint image to be compared, first, the collected fingerprint image is moved to the position of the reference fingerprint image (that is, (δx 1 , Δy 1 , Δθ 1 )) And then from the position of the reference fingerprint image to the position of the registered fingerprint image (ie, (δx 2 , Δy 2 , Δθ 2 )).
As described above, the amount of displacement between the fingerprint image collected and the registered fingerprint image is calculated. First, the position deviation of the collected fingerprint image is corrected by the calculated amount of positional deviation, and then the x-direction and A GDS pattern is calculated in the y direction, and a total dissimilarity is calculated from these two GDS patterns. Then, the identity of the collected fingerprint image and the registered fingerprint image may be determined based on the calculated overall dissimilarity. Therefore, in this case, the identity of the fingerprint images can be determined without calculating the rotation GDS.
Note that, unlike the above example, the registered positional deviation amount (δx 1 , Δy 1 , Δθ 1 ) And the calculated positional deviation amount (δx 2 , Δy 2 , Δθ 2 ) May be used to predict the amount of positional deviation between the collected fingerprint image and the registered fingerprint image. That is, the positional deviation amount between the collected fingerprint image and the registered fingerprint image is (δx 1 + Δx 2 , Δy 1 + Δy 2 , Δθ 1 + Δθ 2 ), It is possible to narrow the search range when calculating the displacement amount.
[0042]
(5) In the above-described embodiment, the displacement amount (δx, δy, δθ) of the fingerprint image is calculated based on the GDS extracted from the fingerprint image. The position shift amount (δx, δy, δθ) may be calculated using the obtained spectrum (FFT spectrum, DFT spectrum, LPC spectrum, etc.). Further, the position shift amount (δx, δy, δθ) may be calculated using the cepstrum obtained by performing the inverse Fourier transform by regarding the spectrum obtained by frequency conversion as a waveform signal.
[0043]
(6) In the above-described embodiment, the rotation deviation angle between fingerprint images is calculated using the rotated GDS extracted from the rotated fingerprint image (that is, the rotated fingerprint waveform pattern). However, other characteristic information is extracted from the rotated fingerprint image. The rotation shift angle may be calculated using the characteristic information. For example, as shown in FIG. 22, a fingerprint pitch pattern (FIG. 22B) and the number of fingerprint ridge intersections (FIG. 22C) are extracted from a rotated fingerprint image (FIG. 22A) and rotated. The rotational deviation angle may be calculated by moving and collating in the direction. The fingerprint pitch pattern is obtained by patterning the average value of the intervals between adjacent fingerprint ridges for each scanning line in the rotation direction, and the number of intersections of the fingerprint ridges is the scanning line and the fingerprint ridge for each scanning line in the rotation direction. Is obtained by finding the number of intersections.
Further, the longest ridge distribution waveform can be obtained from each scanning line in the rotation direction of the rotated fingerprint image, and the rotational deviation angle can be calculated using the longest ridge distribution waveform. As a method of extracting the longest ridge distribution waveform, a method disclosed in JP-A-7-57085 can be used.
[0044]
(7) In the above-described embodiment, the scanning lines (that is, the diameters) extending on both sides around the reference point are rotated in order to obtain the rotated fingerprint image. However, as shown in FIG. 23, the scanning lines extend one side around the reference point. The rotating fingerprint image (FIG. 24) may be obtained by rotating the scanning line (that is, the radius).
[0045]
(8) In the above-described embodiment, the rotation deviation angle between fingerprint images is calculated using the rotated GDS extracted from the rotated fingerprint image. However, the identity of fingerprint images may be determined using the rotated GDS.
[0046]
Further, the technical elements described in the present specification or the drawings exhibit technical utility singly or in various combinations, and are not limited to the combinations described in the claims at the time of filing. Further, the technology illustrated in the present specification or the drawings simultaneously achieves a plurality of objects, and has technical utility by achieving one of the objects.
[Brief description of the drawings]
FIG. 1 is a diagram schematically illustrating a position shift correction method according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a data configuration of a fingerprint image;
FIG. 3 is a diagram illustrating an example of a collected fingerprint image, a GDS pattern extracted from the fingerprint image, and a density value change on one scanning line.
FIG. 4 is a diagram showing an example of a GDS pattern obtained from a density value change on one scanning line.
FIG. 5 is a diagram for explaining a procedure for calculating a dissimilarity between two GDS patterns to be compared and a deviation width when the dissimilarity is minimized.
FIG. 6 is a diagram for explaining a procedure for creating a rotated fingerprint waveform pattern from the fingerprint image 1 shown in FIG. 1;
FIG. 7 shows a created rotated fingerprint waveform pattern and a rotated GDS created from the rotated fingerprint waveform pattern.
8 is a diagram showing an outline of a procedure for creating a rotated fingerprint waveform pattern from the fingerprint image 2 shown in FIG. 1 and creating a rotated GDS from the rotated fingerprint waveform pattern.
FIG. 9 is a diagram illustrating a relationship between a dissimilarity and a rotation angle when the rotation GDS is moved and collated;
FIG. 10 is a diagram showing a state in which a positional deviation and a rotational deviation have been corrected.
FIG. 11 is a block diagram showing an overall configuration of a fingerprint matching device according to one embodiment of the present invention.
FIG. 12 is a flowchart showing a fingerprint registration process.
FIG. 13 is a flowchart showing a fingerprint image collecting process;
FIG. 14 is a flowchart illustrating image quality determination processing.
FIG. 15 is a flowchart showing a fingerprint matching process;
FIG. 16 is a flowchart illustrating a dissimilarity calculation process;
FIG. 17 shows two fingerprint images to be collated and GDS patterns in the x and y directions extracted from these fingerprint images.
FIG. 18 is a diagram showing a state in which a positional shift between the x direction and the y direction of the fingerprint image shown in FIG. 17 has been corrected;
19 is a diagram showing a rotated fingerprint waveform pattern created from the fingerprint image shown in FIG. 18 and a rotated GDS extracted from the rotated fingerprint waveform pattern.
FIG. 20 is a diagram showing a fingerprint image obtained by correcting the positional deviation of the fingerprint image shown in FIG. 17 in the x direction, the y direction, and the rotation direction, and a GDS pattern extracted from the fingerprint image in the x direction and the y direction.
FIG. 21 is a flowchart illustrating a dissimilarity calculation process according to another embodiment.
FIG. 22 is a view for explaining another embodiment.
FIG. 23 shows another method for creating a rotated fingerprint image.
24 shows a rotated fingerprint image and a rotated GDS obtained by the method of FIG. 23.
[Explanation of symbols]
10. Fingerprint image collection unit
14. Fingerprint image judgment unit
18. Fingerprint registration section
20 ・ ・ Fingerprint collation
22 Control unit
24 ... input section

Claims (6)

指紋画像間の回転ズレ角を算出する方法であって、
一方の指紋画像に対しては、その指紋画像内に設定された第1基準点を通る基準走査線を第1基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第1のスペクトルパターンを取得し、
他方の指紋画像に対しては、その指紋画像内において前記第1基準点と対応する第2基準点を通る基準走査線を第2基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第2のスペクトルパターンを取得し、
取得された第1のスペクトルパターンに対して第2のスペクトルパターンを回転方向に所定角度範囲内でずらしながら相関度を算出し、
相関度が最大となるときのズレ角を指紋画像間の回転ズレ角に決定することを特徴とする指紋画像間の回転ズレ角算出方法。
A method of calculating a rotation shift angle between fingerprint images,
For one fingerprint image, a plurality of scanning lines obtained by sequentially rotating reference scanning lines passing through a first reference point set in the fingerprint image at predetermined angular intervals around the first reference point are described. A first spectral pattern is obtained by frequency-converting each density value group on each scanning line,
The other fingerprint image is obtained by sequentially rotating a reference scanning line passing through a second reference point corresponding to the first reference point in the fingerprint image at a predetermined angular interval about the second reference point. For a plurality of scanning lines, a second spectral pattern is obtained by frequency-converting a density value group on each scanning line,
Calculating the degree of correlation while shifting the second spectral pattern in the rotation direction within a predetermined angle range with respect to the obtained first spectral pattern;
A method for calculating a rotation angle between fingerprint images, wherein a rotation angle at which the degree of correlation is maximized is determined as a rotation angle between fingerprint images.
前記第2基準点は、2つの指紋画像間のx−y方向の位置ズレ量によって第1基準点を補正することで得られることを特徴とする請求項1に記載の指紋画像間の回転ズレ角算出方法。2. The rotation shift between fingerprint images according to claim 1, wherein the second reference point is obtained by correcting the first reference point based on a positional shift amount between two fingerprint images in the xy direction. 3. Angle calculation method. 識別対象者から採取した指紋画像と登録されている指紋画像を照合することで識別対象者が登録者か否かを判別する指紋照合装置であって、
指紋を採取して指紋画像を出力する指紋画像採取手段と、
採取された指紋画像と登録されている指紋画像とを照合する手段とを備え、
その指紋照合手段は、
採取された指紋画像と登録指紋画像のx−y方向の位置ズレ量を算出し、
照合する一方の指紋画像に対しては、その指紋画像内に設定された第1基準点を通る基準走査線を第1基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第1のスペクトルパターンを取得し、
照合する他方の指紋画像に対しては、算出されたx−y方向の位置ズレ量を用いて第1基準点を補正することで第2基準点を求め、その第2基準点を通る基準走査線を第2基準点を中心に所定の角度間隔で順次回転させて得られる複数の走査線について、各走査線上の濃度値群をそれぞれ周波数変換することで第2のスペクトルパターンを取得し、
取得された第1のスペクトルパターンに対して第2のスペクトルパターンを回転方向に所定角度範囲内でずらしながら相関度を算出し、
相関度が最大となるときのズレ角と算出されたx−y方向の位置ズレ量とを用いて照合する指紋画像間の回転ズレ及び位置ズレを補正して2つの指紋画像が同一か否かを判定することを特徴とする指紋照合装置。
A fingerprint matching device that determines whether an identification target is a registrant by comparing a registered fingerprint image with a fingerprint image collected from the identification target,
Fingerprint image collecting means for collecting a fingerprint and outputting a fingerprint image;
Means for comparing the collected fingerprint image with the registered fingerprint image,
The fingerprint matching means is
Calculate the positional shift amount in the x-y direction between the collected fingerprint image and the registered fingerprint image,
For one fingerprint image to be collated, a plurality of scans obtained by sequentially rotating a reference scanning line passing through a first reference point set in the fingerprint image at predetermined angular intervals around the first reference point. For each line, a first spectral pattern is obtained by frequency-converting a group of density values on each scanning line,
For the other fingerprint image to be collated, a second reference point is obtained by correcting the first reference point using the calculated positional deviation amount in the xy direction, and a reference scan passing through the second reference point is performed. Regarding a plurality of scanning lines obtained by sequentially rotating the lines at predetermined angular intervals around the second reference point, a second spectral pattern is obtained by frequency-converting a density value group on each scanning line,
Calculating the degree of correlation while shifting the second spectral pattern in the rotation direction within a predetermined angle range with respect to the obtained first spectral pattern;
Whether the two fingerprint images are the same by correcting the rotational displacement and the positional displacement between the fingerprint images to be collated using the displacement angle when the correlation degree is maximized and the calculated position displacement amount in the xy direction A fingerprint collation device characterized in that:
2つの指紋画像を照合する方法であって、
一方の指紋画像に対して、その指紋画像内に設定された第1基準点を通る基準走査線を第1基準点を中心に所定の角度間隔で順次回転させることで得られる走査線群の濃度値分布を取得する工程と、
他方の指紋画像に対して、その指紋画像内において前記第1基準点と対応する第2基準点を通る基準走査線を第2基準点を中心に所定の角度間隔で順次回転させることで得られる走査線群の濃度値分布を取得する工程と、
第1の画像から取得された濃度値分布から回転方向に関して第1の特徴情報を抽出する工程と、
第2の画像から取得された濃度値分布から回転方向に関して第2の特徴情報を抽出する工程と、
抽出された第1の特徴情報に対して第2の特徴情報を回転方向に所定角度でずらしながら相関度を算出する工程と、
を有する指紋画像照合方法。
A method for comparing two fingerprint images,
For one fingerprint image, the density of a scanning line group obtained by sequentially rotating a reference scanning line passing through a first reference point set in the fingerprint image at a predetermined angular interval about the first reference point. Obtaining a value distribution;
The other fingerprint image is obtained by sequentially rotating a reference scanning line passing through a second reference point corresponding to the first reference point in the fingerprint image at a predetermined angular interval around the second reference point. Obtaining a density value distribution of the scanning line group;
Extracting first feature information in the rotation direction from the density value distribution acquired from the first image;
Extracting second characteristic information with respect to the rotation direction from the density value distribution acquired from the second image;
Calculating the degree of correlation while shifting the second feature information by a predetermined angle in the rotation direction with respect to the extracted first feature information;
A fingerprint image matching method having the following.
算出された相関度のうち最大のものが所定の閾値を超えるときに、2つの指紋画像を同一指から採取したものであると決定することを特徴とする請求項4に記載の指紋画像照合方法。5. The fingerprint image matching method according to claim 4, wherein when the largest one of the calculated correlations exceeds a predetermined threshold value, it is determined that two fingerprint images are obtained from the same finger. . 算出された相関度が最大となるときの2つの特徴情報のズレ角を2つの指紋画像間の回転ズレ角に決定することを特徴とする請求項4に記載の指紋画像照合方法。5. The fingerprint image matching method according to claim 4, wherein a deviation angle between the two pieces of feature information when the calculated degree of correlation is maximum is determined as a rotation deviation angle between the two fingerprint images.
JP2003033521A 2003-02-12 2003-02-12 Method of calculating rotational displacement angle between fingerprint images and fingerprint image collation device Pending JP2004246459A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003033521A JP2004246459A (en) 2003-02-12 2003-02-12 Method of calculating rotational displacement angle between fingerprint images and fingerprint image collation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003033521A JP2004246459A (en) 2003-02-12 2003-02-12 Method of calculating rotational displacement angle between fingerprint images and fingerprint image collation device

Publications (1)

Publication Number Publication Date
JP2004246459A true JP2004246459A (en) 2004-09-02

Family

ID=33019474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003033521A Pending JP2004246459A (en) 2003-02-12 2003-02-12 Method of calculating rotational displacement angle between fingerprint images and fingerprint image collation device

Country Status (1)

Country Link
JP (1) JP2004246459A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007030977A1 (en) * 2005-09-16 2007-03-22 Yingjie Zhang A method for encrypting and identifying fingerprint image in fingerprint-identifying system
JP2007213427A (en) * 2006-02-10 2007-08-23 Sony Corp Registering apparatus, collation apparatus, extracting method, and program
JP2008054200A (en) * 2006-08-28 2008-03-06 Olympus Corp Imaging apparatus and image processing program
JP2008529156A (en) * 2005-01-31 2008-07-31 プリサイス バイオメトリクス アクチボラゲット Improved fingerprint verification method and apparatus
JP2013225324A (en) * 2013-06-12 2013-10-31 Hitachi Ltd Personal authentication device, image processor, terminal and system
US9076026B2 (en) 2011-12-15 2015-07-07 Fujitsu Limited Biometric information processing apparatus and biometric information processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529156A (en) * 2005-01-31 2008-07-31 プリサイス バイオメトリクス アクチボラゲット Improved fingerprint verification method and apparatus
WO2007030977A1 (en) * 2005-09-16 2007-03-22 Yingjie Zhang A method for encrypting and identifying fingerprint image in fingerprint-identifying system
JP2007213427A (en) * 2006-02-10 2007-08-23 Sony Corp Registering apparatus, collation apparatus, extracting method, and program
JP4547629B2 (en) * 2006-02-10 2010-09-22 ソニー株式会社 Registration device, registration method, and registration program
US8126215B2 (en) 2006-02-10 2012-02-28 Sony Corporation Registration and collation of a rolled finger blood vessel image
JP2008054200A (en) * 2006-08-28 2008-03-06 Olympus Corp Imaging apparatus and image processing program
US9076026B2 (en) 2011-12-15 2015-07-07 Fujitsu Limited Biometric information processing apparatus and biometric information processing method
JP2013225324A (en) * 2013-06-12 2013-10-31 Hitachi Ltd Personal authentication device, image processor, terminal and system

Similar Documents

Publication Publication Date Title
Jain et al. Intelligent biometric techniques in fingerprint and face recognition
Jain et al. On-line fingerprint verification
JP4340553B2 (en) Biometric information verification device
JP3057590B2 (en) Personal identification device
US7298874B2 (en) Iris image data processing for use with iris recognition system
US7539331B2 (en) Image identification system
AU2002348288B2 (en) Image identification system
EP2444933B1 (en) Biometric authentication device, biometric authentication method and computer program for biometric authentication
US7206437B2 (en) Method to conduct fingerprint verification and a fingerprint verification system
US20080101662A1 (en) Print matching method and apparatus using pseudo-ridges
US20080101663A1 (en) Methods for gray-level ridge feature extraction and associated print matching
El-Sisi Design and implementation biometric access control system using fingerprint for restricted area based on gabor filter.
US20080273769A1 (en) Print matching method and system using direction images
JP2004086866A (en) Fingerprint collation method and registration method of fingerprint image
EP1826707A2 (en) Fingerprint collation apparatus, fingerprint pattern area extracting apparatus and quality judging apparatus, and method and program of the same
US20070292005A1 (en) Method and apparatus for adaptive hierarchical processing of print images
US20020164055A1 (en) Fingerprint/palmprint image processor and processing method
JP2004246459A (en) Method of calculating rotational displacement angle between fingerprint images and fingerprint image collation device
KR101021134B1 (en) Apparatus and methode for extracting the direction of fingerprint
US20080240522A1 (en) Fingerprint Authentication Method Involving Movement of Control Points
KR100465136B1 (en) Method for Processing Image of Finger Print
JP2007179267A (en) Pattern matching device
Maltoni et al. Fingerprint Matching
Hennings et al. Palmprint recognition with multiple correlation filters using edge detection for class-specific segmentation
Talele et al. Study of local binary pattern for partial fingerprint identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090414