JP3695899B2 - Fingerprint verification device - Google Patents

Fingerprint verification device Download PDF

Info

Publication number
JP3695899B2
JP3695899B2 JP14675897A JP14675897A JP3695899B2 JP 3695899 B2 JP3695899 B2 JP 3695899B2 JP 14675897 A JP14675897 A JP 14675897A JP 14675897 A JP14675897 A JP 14675897A JP 3695899 B2 JP3695899 B2 JP 3695899B2
Authority
JP
Japan
Prior art keywords
unit
processing unit
fingerprint
ridge direction
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14675897A
Other languages
Japanese (ja)
Other versions
JPH10334237A (en
Inventor
秀人 藤原
伸一 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP14675897A priority Critical patent/JP3695899B2/en
Publication of JPH10334237A publication Critical patent/JPH10334237A/en
Application granted granted Critical
Publication of JP3695899B2 publication Critical patent/JP3695899B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、個人識別のための指紋照合装置に関するものである。
【0002】
【従来の技術】
従来、この種の技術として例えば電子情報通信学会技術研究報告PRU87−52、1987、pp49−57で発表された「指紋による高精度個人照合装置」がある。
【0003】
図17はこの従来例による指紋照合装置を示す構成図である。
図において、1は画像入力手段、2は指置き判定手段、3は特徴抽出手段、4は照合手段である。
画像入力手段1は、図18に示すように、プリズム1aと、光源1bと、カメラ1cで構成され、それぞれの位置関係は同図に示すようになっている。
指が置かれていない状態では、光源1bから照射された光が全てプリズム面1aで全反射する。一方プリズム面1aに指が置かれた場合には、光源1bから照射された光が指紋の谷線部(プリズムに密着していない部分)では全反射し、指紋の隆線部(プリズムに密着している部分)では乱反射する。これらプリズム面1aでの反射光をカメラ1cで受光することで、指が置かれていない状態では画像全面が輝度の高い画像になり、指が置かれている場合には指紋の谷部部で輝度が高く、隆線部で輝度の低い濃淡指紋画像が得られる。このカメラ1cの映像をA/D変換し処理部に取り込む。
【0004】
また、特徴抽出手段3は、二値化処理、隆線方向検出処理を行うもので、隆線方向検出処理にはブロック分割処理、マスクパターン走査処理、および隆線方向計算処理が含まれる。
また、特徴抽出手段3は、濃淡画像修正処理、再二値化処理、細線化処理、および特徴点検出処理を行うものである。
更に、照合手段4は、隆線方向一致度計算処理、特徴点一致度計算処理、および本人かどうかの判定処理を行うものである。
【0005】
次に、動作について、図19〜図24を参照しながら説明する。
まず、ステップS1において、画像入力手段1により画像が取り込まれ、ステップS2において、指置き判定手段2により入力されたデジタル映像を画像処理して指が置かれているか否かを判定する。そして、指が置かれていないときにはステップS1に戻って再度画像入力手段1によって画像を取り込み、指が置かれているときには、ステップS3に進み、特徴抽出手段3による処理を実行する。
【0006】
なお、指置き判定手段2の具体的な処理内容は例えば特公平7−7447号公報に示されている。
即ち、画像入力手段1によって入力された濃淡指紋画像から幾つかのN×N画素小領域を切り出し、各小領域の濃度ヒストグラムを作成する。各小領域において作成された濃度ヒストグラム全体の平均値μを閾値として図20のように黒クラスと白クラスに分割し、両クラスの平均値μ1、μ2を計算する。計算された両クラスの平均値を下記の式(1)に代入して分離度Rを計算する。
分離度Rが予め設定された判別閾値より大きいときにはその小領域には指が置かれていると判断する。切り出した全ての小領域に指が置かれていると判断されたときには指置き判定手段2の処理を終了し、次段の特徴抽出手段3における処理を実行する。一方、全ての小領域の内一つでも指が置かれていないと判断されたときには、指置き判定手段2を終了し、再度画像入力手段1に戻る。
【0007】
R=(μ2−μ1)÷ μ2 (1)
【0008】
次に、特徴抽出手段3では、まず、ステップS3において、二値化処理を行い、濃淡指紋画像を二値化する。これは、濃淡指紋画像を16×16画素のブロックに分割し、各ブロックの平均濃度を求めた後、この平均濃度を閾値としてそれより濃度が大きい画素には「1」を与え、そうでない画素には「0」を与える。
次いで、二値画像を16×16画素のブロックに分割し(ステップS4)、それぞれのブロックで図21のような0度、45度、90度、135度の4方向に相当する3×3画素のマスクパターンを走査する(ステップS5)。マスクパターンを走査することで各マスクパターンと一致する画素の頻度(方向別ヒストグラム)がわかるので、その各マスクパターンの頻度を用いてそれぞれのブロック内の隆線方向を0から180度の範囲で求める(ステップS6)。このステップS4〜S6が隆線方向検出処理である。
【0009】
次に、ステップS7において、濃淡画像修正処理を行い、隆線の途切れや癒着を修正する。これは、まず前記ブロック毎の隆線方向を図22に示したような8方向に量子化し(結果は例えば図23のようになる)、この8方向に量子化された隆線方向に沿ったK×1画素の平均値フィルタを原画像に施すことで実現される。
次に、ステップS8において、濃淡画像修正結果をステップS3の二値化処理と同じ方法で再度二値化し、そして、ステップS9において、この二値化結果を細線化し線幅1画素の線図形を得る。そして、ステップS10において、特徴点検出処理を行い、この細線化画像上に3×3画素のマスクパターンを走査させ、注目点が値「1」であり、かつ周辺8画素の内1画素のみ値「1」を持つような注目点の座標を端点として抽出し、注目点が値「1」であり、かつ周辺8画素の内3画素のみ値「1」を持つような注目点の座標を分岐点として抽出する。同時に特徴点から伸びる隆線を線追跡して特徴点のベクトル角(図24のθ)を算出しておく。
【0010】
このようにして、ステップS3〜S10における特徴抽出手段3の処理が終わると、次に、次段の照合手段4では、まず、ステップS11において、隆線方向一致度計算を行い、隆線の全体的な流れ方向がどの程度一致しているかを計算する。これは、前記ステップS4〜S6における隆線方向検出処理によって検出されたブロック毎の隆線方向Vd(Bx、By)と、本人が事前に登録しておいたブロック毎の隆線方向Ed(Bx、By)を、水平方向に−Pxから+Pxの範囲および垂直方向に−Pyから+Pyの範囲で平行移動しながら重ねあわせ、隆線方向が全体的に最も良く一致する位置を探し、その時の一致度合いを算出するものである。具体的には、あるずらし量(px、py)のときの一致度合いSd(px、py)は下記の式(2)で計算される。
【0011】

Figure 0003695899
【0012】
ここで、Bnは重なっているブロック数を表す。そして、最も小さい一致度Sdmin(px、py)は後述のステップS13におけるの判定処理で本人か他人かの判定に用いられる。
【0013】
次に、ステップS12において、特徴点一致度計算を行い、前記ステップS10における特徴点検出処理で検出された端点および分岐点といった特徴点の座標やそのベクトル角が、あらかじめ登録されている本人の特徴点の座標やベクトル角とどの程度一致しているかを計算する。これは登録指紋から検出され、予め登録されたある特徴点座標と、照合指紋から検出されたある特徴点座標の距離が近く、かつそれら特徴点のベクトル角の差が小さいときにこれらの特徴点をペアと考え、下記の式(3)によって全体の特徴点数に対してペアの特徴点数がどれくらいあるかを計算し、これを特徴点の一致度とする。
【0014】
Sm=(2×Cp)/(Cv+Ce) (3)
【0015】
ここで、Cvは照合指紋から検出された特徴点数、Ceは登録指紋から検出された特徴点数、Cpは登録指紋と照合指紋の間でペアと判断された特徴点数である。
最後にステップS13における判定処理では、上記隆線方向一致度Sdmin(px、py)が予め設定された閾値αより小さく、かつ特徴点一致度Smが予め設定された別の閾値βより大きい場合に本人と判定し、それ以外は他人と判定する。
【0016】
【発明が解決しようとする課題】
ところで、従来の指紋照合装置は、上記のように小領域の濃度ヒストグラムによって指が置かれたか否かを判定していたので、例えば指の乾燥などによってかすれた濃淡指紋画像しか得られない場合、上記式(1)に示した分離度Rが非常に小さくなる。一方、光源に明るさのムラがある場合、指が置かれていない場合でも小領域の濃度ヒストグラムはそれなりの広がりを持つため、分離度Rはそれなりに大きくなる。その結果、指置き判定を行うための判定閾値によってはかすれた指が置かれたことを検出できなかったり、指が置かれていないにも関わらず光源のムラによって指が置かれていると誤判定することがあるという問題点があった。
【0017】
また、従来の指紋照合装置は、登録時に指を置いた位置と照合時に置いた位置がずれていてもそのまま照合するため、ペアになる特徴点が減少し、結果として特徴点一致度合いが小さくなり、本人であるにも関わらず他人と誤って判定してしまうという問題点があった。
【0018】
また、従来の指紋照合装置は、指の弓状紋か否か、あるいは指先のみが置かれているかの判定を行っていなかった。指の弓状紋や指先のみの場合には、隆線方向一致度合を計算する際に正しい位置ずれ量で得られる一致度合いと、正しい位置ずれ量から隆線に直交する方向へ外れた時の一致度合いに大きな差がない。そのため、何らかのノイズによって誤った位置ずれ量を算出してしまい、これが本人同士の場合でも一致度合いを悪くし、他人と誤判別してしまうという問題点があった。
【0019】
更に、従来の指紋照合装置は、特徴点の一致度合いを計算する際に、すべての特徴点ペアを同じ重みで扱っていたため、例えば傷やしわ、かすれ等によって生じた擬似特徴点が悪影響をおよぼし、本人と他人の判別を誤らせてしまうという問題点があった。
【0020】
この発明は、上述のような問題点を解決するためになされたもので、かすれた指が置かれた場合でも、これを確実に検出することができ、また、指が置かれていないにも関わらず光源のムラによって指が置かれていると誤判定することを防止することができる指紋照合装置を提供することを目的とする。
また、登録時に指を置いた位置と照合時に置いた位置がずれていた場合の誤判別を防止でき、また、何らかのノイズによって誤った位置ずれがあった場合でも、確実に検出でき、しかも、例えば傷やしわ、かすれ等によって生じた擬似特徴点の悪影響を受けることなく、確実な判別を行うことができる指紋照合装置を提供することを目的とする。
【0023】
【課題を解決するための手段】
請求項1の発明に係る指紋照合装置は、センサによって得られた指紋画像を処理して特徴データを抽出し、予め登録されている利用者固有の特徴データと比較することで、利用者が本人か否かを判定する指紋照合装置において、指紋画像を二値化する二値化処理部、該二値化処理部で二値化された指紋画像を複数のブロックに分割するブロック分割部、該ブロック分割部で分割された各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部、微小時間前に入力された上記隆線方向計算処理部による算出結果を記憶する隆線方向記憶部、現時刻に入力された画像から上記隆線方向計算処理部で算出されたブロック毎の指紋の隆線方向と上記隆線方向記憶部に記憶されている微小時間前のブロック毎の指紋の隆線方向とを比較してその変化を検出する隆線方向変化検出処理部、該隆線方向変化検出処理部で変化なしと判断されたブロックに関して同じ方向角を持ち且つ互いに隣接しているブロック群を検出しそのかたまり具合を判定する空間的安定性判定処理部を含む指置き判定手段を備え、該指置き判定手段が指の置かれている状態を検知したときのみ特徴抽出および登録データとの照合を行うものである。
【0024】
請求項2の発明に係る指紋照合装置は、請求項1の発明において、指置き判定手段に接続され、該指置き判定手段の空間的安定性判定処理部の判定結果に基づいて指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正処理部、該濃淡画像修正処理部における濃淡画像修正結果を再度二値化する再二値化処理部、該再二値化処理部で再度二値化された結果を細線化する細線化部、該細線化部で細線化された画像を走査して該画像の特徴点を検出する特徴点検出部を含むものである。
【0027】
請求項3の発明に係る指紋照合装置は、センサによって得られた指紋画像を処理して特徴データを抽出し、予め登録されている利用者固有の特徴データと比較することで、利用者が本人か否かを判定する指紋照合装置において、指紋画像を二値化する二値化処理部、該二値化処理部で二値化された画像を複数のブロックに分割するブロック分割処理部、該ブロック分割処理部で分割された各ブロック内を所定の各角度に相当するマスクパターンを走査して、方向別のヒストグラムを作成するマスクパターン走査処理部、該マスクパターン走査処理部の出力に基づいて各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部を含む第1の特徴抽出手段と、該第1の特徴抽出手段の出力に基づいて、複数のブロックに分割された指紋画像の同一の画像から得られたブロック別の指紋の隆線方向値を互いに位置をずらしながらブロック毎の指紋の隆線方向値の差を計算して自己相関マップを生成する自己相関演算部、該自己相関演算部で得られた自己相関マップを処理して指先が置かれたかまたは弓状紋の指が置かれたかを判定する指先・弓状紋判定部、該指先・弓状紋判定部で指先または弓状紋の指と判定されたときに、この結果を表示して、そのまま登録処理を続行するか、一旦中断して指の置き直しまたは指の変更を行った後再度登録処理を行うかの判断を外部即ち利用者または管理者に求める指先・弓状紋提示部を含む指先・弓状紋検出手段とを備え、登録モードにおいては指先・弓状紋と判定されなかった場合と、外部即ち利用者または管理者から登録続行の指示があった場合のみ特徴データを登録し、照合モードにおいては指先か否かの判定のみを行って外部の利用者または管理者に指の置き直しを求めるものである。
【0028】
請求項4の発明に係る指紋照合装置は、請求項3の発明において、指先・弓状紋検出手段に接続され、該指先・弓状紋検出手段の指先・弓状紋判定部の判定結果に基づいて指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正処理部、該濃淡画像修正処理部における濃淡画像修正結果を再度二値化する再二値化処理部、該再二値化処理部で再度二値化された結果を細線化する細線化部、該細線化部で細線化された画像を走査して該画像の特徴点を検出する特徴点検出部を含む第2の特徴抽出手段を備えたものである。
【0031】
請求項5の発明に係る指紋照合装置は、センサによって得られた指紋画像を処理して特徴データを抽出し、予め登録されている利用者固有の特徴データと比較することで、利用者が本人か否かを判定する指紋照合装置において、指紋画像を二値化する二値化処理部、該二値化処理部で二値化された後、複数のブロックに分割された指紋画像の各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部と、該隆線方向計算処理部の出力に基づいて指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正処理部、該濃淡画像修正処理部における濃淡画像修正結果を再度二値化する再二値化処理を含む特徴抽出手段と、濃淡画像修正前後の二値化画像を複数のブロックに分割した後、ブロック毎に二値化画像を比較して、その変化点数を計数する変化点計数処理部、該変化点計数処理部で算出された変化点数に応じてブロック毎の重みを計算する重み計算処理部を含む重み決定手段とを備え、特徴点が存在するブロックの重みを、その特徴点の信頼度として特徴点一致度計算に反映させるものである。
【0032】
請求項6の発明に係る指紋照合装置は、請求項5の発明において、特徴抽出手段および重み決定手段に接続され、上記特徴抽出手段の出力に基づいて指紋の隆線方向の一致度を計算する隆線方向一致度計算部、該隆線方向一致度計算部で算出された指紋の隆線方向の一致度と上記重み決定手段で算出された変化点数に応じたブロック毎の重みとを用いて特徴点一致度を計算する特徴点一致度計算部、該特徴点一致度計算部で算出された特徴点の一致度に基づいて本人かどうかの判定を行う判定処理部を含む照合手段を備えたものである。
【0033】
【発明の実施の形態】
実施の形態1.
以下、この発明の一実施の形態を図について説明する。
図1はこの発明の実施の形態1を示す構成図である。
図において、11は画像入力手段であり、この画像入力手段11としては上述の画像入力手段1と同様のものが用いられる。
12は画像入力手段11に接続された指置き判定手段、13は指置き判定手段12に接続された特徴抽出手段、14は特徴抽出手段13に接続された照合手段である。
指置き判定手段12は、二値化処理と、隆線方向安定性判定処理を行うもので、この隆線方向安定性判定処理には、ブロック分割処理と、マスクパターン走査処理と、安定性判定処理とが含まれる。
【0034】
また、特徴抽出手段13は、隆線方向計算処理、濃淡画像修正処理、再二値化処理、細線化処理、および特徴点検出処理を行うものである。
照合手段14としては、上述の照合手段4と同様のものが用いられる。
【0035】
次に、動作について、図3、図4を参照しながら説明する。
まず、ステップS21において、画像入力手段11により画像が取り込まれ、次いで、指置き判定手段12より、まず二値化処理を行い(ステップS22)、従来と同様に入力画像を16×16画素のブロックに分割し、各ブロックの平均濃度を閾値として濃淡画像を二値化する。
次いで、二値画像を16×16画素のブロックに再度分割し(ステップS23)、それぞれのブロックで0度、45度、90度、135度の4方向に相当する3×3画素のマスクパターン(図21参照)を走査する(ステップS24)。マスクパターンを走査することで各マスクパターンと一致する画素の頻度(方向別ヒストグラム)がわかるので、その各マスクパターンの頻度を用いて、安定性判定処理即ちブロック内の隆線方向が安定しているか否かを判定する(ステップS25)。
【0036】
このステップS25における安定性判定処理は、例えば下記の式(4)を計算することで実現され、式(4)の結果隆線方向の安定性Fがあらかじめ設定された閾値γより小さい場合はそのブロックを背景領域(指が置かれていない領域)と判定し、隆線方向の安定性Fが閾値γより大きい場合にはそのブロックには指が置かれていると判定する。
そして、指が置かれていると判定されたブロックが多い場合には指が置かれたと判定して次段の特徴抽出手段13における処理(ステップS26〜S30)を実行し、指が置かれていると判定されたブロックが少ない場合には指が置かれていない、あるいは指の置き方が不十分と判定してステップS21へ戻る。
【0037】
F=|H0−H90|+|H45−H135| (4)
【0038】
なお、式(4)において、H0、H45、H90、H135はそれぞれステップS24のマスクパターン走査処理で作成された方向別ヒストグラムにおける各方向の頻度である。
【0039】
一例として、背景領域の場合には、例えば図3に示したように全体的にパターンに一致する画素が少なかったり(図3(a)参照)、直交する方向の頻度が同じぐらい存在したりしており(図3(b)参照)、これは隆線としてはおかしい。
一方、指が置かれたブロックでは例えば図4に示したようにいずれか一方向の頻度が優位になるか(図4(a)参照)、あるいは隣接する方向の頻度が同じ程度になる(図4(b)参照)。したがって、背景領域では上記式(4)の隆線方向の安定性Fが小さくなり、指が置かれた領域では隆線方向の安定性Fが大きくなる。
かくして、ここでは、ステップS22〜S25は指置き判定手段12における処理であり、その内のステップS23〜S25が隆線方向検出処理である。
【0040】
次に、特徴抽出手段13により、ステップS26において、上述同様に隆線方向計算処理を行い、方向別ヒストグラムを用いてブロック毎の隆線方向を0から180度の範囲で求める。
次に、ステップS27において、濃淡画像修正処理を行い、隆線の途切れや癒着を修正する。これは、まず前記ブロック毎の隆線方向を8方向に量子化し(図22および図23参照)、この8方向に量子化された隆線方向に沿ったK×1画素の平均値フィルタを原画像に施すことで実現される。
【0041】
次に、ステップS28において、濃淡画像修正結果をステップS22の二値化処理と同じ方法で再度二値化し、そして、ステップS29において、この二値化結果を細線化し線幅1画素の線図形を得る。そして、ステップS30において、特徴点検出処理を行い、この細線化画像上に3×3画素のマスクパターンを走査させ、注目点が値「1」であり、かつ周辺8画素の内1画素のみ値「1」を持つような注目点の座標を端点として抽出し、注目点が値「1」であり、かつ周辺8画素の内3画素のみ値「1」を持つような注目点の座標を分岐点として抽出する。同時に特徴点から伸びる隆線を線追跡して特徴点のベクトル角(図24のθ)を算出しておく。
【0042】
このようにして、ステップS26〜S30における特徴抽出手段13の処理が終わると、次に、次段の照合手段14では、上述同様にまず、ステップS31において、隆線方向一致度計算を行い、隆線の全体的な流れ方向がどの程度一致しているかを計算する。これは、前記ステップS26における隆線方向検出処理によって検出されたブロック毎の隆線方向Vd(Bx、By)と、本人が事前に登録しておいたブロック毎の隆線方向Ed(Bx、By)を、水平方向に−Pxから+Pxの範囲および垂直方向に−Pyから+Pyの範囲で平行移動しながら重ねあわせ、隆線方向が全体的に最も良く一致する位置を探し、その時の一致度合いを算出するものである。具体的には、あるずらし量(px、py)のときの一致度合いSd(px、py)は上記式(2)で計算される。
【0043】
次に、ステップS32において、特徴点一致度計算を行い、前記ステップS30における特徴点検出処理で検出された端点および分岐点といった特徴点の座標やそのベクトル角が、あらかじめ登録されている本人の特徴点の座標やベクトル角とどの程度一致しているかを計算する。これは登録指紋から検出され、予め登録されたある特徴点座標と、照合指紋から検出されたある特徴点座標の距離が近く、かつそれら特徴点のベクトル角の差が小さいときにこれらの特徴点をペアと考え、上記式(3)によって全体の特徴点数に対してペアの特徴点数がどれくらいあるかを計算し、これを特徴点の一致度とする。
最後にステップS33における判定処理では、上記隆線方向一致度Sdmin(px、py)が予め設定された閾値αより小さく、かつ特徴点一致度Smが予め設定された別の閾値βより大きい場合に本人と判定し、それ以外は他人と判定する。
【0044】
このように、この実施の形態では、検出される隆線方向が十分安定しているか否かによって指が置かれているか否かを判定する、つまり、隆線方向を検出する際に実行するマスクパターン走査でブロック毎に得られる0度、45度、90度、135度の方向成分比率を用いて隆線方向の安定性を評価することができる。
【0045】
実施の形態2.
図5はこの発明の実施の形態2を示す構成図である。なお、図5において、図1と対応する部分には同一符号を付し、その詳細説明を省略する。
図において、12Aは画像入力手段11に接続された指置き判定手段、13Aは指置き判定手段12Aに接続された特徴抽出手段である。
指置き判定手段12Aは、二値化処理と、隆線方向安定性判定処理を行うもので、この隆線方向安定性判定処理には、ブロック分割処理と、マスクパターン走査処理と、隆線方向計算処理と、隆線方向変化検出処理と、空間的安定性判定処理とが含まれる。また、指置き判定手段12Aは、隆線方向記憶機能を有する。
また、特徴抽出手段13Aは、濃淡画像修正処理、再二値化処理、細線化処理、および特徴点検出処理を行うものである。
【0046】
次に、動作について、図6を参照しながら説明する。
ステップS21において、画像入力手段11により画像が取り込まれ、次いで、指置き判定手段12Aより、ステップS21〜S24までは、上述した図1の指置き判定手段12におけるステップS21〜S24と同様の処理を行い、マスクパターンを走査することで各マスクパターンと一致する画素の頻度(方向別ヒストグラム)がわかるので、その各マスクパターンの頻度を用いてブロック毎の隆線方向を0から180度の範囲で求める(ステップS34)。
また、このステップS34では、微小時間△前に入力された画像から同様の方法で求められたブロック毎の隆線方向を記憶する。
【0047】
次いで、ステップS35において、隆線方向変化検出処理を行い、現時刻の画像から求められたブロック毎の隆線方向と、ステップS34での画像から求められたブロック毎の隆線方向をそれぞれ8方向に量子化(図22参照)した(8方向に量子化されたものを方向コードと呼ぶ)後、両者をブロック毎に比較し、方向が変化したか否かを判断する。そして、隆線方向が変化していないブロックにはその方向コードをそのまま保持し、変化したブロックには変化したことを表す特別なコード(例えば−1)を与える。
【0048】
さらに、ステップS36において、空間的安定性判定処理を行い、ステップS35で変化なしと判断されたブロックに関して、同じ方向コードを持ち、かつ互いに隣接している同一コード群を検出し、その同一コード群の平均的な固まり具合(固まりの面積)を求める。そして、その固まり具合が所定値より大きいときには、隆線方向が時間的にも空間的にも安定しているということなので、指が置かれていると判断してステップS27に進み、特徴抽出手段13Aにおける処理を実行する。
一方、固まり具合が所定値より小さかったり、方向コードが変化したブロックが多い場合には、指が十分な状態で置かれていないと判断してステップS21に戻る。
【0049】
これは、指が十分な状態で置かれているときには安定した隆線方向が検出できるとともに微小な時間の間は変化ぜず、指が置かれていないブロックでは検出される方向コードが時間とともに変化するような不安定な状態になるという考え方に基づいている。
かくして、ここでは、テップS22〜S24、ステップS34〜S36は指置き判定手段12Aにおける処理であり、その内のステップS22以外の各ステップが隆線方向安定性判定処理である。
【0050】
なお、以降の特徴抽出手段13AにおけるステップS27〜S30の処理は、上述した図1の特徴抽出手段13におけるステップS27〜S30の処理と同じであり、また、次段の照合手段14におけるステップS31〜S33の処理も、図1の照合手段14におけるステップS31〜S33の処理と同じであるので、その説明を省略する。
【0051】
このように、この実施の形態では、検出される隆線方向が十分安定しているか否かによって指が置かれているか否かを判定する、つまり、ある時刻tで検出されたブロック毎の隆線方向と、微小時間Δ前の時刻t−Δで検出されたブロック毎の隆線方向とブロック毎に比較し、時間的に方向が安定しており、かつ空間的にも安定していることを評価することができる。
【0052】
実施の形態3.
図7はこの発明の実施の形態3を示す構成図である。なお、図7において、図1および図5と対応する部分には同一符号を付し、その詳細説明を省略する。
図において、12Bは画像入力手段11に接続された指置き判定手段、13Bは指置き判定手段12Bに接続された特徴抽出手段(第1の特徴抽出手段)、15は特徴抽出手段13Bに接続された位置ずれ検出手段であり、この位置ずれ検出手段15の後段に特徴抽出手段13A(第2の特徴抽出手段)と照合手段14が縦続接続される。
【0053】
指置き判定手段12Bとしては、ここでは図17と同様のものを用いてよい。
また、特徴抽出手段13Bは、二値化処理と、隆線方向検出処理を行うもので、この隆線方向検出処理には、ブロック分割処理と、マスクパターン走査処理と、隆線方向計算処理とが含まれる。
また、位置ずれ検出手段15は、位置ずれ量計算処理、位置ずれ量提示処理、および位置ずれ量判定処理を行うものである。
【0054】
次に、動作について、図8および図9を参照しながら説明する。
ステップS21において、画像入力手段11により画像が取り込まれ、ステップS37では、図19のステップS2と同様に、指置き判定手段12Bにより入力されたデジタル映像を画像処理して指が置かれているか否かを判定する。そして、指が置かれていないときにはステップS21に戻って再度画像入力手段11によって画像を取り込み、指が置かれているときには、ステップS22進み、特徴抽出手段13Bによる処理を実行する。
【0055】
特徴抽出手段13Bでは、ステップS22〜S24までは、上述した図1の指置き判定手段12におけるステップS21〜S24と同様の処理を行い、ステップS26において、マスクパターンを走査することで各マスクパターンと一致する画素の頻度(方向別ヒストグラム)がわかるので、その各マスクパターンの頻度を用いてブロック毎の隆線方向を0から180度の範囲で求める。かくして、ここでは、ステップS22〜S26は特徴抽出手段13Bにおける処理であり、その内のステップS23〜S26が隆線方向検出処理である。
【0056】
次いで、ステップS38において、上述のステップS31における隆線方向一致度計算処理と同様に、ステップS26の隆線方向検出処理で算出されたブロック毎の隆線方向Vd(Bx、By)と、本人が事前に登録しておいたブロック毎の隆線方向Ed(Bx、By)を、水平方向に−Pxから+Pxの範囲および垂直方向に−Pyから+Pyの範囲で平行移動しながら重ねあわせ、隆線方向が全体的に最も良く一致する位置を探す。具体的には、あるずらし量(px、py)のときの一致度合いSd(px、py)は下記の式(5)で計算される。
【0057】
Sd(px、py)=(1/Bn)×
ΣΣ{Vd(Bx+px、By+py)−Ed(Bx、By)}2
ByBx (5)
【0058】
ここで、Bnは重なっているブロック数を表す。そしてSdが最小になるpx、pyを決定し、これを指置きの位置ずれ量として利用者に提示する。
利用者の提示方法としては、例えば図9のように位置ずれ量提示手段としてのモニタやLCD画面15aに位置ずれ許容範囲15bを描き、現在の指置き位置15cを登録時の指置き位置からの相対ブロック数で表示する。図の場合はpx=3ブロック、py=3ブロックの位置ずれが検出された場合の表示例を表す。
【0059】
次いで、ステップS39において、上記ステップS38で算出された位置ずれ量が図9に示した位置ずれ許容範囲16bの範囲に入っているか否かを判定し、許容範囲に入っている場合は、ステップS27に進み、次段の特徴抽出手段13Aにおける処理を実行し、許容範囲に入っていない場合は再度ステップS21に戻る。一方利用者は位置ずれ量提示画面15aを見ながら指置き位置15cが位置ずれ許容範囲15bに入るように指位置をずらす。
【0060】
なお、以降の特徴抽出手段13AにおけるステップS27〜S30の処理は、上述した図1の特徴抽出手段13または図5の特徴抽出手段13AにおけるステップS27〜S30の処理と同じであり、また、次段の照合手段14におけるステップS31〜S33の処理も、図1または図5の照合手段14におけるステップS31〜S33の処理と同じであるので、その説明を省略する。
【0061】
このように、この実施の形態では、現在の指置き位置が登録時の位置とどの程度ずれているかを利用者に提示することで、利用者が登録時と同じ位置に指をおけるようにできる。つまり、隆線方向検出処理の直後に隆線方向一致度合計算を実行し、結果として得られる位置ずれ量をユーザーインタフェース装置を介して利用者に提示することができる。
なお、上述では、モニタやLCD画面といった視覚的な提示手段を用いたが、位置ずれ量に応じた音や、規則的に配置したLED等によって提示しても同じである。
【0062】
実施の形態4.
図10はこの発明の実施の形態4を示す構成図である。なお、図10において、図1、図5および図7と対応する部分には同一符号を付し、その詳細説明を省略する。
図において、16は特徴抽出手段13B(第1の特徴抽出手段1)に接続された指先・指状紋検出手段であって、自己相関演算処理、指先・弓状紋判定処理、および指先・弓状紋提示処理を行うものである。この指先・指状紋検出手段16の後段に特徴抽出手段13A(第2の特徴抽出手段)と照合手段14が縦続接続される。
【0063】
次に、動作について、図11を参照しながら説明する。
ステップS21、S37およびS22〜S26の処理については、図8の場合と同様であるので、その説明を省略する。
さて、指先・指状紋検出手段16は、ステップS40において、ステップS26で検出されたブロック毎の方向角を入力として自己相関の計算を行う。すなわち、ステップS26で検出されたブロック毎の隆線方向Vd(Bx、By)の複製を作成し、それら水平方向に−Pxから+Pxの範囲および垂直方向に−Pyから+Pyの範囲で平行移動しながら互いに重ねあわせ、それぞれのずらし量における隆線方向の一致度を下記の式(6)で計算する。
【0064】
Sd(px、py)=(1/Bn)×
ΣΣ{Vd(Bx+px、By+py)−Vd(Bx、By)}2
ByBx (6)
ここで、Bnは重なっているブロック数を表す。
【0065】
次いで、指先・弓状紋検出手段16は、ステップS41において、現在照合時かまたは登録時かを判別し、照合時であればステップS42において、ステップS40で演算した自己相関の結果を使って指先が置かれていることのみを判定する。そして、指先が置かれたと判定されたときには、ステップS43において、例えばモニタやLCD画面等の指先・弓状紋提示手段(図示せず)によって利用者或いは管理者にその旨を提示する。利用者等はそれが提示された場合には指の腹全面がプリズムに接するように置き直す。一方処理としては、置き直された指紋画像を再度入力し処理するためにステップS21に戻る。
【0066】
一方、ステップS41で照合時でない場合、即ち登録時の場合には、ステップS44において、同じくステップS40における自己相関の演算結果を使って指先が置かれているか、あるいは弓状紋の指が置かれているかを判定する。
具体的には、指先や弓状紋はすべての隆線が直線に近く、かつ平行に流れているので、隆線に直交する方向にずらして隆線方向一致度を計算しても、その値はほとんど変化しない。これは前記自己相関演算の結果の内、隆線に直交する方向に1ブロックずらしたときの結果Sdも、数ブロックずらしたときの結果Sdもほとんど同じ値を出力することを意味している。したがって、指先・弓状紋検出手段16における判定は、隆線直交する方向に1ブロックずらしたときのSdと数ブロックずらしたときのSdを比較して、その差が小さいときには指先か弓状紋が置かれたと判定する。
【0067】
そして、ステップS44で指先か弓状紋が置かれたと判定されたときには、上述同様にモニタやLCD画面等の指先・弓状紋提示手段によって利用者等にその旨を提示する。次いで、利用者等はそれが提示された場合には、ステップS46において、処理変更の指示があるかどうか、つまり、利用者等がそのままの指で置き直すか、または指を変更するか、あるいはそのまま登録を続行するかを判別し、処理変更の指示がある場合、つまり、利用者等がそのままの指で置き直すか、または指を変更する場合には、ステップS21に戻って上述の動作を繰り返し、処理変更の指示がない場合、つまり、利用者等がそのままの指で登録を続行する場合にはステップS27に進む。
【0068】
また、ステップS42で指先と判定されなかった場合、および、ステップS44で指先や弓状紋と判定されなかった場合には、いずれもステップS27に進み、特徴点抽出処理以降の処理を実行する。
なお、以降の特徴抽出手段13AにおけるステップS27〜S30の処理は、上述した図1の特徴抽出手段13または図5の特徴抽出手段13AにおけるステップS27〜S30と同じであり、また、次段の照合手段14におけるステップS31〜S33の処理も、図1または図5の照合手段14におけるステップS31〜S33と同じであるので、その説明を省略する。
【0069】
このように、この実施の形態では、隆線方向検出処理で得られた隆線方向を用いて自己相関を計算することで登録時には置かれた指が弓状紋か否か、あるいは指先のみが置かれているか否かを判定し、照合時には指先が置かれているか否かを判定し、弓状紋あるいは指先の場合は指の変更あるいは指の置き直しを利用者に要求することで、誤判別しやすい状態を回避することができる。
【0070】
なお、特徴抽出手段13Aおよび照合手段14は、図5および図7の特徴抽出手段13Aおよび照合手段14と同じ動作をするが、登録時においては照合手段14は実行されず、抽出された隆線方向や特徴点を記憶するにとどまることは言うまでもない。
【0071】
実施の形態5.
図12はこの発明の実施の形態5を示す構成図である。なお、図12において、図1、図5および図10と対応する部分には同一符号を付し、その詳細説明を省略する。
図において、13Cは指置き判定手段12Bに接続された特徴抽出手段、17は特徴抽出手段13Cに接続された方向角安定性計算手段、14Aは特徴抽出手段13Cと方向角安定性計算手段17に接続された照合手段である。
【0072】
特徴抽出手段13Cとしては、ここでは図17と同様のものを用いてよい。
また、方向角安定性計算手段17は、上述のマスクパターン走査処理で得られたブロック毎の方向別ヒストグラムを用いて、各ブロックの隆線方向がどの程度安定しているかを計算する。また、照合手段14Aは、上述同様の隆線方向一致度計算処理、本人かどうかの判定処理の外に、方向角安定性計算手段17で算出された方向角安定性を用いて特徴点一致度計算処理を行う。
【0073】
次に、動作について、図13を参照しながら説明する。
ステップS21、S37 およびS22〜S26の処理については、図8の場合と同様であるので、その説明を省略する。また、ステップS26の隆線方向計算処理後のステップS27〜S30の処理についても、図8の場合と同様であるので、その説明を省略する。
さて、方向角安定性計算手段17は、ステップS47において、上述のステップS24のマスクパターン走査処理で得られたブロック毎の方向別ヒストグラムを用いて、各ブロックの隆線方向がどの程度安定しているかを計算する。
【0074】
また、方向角安定性計算手段17は、上述のステップS24のマスクパターン走査処理で得られたブロック毎の方向別ヒストグラムを用いて、各ブロックの隆線方向がどの程度安定しているかを計算する。具体的には、0度方向を示すマスクパターンに一致した画素数をH0、45度方向を示すマスクパターンに一致した画素数をH45、90度と135度方向を示すマスクパターンに一致した画素数をH90とH135とするとき、ブロック毎の隆線方向安定性Fは下記の式(7)で計算される。
【0075】
F=|H0−H90|+|H45−H135| (7)
【0076】
次いで、照合手段14Aは、上述同様にまず、ステップS31において、隆線方向一致度計算を行い、隆線の全体的な流れ方向がどの程度一致しているかを計算する。つまり、ブロック毎の隆線方向をあらかじめ登録されている本人の隆線方向と比較し、どの程度一致しているかを計算する。
そして、ステップS48において、方向角安定性計算手段17で計算されたブロック毎の隆線方向の安定性Fを用いて特徴点の一致度を計算する。すなわち、上述同様に登録特徴点と照合特徴点で一致するペア特徴点を見つけだす。
一方、各特徴点が属するブロックの隆線方向の安定性Fを信頼性に関する重みとしてそれぞれの特徴点に与え、その特徴点に与えられた重みを用いた下記の式(8)によって特徴点一致度を計算する。
【0077】
Sm=Σ(Fpe+Fpv)/(ΣFe+ΣFv) (8)
【0078】
ここで、Feは登録されている各特徴点の重みであり、Fvは照合指紋から検出された各特徴点の重みである。また、Fpeは登録特徴点と照合特徴点の間でペアになった特徴点の内、登録特徴点側の重みであり、Fpvは照合特徴点側の重みである。なお、登録特徴点の重みは、登録時に同じ処理によって決定されており、ほかの特徴データとともに記憶されているものとする。
最後にステップS33における判定処理では、上述同様の隆線方向一致度計算処理(ステップS31)の結果と、本実施の形態特有の特徴点一致度計算処理(ステップS48)の結果を用いて本人か否かを判定する。即ち、隆線方向一致度Sdmin(px、py)が予め設定された閾値αより小さく、かつ特徴点一致度Smが予め設定された別の閾値βより大きい場合に本人と判定し、それ以外は他人と判定する。
【0079】
このように、この実施の形態では、特徴点周辺の隆線方向の安定性を用いて特徴点の信頼性を評価し、該評価結果に基づいて特徴点一致度合いを計算することで本人か他人かの判別能力を向上することができる。
【0080】
実施の形態6.
図14はこの発明の実施の形態6を示す構成図である。なお、図14において、図1、図5、図10および図12と対応する部分には同一符号を付し、その詳細説明を省略する。
図において、18は特徴抽出手段13Cに接続された重み決定手段、14Bは特徴抽出手段13Cと重み決定手段18に接続された照合手段である。
重み決定手段18は変化点計数処理および重み計算処理を行うもので、濃淡画像修正処理前後の二値画像を比較してブロック毎の画像の安定性を評価し、特徴点の重みを決定する。また、照合手段14Bは上述同様の隆線方向一致度計算処理、本人かどうかの判定処理の外に、重み決定手段18で計算されたブロック毎の重みを用いて特徴点の一致度を計算する。
【0081】
次に、動作について、図15を参照しながら説明する。
ステップS21、S37 およびS22〜S26の処理については、図8の場合と同様であるので、その説明を省略する。また、ステップS26の隆線方向計算処理後のステップS27〜S30の処理についても、図8の場合と同様であるので、その説明を省略する。
さて、重み決定手段18は、ステップS49およびS50において、濃淡画像修正処理前後の二値画像を比較してブロック毎の画像の安定性を評価し、特徴点の重みを決定する。
【0082】
具体的には、例えば濃淡画像修正前のあるブロックの濃淡画像が図16の参照番号100で示すようなものであり、ステップS27において参照番号102で示すようなものに修正されたとする。その時のそれぞれの二値化結果は参照番号104と106で示すようなものになる。そして、変化点計数処理(ステップS49)ではこれら二値画像の差をとって参照番号108で示すような結果を得、この変化分の画素数を計数する。また、奇数の参照番号101、103、105、107および109の場合も同様である。
【0083】
次いで、重み計算処理(ステップS50)では、上記変化点計数処理の結果であるブロック毎の変化画素数を用いて各ブロックの信頼性を表す重みWを計算する。この場合、例えば下記の式(9)のように変化画素が少ない場合には重みが大きく、変化画素が多い場合には重みが小さくなるようにする。
【0084】
W=1−(G/Q) (9)
ここで、Gは変化点計数処理の結果であるブロック毎の変化画素数であり、Qはブロックの面積である。
【0085】
次いで、照合手段14Bは、上述同様にまず、ステップS31において、隆線方向一致度計算を行い、隆線の全体的な流れ方向がどの程度一致しているかを計算する。つまり、ブロック毎の隆線方向をあらかじめ登録されている本人の隆線方向と比較し、どの程度一致しているかを計算する。
そして、ステップS51において、重み決定手段18で決定されたブロック毎の重みWを用いて特徴点の一致度を計算する。すなわち、上述同様の方法で登録特徴点と照合特徴点で一致するペア特徴点を見つけだす。
一方、各特徴点が属するブロックの重みWを信頼性に関する重みとしてそれぞれの特徴点に与え、その特徴点に与えられた重みを用いた下記の式(10)によって特徴点一致度を計算する。
【0086】
Sm=Σ(Wpe+Wpv)/(ΣWe+ΣWv) (10)
【0087】
ここで、Weは登録されている各特徴点の重みであり、Wvは照合指紋から検出された各特徴点の重みである。また、Wpeは登録特徴点と照合特徴点の間でペアになった特徴点の内、登録特徴点側の重みであり、Wpvは照合特徴点側の重みである。なお、登録特徴点の重みは、登録時に同じ処理によって決定されており、ほかの特徴データとともに記憶されているものとする。
【0088】
最後にステップS33における判定処理では、上述同様の隆線方向一致度計算処理(ステップS31)の結果と、本実施の形態特有の特徴点一致度計算処理(ステップS51)の結果を用いて本人か否かを判定する。即ち、隆線方向一致度Sdmin(px、py)が予め設定された閾値αより小さく、かつ特徴点一致度Smが予め設定された別の閾値βより大きい場合に本人と判定し、それ以外は他人と判定する。
【0089】
このように、この実施の形態では、特徴点周辺の隆線方向の安定性や、二値画像の安定性を用いて特徴点の信頼性を評価し、該評価結果を重みとして特徴点一致度合いを計算することで本人か他人かの判別能力を向上することができる。
【0091】
【発明の効果】
以上のように、この発明によれば、指紋画像を二値化する二値化処理部、該二値化処理部で二値化された指紋画像を複数のブロックに分割するブロック分割部、該ブロック分割部で分割された各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部、微小時間前に入力された上記隆線方向計算処理部による算出結果を記憶する隆線方向記憶部、現時刻に入力された画像から上記隆線方向計算処理部で算出されたブロック毎の指紋の隆線方向と上記隆線方向記憶部に記憶されている微小時間前のブロック毎の指紋の隆線方向とを比較してその変化を検出する隆線方向変化検出処理部、該隆線方向変化検出処理部で変化なしと判断されたブロックに関して同じ方向角を持ち且つ互いに隣接しているブロック群を検出しそのかたまり具合を判定する空間的安定性判定処理部を含む指置き判定手段を備え、該指置き判定手段が指の置かれている状態を検知したときのみ特徴抽出および登録データとの照合を行うので、かすれた指では確定しなかったり指を置いていないのに置かれたと誤判定することなく、安定確実な指置き判定ができるという効果がある。
【0093】
また、この発明によれば、指紋画像を二値化する二値化処理部、該二値化処理部で二値化された画像を複数のブロックに分割するブロック分割処理部、該ブロック分割処理部で分割された各ブロック内を所定の各角度に相当するマスクパターンを走査して、方向別のヒストグラムを作成するマスクパターン走査処理部、該マスクパターン走査処理部の出力に基づいて各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部を含む第1の特徴抽出手段と、該第1の特徴抽出手段の出力に基づいて、複数のブロックに分割された指紋画像の同一の画像から得られたブロック別の指紋の隆線方向値を互いに位置をずらしながらブロック毎の指紋の隆線方向値の差を計算して自己相関マップを生成する自己相関演算部、該自己相関演算部で得られた自己相関マップを処理して指先が置かれたかまたは弓状紋の指が置かれたかを判定する指先・弓状紋判定部、該指先・弓状紋判定部で指先または弓状紋の指と判定されたときに、この結果を表示して、そのまま登録処理を続行するか、一旦中断して指の置き直しまたは指の変更を行った後再度登録処理を行うかの判断を外部即ち利用者または管理者に求める指先・弓状紋提示部を含む指先・弓状紋検出手段とを備え、登録モードにおいては指先・弓状紋と判定されなかった場合と、外部の利用者または管理者による登録続行の指示があった場合のみ特徴データを登録し、照合モードにおいては指先か否かの判定のみを行って利用者または管理者に指の置き直しを求めるので、隆線方向一致度合の計算時に位置ずれ量の判定を誤ることがなくなり、以て、その後の特徴点一致度合の計算でも本人同士の場合には高い一致度合いが期待でき、本人と他人の判別能力が向上するという効果がある。
【0095】
また、この発明によれば、指紋画像を二値化する二値化処理部、該二値化処理部で二値化された後、複数のブロックに分割された指紋画像の各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部と、該隆線方向計算処理部の出力に基づいて指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正処理部、該濃淡画像修正処理部における濃淡画像修正結果を再度二値化する再二値化処理を含む特徴抽出手段と、濃淡画像修正前後の二値化画像を複数のブロックに分割した後、ブロック毎に二値化画像を比較して、その変化点数を計数する変化点計数処理部、該変化点計数処理部で算出された変化点数に応じてブロック毎の重みを計算する重み計算処理部を含む重み決定手段とを備え、特徴点が存在するブロックの重みを、その特徴点の信頼度として特徴点一致度計算に反映させるので、例えば傷やしわ、かすれ等が原因で生じた擬似特徴点の重みを小さくでき、以て、本人と他人の判別能力が向上するという効果がある。
【図面の簡単な説明】
【図1】この発明の実施の形態1を示す構成図である。
【図2】この発明の実施の形態1の動作説明に供するためのフローチャートである。
【図3】この発明の実施の形態1における背景領域でのマスクパターン頻度の例を示す図である。
【図4】 この発明の実施の形態1における指が置かれた領域でのマスクパターン頻度の例を示す図である。
【図5】この発明の実施の形態2を示す構成図である。
【図6】この発明の実施の形態2の動作説明に供するためのフローチャートである。
【図7】この発明の実施の形態3を示す構成図である。
【図8】この発明の実施の形態3の動作説明に供するためのフローチャートである。
【図9】 この発明の実施の形態3における位置ずれ量の表示状態を例示する図である。
【図10】この発明の実施の形態4を示す構成図である。
【図11】この発明の実施の形態4の動作説明に供するためのフローチャートである。
【図12】この発明の実施の形態5を示す構成図である。
【図13】この発明の実施の形態5の動作説明に供するためのフローチャートである。
【図14】この発明の実施の形態6を示す構成図である。
【図15】この発明の実施の形態6の動作説明に供するためのフローチャートである。
【図16】この発明の実施の形態6における二値化画像の変化を例示する図である。
【図17】従来の指紋照合装置を示す構成図である。
【図18】指紋画像入力手段の一例をを示す図である。
【図19】従来の指紋照合装置の動作説明に供するためのフローチャートである。
【図20】 従来の指紋照合装置の指置き判定手段における小領域の濃度ヒストグラムを例示する図である。
【図21】 隆線方向を8方向に量子化する際の8方向を示す図である。
【図22】 隆線方向を算出する際に利用するマスクパターンの例を示す図である。
【図23】 隆線方向検出結果を例示する図である。
【図24】 端点・分岐点とベクトル角を例示する図である。
【符号の説明】
11 画像入力手段、12,12A,12B 指置き判定手段、13,13A,13B,13C 特徴抽出手段、14,14A,14B 照合手段、15 位置ずれ量検出手段、16 指先・弓状紋検出手段、17 方向角安定性計算手段、19 重み決定手段。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a fingerprint collation device for personal identification.
[0002]
[Prior art]
Conventionally, as this type of technology, for example, there is a “high-precision personal collation device using fingerprints” published in Technical Research Reports PRU 87-52, 1987, pp 49-57.
[0003]
FIG. 17 is a block diagram showing a fingerprint collation apparatus according to this conventional example.
In the figure, 1 is an image input means, 2 is a finger placement determination means, 3 is a feature extraction means, and 4 is a collation means.
As shown in FIG. 18, the image input means 1 is composed of a prism 1a, a light source 1b, and a camera 1c, and the positional relationship between them is as shown in FIG.
When the finger is not placed, all the light emitted from the light source 1b is totally reflected by the prism surface 1a. On the other hand, when a finger is placed on the prism surface 1a, the light emitted from the light source 1b is totally reflected in the valley portion of the fingerprint (the portion not in close contact with the prism), and the ridge portion of the fingerprint (in close contact with the prism). (Parts that do) are irregularly reflected. When the reflected light from the prism surface 1a is received by the camera 1c, the entire image becomes a high-brightness image when the finger is not placed, and at the valley portion of the fingerprint when the finger is placed. A grayscale fingerprint image with high brightness and low brightness at the ridge is obtained. The video of the camera 1c is A / D converted and taken into the processing unit.
[0004]
The feature extraction unit 3 performs binarization processing and ridge direction detection processing. The ridge direction detection processing includes block division processing, mask pattern scanning processing, and ridge direction calculation processing.
The feature extraction unit 3 performs a grayscale image correction process, a rebinarization process, a thinning process, and a feature point detection process.
Furthermore, the collation means 4 performs a ridge direction coincidence degree calculation process, a feature point coincidence degree calculation process, and a determination process as to whether or not the person is the person.
[0005]
Next, the operation will be described with reference to FIGS.
First, in step S1, an image is captured by the image input means 1, and in step S2, the digital video input by the finger placement determination means 2 is subjected to image processing to determine whether or not a finger is placed. Then, when the finger is not placed, the process returns to step S1 and the image is input again by the image input means 1, and when the finger is placed, the process proceeds to step S3 and the process by the feature extracting means 3 is executed.
[0006]
The specific processing content of the finger placement determination means 2 is disclosed in, for example, Japanese Patent Publication No. 7-7447.
That is, several N × N pixel small areas are cut out from the grayscale fingerprint image input by the image input means 1 and a density histogram of each small area is created. The average value μ of the entire density histogram created in each small region is divided into a black class and a white class as shown in FIG. 20 using the threshold value as a threshold value, and average values μ1 and μ2 of both classes are calculated. The degree of separation R is calculated by substituting the calculated average value of both classes into the following equation (1).
When the degree of separation R is larger than a preset determination threshold, it is determined that a finger is placed in the small area. When it is determined that the finger is placed in all the cut out small regions, the processing of the finger placement determination unit 2 is terminated, and the processing in the next stage feature extraction unit 3 is executed. On the other hand, when it is determined that no finger is placed in any one of all the small areas, the finger placement judging means 2 is terminated and the process returns to the image input means 1 again.
[0007]
R = (μ2−μ1) ÷ μ2 (1)
[0008]
Next, the feature extraction unit 3 first performs binarization processing in step S3 to binarize the grayscale fingerprint image. This is because a grayscale fingerprint image is divided into blocks of 16 × 16 pixels, and after obtaining the average density of each block, this average density is used as a threshold value, and “1” is given to pixels having a higher density, and pixels that are not Is given “0”.
Next, the binary image is divided into blocks of 16 × 16 pixels (step S4), and 3 × 3 pixels corresponding to four directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees as shown in FIG. 21 in each block. The mask pattern is scanned (step S5). By scanning the mask pattern, the frequency (histogram classified by direction) of the pixels that match each mask pattern can be determined. Therefore, the ridge direction in each block is set in the range of 0 to 180 degrees using the frequency of each mask pattern. Obtained (step S6). Steps S4 to S6 are ridge direction detection processing.
[0009]
Next, in step S7, grayscale image correction processing is performed to correct ridge discontinuities and adhesions. First, the ridge direction for each block is quantized into 8 directions as shown in FIG. 22 (results are as shown in FIG. 23, for example), and the ridge directions quantized in these 8 directions are aligned. This is realized by applying an average value filter of K × 1 pixel to the original image.
Next, in step S8, the grayscale image correction result is binarized again by the same method as the binarization processing in step S3, and in step S9, the binarization result is thinned to obtain a line figure having a line width of 1 pixel. obtain. In step S10, a feature point detection process is performed, a 3 × 3 pixel mask pattern is scanned on the thinned image, the point of interest is a value “1”, and only one of the surrounding eight pixels is a value. The coordinates of the point of interest having “1” are extracted as end points, and the coordinates of the point of interest having the value “1” and the value “1” of only three of the surrounding eight pixels are branched. Extract as a point. At the same time, the ridge line extending from the feature point is traced to calculate the vector angle (θ in FIG. 24) of the feature point.
[0010]
When the processing of the feature extraction unit 3 in steps S3 to S10 is completed in this way, the collation unit 4 at the next stage first calculates the ridge direction coincidence in step S11, and the entire ridge line is calculated. How much the general flow direction matches. This is because the ridge direction Vd (Bx, By) for each block detected by the ridge direction detection process in steps S4 to S6 and the ridge direction Ed (Bx) for each block registered in advance by the person. , By) are overlapped while moving in the horizontal direction in the range of -Px to + Px and in the vertical direction in the range of -Py to + Py. The degree is calculated. Specifically, the degree of coincidence Sd (px, py) at a certain shift amount (px, py) is calculated by the following equation (2).
[0011]
Figure 0003695899
[0012]
Here, Bn represents the number of overlapping blocks. The smallest coincidence degree Sdmin (px, py) is used to determine whether the person is the other person or not in the determination process in step S13 described later.
[0013]
Next, in step S12, the feature point coincidence calculation is performed, and the coordinates of the feature points such as the end points and the branch points detected in the feature point detection process in step S10 and the vector angles thereof are registered in advance. The degree of coincidence with point coordinates and vector angles is calculated. This is detected from the registered fingerprint, and when the distance between a certain feature point coordinate registered in advance and a certain feature point coordinate detected from the matching fingerprint is close and the difference between the vector angles of these feature points is small, these feature points And the number of feature points of the pair with respect to the total number of feature points is calculated by the following equation (3), and this is used as the matching degree of feature points.
[0014]
Sm = (2 × Cp) / (Cv + Ce) (3)
[0015]
Here, Cv is the number of feature points detected from the matching fingerprint, Ce is the number of feature points detected from the registered fingerprint, and Cp is the number of feature points determined as a pair between the registered fingerprint and the matching fingerprint.
Finally, in the determination process in step S13, when the ridge direction coincidence degree Sdmin (px, py) is smaller than a preset threshold value α and the feature point coincidence degree Sm is larger than another preset threshold value β. Judgment is made by the person himself and others are judged by others.
[0016]
[Problems to be solved by the invention]
By the way, since the conventional fingerprint collation device has determined whether or not the finger is placed by the density histogram of the small area as described above, for example, when only a light and shaded fingerprint image that has been blurred due to drying of the finger or the like can be obtained, The degree of separation R shown in the above formula (1) becomes very small. On the other hand, if the light source has uneven brightness, the density histogram of the small area has a certain extent even when the finger is not placed, so the degree of separation R increases accordingly. As a result, depending on the determination threshold for performing finger placement determination, it may not be possible to detect that a finger that has been smeared has been placed, or it may be erroneous if the finger is placed due to unevenness of the light source even though the finger is not placed. There was a problem that there were times when it was judged.
[0017]
In addition, since the conventional fingerprint collation device collates as it is even if the position where the finger was placed at the time of registration is shifted from the position placed at the time of collation, the number of feature points to be paired is reduced, and as a result, the degree of feature point matching is reduced. There was a problem that even though he was himself, he was mistakenly identified as others.
[0018]
Further, the conventional fingerprint collation device does not determine whether or not the finger has a bow-shaped pattern or only the fingertip is placed. In the case of a finger bow pattern or fingertip only, the degree of coincidence obtained with the correct amount of misalignment when calculating the degree of coincidence of the ridge direction, and when the deviation from the correct amount of misalignment in the direction perpendicular to the ridge There is no big difference in the degree of matching. For this reason, there is a problem in that an erroneous amount of misregistration is calculated due to some noise, and even when the person is the person, the degree of coincidence is deteriorated and the person is misidentified as another person.
[0019]
Furthermore, since the conventional fingerprint matching device treats all feature point pairs with the same weight when calculating the degree of coincidence of feature points, for example, pseudo feature points caused by scratches, wrinkles, blurring, etc. have an adverse effect. There was a problem of misidentifying the person and others.
[0020]
The present invention has been made to solve the above-described problems, and even when a finger that is faint is placed, this can be reliably detected, and even when no finger is placed. It is an object of the present invention to provide a fingerprint collation apparatus that can prevent erroneous determination that a finger is placed due to unevenness of a light source regardless of the light source.
In addition, it is possible to prevent misjudgment when the position where the finger is placed at the time of registration is misaligned with the position placed at the time of collation, and even if there is a misalignment due to some noise, it can be reliably detected, and for example, It is an object of the present invention to provide a fingerprint collation apparatus that can perform a reliable determination without being adversely affected by pseudo feature points caused by scratches, wrinkles, blurring, and the like.
[0023]
[Means for Solving the Problems]
  Claim 1The fingerprint collation device according to the present invention processes the fingerprint image obtained by the sensor, extracts feature data, and compares it with pre-registered user-specific feature data to determine whether or not the user is the user. A binarization processing unit for binarizing a fingerprint image, a block division unit for dividing the fingerprint image binarized by the binarization processing unit into a plurality of blocks, and the block division unit A ridge direction calculation processing unit for calculating the ridge direction of the fingerprint in each block divided by the above, a ridge direction storage unit for storing a calculation result by the ridge direction calculation processing unit input a minute before, The ridge direction of the fingerprint for each block calculated by the ridge direction calculation processing unit from the image input at the time, and the ridge direction of the fingerprint for each block before a minute time stored in the ridge direction storage unit To detect the change Spatial stability of detecting a block group having the same direction angle and adjacent to each other with respect to a block that has been determined to be unchanged by the ridge direction change detection processing unit and the ridge direction change detection processing unit. A finger placement determination unit including a sex determination processing unit is provided, and feature extraction and matching with registered data are performed only when the finger placement determination unit detects a state where the finger is placed.
[0024]
  Claim 2The fingerprint collation device according to the invention isClaim 1In this invention, the gray image correction processing unit connected to the finger placement determination unit and corrects the gray image along the ridge direction of the fingerprint based on the determination result of the spatial stability determination processing unit of the finger placement determination unit, A re-binarization processing unit that binarizes again the gray-scale image correction result in the gray-scale image correction processing unit, a thinning unit that thins the result binarized again by the re-binarization processing unit, and the thinning A feature point detection unit that scans an image thinned by the unit and detects a feature point of the image.
[0027]
  Claim 3The fingerprint collation device according to the present invention processes the fingerprint image obtained by the sensor, extracts feature data, and compares it with pre-registered user-specific feature data to determine whether or not the user is the user. In a fingerprint collation apparatus for determining a fingerprint, a binarization processing unit that binarizes a fingerprint image, a block division processing unit that divides an image binarized by the binarization processing unit into a plurality of blocks, and the block division processing A mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each block divided by the unit to create a histogram for each direction, and each block based on the output of the mask pattern scanning processing unit First feature extraction means including a ridge direction calculation processing unit for calculating the ridge direction of the fingerprint of the fingerprint, and the same fingerprint image divided into a plurality of blocks based on the output of the first feature extraction means Picture An autocorrelation calculation unit for generating a self-correlation map by calculating a difference between fingerprint ridge direction values for each block while shifting the position of the ridge direction values of fingerprints for each block obtained from the block, and the autocorrelation calculation unit The fingertip / bow-shaped pattern determination unit that processes the autocorrelation map obtained in step (1) to determine whether a fingertip or a bow-shaped pattern finger has been placed, and the fingertip / bow-shaped pattern determination unit When it is determined that the finger is a crest finger, this result is displayed, and it is determined whether to continue the registration process as it is, or to suspend and re-position the finger or change the finger and then perform the registration process again. There is a fingertip / bow-shaped pattern detecting means including a fingertip / bow-shaped pattern presenting section required by the user or administrator, and when the fingertip / bow-shaped pattern is not determined in the registration mode, Or when an administrator instructs to continue registration Registered feature data, and requests re place the finger outside the user or administrator performs only determination of whether the fingertip in the matching mode.
[0028]
  Claim 4The fingerprint collation device according to the invention isClaim 3In this invention, the grayscale image is corrected along the ridge direction of the fingerprint based on the determination result of the fingertip / bow-shaped pattern detection unit of the fingertip / bow-shaped pattern detection unit connected to the fingertip / bow-shaped pattern detection unit. Gray image correction processing unit, re-binarization processing unit that binarizes again the gray image correction result in the gray image correction processing unit, and thin line that thins the result binarized again by the re-binarization processing unit And a second feature extracting means including a feature point detecting unit for detecting a feature point of the image by scanning the image thinned by the thinning unit.
[0031]
  Claim 5The fingerprint collation device according to the present invention processes the fingerprint image obtained by the sensor, extracts feature data, and compares it with pre-registered user-specific feature data to determine whether or not the user is the user. A binarization processing unit for binarizing a fingerprint image, and binarization by the binarization processing unit, and then fingerprints in each block of the fingerprint image divided into a plurality of blocks A ridge direction calculation processing unit that calculates the ridge direction of the image, a gray image correction processing unit that corrects a gray image along the ridge direction of the fingerprint based on the output of the ridge direction calculation processing unit, and the gray image correction Feature extraction means including re-binarization processing for binarizing the grayscale image correction result again in the processing unit, and the binarized image before and after the grayscale image correction is divided into a plurality of blocks, and then the binarized image for each block Change that counts the number of change points A weight determination means including a weight calculation processing unit that calculates a weight for each block according to the number of change points calculated by the change point count processing unit, and the weight of the block in which the feature point exists is The reliability of the feature points is reflected in the feature point coincidence calculation.
[0032]
  Claim 6The fingerprint collation device according to the invention isClaim 5In this invention, a ridge direction coincidence calculating unit, connected to the feature extracting means and the weight determining means, for calculating the ridge direction coincidence degree of the fingerprint based on the output of the feature extracting means, the ridge direction coincidence calculation A feature point coincidence calculation unit for calculating a feature point coincidence using the degree of coincidence in the ridge direction of the fingerprint calculated by the unit and the weight for each block according to the number of change points calculated by the weight determination unit, The apparatus includes a matching unit including a determination processing unit that determines whether or not the person is the person based on the matching degree of the feature points calculated by the feature point matching degree calculation unit.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing Embodiment 1 of the present invention.
In the figure, 11 is an image input means, and the same image input means 11 as the above-mentioned image input means 1 is used.
Reference numeral 12 denotes a finger placement determination unit connected to the image input unit 11, 13 denotes a feature extraction unit connected to the finger placement determination unit 12, and 14 denotes a matching unit connected to the feature extraction unit 13.
The finger placement determination unit 12 performs binarization processing and ridge direction stability determination processing. The ridge direction stability determination processing includes block division processing, mask pattern scanning processing, and stability determination. Processing.
[0034]
The feature extraction means 13 performs ridge direction calculation processing, grayscale image correction processing, rebinarization processing, thinning processing, and feature point detection processing.
As the collation means 14, the same thing as the above-mentioned collation means 4 is used.
[0035]
Next, the operation will be described with reference to FIGS.
First, in step S21, an image is captured by the image input unit 11, and then binarization processing is first performed by the finger placement determination unit 12 (step S22), and the input image is blocked by 16 × 16 pixels as in the conventional case. And the grayscale image is binarized using the average density of each block as a threshold value.
Next, the binary image is divided again into blocks of 16 × 16 pixels (step S23), and a 3 × 3 pixel mask pattern (corresponding to four directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees in each block) 21) is scanned (step S24). By scanning the mask pattern, the frequency of pixels that match each mask pattern (direction-specific histogram) can be obtained, so the frequency of each mask pattern can be used to stabilize stability, that is, the ridge direction within the block is stabilized. It is determined whether or not there is (step S25).
[0036]
The stability determination process in step S25 is realized by, for example, calculating the following expression (4). If the stability F in the ridge direction is smaller than a preset threshold value γ as a result of expression (4), The block is determined as a background area (area where no finger is placed), and when the ridge direction stability F is greater than the threshold value γ, it is determined that a finger is placed in the block.
Then, when there are many blocks where it is determined that the finger is placed, it is determined that the finger is placed, and the processing (steps S26 to S30) in the next stage feature extraction unit 13 is executed, and the finger is placed. If it is determined that the number of blocks is small, it is determined that the finger is not placed or the finger placement is insufficient, and the process returns to step S21.
[0037]
F = | H0−H90 | + | H45−H135 | (4)
[0038]
In Equation (4), H0, H45, H90, and H135 are the frequencies in each direction in the histogram for each direction created by the mask pattern scanning process in step S24.
[0039]
As an example, in the case of the background region, for example, as shown in FIG. 3, there are few pixels that match the pattern as a whole (see FIG. 3A), or there are almost the same frequency in the orthogonal direction. (See FIG. 3B), which is strange as a ridge.
On the other hand, in the block where the finger is placed, for example, as shown in FIG. 4, the frequency in one direction is dominant (see FIG. 4A), or the frequency in the adjacent direction is the same (see FIG. 4). 4 (b)). Therefore, the stability F in the ridge direction of the above formula (4) is small in the background region, and the stability F in the ridge direction is large in the region where the finger is placed.
Thus, here, steps S22 to S25 are processes in the finger placement determination means 12, and steps S23 to S25 are ridge direction detection processes.
[0040]
Next, in step S26, the feature extraction means 13 performs ridge direction calculation processing in the same manner as described above, and obtains the ridge direction for each block in the range of 0 to 180 degrees using the histogram for each direction.
Next, in step S27, grayscale image correction processing is performed to correct ridge discontinuities and adhesions. First, the ridge direction of each block is quantized in 8 directions (see FIGS. 22 and 23), and an average value filter of K × 1 pixels along the ridge direction quantized in these 8 directions is originally generated. Realized by applying to images.
[0041]
Next, in step S28, the grayscale image correction result is binarized again by the same method as the binarization processing in step S22, and in step S29, the binarization result is thinned to obtain a line figure having a line width of 1 pixel. obtain. In step S30, a feature point detection process is performed, a 3 × 3 pixel mask pattern is scanned on the thinned image, the point of interest is a value “1”, and only one of the surrounding eight pixels is a value. The coordinates of the point of interest having “1” are extracted as end points, and the coordinates of the point of interest having the value “1” and the value “1” of only three of the surrounding eight pixels are branched. Extract as a point. At the same time, the ridge line extending from the feature point is traced to calculate the vector angle (θ in FIG. 24) of the feature point.
[0042]
When the processing of the feature extraction unit 13 in steps S26 to S30 is completed in this way, the collation unit 14 at the next stage first performs ridge direction coincidence calculation in step S31 in the same manner as described above. Calculate how well the overall flow direction of the lines matches. This is because the ridge direction Vd (Bx, By) for each block detected by the ridge direction detection process in step S26 and the ridge direction Ed (Bx, By) for each block registered in advance by the person. ) In a horizontal direction and in a vertical direction and in a vertical direction from -Py to + Py, and then superimposing them to find a position where the ridge directions best match as a whole. Is to be calculated. Specifically, the degree of coincidence Sd (px, py) at a certain shift amount (px, py) is calculated by the above equation (2).
[0043]
Next, in step S32, the feature point coincidence calculation is performed, and the coordinates of the feature points such as the end points and the branch points detected in the feature point detection process in step S30 and the vector angles thereof are registered in advance. The degree of coincidence with point coordinates and vector angles is calculated. This is detected from the registered fingerprint, and when the distance between a certain feature point coordinate registered in advance and a certain feature point coordinate detected from the matching fingerprint is close and the difference between the vector angles of these feature points is small, these feature points And the number of feature points of the pair with respect to the total number of feature points is calculated by the above equation (3), and this is used as the matching degree of feature points.
Finally, in the determination process in step S33, when the ridge direction coincidence degree Sdmin (px, py) is smaller than a preset threshold value α and the feature point coincidence degree Sm is larger than another preset threshold value β. Judgment is made by the person himself and others are judged by others.
[0044]
As described above, in this embodiment, it is determined whether or not a finger is placed based on whether or not the detected ridge direction is sufficiently stable, that is, a mask executed when detecting the ridge direction. The stability of the ridge direction can be evaluated using the direction component ratios of 0 degrees, 45 degrees, 90 degrees, and 135 degrees obtained for each block by pattern scanning.
[0045]
Embodiment 2. FIG.
FIG. 5 is a block diagram showing Embodiment 2 of the present invention. In FIG. 5, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.
In the figure, 12A is a finger placement determination unit connected to the image input unit 11, and 13A is a feature extraction unit connected to the finger placement determination unit 12A.
The finger placement determination unit 12A performs binarization processing and ridge direction stability determination processing. The ridge direction stability determination processing includes block division processing, mask pattern scanning processing, and ridge direction. Calculation processing, ridge direction change detection processing, and spatial stability determination processing are included. The finger placement determination unit 12A has a ridge direction storage function.
Further, the feature extraction unit 13A performs grayscale image correction processing, rebinarization processing, thinning processing, and feature point detection processing.
[0046]
Next, the operation will be described with reference to FIG.
In step S21, an image is captured by the image input means 11, and then, from the finger placement determination means 12A to steps S21 to S24, the same processing as steps S21 to S24 in the finger placement determination means 12 of FIG. 1 described above is performed. Since the frequency of pixels that match each mask pattern (direction-specific histogram) can be obtained by scanning the mask pattern, the ridge direction for each block is set in the range of 0 to 180 degrees using the frequency of each mask pattern. Obtained (step S34).
In step S34, the ridge direction for each block obtained by the same method from the image input before the minute time Δ is stored.
[0047]
Next, in step S35, ridge direction change detection processing is performed, and the ridge direction for each block obtained from the image at the current time and the ridge direction for each block obtained from the image in step S34 are each 8 directions. After quantizing (refer to FIG. 22) (quantized in eight directions is called a direction code), the two are compared for each block to determine whether the direction has changed. Then, the direction code is held as it is for a block whose ridge direction has not changed, and a special code (for example, −1) representing the change is given to the changed block.
[0048]
Further, spatial stability determination processing is performed in step S36, and the same code group having the same direction code and adjacent to each other is detected with respect to the block determined to be unchanged in step S35. Obtain the average mass (the area of the mass). When the mass is larger than the predetermined value, the ridge direction is stable both temporally and spatially. Therefore, it is determined that the finger is placed, and the process proceeds to step S27. The process in 13A is executed.
On the other hand, when the degree of clumping is smaller than the predetermined value or there are many blocks whose direction codes have changed, it is determined that the finger is not placed in a sufficient state, and the process returns to step S21.
[0049]
This is because a stable ridge direction can be detected when the finger is placed in a sufficient state and does not change during a minute time, and the detected direction code changes with time in a block where the finger is not placed. It is based on the idea of becoming unstable.
Thus, here, Steps S22 to S24 and Steps S34 to S36 are processes in the finger placement determination unit 12A, and each of the steps other than Step S22 is a ridge direction stability determination process.
[0050]
The subsequent processing of steps S27 to S30 in the feature extraction unit 13A is the same as the processing of steps S27 to S30 in the feature extraction unit 13 of FIG. 1 described above, and the steps S31 to S31 in the collation unit 14 in the next stage. The processing of S33 is also the same as the processing of steps S31 to S33 in the collating means 14 of FIG.
[0051]
Thus, in this embodiment, it is determined whether or not a finger is placed based on whether or not the detected ridge direction is sufficiently stable, that is, the ridge for each block detected at a certain time t. Compared to the line direction and the ridge direction for each block detected at time t−Δ before the minute time Δ and for each block, the direction is stable in time and spatially stable. Can be evaluated.
[0052]
Embodiment 3 FIG.
FIG. 7 is a block diagram showing Embodiment 3 of the present invention. In FIG. 7, parts corresponding to those in FIGS. 1 and 5 are denoted by the same reference numerals, and detailed description thereof is omitted.
In the figure, 12B is a finger placement determination unit connected to the image input unit 11, 13B is a feature extraction unit (first feature extraction unit) connected to the finger placement determination unit 12B, and 15 is connected to the feature extraction unit 13B. The feature extraction means 13A (second feature extraction means) and the collation means 14 are connected in cascade after the position deviation detection means 15.
[0053]
Here, the finger placement determination unit 12B may be the same as that shown in FIG.
The feature extraction unit 13B performs binarization processing and ridge direction detection processing. The ridge direction detection processing includes block division processing, mask pattern scanning processing, ridge direction calculation processing, and the like. Is included.
The misregistration detection unit 15 performs misregistration amount calculation processing, misregistration amount presentation processing, and misregistration amount determination processing.
[0054]
Next, the operation will be described with reference to FIGS.
In step S21, an image is captured by the image input means 11, and in step S37, as in step S2 of FIG. 19, the digital video input by the finger placement determination means 12B is subjected to image processing and a finger is placed. Determine whether. When the finger is not placed, the process returns to step S21 and the image input unit 11 captures an image again. When the finger is placed, the process proceeds to step S22, and the process by the feature extracting unit 13B is executed.
[0055]
The feature extraction unit 13B performs the same processes as steps S21 to S24 in the finger placement determination unit 12 of FIG. 1 described above in steps S22 to S24. In step S26, the mask pattern is scanned to scan each mask pattern. Since the frequency of the matching pixels (direction-specific histogram) is known, the ridge direction for each block is determined in the range of 0 to 180 degrees using the frequency of each mask pattern. Thus, here, steps S22 to S26 are processing in the feature extraction means 13B, and steps S23 to S26 are ridge direction detection processing.
[0056]
Next, in step S38, the ridge direction Vd (Bx, By) for each block calculated in the ridge direction detection process in step S26, and the person himself / herself, as in the ridge direction coincidence calculation process in step S31 described above. The ridge directions Ed (Bx, By) registered in advance for each block are overlapped while being translated in the horizontal direction in the range of -Px to + Px and in the vertical direction in the range of -Py to + Py. Find the position with the best overall direction. Specifically, the degree of coincidence Sd (px, py) at a certain shift amount (px, py) is calculated by the following equation (5).
[0057]
Sd (px, py) = (1 / Bn) ×
ΣΣ {Vd (Bx + px, By + py) −Ed (Bx, By)}2
ByBx (5)
[0058]
Here, Bn represents the number of overlapping blocks. Then, px and py that minimize Sd are determined, and this is presented to the user as the amount of positional deviation for finger placement.
As a presentation method of the user, for example, as shown in FIG. 9, a positional deviation allowable range 15b is drawn on a monitor or LCD screen 15a as a positional deviation amount presentation means, and the current finger placement position 15c is determined from the finger placement position at the time of registration. Displays the number of relative blocks. In the case of the figure, a display example in the case where a displacement of px = 3 blocks and py = 3 blocks is detected is shown.
[0059]
Next, in step S39, it is determined whether or not the positional deviation amount calculated in step S38 is within the positional deviation allowable range 16b shown in FIG. 9, and if it is within the allowable range, step S27 is determined. Then, the process in the feature extraction unit 13A in the next stage is executed. If the process is not within the allowable range, the process returns to step S21 again. On the other hand, the user shifts the finger position so that the finger placement position 15c falls within the allowable position shift range 15b while viewing the position shift amount presentation screen 15a.
[0060]
The subsequent processing in steps S27 to S30 in the feature extraction unit 13A is the same as the processing in steps S27 to S30 in the feature extraction unit 13 in FIG. 1 or the feature extraction unit 13A in FIG. 5 described above. The processing in steps S31 to S33 in the collating means 14 is also the same as the processing in steps S31 to S33 in the collating means 14 in FIG. 1 or FIG.
[0061]
Thus, in this embodiment, the user can place his finger at the same position as at the time of registration by presenting to the user how much the current finger placement position is different from the position at the time of registration. . That is, it is possible to execute the ridge direction coincidence calculation immediately after the ridge direction detection processing and to present the resulting positional deviation amount to the user via the user interface device.
In the above description, visual presentation means such as a monitor and an LCD screen are used. However, the same is true if the presentation is performed using a sound corresponding to the amount of positional deviation, regularly arranged LEDs, or the like.
[0062]
Embodiment 4 FIG.
FIG. 10 is a block diagram showing Embodiment 4 of the present invention. 10, parts corresponding to those in FIGS. 1, 5, and 7 are denoted by the same reference numerals, and detailed description thereof is omitted.
In the figure, reference numeral 16 denotes a fingertip / fingerprint detection means connected to the feature extraction means 13B (first feature extraction means 1), which is an autocorrelation calculation process, a fingertip / bow-shaped pattern determination process, and a fingertip / bow. A pattern presentation process is performed. A feature extraction unit 13A (second feature extraction unit) and a collation unit 14 are connected in cascade after the fingertip / fingerprint detection unit 16.
[0063]
Next, the operation will be described with reference to FIG.
Since the processes in steps S21, S37 and S22 to S26 are the same as those in FIG. 8, the description thereof is omitted.
In step S40, the fingertip / fingerprint detector 16 calculates the autocorrelation using the direction angle for each block detected in step S26 as an input. That is, a copy of the ridge direction Vd (Bx, By) for each block detected in step S26 is created and translated in the horizontal direction in the range of -Px to + Px and in the vertical direction in the range of -Py to + Py. Then, they are overlapped with each other, and the degree of coincidence in the ridge direction at each shift amount is calculated by the following equation (6).
[0064]
Sd (px, py) = (1 / Bn) ×
ΣΣ {Vd (Bx + px, By + py) −Vd (Bx, By)}2
ByBx (6)
Here, Bn represents the number of overlapping blocks.
[0065]
Next, in step S41, the fingertip / bow-shaped pattern detecting means 16 determines whether it is currently collated or registered, and if it is collation, in step S42, the fingertip / bow pattern detecting means 16 uses the autocorrelation result calculated in step S40. Only determine that is placed. When it is determined that the fingertip has been placed, in step S43, the fact is presented to the user or the administrator by fingertip / bow pattern presentation means (not shown) such as a monitor or LCD screen. When it is presented, the user or the like repositions so that the entire belly of the finger touches the prism. On the other hand, the process returns to step S21 in order to input and process the repositioned fingerprint image again.
[0066]
On the other hand, if it is not collation in step S41, that is, registration, in step S44, the fingertip is placed using the result of the autocorrelation in step S40, or a finger with a bow-shaped pattern is placed. Judge whether it is.
Specifically, since all the ridges of the fingertips and bow-shaped crests are close to a straight line and flow in parallel, even if the ridge direction coincidence is calculated by shifting in a direction orthogonal to the ridges, the value Hardly changes. This means that among the results of the autocorrelation calculation, the result Sd when shifted by one block in the direction orthogonal to the ridge and the result Sd when shifted by several blocks output almost the same value. Therefore, the determination by the fingertip / bow-shaped pattern detecting means 16 compares Sd when shifted by one block in the direction orthogonal to the ridge and Sd when shifted by several blocks, and when the difference is small, the fingertip / bow-shaped pattern is detected. Is determined to have been placed.
[0067]
When it is determined in step S44 that the fingertip or the bow-shaped pattern is placed, the fact is presented to the user or the like by the fingertip / bow-shaped pattern presenting means such as the monitor or the LCD screen as described above. Next, when the user is presented, in step S46, whether or not there is an instruction to change the process, that is, the user or the like replaces the finger with the finger as it is, or changes the finger. When it is determined whether or not to continue the registration, and there is an instruction to change the process, that is, when the user or the like replaces the finger with his / her finger or changes the finger, the process returns to step S21 to perform the above-described operation. If there is no instruction to change the process repeatedly, that is, if the user or the like continues the registration with the finger as it is, the process proceeds to step S27.
[0068]
If it is not determined to be a fingertip in step S42, or if it is not determined to be a fingertip or a bow-shaped pattern in step S44, the process proceeds to step S27, and the process after the feature point extraction process is executed.
The subsequent processing in steps S27 to S30 in the feature extraction unit 13A is the same as that in steps S27 to S30 in the feature extraction unit 13 in FIG. 1 or the feature extraction unit 13A in FIG. 5 described above. The processing of steps S31 to S33 in the means 14 is also the same as steps S31 to S33 in the collating means 14 in FIG. 1 or FIG.
[0069]
Thus, in this embodiment, by calculating the autocorrelation using the ridge direction obtained by the ridge direction detection process, whether or not the finger placed at the time of registration is an arcuate pattern or only the fingertip is It is determined whether or not the fingertip is placed at the time of collation, and if it is an arcuate pattern or fingertip, the user is required to change or reposition the finger. A state where it is easy to separate can be avoided.
[0070]
The feature extracting unit 13A and the collating unit 14 operate in the same manner as the feature extracting unit 13A and the collating unit 14 of FIGS. 5 and 7, but the collating unit 14 is not executed at the time of registration, and the extracted ridge Needless to say, the direction and feature points are memorized.
[0071]
Embodiment 5. FIG.
FIG. 12 is a block diagram showing Embodiment 5 of the present invention. 12, parts corresponding to those in FIGS. 1, 5, and 10 are denoted by the same reference numerals, and detailed description thereof is omitted.
In the figure, 13C is a feature extraction unit connected to the finger placement determination unit 12B, 17 is a direction angle stability calculation unit connected to the feature extraction unit 13C, and 14A is a feature extraction unit 13C and a direction angle stability calculation unit 17. Connected verification means.
[0072]
Here, the feature extraction means 13C may be the same as that shown in FIG.
Further, the direction angle stability calculation means 17 calculates how stable the ridge direction of each block is using the direction-specific histogram obtained by the mask pattern scanning process described above. In addition to the ridge direction coincidence calculation process and the determination process as to whether the user is the same as described above, the matching unit 14A uses the direction angle stability calculated by the direction angle stability calculation unit 17 and uses the feature point coincidence degree. Perform the calculation process.
[0073]
Next, the operation will be described with reference to FIG.
Since the processes of steps S21, S37 and S22 to S26 are the same as those in FIG. 8, the description thereof is omitted. Further, the processing in steps S27 to S30 after the ridge direction calculation processing in step S26 is also the same as that in the case of FIG.
In step S47, the direction angle stability calculation means 17 uses the histogram for each block obtained by the mask pattern scanning process in step S24 to determine how stable the ridge direction of each block is. To calculate.
[0074]
Further, the direction angle stability calculation means 17 calculates how stable the ridge direction of each block is using the direction-specific histogram obtained by the mask pattern scanning process in step S24 described above. . Specifically, the number of pixels matching the mask pattern indicating the direction of 0 degrees is H0, the number of pixels matching the mask pattern indicating the direction of 45 degrees is H45, the number of pixels matching the mask pattern indicating the directions of 90 degrees and 135 degrees. Is H90 and H135, the ridge direction stability F for each block is calculated by the following equation (7).
[0075]
F = | H0−H90 | + | H45−H135 | (7)
[0076]
Next, the collating unit 14A first calculates the degree of coincidence of ridge directions in step S31 as described above, and calculates how much the overall flow directions of the ridges coincide. That is, the ridge direction for each block is compared with the ridge direction of the person registered in advance, and the degree of coincidence is calculated.
In step S48, the degree of coincidence of the feature points is calculated using the stability F in the ridge direction for each block calculated by the direction angle stability calculation means 17. That is, as described above, a paired feature point that matches the registered feature point and the matching feature point is found.
On the other hand, the stability F in the ridge direction of the block to which each feature point belongs is given to each feature point as a weight related to reliability, and the feature points are matched by the following equation (8) using the weight given to the feature point. Calculate the degree.
[0077]
Sm = Σ (Fpe + Fpv) / (ΣFe + ΣFv) (8)
[0078]
Here, Fe is the weight of each registered feature point, and Fv is the weight of each feature point detected from the collation fingerprint. Fpe is a weight on the registered feature point side among the feature points paired between the registered feature point and the matching feature point, and Fpv is a weight on the matching feature point side. It is assumed that the weight of the registered feature point is determined by the same process at the time of registration and stored together with other feature data.
Finally, in the determination process in step S33, the identity of the person using the result of the ridge direction coincidence calculation process (step S31) similar to that described above and the result of the feature point coincidence degree calculation process (step S48) peculiar to the present embodiment is used. Determine whether or not. That is, when the ridge direction coincidence degree Sdmin (px, py) is smaller than a preset threshold value α and the feature point coincidence degree Sm is larger than another preset threshold value β, the identity is determined. Judge as someone else.
[0079]
As described above, in this embodiment, the reliability of a feature point is evaluated using the stability of the ridge direction around the feature point, and the degree of coincidence of the feature point is calculated based on the evaluation result. The discrimination ability can be improved.
[0080]
Embodiment 6 FIG.
FIG. 14 is a block diagram showing Embodiment 6 of the present invention. 14, parts corresponding to those in FIGS. 1, 5, 10, and 12 are denoted by the same reference numerals, and detailed description thereof is omitted.
In the figure, 18 is a weight determining means connected to the feature extracting means 13C, and 14B is a matching means connected to the feature extracting means 13C and the weight determining means 18.
The weight determination means 18 performs change point counting processing and weight calculation processing, compares binary images before and after the gray image correction processing, evaluates the stability of the image for each block, and determines the weight of the feature point. In addition to the ridge direction coincidence calculation process and the determination process as to whether or not the person is the same, the collating unit 14B calculates the coincidence degree of the feature points using the weight for each block calculated by the weight determining unit 18. .
[0081]
Next, the operation will be described with reference to FIG.
Since the processes of steps S21, S37 and S22 to S26 are the same as those in FIG. 8, the description thereof is omitted. Further, the processing in steps S27 to S30 after the ridge direction calculation processing in step S26 is also the same as that in the case of FIG.
Now, in steps S49 and S50, the weight determination means 18 compares the binary images before and after the grayscale image correction process, evaluates the stability of the image for each block, and determines the weight of the feature point.
[0082]
Specifically, for example, it is assumed that the grayscale image of a certain block before the grayscale image correction is as shown by reference numeral 100 in FIG. 16 and has been corrected to the reference numeral 102 in step S27. The binarization results at that time are as indicated by reference numerals 104 and 106, respectively. In the change point counting process (step S49), the difference between these binary images is taken to obtain a result indicated by reference numeral 108, and the number of pixels corresponding to the change is counted. The same applies to odd reference numbers 101, 103, 105, 107 and 109.
[0083]
Next, in the weight calculation process (step S50), a weight W representing the reliability of each block is calculated using the number of changed pixels for each block, which is the result of the change point counting process. In this case, for example, as shown in the following equation (9), the weight is large when the number of change pixels is small, and the weight is small when the number of change pixels is large.
[0084]
W = 1- (G / Q) (9)
Here, G is the number of change pixels for each block as a result of the change point counting process, and Q is the area of the block.
[0085]
Next, the collating unit 14B first calculates the degree of coincidence of the ridge directions in step S31 as described above, and calculates how much the overall flow directions of the ridges coincide. That is, the ridge direction for each block is compared with the ridge direction of the person registered in advance, and the degree of coincidence is calculated.
In step S51, the degree of coincidence of the feature points is calculated using the weight W for each block determined by the weight determining means 18. That is, a pair feature point that matches the registered feature point and the matching feature point is found by the same method as described above.
On the other hand, the weight W of the block to which each feature point belongs is given to each feature point as a weight related to reliability, and the feature point coincidence is calculated by the following equation (10) using the weight given to the feature point.
[0086]
Sm = Σ (Wpe + Wpv) / (ΣWe + ΣWv) (10)
[0087]
Here, We is the weight of each registered feature point, and Wv is the weight of each feature point detected from the collation fingerprint. Wpe is a weight on the registered feature point side among the feature points paired between the registered feature point and the matching feature point, and Wpv is a weight on the matching feature point side. It is assumed that the weight of the registered feature point is determined by the same process at the time of registration and stored together with other feature data.
[0088]
Finally, in the determination process in step S33, the identity of the person using the result of the ridge direction coincidence calculation process (step S31) similar to that described above and the result of the feature point coincidence calculation process (step S51) peculiar to the present embodiment is used. Determine whether or not. That is, when the ridge direction coincidence degree Sdmin (px, py) is smaller than a preset threshold value α and the feature point coincidence degree Sm is larger than another preset threshold value β, the identity is determined. Judge as someone else.
[0089]
As described above, in this embodiment, the reliability of feature points is evaluated using the stability of the ridge direction around the feature points and the stability of the binary image, and the degree of feature point matching is determined using the evaluation results as weights. By calculating, the ability to discriminate between the person and others can be improved.
[0091]
【The invention's effect】
  As aboveAccording to the present invention, the binarization processing unit that binarizes the fingerprint image, the block division unit that divides the fingerprint image binarized by the binarization processing unit into a plurality of blocks, and the block division unit Ridge direction calculation processing unit for calculating the ridge direction of the fingerprint in each divided block, ridge direction storage unit for storing the calculation result by the ridge direction calculation processing unit input before a minute time, current time The ridge direction of the fingerprint for each block calculated by the ridge direction calculation processing unit from the image input to the image and the ridge direction of the fingerprint for each block stored in the ridge direction storage unit a minute time ago Ridge direction change detection processing unit that detects changes in the ridge direction, and detects blocks that have the same direction angle and are adjacent to each other for blocks that are determined to be unchanged by the ridge direction change detection processing unit. Spatial to judge the degree of mass A finger placement determination unit including a qualitative determination processing unit is provided, and only when the finger placement determination unit detects a state where the finger is placed, the feature extraction and the comparison with the registered data are performed. There is an effect that it is possible to make a stable and reliable finger placement determination without erroneously determining that the finger has been placed without placing a finger.
[0093]
In addition, according to the present invention, a binarization processing unit that binarizes a fingerprint image, a block division processing unit that divides an image binarized by the binarization processing unit into a plurality of blocks, and the block division processing A mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle in each block divided by the unit to create a histogram for each direction, and each block based on the output of the mask pattern scanning processing unit First feature extraction means including a ridge direction calculation processing unit for calculating the ridge direction of the fingerprint of the fingerprint, and the same fingerprint image divided into a plurality of blocks based on the output of the first feature extraction means An autocorrelation calculation unit that generates an autocorrelation map by calculating a difference between fingerprint ridge direction values for each block while shifting the positions of the ridge direction values of fingerprints for each block obtained from an image, and the autocorrelation calculation Obtained in the department The fingertip / bow-shaped pattern determination unit that processes the autocorrelation map to determine whether the fingertip is placed or the finger of the bow-shaped pattern has been placed. When this is determined, the result is displayed and the registration process is continued as it is, or the determination of whether the registration process is performed again after interrupting and repositioning the finger or changing the finger is used externally. A fingertip / bow-shaped pattern detecting means including a fingertip / bow-shaped pattern presenting section required by a user or an administrator, and if the fingertip / bow-shaped pattern is not determined in the registration mode, and an external user or administrator The feature data is registered only when there is an instruction to continue the registration, and in the verification mode, only the fingertip is determined and the user or the administrator is asked to reposition the finger. Do not make misjudgment of misalignment during calculation. Will, more than Te, can be expected is higher matching degree in the case between the person in the calculation of the subsequent characteristic points matching degree, the effect of improving the person and others discrimination performance.
[0095]
Further, according to the present invention, the binarization processing unit for binarizing the fingerprint image, and the fingerprint in each block of the fingerprint image divided into a plurality of blocks after binarization by the binarization processing unit A ridge direction calculation processing unit that calculates the ridge direction of the image, a gray image correction processing unit that corrects a gray image along the ridge direction of the fingerprint based on the output of the ridge direction calculation processing unit, and the gray image correction Feature extraction means including re-binarization processing for binarizing the grayscale image correction result again in the processing unit, and the binarized image before and after the grayscale image correction is divided into a plurality of blocks, and then the binarized image for each block And a weight determination means that includes a change point count processing unit that counts the number of change points, and a weight calculation processing unit that calculates a weight for each block according to the number of change points calculated by the change point count processing unit. The weight of the block where the feature point exists Since the reliability is reflected in the feature point coincidence calculation, for example, the weight of the pseudo feature point caused by scratches, wrinkles, blurring, etc. can be reduced, and the discrimination ability between the person and the other person is improved. .
[Brief description of the drawings]
FIG. 1 is a block diagram showing Embodiment 1 of the present invention.
FIG. 2 is a flowchart for explaining the operation of the first embodiment of the present invention.
FIG. 3 is a diagram showing an example of mask pattern frequency in a background region in the first embodiment of the present invention.
FIG. 4 is a diagram showing an example of mask pattern frequency in a region where a finger is placed according to the first embodiment of the present invention.
FIG. 5 is a block diagram showing Embodiment 2 of the present invention.
FIG. 6 is a flowchart for explaining the operation of the second embodiment of the present invention.
FIG. 7 is a block diagram showing Embodiment 3 of the present invention.
FIG. 8 is a flowchart for explaining the operation of the third embodiment of the present invention.
FIG. 9 is a diagram illustrating a display state of a positional deviation amount according to the third embodiment of the present invention.
FIG. 10 is a configuration diagram showing a fourth embodiment of the present invention.
FIG. 11 is a flowchart for explaining the operation of the fourth embodiment of the present invention;
FIG. 12 is a block diagram showing Embodiment 5 of the present invention.
FIG. 13 is a flowchart for explaining the operation of the fifth embodiment of the present invention.
FIG. 14 is a block diagram showing Embodiment 6 of the present invention.
FIG. 15 is a flowchart for explaining the operation of the sixth embodiment of the present invention;
FIG. 16 is a diagram illustrating a change in a binarized image according to the sixth embodiment of the present invention.
FIG. 17 is a block diagram showing a conventional fingerprint collation apparatus.
FIG. 18 is a diagram illustrating an example of a fingerprint image input unit.
FIG. 19 is a flowchart for explaining the operation of a conventional fingerprint collation apparatus.
FIG. 20 is a diagram illustrating a density histogram of a small region in a finger placement determination unit of a conventional fingerprint collation device.
FIG. 21 is a diagram illustrating eight directions when quantizing the ridge direction into eight directions;
FIG. 22 is a diagram illustrating an example of a mask pattern used when calculating a ridge direction.
FIG. 23 is a diagram illustrating a ridge direction detection result;
FIG. 24 is a diagram illustrating end points / branching points and vector angles.
[Explanation of symbols]
11 image input means, 12, 12A, 12B finger placement determination means, 13, 13A, 13B, 13C feature extraction means, 14, 14A, 14B collation means, 15 misregistration amount detection means, 16 fingertip / bow pattern detection means, 17 Direction angle stability calculation means, 19 Weight determination means.

Claims (6)

センサによって得られた指紋画像を処理して特徴データを抽出し、予め登録されている利用者固有の特徴データと比較することで、利用者が本人か否かを判定する指紋照合装置において、
指紋画像を二値化する二値化処理部、該二値化処理部で二値化された指紋画像を複数のブロックに分割するブロック分割部、該ブロック分割部で分割された各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部微小時間前に入力された上記隆線方向計算処理部による算出結果を記憶する隆線方向記憶部、現時刻に入力された画像から上記隆線方向計算処理部で算出されたブロック毎の指紋の隆線方向と上記隆線方向記憶部に記憶されている微小時間前のブロック毎の指紋の隆線方向とを比較してその変化を検出する隆線方向変化検出処理部、該隆線方向変化検出処理部で変化なしと判断されたブロックに関して同じ方向角を持ち且つ互いに隣接しているブロック群を検出しそのかたまり具合を判定する空間的安定性判定処理部を含む指置き判定手段を備え、
該指置き判定手段が指の置かれている状態を検知したときのみ特徴抽出および登録データとの照合を行うことを特徴とする指紋照合装置。
In the fingerprint collation device for determining whether or not the user is the user by processing the fingerprint image obtained by the sensor and extracting the feature data and comparing it with the user-specific feature data registered in advance.
Binarization processing section for binarizing the fingerprint image, the block dividing unit that divides the binarized fingerprint image into a plurality of blocks in the binarization processing unit, in each block divided by the block division unit A ridge direction calculation processing unit for calculating a ridge direction of a fingerprint, a ridge direction storage unit for storing a calculation result by the ridge direction calculation processing unit input before a minute time, and an image input at the current time The ridge direction of the fingerprint of each block calculated by the ridge direction calculation processing unit is compared with the ridge direction of the fingerprint of each block stored in the ridge direction storage unit for a minute time before the change. A ridge direction change detection processing unit to detect, and a space for detecting a block group having the same directional angle and adjacent to each other with respect to blocks determined to have no change by the ridge direction change detection processing unit including the stability determination processing unit With a finger rest judgment means,
A fingerprint collation apparatus that performs feature extraction and collation with registered data only when the finger placement determination means detects a state where a finger is placed.
指置き判定手段に接続され、該指置き判定手段の空間的安定性判定処理部の判定結果に基づいて指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正処理部、該濃淡画像修正処理部における濃淡画像修正結果を再度二値化する再二値化処理部、該再二値化処理部で再度二値化された結果を細線化する細線化部、該細線化部で細線化された画像を走査して該画像の特徴点を検出する特徴点検出部を含む特徴抽出手段を備えた請求項1記載の指紋照合装置。A grayscale image correction processing unit that is connected to the finger placement determination unit and corrects the grayscale image along the ridge direction of the fingerprint based on the determination result of the spatial stability determination processing unit of the finger placement determination unit, the grayscale image correction A rebinarization processing unit that binarizes again the grayscale image correction result in the processing unit, a thinning unit that thins the binarized result again in the rebinarization processing unit, and a thinning in the thinning unit The fingerprint collation apparatus according to claim 1, further comprising a feature extraction unit including a feature point detection unit that scans the image and detects a feature point of the image. センサによって得られた指紋画像を処理して特徴データを抽出し、予め登録されている利用者固有の特徴データと比較することで、利用者が本人か否かを判定する指紋照合装置において、
指紋画像を二値化する二値化処理部、該二値化処理部で二値化された画像を複数のブロックに分割するブロック分割処理部、該ブロック分割処理部で分割された各ブロック内を所定の各角度に相当するマスクパターンを走査して、方向別のヒストグラムを作成するマスクパターン走査処理部、該マスクパターン走査処理部の出力に基づいて各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部を含む第1の特徴抽出手段と、
該第1の特徴抽出手段の出力に基づいて、複数のブロックに分割された指紋画像の同一の画像から得られたブロック別の指紋の隆線方向値を互いに位置をずらしながらブロック毎の指紋の隆線方向値の差を計算して自己相関マップを生成する自己相関演算部、該自己相関演算部で得られた自己相関マップを処理して指先が置かれたかまたは弓状紋の指が置かれたかを判定する指先・弓状紋判定部、該指先・弓状紋判定部で指先または弓状紋の指と判定されたときに、この結果を表示して、そのまま登録処理を続行するか、一旦中断して指の置き直しまたは指の変更を行った後再度登録処理を行うかの判断を外部に求める指先・弓状紋提示部を含む指先・弓状紋検出手段と
を備え、登録モードにおいては指先・弓状紋と判定されなかった場合と、外部から登録続行の指示があった場合のみ特徴データを登録し、照合モードにおいては指先か否かの判定のみを行って外部に指の置き直しを求めることを特徴とする指紋照合装置。
In the fingerprint collation device for determining whether or not the user is the user by processing the fingerprint image obtained by the sensor and extracting the feature data and comparing it with the user-specific feature data registered in advance.
A binarization processing unit that binarizes a fingerprint image, a block division processing unit that divides an image binarized by the binarization processing unit into a plurality of blocks , and each block divided by the block division processing unit A mask pattern scanning processing unit that scans a mask pattern corresponding to each predetermined angle and creates a histogram for each direction, and calculates the ridge direction of the fingerprint in each block based on the output of the mask pattern scanning processing unit First feature extraction means including a ridge direction calculation processing unit,
Based on the output of the first feature extracting means, the ridge direction values of the fingerprints of the blocks obtained from the same image of the fingerprint image divided into a plurality of blocks are shifted from each other while the positions of the fingerprints of the blocks are shifted. An autocorrelation calculation unit that calculates a difference between ridge direction values and generates an autocorrelation map, and processes the autocorrelation map obtained by the autocorrelation calculation unit to place a fingertip or a bow-shaped crest finger Whether the fingertip / bow-shaped pattern determination unit for determining whether or not the fingertip / bow-shaped pattern determination unit determines that the fingertip or the bow-shaped pattern is a finger, or whether to continue the registration process as it is A fingertip / bow-shaped pattern detecting means including a fingertip / bow-shaped pattern presenting unit for externally determining whether to perform registration processing again after interrupting and repositioning the finger or changing the finger;
The feature data is registered only when the fingertip / bow pattern is not determined in the registration mode and when there is an instruction to continue registration from the outside, and only the fingertip determination is performed in the matching mode. A fingerprint collation device characterized by requesting the user to reposition the finger outside .
指先・弓状紋検出手段に接続され、該指先・弓状紋検出手段の指先・弓状紋判定部の判定結果に基づいて指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正処理部、該濃淡画像修正処理部における濃淡画像修正結果を再度二値化する再二値化処理部、該再二値化処理部で再度二値化された結果を細線化する細線化部、該細線化部で細線化された画像を走査して該画像の特徴点を検出する特徴点検出部を含む第2の特徴抽出手段を備えた請求項3記載の指紋照合装置。A grayscale image correction process for correcting a grayscale image along the ridge direction of the fingerprint based on the determination result of the fingertip / bow-shaped pattern determination unit of the fingertip / bow-shaped pattern detection means connected to the fingertip / bow-shaped pattern detection means A rebinarization processing unit that binarizes again the grayscale image correction result in the grayscale image correction processing unit, a thinning unit that thins the result binarized again by the rebinarization processing unit, 4. The fingerprint collation apparatus according to claim 3, further comprising a second feature extraction unit including a feature point detection unit that scans an image thinned by the thinning unit and detects a feature point of the image. センサによって得られた指紋画像を処理して特徴データを抽出し、予め登録されている利用者固有の特徴データと比較することで、利用者が本人か否かを判定する指紋照合装置において、
指紋画像を二値化する二値化処理部、該二値化処理部で二値化された後、複数のブロッ クに分割された指紋画像の各ブロック内の指紋の隆線方向を算出する隆線方向計算処理部と、該隆線方向計算処理部の出力に基づいて指紋の隆線方向に沿って濃淡画像を修正する濃淡画像修正処理部、該濃淡画像修正処理部における濃淡画像修正結果を再度二値化する再二値化処理を含む特徴抽出手段と、
濃淡画像修正前後の二値化画像を複数のブロックに分割した後、ブロック毎に二値化画像を比較して、その変化点数を計数する変化点計数処理部、該変化点計数処理部で算出された変化点数に応じてブロック毎の重みを計算する重み計算処理部を含む重み決定手段と
を備え、特徴点が存在するブロックの重みを、その特徴点の信頼度として特徴点一致度計算に反映させることを特徴とする指紋照合装置。
In the fingerprint collation device for determining whether or not the user is the user by processing the fingerprint image obtained by the sensor and extracting the feature data and comparing it with the user-specific feature data registered in advance.
Binarization processing section for binarizing the fingerprint image, after being binarized by the binarization processing unit, calculates a ridge direction of the fingerprint in each block of divided fingerprint image into a plurality of blocks Ridge direction calculation processing unit, a grayscale image correction processing unit that corrects a grayscale image along the ridge direction of a fingerprint based on the output of the ridgeline direction calculation processing unit, and a grayscale image correction result in the grayscale image correction processing unit Feature extraction means including a re-binarization process for binarizing again,
After the binarized image before and after the gray image correction is divided into a plurality of blocks, the binarized images are compared for each block, and the change point counting processing unit that counts the number of change points is calculated by the change point counting processing unit. Weight determination means including a weight calculation processing unit for calculating a weight for each block according to the number of change points
The fingerprint collation apparatus is characterized in that the weight of a block in which a feature point exists is reflected in the calculation of the feature point coincidence as the reliability of the feature point .
特徴抽出手段および重み決定手段に接続され、上記特徴抽出手段の出力に基づいて指紋の隆線方向の一致度を計算する隆線方向一致度計算部、該隆線方向一致度計算部で算出された指紋の隆線方向の一致度と上記重み決定手段で算出された変化点数に応じたブロック毎の重みとを用いて特徴点一致度を計算する特徴点一致度計算部、該特徴点一致度計算部で算出された特徴点の一致度に基づいて本人かどうかの判定を行う判定処理部を含む照合手段を備えた請求項5記載の指紋照合装置。 A ridge direction coincidence calculation unit that is connected to the feature extraction unit and the weight determination unit and calculates the degree of coincidence of the ridge direction of the fingerprint based on the output of the feature extraction unit, and is calculated by the ridge direction coincidence calculation unit A feature point coincidence calculating unit for calculating a feature point coincidence using the degree of coincidence in the ridge direction of the fingerprint and the weight for each block according to the number of change points calculated by the weight determining means, and the feature point coincidence The fingerprint collation apparatus according to claim 5 , further comprising a collation unit including a determination processing unit that determines whether or not the user is a person based on the degree of coincidence of the feature points calculated by the calculation unit.
JP14675897A 1997-06-04 1997-06-04 Fingerprint verification device Expired - Fee Related JP3695899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14675897A JP3695899B2 (en) 1997-06-04 1997-06-04 Fingerprint verification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14675897A JP3695899B2 (en) 1997-06-04 1997-06-04 Fingerprint verification device

Publications (2)

Publication Number Publication Date
JPH10334237A JPH10334237A (en) 1998-12-18
JP3695899B2 true JP3695899B2 (en) 2005-09-14

Family

ID=15414915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14675897A Expired - Fee Related JP3695899B2 (en) 1997-06-04 1997-06-04 Fingerprint verification device

Country Status (1)

Country Link
JP (1) JP3695899B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100467392B1 (en) * 2001-06-04 2005-01-24 주식회사 테크스피어 Method for identifing biometric person using a finger crease pattern and apparatus thereof
KR20030040825A (en) * 2001-11-16 2003-05-23 에버미디어 주식회사 The method for improving fingerprint idenfication using adptive thresholding and minutiae restoration
JP4258393B2 (en) 2003-03-13 2009-04-30 三菱電機株式会社 Personal identification device, fingerprint image pickup device, and fingerprint image acquisition method
JP4507806B2 (en) 2004-10-01 2010-07-21 三菱電機株式会社 Fingerprint image pickup device
EP1901231A4 (en) * 2005-06-30 2012-11-28 Nec Corp Fingerprint image background detecting device and detecting method
JP4531670B2 (en) * 2005-10-03 2010-08-25 三菱電機株式会社 Pattern matching device
JP2009104379A (en) * 2007-10-23 2009-05-14 Hitachi Omron Terminal Solutions Corp Biological information authentication device and method for registering biological information
JP5061370B2 (en) * 2008-03-27 2012-10-31 Necソフト株式会社 Ridge region extraction device, ridge region extraction system, ridge region extraction method, and program
EP2296113B1 (en) 2008-06-30 2019-11-13 Fujitsu Limited Authentication device, authentication method and authentication program
JP4617391B2 (en) * 2009-09-24 2011-01-26 富士通株式会社 Registration device for personal authentication system using fingerprint, authentication device, recording medium recording registration program, and recording medium recording authentication program
WO2011052085A1 (en) 2009-10-30 2011-05-05 富士通フロンテック株式会社 Biometric information registration method, biometric authentication method, and biometric authentication device
CN105469083B (en) * 2015-11-13 2019-05-17 Oppo广东移动通信有限公司 Fingerprint image processing method, device and terminal device
CN110838196B (en) * 2019-11-11 2020-12-15 珠海格力电器股份有限公司 Intelligent door lock control method, intelligent door lock control system and intelligent door lock
JP6927611B1 (en) * 2020-03-16 2021-09-01 Necプラットフォームズ株式会社 Feature extraction device, feature extraction method, and program

Also Published As

Publication number Publication date
JPH10334237A (en) 1998-12-18

Similar Documents

Publication Publication Date Title
JP3695899B2 (en) Fingerprint verification device
US5109428A (en) Minutia data extraction in fingerprint identification
US6754369B1 (en) License plate reading apparatus and method
KR100430054B1 (en) Method for combining fingerprint by digital linear image sensor
US8649575B2 (en) Method and apparatus of a gesture based biometric system
US7916893B2 (en) Image processing apparatus, image processing method, and program
US5610993A (en) Method of co-centering two images using histograms of density change
US20110019243A1 (en) Stereoscopic form reader
JP2002228423A (en) Tire detecting method and device
WO2008143271A1 (en) Registering device, checking device, program, and data structure
JP2004118757A (en) Detector for traveling lane on road surface
US20090245597A1 (en) Ridge region extraction
KR100489430B1 (en) Recognising human fingerprint method and apparatus independent of location translation , rotation and recoding medium recorded program for executing the method
JP2898562B2 (en) License plate determination method
JPH08263658A (en) Registering method and collating device of fingerprint
JPH09259272A (en) Living body recognition method in fingerprint collation
JP3230509B2 (en) Moving image processing device
JP3627249B2 (en) Image processing device
JPH04137014A (en) Traveling path terminal detector for mobile vehicle
JP2006163662A (en) Device and method for recognizing number of fingers
US6915010B2 (en) Real time object localization and recognition from silhouette images
KR101548625B1 (en) Method for removing glint and control device for recognizing iris using the same
JPH09147113A (en) Fingerprint collating method and device therefor
JP3230368B2 (en) Binarization processing method
JP4639140B2 (en) Image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050628

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100708

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100708

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110708

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110708

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130708

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees