JP3567259B2 - Image data collation method, image data collation device, and storage medium storing image data collation program - Google Patents

Image data collation method, image data collation device, and storage medium storing image data collation program Download PDF

Info

Publication number
JP3567259B2
JP3567259B2 JP16676899A JP16676899A JP3567259B2 JP 3567259 B2 JP3567259 B2 JP 3567259B2 JP 16676899 A JP16676899 A JP 16676899A JP 16676899 A JP16676899 A JP 16676899A JP 3567259 B2 JP3567259 B2 JP 3567259B2
Authority
JP
Japan
Prior art keywords
image
area
maximum correlation
positional relationship
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16676899A
Other languages
Japanese (ja)
Other versions
JP2000357227A (en
Inventor
勝彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP16676899A priority Critical patent/JP3567259B2/en
Priority to AT99125650T priority patent/ATE358854T1/en
Priority to EP99125650A priority patent/EP1017008B1/en
Priority to US09/468,633 priority patent/US6707934B1/en
Priority to DE69935705T priority patent/DE69935705T2/en
Priority to TW089113234A priority patent/TW522344B/en
Publication of JP2000357227A publication Critical patent/JP2000357227A/en
Application granted granted Critical
Publication of JP3567259B2 publication Critical patent/JP3567259B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データを照合する技術に関し、特に、照合の対象としては必ずしも良好ではない画像のデータの照合を行なっても一定の照合精度を維持できるようにする技術に関し、例えば指紋画像データの照合等に適するものである。
【0002】
【従来の技術】
データベース等に予め登録されている被験者の指紋の画像のデータ(以下、「登録指紋データ」という)と、イメージセンサ等により今回取得した被験者の指紋の画像のデータ(以下、「照合指紋データ」という)とを照合して、被験者の個人確認を行なう指紋照合装置というものがある。
【0003】
従来の指紋照合装置で行われている指紋照合の方法の一例を、図9に示すフローチャートに従って説明すると、その手順は以下のようになる。
まず、S1001において、イメージセンサ等を用いて、照合指紋データを、濃淡についての多階調画像のデータ(以下、「多階調照合指紋データ」という)として取得する。
【0004】
続いて、S1002において、多階調照合指紋データから、内挿等のデータの二次処理を何ら行なわずに単純に2値化した画像データ(以下、「2値化照合指紋データ」という)を得る。
【0005】
その後、S1003において、2値化照合指紋データから、指紋を構成している皺の分岐点や端点などの特徴点(これらの特徴点は、特徴図形、あるいはマヌーシャなどと呼ばれている)を抽出し、照合指紋データの画像上におけるこれらの特徴図形の位置を示す位置情報を取得する。
【0006】
そして、S1004において、前ステップで取得した位置情報と登録指紋データの画像上における特徴図形の位置情報とを比較することにより、登録指紋データと照合指紋データの同一性を評価する。
【0007】
従来の指紋照合装置には、上記した手順によって指紋照合を行なうものがあった。
また、本願出願人は特願平10−372205号を本願に先行して出願しており、該先願に添付の明細書には前述したものとは異なる指紋照合の方法の一例が記載されている。この方法は、十分に鮮明ではない指紋の画像データであっても一定の照合精度が維持できるというものであり、その手順について図10及び図11を用いて簡単に説明する。
【0008】
図10に示すフローチャートにおいて、まず、S2001では、登録指紋データ(このデータを以下「Aデータ」と称することとする)が示す多階調画像内に矩形領域A(i=1〜N、但しNは2以上の整数)を定義して配置する。図11(a)に示すAデータの例では、N=5の場合における矩形領域Aの定義例を示している。
【0009】
S2002では、照合指紋データ(このデータを以下「Bデータ」と称することとする)が示す多階調画像内について矩形領域Aと同一の形状・大きさの矩形領域を走査させ、その矩形領域とAとの間の相関係数を逐次算出する。相関係数の計算は下記の算出法を用いる。
【0010】
矩形領域Aと矩形領域Bのそれぞれに含まれる画素をそれぞれ、A(i,j)、B(m,n)とし、矩形領域Aと矩形領域Bのそれぞれに含まれる画素の総数を等しくする。この両領域内の各画素についての濃淡を示す多階調値である信号強度をそれぞれXij、Ymnとし、これらの信号強度を一般化してZpqと表したとき、その矩形領域に含まれる画素についての信号強度の平均値を示す下記の式
【0011】
【数1】

Figure 0003567259
【0012】
及び、その矩形領域に含まれる画素についての信号強度の2乗平均値を示す下記の式
【0013】
【数2】
Figure 0003567259
【0014】
(Nはその矩形領域に含まれる画素の総数、Σはその矩形領域に含まれる画素の全てについての総和をそれぞれ示す)
で定義される<Z>、<Z>によって示される次式
【0015】
【数3】
Figure 0003567259
【0016】
の値を計算することにより、矩形領域Aと矩形領域Bとの間の相関係数CABを算出する。
S2003では、Bデータが示す画像内で、前ステップで算出した矩形領域Aとの相関係数が最大となる矩形領域を特定し、矩形領域Bとする。
【0017】
S2004では、Aデータが示す画像内に定義した全ての矩形領域Aに対応する矩形領域BをBデータが示す画像内で取得したか否かを判定し、判定結果がYesあればS2005に進み、NoであればS2002へ戻って未取得のBを求める処理を行なう。図11(b)示すBデータの例では、同図(a)に示した矩形領域Aの定義例に対応する5つの矩形領域Bが取得された状態を示している。
【0018】
S2005では、Aデータが示す画像内における矩形領域Aの配置の分布とBデータが示す画像内における矩形領域Bの配置の分布とを比較することにより、Aデータ(登録指紋データ)とBデータ(照合指紋データ)の同一性を評価する。
【0019】
前述した先願の明細書に記載されている方法は、上記した手順によって指紋照合を行なうものであった。
【0020】
【発明が解決しようとする課題】
図12は、従来技術の抱える問題点を説明する図であり、同図(a)、(b)はそれぞれ同一人の登録指紋データ(Aデータ)及び照合指紋データ(Bデータ)の画像の例を示している。
【0021】
同図に示すAデータに対してのBデータのように、照合指紋データの取得作業が不適切であったこと等に起因し、照合指紋データが登録指紋データに対して一方(同図では右方)に大きく偏って取得されてしまった場合を想定する。前述した先願の方法では、Aデータ内に定義して配置した同図(a)に示す矩形領域Aに対してBデータ内での相関係数が最大となる矩形領域Bが例えば同図(b)に示すように特定される。この場合、同図からも明らかなように、同一人の指紋の画像であるにも関わらず、Aデータが示す画像内における矩形領域Aの配置の分布とBデータが示す画像内における矩形領域Bの配置の分布とが大きく異なってしまう。そのため、前述した先願の方法を実施しても、両指紋画像は同一人のものではないと誤判定してしまう可能性が高く、照合誤りの率として0.1%程度が一般的に要求される指紋照合の精度を大きく悪化させる一因となっていた。
【0022】
以上の問題を鑑み、照合の対象としては必ずしも良好ではない画像データの照合を行なっても、一定の照合精度を維持できるようにすることが本発明が解決しようとする課題である。
【0023】
【課題を解決するための手段】
本発明は、第1の画像を構成する画像データと第2の画像を構成する画像データとを照合して両者の画像の類似の程度を判定するときに、第1の領域と、該第1の領域との間に所定の位置関係を有する1以上の第2の領域と、を前記第1の画像上に定義し、前記第2の画像上に、前記第1の領域と最大の相関関係を有する領域である第1最大相関領域を決定し、前記第1最大相関領域の前記第2の画像上における位置関係に基づいて、前記第2の領域を前記第1の画像上で再定義し、前記第2の画像上に、再定義した前記第2の領域と最大の相関関係を有する領域である第2最大相関領域を決定し、前記第1の領域と再定義した前記第2の領域との相互間の位置関係と、前記第1最大相関領域と前記第2最大相関領域との相互間の位置関係との相違、もしくは、再定義した該第2の領域相互間の位置関係と該第2最大相関領域相互間の位置関係との相違、に基づいて前記類似の程度を判定する、ことで前述した課題を解決する。
【0024】
図1は、本発明の原理構成を示す図である。同図は、第1の画像データ1aと第2の画像データ1bとを照合して両者の構成する画像の類似の程度を判定し、その結果を判定結果2として出力するものである。
【0025】
第1の画像データ1aは、例えば、データベース等に予め登録されている画像データであり、前述した指紋照合装置の例に当てはめれば、例えば登録指紋データに相当するものである。
【0026】
第2の画像データ1bは、例えば、イメージセンサなどを用いて取得する画像データであり、前述した指紋照合装置の例に当てはめれば、例えば照合指紋データに相当するものである。
【0027】
なお、この第1及び第2の画像データ(1a、1b)と登録指紋データ及び照合指紋データとの関係は、入れ替えてもよい。
定義部3は、第1の画像データ1aで構成される第1の画像上に、第1の領域と、その第1の領域との間で所定の位置関係を有する1以上の第2の領域とを定義するものである。これらの領域の定義は任意であり、各領域が同一でなければ、例えば領域間で重なり合う部分を含んでいてもよい。
【0028】
第1決定部4は、第2の画像データ1bで構成される第2の画像上に、定義部3で定義された第1の領域と最大の相関関係を有する領域である第1最大相関領域を決定するものである。
【0029】
再定義部5は、第1決定部4で決定された第1最大相関領域の第2の画像上における位置関係に基づいて、定義部3で定義された第2の領域を第1の画像上で再定義するものである。再定義部5による再定義は、例えば第1最大相関領域の第2の画像上における位置関係と第1の領域の第1の画像上における位置関係との違いに基づいて決定する。
【0030】
第2決定部6は、第2の画像データ1bで構成される第2の画像上に、再定義部5により再定義された第2の領域と最大の相関関係を有する領域である第2最大相関領域を決定するものである。
【0031】
判定部7は、定義部3で定義した第1の領域と再定義部5で再定義した第2の領域との相互間の位置関係と、第1決定部4で決定した第1最大相関領域と第2決定部6で決定した第2最大相関領域との相互間の位置関係との相違、もしくは、再定義部5で再定義した第2の領域相互間の位置関係と第2決定部6で決定した第2最大相関領域相互間の位置関係との相違、に基づいて、第1の画像データ1aと第2の画像データ1bとの両者の画像の類似の程度を判定し、判定結果2を出力するものである。
【0032】
図1に示す構成によれば、判定部7による第1の画像データ1aと第2の画像データ1bとの類似の程度の判定において、定義部3で定義された第1の領域の第1の画像上における位置関係と、第1決定部4で決定された、第1の領域と最大の相関関係を有する領域である第1最大相関領域の第2の画像上における位置関係と、の違いを反映させて判定を行なうことができる。このことを前述の指紋照合装置の例に当てはめれば、照合指紋データの画像が登録指紋データの画像に対して一方に大きく偏って取得された場合であっても、そのような偏りがデータ間に存在していることを前提として指紋照合を行なうことができる。再定義部5と第2決定部6は、このような不適切な画像データに対して判定部7により行われる照合判定を予め補償するために設けられるものである。以上の構成により、画像照合の照合精度の低下が軽減され、一定の照合精度を維持することが可能となる。
【0033】
なお、第2の領域の再定義では、第1最大相関領域の第2の画像上における位置関係が所定の関係を満たす場合には、第2の領域の元の定義をそのまま用いるようにすると、第2の領域の再定義のための処理に要する時間が不要となり、画像照合に要する時間が短縮できる。また、第2の領域を定義する際に複数の領域を定義した場合には、第2の領域の再定義では、第1最大相関領域の第2の画像上における位置関係が所定の関係を満たす場合に、複数定義されている第2の領域の一部について元の定義をそのまま用いるようにしても、第2の領域の再定義のための処理に要する時間が短縮され、画像照合に要する時間が短縮できる。
【0034】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。なお、ここでは、指紋照合装置において本発明を実施する形態について説明する。
【0035】
図2は、本発明を実施する指紋照合装置の構成を示す図である。この装置は、CPU11、記憶装置12、RAM13、イメージ読み取り装置14、表示部15、入力部16、より構成され、バス17を介して相互に接続されている。
【0036】
CPU11は、記憶装置12に格納されている制御プログラムに従って、RAM13をワークエリアとして使用しながら、この指紋照合装置(以下、「本装置」という)全体の動作を制御する中央演算処理装置である。CPU11は、制御プログラムを実行することにより、後述の指紋照合処理を行なう。
【0037】
記憶装置12は、ROMやハードディスク装置等で構成し、本装置の電源投入直後にCPU11により読み出される前述の制御プログラムを予め格納している他に、図1に示した第1の画像データ1aに相当する被験者の登録指紋を予め格納している。
【0038】
RAM13は、前述の制御プログラムを実行する際にCPU11が使用するワークメモリである。
イメージ読み取り装置14は、図1に示した第2の画像データ1bに相当する被験者の照合指紋を取得するための装置であり、例えば、イメージスキャナ装置やCCD(電荷結合素子)などのイメージセンサである。
【0039】
表示部15は、図1に示した判定結果2に相当する照合の判定結果を表示する、例えばCRTや液晶などといったディスプレイ装置である。
入力部16は、本装置の使用者が照合指紋の取得指示や後述の指紋照合処理の開始をCPU11に指示するための、例えばキーボード装置などの入力装置である。
【0040】
なお、本装置の構成は標準的なコンピュータが備えている構成と大差なく、従って、このような標準的なコンピュータで本装置の機能を実現することも可能である。そのためには、例えば、後述する指紋照合処理に相当する処理をコンピュータに行なわせる指紋照合処理プログラムを記憶した記憶媒体から、その指紋照合処理プログラムをその記憶媒体に応じたコンピュータの有する読取装置で読み取らせて例えば主記憶に一時記憶させ、そしてそのコンピュータに備えられている中央処理装置に実行させればよい。
【0041】
図3に指紋照合処理プログラムを記憶するコンピュータ読み取り可能な記憶媒体の例を示す。同図に示すように、記憶媒体としては、例えば、コンピュータ21に内蔵若しくは外付けの付属装置として備えられるROMやハードディスク装置などの記憶装置22、フロッピーディスク、MO(光磁気ディスク)、CD−ROM、DVD−ROMなどといった携帯可能な記憶媒体23、あるいは、コンピュータ21とネットワーク24を介して接続されるコンピュータであるプログラムサーバ25に付属する記憶装置26、等が利用できる。
【0042】
次に、図2に示したCPU11が行なう制御について説明する。
図4は、CPU11が前述の制御プログラムを実行することにより実現される本装置全体の制御処理のうち、本発明に特に関係する指紋照合処理の処理内容を示すフローチャートである。図5及び図6は、指紋照合処理の説明に用いる指紋画像の例である。図5及び図6はいずれも図12に示したものと同一の指紋画像であり、(a−i )〜(a−iv)は記憶装置12に予め格納されている被験者の登録指紋データ(Aデータ)を示し、(b−i )〜(b−iv)はイメージ読み取り装置14により取得された被験者の照合指紋データ(Bデータ)を示している。また、両図の各画像は、いずれも多階調画像である。
【0043】
以下、CPU11により行われる指紋照合処理を、図4に沿って、図5及び図6を参照しながら、説明する。
指紋照合処理の開始指示が入力部16になされると、まずS101において、図5の(a−i )に示すように、矩形領域のひとつであるメインテンプレートmtをAデータの画像に定義する。このメインテンプレートmtの大きさは、要求される指紋照合の照合精度が得られる限り任意でよい。ここで定義したメインテンプレートmtのAデータの画像上における位置を特定する座標、ここでは長方形であるメインテンプレートmtの重心の座標を(x,y)とする。
【0044】
続いてS102において、図5の(a−i )に示すように、Aデータの画像にメインプレートmtとは異なる複数の矩形領域であるサブテンプレートst(i≧1)を定義する。図5の(a−i )に示す例においてはi=4とし、メインテンプレートmtを囲むように4つの長方形であるサブテンプレートst〜stを同図に示す位置関係で定義している。このサブテンプレートstの大きさも、要求される指紋照合の照合精度が得られる限り任意でよい。ここで定義したサブテンプレートstのAデータの画像上における位置を特定する座標、ここでは長方形であるサブテンプレートstの重心の座標を(x,y)とする。
【0045】
次に、S103において、メインテンプレートmtと同一の形状・大きさの矩形領域をBデータの画像上に設定し、その矩形領域をその画像上で走査させつつ、その矩形領域とメインテンプレートmtとの間の相関係数を逐次算出する。相関係数の算出法としては、ここでは前述した先願に示されていた指紋照合方法において用いられていたものをそのまま使用するが、他の相関係数の算出法を採用してもよい。
【0046】
S104では、相関係数を逐次算出した結果、メインテンプレートmtとの間の相関係数が最大となった前述の矩形領域を求め、領域MTとする。この領域MTのBデータの画像上における位置を特定する座標であって、メインテンプレートmtにおいての座標(x,y)に対応する領域MTの座標を(X,Y)とする。
【0047】
続いて、S105において、領域MTがBデータの画像上に設定される有効領域Eに属するか否か、具体的には領域MTの位置を特定する座標(X,Y)が有効領域Eを示す範囲Ex,y に含まれるか否かを判定する。この判定結果がYesならばS107に進み、NoならばS106に進む。
【0048】
ここで、有効領域Eとは、Bデータの画像上において、領域MTと、サブテンプレートstとの間の相関係数が最大であって、且つ、サブテンプレートstと同一の形状・大きさである矩形領域と、の間でのBデータの画像上での相対的な配置関係が、Aデータの画像上でのメインテンプレートmtとサブテンプレートstとの相対的な配置関係を保持している場合における、領域MTが存在し得るBデータの画像上での範囲を示すものである。本実施の形態においては次式により示される範囲Ex,y をBデータの画像上に設定する。
【0049】
【数4】
Figure 0003567259
【0050】
図5の(b−i )は、同図の(a−i )に示すようにAデータの画像上にメインテンプレートmtとサブテンプレートstとを定義した場合に、Bデータの画像上に有効領域Eの範囲Ex,y が設定された様子を示している。なお、上式において、W、Hはサブテンプレートstの幅(x方向の長さ)、高さ(y方向の長さ)を各々示しており、WIDTH、HEIGHTは、同一の大きさであるAデータ及びBデータそれぞれの画像の幅(x方向の長さ)、高さ(y方向の長さ)を示している。また、xSearch、ySearchは、同一人の指紋画像において、AデータとBデータとの取得作業のばらつき等の原因により、Aデータ上のサブテンプレートstに対応するBデータ上の矩形領域がズレて存在する可能性を有する範囲であり、画像データの画素の単位で4〜6画素程度に相当する値を例えば用いる。また、Max[p,q]は、pとqとのうちの大きい方(等しい場合にはそのどちらか)の値を得る関数である。
【0051】
上式を更に説明する。図7は、有効領域Eの設定手法を説明する図である。同図は、前述の式のうちのα、βを説明するものであり、Aデータの上側部分のみを示している。なお、ここでは、説明を簡単にするために、サブテンプレートst及びstは考えないようにする。
【0052】
前述の式と図7とを参照すれば、α=L、β=WIDTH−Lであることは容易に理解できる。x方向における有効領域Eの範囲を前述の式により求まるα、βの値で設定することにより、サブテンプレートst及びstがx方向に広がって配置するように定義されていた場合には有効領域Eの範囲、すなわち前述した位置関係を保持する場合における領域MTの存在し得る範囲が狭まり、サブテンプレートst及びstがx方向に狭い間隔で配置するように定義されていた場合には有効領域Eの範囲が広がる。
【0053】
図4の説明に戻る。前述したS105において、領域MTが有効領域Eに属さないと判定された場合、つまり、図5の(a−ii)と(b−ii)との関係のように、Aデータの画像上のメインテンプレートmtに対応するBデータの画像上の領域MTが有効領域Eの範囲Ex,y を外れてしまっている場合には、S106において、サブテンプレートstの配置位置を補正してAデータの画像上に再配置する。サブテンプレートstの再配置は図8に示す手順で行なう。
【0054】
図8は、サブテンプレート再配置処理の処理内容を示すフローチャートである。この処理は、座標(x,y)で位置が特定されているサブテンプレートstを座標(xr,yr)で特定される位置に再配置する処理である。
【0055】
同図について説明する。
まず、x方向に関し、領域MTが有効領域Eの範囲に位置しているか否かを判定する(S201及びS203)。
【0056】
判定の結果、領域MTの位置を特定するx座標Xが有効領域Eのx方向の範囲を示すαよりも小さければ、再配置後のサブテンプレートstの配置位置を特定するx座標をxr=x+(α−X)とし (S202)、S206に進む。また、Xが有効領域Eのx方向の範囲を示すβよりも大きければ、再配置後のサブテンプレートstの配置位置を特定するx座標をxr=x−(X−β)とし(S204)、S206に進む。
【0057】
ここで、上記した両者のいずれにも当てはまらない場合、すなわち、Xの値がα以上であってβ以下であるならば、xr=x、すなわち、そのままの値とし(S205)、S206に進む。
【0058】
続いて、領域MTが有効領域Eの範囲に位置しているか否かをy方向に関して同様に判定する(S206及びS208)。
この判定の結果により行なう処理も、前述したx方向に関して行なった処理と同様であり、領域MTの位置を特定するy座標Yが有効領域Eのy方向の範囲を示すαよりも小さければ、再配置後のサブテンプレートstの配置位置を特定するy座標をyr=y+(α−Y)とし(S207)、Yが有効領域Eのy方向の範囲を示すβよりも大きければ、y r=y −(Y−β)とする(S209)。また、これらの両者のいずれにも当てはまらない場合、すなわち、Yの値がα以上であってβ以下であるならば、yr=y、すなわち、そのままの値とする(S210)。
【0059】
以上の手順により、Aデータの画像上に定義していた全てのサブテンプレートstの再配置を行なう。図6の(a−iii )は、Bデータの画像上の領域MTが図5の(b−ii)に示すように有効領域Eの範囲Ex,y を外れてしまっていた場合に、図5の(a−i )に示すように定義されていたサブテンプレートst〜stの再配置を行なった結果を示している。また、図6の(b−iii )は、図6の(a−iii )におけるメインテンプレートmtに対応する領域MTを示すものであり、メインテンプレートmtの位置の移動は行なっていないので、その位置は図5の(b−ii)における位置から移動していない。
【0060】
図4の説明に再び戻る。S105の判定処理の結果がYes、すなわちサブテンプレートstの再配置が不要であったとき、あるいはS106の処理によりサブテンプレートstの再配置を行なった後には、S107において、サブテンプレートstと同一の形状・大きさの矩形領域をBデータの画像上に設定し、その矩形領域をその画像上で走査させつつ、その矩形領域とサブテンプレートstとの間の相関係数を逐次算出する。相関係数の算出法は、ここでは前述したS103で用いたものを用いるが、他の相関係数の算出法を採用してもよい。
【0061】
そして、S108において、相関係数を逐次算出した結果、サブテンプレートstとの間の相関係数が最大となった前述の矩形領域を求め、領域STとする。
【0062】
続いて、S109において、全てのサブテンプレートstに対して領域STを検出し終えたか否かを判定し、判定結果がYesならばS110に進む。一方、判定結果がNoならばS107へ戻り、前述した領域STを求めるための処理を繰り返す。図6の(a−iv)及び(b−iv)は、図6の(a−iii )に示すように再配置されたサブテンプレートst〜stの全てについて、対応する領域ST〜STを取得した結果を、メインテンプレートmt及びその対応する領域MTと共に示したものである。
【0063】
そして、S110において、Aデータが示す画像内におけるメインテンプレートmt及びサブテンプレートstの配置の分布と、Bデータが示す画像内における領域MT及び領域STの配置の分布とを比較することにより、Aデータ(登録指紋データ)とBデータ(照合指紋データ)の同一性を評価する。このステップで実行される同一性の評価は、従来技術として説明した図10のS2005で行われる処理と実質的には同様である。なお、同一性の評価においては、メインテンプレートmt及び領域MTを評価対象から除外し、サブテンプレートstの配置の分布と領域STの配置の分布との比較のみにより評価を行なうことも可能である。
【0064】
以上までに説明した指紋照合処理をCPU11が実行することによって、本装置で指紋の照合が行われる。
なお、上述した本発明の実施の形態においては、メインテンプレートmt、サブテンプレートst、領域MT、領域STをいずれも矩形領域としていたが、これらの領域の形状は矩形に限らず、任意でよい。また、メインテンプレートmtと領域MT、及びサブテンプレートstと領域STの大きさ・形状は同一であることが望ましいが、多少の違いがあったとしても、要求される指紋照合の照合精度が得られる限り許容できる。
【0065】
また、予め定義するメインテンプレートmtとサブテンプレートstとの配置の関係は、上述した本発明の実施の形態においては、図6の(a−i )に示すようにメインテンプレートmtとサブテンプレートstとが接するような位置関係で定義していたが、メインテンプレートmtとサブテンプレートstとが部分的に重なっているような位置関係の定義、あるいは全く離れている位置関係の定義を行なうこともできる。
【0066】
更に、領域MTが有効領域Eに属さないと判定された場合に実行される、図8に処理内容を示したサブテンプレート再配置処理では、サブテンプレートstの各々について同一距離だけ移動させて再配置を行なったが、領域MTが有効領域EのBデータの画像上での上下左右どちらの方向に外れたかを考慮し、その方向に応じてサブテンプレートst各々の再配置位置までの移動距離に違いを持たせるようにしてもよい。このことを図5の(a−i )に示すように定義されていたサブテンプレートst〜stの各々について、再配置後の位置を特定する座標(xr,yr)を求める場合を例にして具体的に説明する。
【0067】
まず、x座標について、領域MTの位置を特定するx座標Xと、有効領域Eのx方向の範囲を示す前述したα及びβとの関係により、
<αの場合には
xr=x+(α−X) [i=2,3]
xr=x+(α−X)×u [i=1,4]
但し、uは0≦u<1の定数
α≦X≦βの場合には
xr=x
β<Xの場合には
xr=x−(X−β) [i=1,4]
xr=x−(X−β)×u [i=2,3]
但し、uは0≦u<1の定数
としてxrを求める。
【0068】
次に、y座標について、領域MTの位置を特定するy座標Yと、有効領域Eのy方向の範囲を示す前述したα及びβとの関係により、
<αの場合には
yr=y+(α−Y) [i=1,2]
yr=y+(α−Y)×v [i=3,4]
但し、vは0≦v<1の定数
α≦Y≦βの場合には
yr=y
β<Yの場合には
yr=y−(Y−β) [i=3,4]
yr=y−(Y−β)×v [i=1,2]
但し、vは0≦v<1の定数
として、yrを求める。
【0069】
なお、上式に従ってサブテンプレートの再配置を行なう場合において、特にu=v=0として再配置を行なうのであれば、たとえ領域MTが有効領域Eに属していなくても、両領域の位置関係によっては一部のサブテンプレートについて再配置をせずに当初定義された配置のままで指紋照合が行なえるようになり、このような場合にはサブテンプレートの再配置処理に要する時間が短縮され、その結果、指紋照合処理の処理時間を短縮することができる。
【0070】
【発明の効果】
本発明は、以上詳細に説明したように、画像の照合判定において、照合対象である2つの画像データ間で最大の相関関係を有する領域の、画像上の位置関係の違いを反映させた照合判定を行なうので、照合の対象としては必ずしも良好ではない、画像が偏って取得されているような画像データの照合を行なっても、画像照合の照合精度の低下が軽減され、一定の照合精度を維持することが可能となる効果を奏する。
【図面の簡単な説明】
【図1】本発明の原理構成を示す図である。
【図2】本発明を実施する指紋照合装置の構成を示す図である。
【図3】指紋照合処理プログラムを記憶するコンピュータ読み取り可能な記憶媒体の例を示す図である。
【図4】指紋照合処理の処理内容を示すフローチャートである。
【図5】指紋照合装置の説明に用いる指紋の画像の例(その1)である。
【図6】指紋照合装置の説明に用いる指紋の画像の例(その2)である。
【図7】有効領域Eの設定手法を説明する図である。
【図8】サブテンプレート再配置処理の処理内容を示すフローチャートである。
【図9】従来の指紋照合の方法の一例の手順を示すフローチャートである。
【図10】先願明細書に記載の指紋照合の方法の手順を示すフローチャートである。
【図11】先願明細書に記載の指紋照合の方法を説明する図である。
【図12】従来技術の抱える問題点を説明する図である。
【符号の説明】
1a 第1の画像データ
1b 第2の画像データ
2 判定結果
3 定義部
4 第1決定部
5 再定義部
6 第2決定部
7 判定部
11 CPU
12 記憶装置
13 RAM
14 イメージ読み取り装置
15 表示部
16 入力部
17 バス
21 コンピュータ
22 記憶装置
23 携帯可能記憶媒体
24 ネットワーク
25 プログラムサーバ
26 記憶装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology for collating image data, and more particularly, to a technology for maintaining a constant collation accuracy even when collating data of an image that is not always good as a collation target. It is suitable for collation and the like.
[0002]
[Prior art]
The fingerprint image data of the subject registered in advance in a database or the like (hereinafter referred to as “registered fingerprint data”) and the fingerprint image data of the subject obtained this time by an image sensor or the like (hereinafter referred to as “verification fingerprint data”) ) Is referred to as a fingerprint collation device for confirming the individual of the subject.
[0003]
An example of a fingerprint collation method performed by a conventional fingerprint collation device will be described with reference to the flowchart shown in FIG.
First, in step S <b> 1001, using an image sensor or the like, collation fingerprint data is acquired as data of a multi-gradation image for shading (hereinafter, referred to as “multi-gradation fingerprint data”).
[0004]
Subsequently, in step S1002, the image data (hereinafter, referred to as “binary matching fingerprint data”) that is simply binarized from the multi-tone matching fingerprint data without performing any secondary processing of data such as interpolation is used. obtain.
[0005]
After that, in S1003, feature points such as branch points and end points of wrinkles constituting the fingerprint (these feature points are called feature figures or Manusha) are extracted from the binarized collation fingerprint data. Then, position information indicating the positions of these characteristic figures on the image of the collation fingerprint data is obtained.
[0006]
In step S1004, the identity of the registered fingerprint data and the verification fingerprint data is evaluated by comparing the positional information acquired in the previous step with the positional information of the characteristic figure on the image of the registered fingerprint data.
[0007]
Some conventional fingerprint matching devices perform fingerprint matching according to the above-described procedure.
Also, the applicant of the present application has filed Japanese Patent Application No. 10-372205 prior to the present application, and the specification attached to the earlier application describes an example of a fingerprint collation method different from that described above. I have. This method can maintain a constant collation accuracy even for fingerprint image data that is not sufficiently clear, and the procedure will be briefly described with reference to FIGS.
[0008]
In the flowchart shown in FIG. 10, first, in S2001, a rectangular area A in a multi-tone image indicated by registered fingerprint data (this data is hereinafter referred to as “A data”).I(I = 1 to N, where N is an integer of 2 or more). In the example of A data shown in FIG. 11A, the rectangular area A in the case of N = 5iThe following shows an example of the definition.
[0009]
In S2002, the rectangular area A in the multi-tone image indicated by the verification fingerprint data (this data is hereinafter referred to as “B data”)iScans a rectangular area having the same shape and size asIAre sequentially calculated. The following calculation method is used to calculate the correlation coefficient.
[0010]
The pixels included in each of the rectangular area A and the rectangular area B are A (i, j) and B (m, n), respectively, and the total number of pixels included in each of the rectangular area A and the rectangular area B is made equal. The signal intensities, which are multi-tone values indicating the shading of each pixel in both regions, are represented by Xij, YmnAnd these signal strengths are generalized to ZpqThe following equation shows the average value of the signal intensity for the pixels included in the rectangular area when
[0011]
(Equation 1)
Figure 0003567259
[0012]
And the following formula indicating the root mean square value of the signal intensity for the pixels included in the rectangular area:
[0013]
(Equation 2)
Figure 0003567259
[0014]
(N indicates the total number of pixels included in the rectangular area, and Σ indicates the total sum of all the pixels included in the rectangular area.)
<Z>, <Z defined by2The following expression indicated by>
[0015]
(Equation 3)
Figure 0003567259
[0016]
Is calculated to obtain the correlation coefficient C between the rectangular area A and the rectangular area B.ABIs calculated.
In S2003, the rectangular area A calculated in the previous step in the image indicated by the B dataiThe rectangular area having the maximum correlation coefficient withiAnd
[0017]
In S2004, all the rectangular areas A defined in the image indicated by the A dataiRectangular area B corresponding toiIs determined in the image indicated by the B data. If the determination result is Yes, the process proceeds to S2005. If the determination result is No, the process returns to S2002 to return to the unacquired B.iIs performed. In the example of the B data shown in FIG. 11B, the rectangular area A shown in FIG.iRectangular areas B corresponding to the definition example ofiIndicates the state in which is acquired.
[0018]
In S2005, the rectangular area A in the image indicated by the A dataiDistribution and the rectangular area B in the image indicated by the B dataiBy comparing with the distribution of the arrangement, the identity of the A data (registered fingerprint data) and the B data (verification fingerprint data) is evaluated.
[0019]
The method described in the specification of the above-mentioned prior application performs fingerprint collation by the above-described procedure.
[0020]
[Problems to be solved by the invention]
FIGS. 12A and 12B are diagrams for explaining the problems of the prior art. FIGS. 12A and 12B are examples of images of registered fingerprint data (A data) and collation fingerprint data (B data) of the same person, respectively. Is shown.
[0021]
Like the B data for the A data shown in the figure, the collation fingerprint data is one of the registered fingerprint data (right in FIG. It is assumed that the information is acquired with a large bias toward (i). According to the method of the prior application described above, the rectangular area A shown in FIG.iArea B where the correlation coefficient in B data is maximumiAre specified, for example, as shown in FIG. In this case, as is apparent from the figure, the rectangular area A in the image indicated by the A data despite the fingerprint image of the same personiDistribution and the rectangular area B in the image indicated by the B dataiIs significantly different from the distribution of the arrangement. Therefore, even if the method of the prior application described above is implemented, there is a high possibility that both fingerprint images are erroneously determined as not belonging to the same person, and a collation error rate of about 0.1% is generally required. This has been a factor that greatly deteriorates the accuracy of fingerprint collation performed.
[0022]
In view of the above problems, it is an object of the present invention to be able to maintain a certain level of collation accuracy even when collating image data that is not necessarily good as a collation target.
[0023]
[Means for Solving the Problems]
According to the present invention, when comparing the image data forming the first image with the image data forming the second image to determine the degree of similarity between the two images, the first region and the first region are compared. And one or more second regions having a predetermined positional relationship with the first region are defined on the first image, and a maximum correlation between the first region and the second region is defined on the second image. Determining a first maximum correlation area which is an area having the following formula, and redefining the second area on the first image based on a positional relationship of the first maximum correlation area on the second image. Determining, on the second image, a second maximum correlation area, which is an area having a maximum correlation with the redefined second area, and redefining the second area as the first area And the positional relationship between the first maximum correlation area and the second maximum correlation area. The above-described problem is solved by determining the degree of similarity based on a difference or a difference between a redefined positional relationship between the second regions and a positional relationship between the second maximum correlation regions. Resolve.
[0024]
FIG. 1 is a diagram showing the principle configuration of the present invention. In the figure, the first image data 1a and the second image data 1b are collated to determine the degree of similarity of the images constituting the two, and the result is output as the determination result 2.
[0025]
The first image data 1a is, for example, image data registered in advance in a database or the like, and corresponds to, for example, registered fingerprint data when applied to the above-described example of the fingerprint matching device.
[0026]
The second image data 1b is, for example, image data obtained using an image sensor or the like, and corresponds to, for example, collation fingerprint data when applied to the above-described example of the fingerprint collation device.
[0027]
The relationship between the first and second image data (1a, 1b), the registered fingerprint data, and the collated fingerprint data may be interchanged.
The definition unit 3 includes, on a first image composed of the first image data 1a, a first area and one or more second areas having a predetermined positional relationship between the first area and the first area. Is defined. The definition of these regions is arbitrary, and if each region is not the same, for example, it may include a portion overlapping between the regions.
[0028]
The first determination unit 4 is a first maximum correlation area which is an area having the maximum correlation with the first area defined by the definition unit 3 on the second image composed of the second image data 1b. Is determined.
[0029]
The redefinition unit 5 maps the second area defined by the definition unit 3 on the first image based on the positional relationship on the second image of the first maximum correlation area determined by the first determination unit 4. Is redefined. The redefinition by the redefinition unit 5 is determined based on, for example, a difference between a positional relationship of the first maximum correlation area on the second image and a positional relationship of the first area on the first image.
[0030]
The second determination unit 6 is a second maximum image, which is an area having the largest correlation with the second area redefined by the redefinition unit 5, on the second image composed of the second image data 1b. This is for determining the correlation area.
[0031]
The determination unit 7 determines a positional relationship between the first area defined by the definition unit 3 and the second area redefined by the redefinition unit 5 and a first maximum correlation area determined by the first determination unit 4. And the second maximum correlation area determined by the second determining unit 6, or the positional relationship between the second areas redefined by the redefining unit 5 and the second determining unit 6 The degree of similarity between the images of the first image data 1a and the second image data 1b is determined on the basis of the difference between the second maximum correlation areas and the positional relationship determined in the above. Is output.
[0032]
According to the configuration shown in FIG. 1, in the determination of the degree of similarity between the first image data 1 a and the second image data 1 b by the determination unit 7, the first area of the first area defined by the definition unit 3 is determined. The difference between the positional relationship on the image and the positional relationship on the second image of the first maximum correlation area, which is the area having the maximum correlation with the first area, determined by the first determination unit 4. The judgment can be made with the reflection. If this is applied to the above-described example of the fingerprint collation device, even when the image of the collation fingerprint data is largely deviated to one side with respect to the image of the registered fingerprint data, such an imbalance is generated between the data. The fingerprint collation can be performed on the assumption that the fingerprint is present. The redefinition unit 5 and the second determination unit 6 are provided to compensate in advance the collation determination performed by the determination unit 7 on such inappropriate image data. With the above configuration, a decrease in the collation accuracy of the image collation is reduced, and a constant collation accuracy can be maintained.
[0033]
In the redefinition of the second region, if the positional relationship of the first maximum correlation region on the second image satisfies a predetermined relationship, the original definition of the second region is used as it is. The time required for the process for redefining the second area is not required, and the time required for image comparison can be reduced. When a plurality of regions are defined when defining the second region, in the redefinition of the second region, the positional relationship of the first maximum correlation region on the second image satisfies a predetermined relationship. In this case, even if the original definition is used as it is for a part of the plurality of defined second areas, the time required for the process for redefining the second area is reduced, and the time required for image matching is reduced. Can be shortened.
[0034]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, an embodiment in which the present invention is implemented in a fingerprint matching device will be described.
[0035]
FIG. 2 is a diagram showing a configuration of a fingerprint collation device embodying the present invention. This device includes a CPU 11, a storage device 12, a RAM 13, an image reading device 14, a display unit 15, and an input unit 16, and is interconnected via a bus 17.
[0036]
The CPU 11 is a central processing unit that controls the entire operation of the fingerprint matching device (hereinafter, referred to as “this device”) using the RAM 13 as a work area in accordance with a control program stored in the storage device 12. The CPU 11 performs a fingerprint collation process described later by executing the control program.
[0037]
The storage device 12 is configured by a ROM, a hard disk device, or the like. In addition to storing the above-described control program read out by the CPU 11 immediately after turning on the power of the device, the storage device 12 stores the first image data 1a shown in FIG. The registered fingerprint of the corresponding subject is stored in advance.
[0038]
The RAM 13 is a work memory used by the CPU 11 when executing the above-described control program.
The image reading device 14 is a device for acquiring a collation fingerprint of the subject corresponding to the second image data 1b shown in FIG. 1, and is, for example, an image scanner or an image sensor such as a CCD (charge coupled device). is there.
[0039]
The display unit 15 is a display device, such as a CRT or a liquid crystal, for displaying a collation determination result corresponding to the determination result 2 shown in FIG.
The input unit 16 is an input device, such as a keyboard device, for the user of the present apparatus to instruct the CPU 11 to obtain a verification fingerprint and to start a fingerprint verification process described later.
[0040]
Note that the configuration of the present apparatus is not much different from the configuration provided in a standard computer, and therefore, it is also possible to realize the functions of the present apparatus with such a standard computer. For this purpose, for example, the fingerprint collation processing program is read from a storage medium storing a fingerprint collation processing program for causing a computer to perform processing equivalent to a fingerprint collation processing described later, using a reading device of the computer corresponding to the storage medium. Then, for example, it may be temporarily stored in a main memory, and then executed by a central processing unit provided in the computer.
[0041]
FIG. 3 shows an example of a computer-readable storage medium for storing a fingerprint collation processing program. As shown in the figure, as the storage medium, for example, a storage device 22 such as a ROM or a hard disk device provided as a built-in or external accessory device in the computer 21, a floppy disk, an MO (magneto-optical disk), , A portable storage medium 23 such as a DVD-ROM, or a storage device 26 attached to a program server 25 which is a computer connected to the computer 21 via a network 24.
[0042]
Next, control performed by CPU 11 shown in FIG. 2 will be described.
FIG. 4 is a flowchart showing the details of fingerprint collation processing which is particularly related to the present invention, out of the control processing of the entire apparatus realized by the CPU 11 executing the above-described control program. FIG. 5 and FIG. 6 are examples of fingerprint images used for explaining the fingerprint collation processing. 5 and 6 are the same fingerprint images as those shown in FIG. 12, and (ai) to (a-iv) indicate the registered fingerprint data (A) of the subject stored in the storage device 12 in advance. (B-i) to (b-iv) show the fingerprint data (B data) of the subject obtained by the image reading device 14. Each image in both figures is a multi-tone image.
[0043]
Hereinafter, the fingerprint collation processing performed by the CPU 11 will be described with reference to FIGS. 4 and 5 and 6.
When an instruction to start the fingerprint collation processing is given to the input unit 16, first, in S101, as shown in (a-i) of FIG. 5, a main template mt, which is one of the rectangular areas, is defined in the A data image. The size of the main template mt may be arbitrarily set as long as required collation accuracy of fingerprint collation is obtained. The coordinates specifying the position of the A data of the main template mt defined here on the image, that is, the coordinates of the center of gravity of the main template mt, which is a rectangle here, are (x0, Y0).
[0044]
Subsequently, in S102, as shown in (a-i) of FIG. 5, the sub-template st which is a plurality of rectangular areas different from the main plate mt is added to the A data image.i(I ≧ 1) is defined. In the example shown in (a-i) of FIG. 5, i = 4, and four rectangular sub-templates st surround the main template mt.1~ St4Are defined by the positional relationship shown in FIG. This sub template stiMay be arbitrarily determined as long as required fingerprint matching accuracy is obtained. Sub template st defined herei, Which specifies the position of the A data on the image on the image, here a rectangular sub-template stiCoordinates of the center of gravity of (xi, Yi).
[0045]
Next, in S103, a rectangular area having the same shape and size as the main template mt is set on the image of the B data, and the rectangular area is scanned on the image while the rectangular area and the main template mt are scanned. The correlation coefficient between them is sequentially calculated. As the method of calculating the correlation coefficient, the method used in the fingerprint matching method shown in the above-mentioned prior application is used as it is, but another method of calculating the correlation coefficient may be employed.
[0046]
In S104, as a result of sequentially calculating the correlation coefficient, the above-described rectangular area in which the correlation coefficient with the main template mt is maximized is determined as an area MT. Coordinates specifying the position of the B data in the area MT on the image, which are coordinates (x0, Y0), The coordinates of the area MT corresponding to (X)0, Y0).
[0047]
Subsequently, in S105, whether or not the area MT belongs to the effective area E set on the image of the B data, specifically, the coordinates (X0, Y0) Is the range E indicating the effective area Ex, yIs determined. If this determination result is Yes, the process proceeds to S107, and if No, the process proceeds to S106.
[0048]
Here, the effective area E is an area MT and a sub template st on the B data image.iIs the largest and the sub-template stiThe relative arrangement relationship of the B data on the image between the rectangular area having the same shape and size as the main template mt and the sub template st on the A data imageiThis shows the range on the image of the B data in which the area MT can exist when the relative arrangement relationship with the above is held. In the present embodiment, a range E represented by the following equationx, yIs set on the image of the B data.
[0049]
(Equation 4)
Figure 0003567259
[0050]
(Bi) of FIG. 5 shows the main template mt and the sub template st on the image of the A data as shown in (ai) of FIG.iIs defined, the range E of the effective area E is displayed on the image of the B data.x, yShows a state where is set. In the above equation, Wi, HiIs the sub template sti(Width in the x direction) and height (length in the y direction) are respectively shown, and WIDTH and HEIGHT are the widths of the images of the A data and the B data having the same size (in the x direction). Length) and height (length in the y direction). Also, xiSearch, yiSearch uses the sub-template st on the A data in the fingerprint image of the same person due to a variation in the acquisition work between the A data and the B data.IIs a range in which there is a possibility that a rectangular area on the B data corresponding to the image data is shifted, and a value corresponding to about 4 to 6 pixels in pixel units of image data is used, for example. Max [p, q] is a function that obtains the larger value of p and q (if equal, either of them).
[0051]
The above equation will be further described. FIG. 7 is a diagram illustrating a method for setting the effective area E. The figure shows that α in the above equationx, ΒxAnd only the upper part of the A data is shown. Here, for the sake of simplicity, the sub template st3And st4Do not think.
[0052]
Referring to the above equation and FIG.x= L1, Βx= WIDTH-L2Can be easily understood. The range of the effective area E in the x direction is determined by αx, ΒxBy setting the value of the sub template st1And st2Is defined so as to spread in the x direction, the range of the effective area E, that is, the range where the area MT can exist when the above-described positional relationship is maintained, is reduced, and the sub-template st1And st2Are defined to be arranged at a small interval in the x direction, the range of the effective area E is widened.
[0053]
Returning to the description of FIG. In the above-described S105, when it is determined that the area MT does not belong to the effective area E, that is, as in the relationship between (a-ii) and (b-ii) in FIG. The area MT on the image of the B data corresponding to the template mt is the range E of the effective area E.x, yIn step S106, the sub template stiIs corrected and re-arranged on the A data image. Sub template stiAre performed according to the procedure shown in FIG.
[0054]
FIG. 8 is a flowchart showing the contents of the sub-template relocation processing. This processing is performed for coordinates (xi, Yi) The sub-template st whose position is specified byiTo the coordinates (xri, YriThis is a process of relocating to the position specified by ()).
[0055]
FIG.
First, it is determined whether or not the area MT is located in the range of the effective area E in the x direction (S201 and S203).
[0056]
As a result of the determination, x coordinate X specifying the position of area MT0Indicates the range of the effective area E in the x direction.xIf smaller than, the sub-template st after rearrangementiXr is the x coordinate that specifies the placement position ofi= Xi+ (Αx-X0) (S202), and then proceeds to S206. Also, X0Represents the range of the effective area E in the x direction.xIf it is larger than sub template st after rearrangementiXr is the x coordinate that specifies the placement position ofi= Xi− (X0−βx) (S204), and proceeds to S206.
[0057]
Here, when neither of the above-mentioned cases applies, that is, X0Is αxAnd βxXr ifi= XiThat is, the value is left as it is (S205), and the process proceeds to S206.
[0058]
Subsequently, it is similarly determined whether or not the area MT is located within the range of the effective area E in the y direction (S206 and S208).
The processing performed based on the result of this determination is the same as the processing performed in the x direction described above, and the y coordinate Y specifying the position of the area MT is set.0Represents the range of the effective area E in the y direction.yIf smaller than, the sub-template st after rearrangementiYr is the y coordinate that specifies the arrangement position ofi= Yi+ (Αy-Y0) (S207), and Y0Denotes the range of the effective area E in the y direction.yYri= Yi− (Y0−βy) (S209). If neither of these conditions applies, that is, Y0Is αyAnd βyYr ifi= YiThat is, the value is used as it is (S210).
[0059]
By the above procedure, all the sub templates st defined on the image of the A dataiIs rearranged. (A-iii) of FIG. 6 shows that the area MT on the image of the B data is in the range E of the effective area E as shown in (b-ii) of FIG.x, y, The sub template st defined as shown in (a-i) of FIG.1~ St4Shows the result of the rearrangement. Also, (b-iii) of FIG. 6 shows the area MT corresponding to the main template mt in (a-iii) of FIG. 6, and since the position of the main template mt has not been moved, its position is shown. Does not move from the position in (b-ii) of FIG.
[0060]
Returning to the description of FIG. The result of the determination processing in S105 is Yes, that is, the sub-template stiIs not necessary, or the sub template stiAfter the rearrangement of the sub template stiA rectangular area having the same shape and size as the above is set on the image of the B data, and the rectangular area is scanned on the image while the rectangular area and the sub template st are set.iAre sequentially calculated. Here, the calculation method of the correlation coefficient is the one used in S103 described above, but another calculation method of the correlation coefficient may be adopted.
[0061]
Then, in S108, as a result of sequentially calculating the correlation coefficient, the sub template stiThe rectangular area where the correlation coefficient betweeniAnd
[0062]
Subsequently, in S109, all sub-templates stiRegion STiIt is determined whether or not has been detected, and if the determination result is Yes, the process proceeds to S110. On the other hand, if the determination result is No, the process returns to S107, and the above-described region STiIs repeated. (A-iv) and (b-iv) of FIG. 6 show the sub-templates st rearranged as shown in (a-iii) of FIG.1~ St4, The corresponding area ST1~ ST4Are shown together with the main template mt and its corresponding region MT.
[0063]
Then, in S110, the main template mt and the sub template st in the image indicated by the A datai, And the regions MT and ST in the image indicated by the B data.iBy comparing with the distribution of the arrangement, the identity of the A data (registered fingerprint data) and the B data (verification fingerprint data) is evaluated. The evaluation of the identity performed in this step is substantially the same as the processing performed in S2005 of FIG. 10 described as the related art. In the evaluation of the identity, the main template mt and the area MT are excluded from the evaluation target, and the sub template stiDistribution and area STiIt is also possible to make an evaluation only by comparison with the distribution of the arrangement.
[0064]
When the CPU 11 executes the fingerprint collation processing described above, fingerprint collation is performed by the present apparatus.
In the above-described embodiment of the present invention, the main template mt and the sub template sti, Region MT, region STiAre rectangular areas, but the shapes of these areas are not limited to rectangles, and may be arbitrary. Also, the main template mt and the area MT, and the sub template stiAnd region STiAlthough it is desirable that the sizes and shapes of are the same, it is acceptable even if there are some differences as long as the required matching accuracy of the fingerprint matching is obtained.
[0065]
In addition, a pre-defined main template mt and sub-template stiIn the embodiment of the present invention described above, the relationship between the main template mt and the sub template st is shown in FIG. 6 (a-i).iIs defined in such a way that the main template mt and the sub template stiIt is also possible to define a positional relationship in which is partially overlapped, or a positional relationship in which they are completely separated.
[0066]
Further, in the sub-template rearrangement processing shown in FIG. 8 which is executed when it is determined that the area MT does not belong to the effective area E, the sub-template stiWere moved by the same distance for each of the sub-templates, but considering whether the area MT deviated in the upper, lower, left, or right direction on the image of the B data of the effective area E, the sub template stiThe moving distance to each relocation position may be made different. This is illustrated by the sub template st defined as shown in FIG.1~ St4For each of the coordinates (xri, Yri) Will be described in detail with reference to an example.
[0067]
First, with respect to the x coordinate, an x coordinate X specifying the position of the area MT0And the aforementioned α indicating the range of the effective area E in the x directionxAnd βxDue to the relationship with
X0xIn Case of
xri= Xi+ (Αx-X0) [I = 2,3]
xri= Xi+ (Αx-X0) × u [i = 1, 4]
Where u is a constant of 0 ≦ u <1
αx≤X0≤βxIn Case of
xri= Xi
βx<X0In Case of
xri= Xi− (X0−βx) [I = 1,4]
xri= Xi− (X0−βx) × u [i = 2, 3]
Where u is a constant of 0 ≦ u <1
XriAsk for.
[0068]
Next, for the y coordinate, the y coordinate Y specifying the position of the area MT0And the above α indicating the range of the effective area E in the y directionyAnd βyDue to the relationship with
Y0yIn Case of
yri= Yi+ (Αy-Y0) [I = 1, 2]
yri= Yi+ (Αy-Y0) × v [i = 3, 4]
Where v is a constant of 0 ≦ v <1
αy≤Y0≤βyIn Case of
yri= Yi
βy<Y0In Case of
yri= Yi− (Y0−βy) [I = 3, 4]
yri= Yi− (Y0−βy) × v [i = 1, 2]
Where v is a constant of 0 ≦ v <1
As yriAsk for.
[0069]
In the case where the sub-template is rearranged in accordance with the above equation, especially if the rearrangement is performed with u = v = 0, even if the area MT does not belong to the effective area E, the sub-template is determined by the positional relationship between the two areas. Can perform fingerprint matching with the originally defined arrangement without rearranging some sub-templates.In such a case, the time required for sub-template rearrangement processing is reduced, As a result, the processing time of the fingerprint collation processing can be reduced.
[0070]
【The invention's effect】
As described in detail above, in the present invention, in the image collation determination, the collation determination reflecting the difference in the positional relationship on the image of the region having the maximum correlation between the two image data to be collated is performed Therefore, even if image data that is not necessarily good as a target for comparison and image data is skewed is obtained, a decrease in the accuracy of image comparison is reduced and a certain level of accuracy is maintained. This has the effect that it becomes possible to perform
[Brief description of the drawings]
FIG. 1 is a diagram showing the principle configuration of the present invention.
FIG. 2 is a diagram illustrating a configuration of a fingerprint matching device that implements the present invention.
FIG. 3 is a diagram illustrating an example of a computer-readable storage medium that stores a fingerprint collation processing program.
FIG. 4 is a flowchart showing the details of a fingerprint collation process;
FIG. 5 is an example (part 1) of a fingerprint image used for describing the fingerprint collation device.
FIG. 6 is an example (part 2) of a fingerprint image used for explaining the fingerprint collation device.
FIG. 7 is a diagram illustrating a method for setting an effective area E.
FIG. 8 is a flowchart showing processing contents of a sub-template relocation processing.
FIG. 9 is a flowchart showing a procedure of an example of a conventional fingerprint matching method.
FIG. 10 is a flowchart showing a procedure of a fingerprint collation method described in the specification of the prior application.
FIG. 11 is a diagram illustrating a fingerprint collation method described in the specification of the prior application.
FIG. 12 is a diagram for explaining a problem of the related art.
[Explanation of symbols]
1a First image data
1b Second image data
2 Judgment results
3 Definition part
4 First decision part
5 Redefinition section
6 Second decision part
7 Judgment unit
11 CPU
12 Storage device
13 RAM
14 Image reading device
15 Display
16 Input section
17 Bus
21 Computer
22 Storage
23 Portable storage media
24 Network
25 Program Server
26 Storage device

Claims (7)

第1の画像を構成する画像データと第2の画像を構成する画像データとを照合して両者の画像の類似の程度を判定する画像データ照合方法であって、
第1の領域と、該第1の領域との間に所定の位置関係を有する1以上の第2の領域と、を前記第1の画像上に定義し、
前記第2の画像上に、前記第1の領域と最大の相関関係を有する領域である第1最大相関領域を決定し、
前記第1最大相関領域の前記第2の画像上における位置関係に基づいて、前記第2の領域を前記第1の画像上で再定義し、
前記第2の画像上に、再定義した前記第2の領域と最大の相関関係を有する領域である第2最大相関領域を決定し、
前記第1の領域と再定義した前記第2の領域との相互間の位置関係と、前記第1最大相関領域と前記第2最大相関領域との相互間の位置関係との相違、もしくは、再定義した該第2の領域相互間の位置関係と該第2最大相関領域相互間の位置関係との相違、に基づいて前記類似の程度を判定する、
ことを特徴とする画像データ照合方法。
An image data matching method for comparing image data constituting a first image and image data constituting a second image to determine a degree of similarity between the two images,
Defining, on the first image, a first region and one or more second regions having a predetermined positional relationship with the first region;
Determining a first maximum correlation area, which is an area having a maximum correlation with the first area, on the second image;
Redefining the second area on the first image based on a positional relationship of the first maximum correlation area on the second image;
On the second image, determine a second maximum correlation area, which is an area having the maximum correlation with the redefined second area,
The difference between the positional relationship between the first region and the redefined second region and the positional relationship between the first maximum correlation region and the second maximum correlation region, or Determining the degree of similarity based on a difference between the defined positional relationship between the second regions and the positional relationship between the second maximum correlation regions,
An image data collation method characterized by the above-mentioned.
前記第2の領域の再定義の仕方を、前記第1最大相関領域の前記第2の画像上における位置関係と前記第1の領域の前記第1の画像上における位置関係との相違に基づいて決定することを特徴とする請求項1に記載の画像データ照合方法。The method of redefining the second region is based on a difference between a positional relationship of the first maximum correlation region on the second image and a positional relationship of the first region on the first image. The method according to claim 1, wherein the image data is collated. 前記第2の領域の再定義では、前記第1最大相関領域の前記第2の画像上における位置関係が所定の関係を満たす場合には、該第2の領域の元の定義をそのまま用いることを特徴とする請求項1に記載の画像データ照合方法。In the redefinition of the second region, when the positional relationship of the first maximum correlation region on the second image satisfies a predetermined relationship, the original definition of the second region is used as it is. The image data collation method according to claim 1, wherein: 前記第2の領域の定義では、複数の領域を定義し、前記第2の領域の再定義では、前記第1最大相関領域の前記第2の画像上における位置関係が所定の関係を満たす場合には、複数定義されている該第2の領域の一部について元の定義をそのまま用いる、ことを特徴とする請求項1に記載の画像データ照合方法。In the definition of the second area, a plurality of areas are defined, and in the redefinition of the second area, when the positional relationship of the first maximum correlation area on the second image satisfies a predetermined relationship. 2. The image data matching method according to claim 1, wherein the original definition is used as it is for a part of the plurality of defined second regions. 前記第1及び第2の画像は指紋の画像であることを特徴とする請求項1からまでのいずれか1に記載の画像データ照合方法。Image data verification method according to any one of claims 1 to 4 wherein the first and second images, characterized in that an image of a fingerprint. 第1の画像を構成する画像データと第2の画像を構成する画像データとを照合して両者の画像の類似の程度を判定する画像データ照合装置であって、
第1の領域と、該第1の領域との間に所定の位置関係を有する1以上の第2の領域と、を前記第1の画像上に定義する定義手段と、
前記第2の画像上に、前記第1の領域と最大の相関関係を有する領域である第1最大相関領域を決定する第1決定手段と、
前記第1最大相関領域の前記第2の画像上における位置関係に基づいて、前記第2の領域を前記第1の画像上で再定義する再定義手段と、
前記第2の画像上に、再定義した前記第2の領域と最大の相関関係を有する領域である第2最大相関領域を決定する第2決定手段と、
前記第1の領域と再定義した前記第2の領域との相互間の位置関係と、前記第1最大相関領域と前記第2最大相関領域との相互間の位置関係との相違、もしくは、再定義した該第2の領域相互間の位置関係と該第2最大相関領域相互間の位置関係との相違、に基づいて前記類似の程度を判定する判定手段と、
を有することを特徴とする画像データ照合装置。
An image data collating apparatus which collates image data constituting a first image with image data constituting a second image to determine a degree of similarity between the two images,
Definition means for defining a first area and one or more second areas having a predetermined positional relationship with the first area on the first image;
First determining means for determining, on the second image, a first maximum correlation area that is an area having a maximum correlation with the first area;
Redefining means for redefining the second area on the first image based on a positional relationship of the first maximum correlation area on the second image;
Second determining means for determining, on the second image, a second maximum correlation area that is an area having a maximum correlation with the redefined second area;
The difference between the positional relationship between the first region and the redefined second region and the positional relationship between the first maximum correlation region and the second maximum correlation region, or Determining means for determining the degree of similarity based on a defined positional relationship between the second regions and a positional relationship between the second maximum correlation regions,
An image data collation device comprising:
第1の画像を構成する画像データと第2の画像を構成する画像データとを照合して両者の画像の類似の程度を判定する制御をコンピュータに行なわせる画像データ照合プログラムを記憶した、該コンピュータで読み取り可能な記憶媒体であって、
第1の領域と、該第1の領域との間に所定の位置関係を有する1以上の第2の領域と、を前記第1の画像上に定義する制御と、
前記第2の画像上に、前記第1の領域と最大の相関関係を有する領域である第1最大相関領域を決定する制御と、
前記第1最大相関領域の前記第2の画像上における位置関係に基づいて、前記第2の領域を前記第1の画像上で再定義する制御と、
前記第2の画像上に、再定義した前記第2の領域と最大の相関関係を有する領域である第2最大相関領域を決定する制御と、
前記第1の領域と再定義した前記第2の領域との相互間の位置関係と、前記第1最大相関領域と前記第2最大相関領域との相互間の位置関係との相違、もしくは、再定義した該第2の領域相互間の位置関係と該第2最大相関領域相互間の位置関係との相違、に基づいて前記類似の程度を判定する制御と、
をコンピュータに実行させる画像データ照合プログラムを記憶した記憶媒体。
An image data collation program for causing a computer to perform a control of collating image data constituting a first image with image data constituting a second image to determine the degree of similarity between the two images; A storage medium readable by:
A control for defining a first region and one or more second regions having a predetermined positional relationship with the first region on the first image;
Control for determining a first maximum correlation area, which is an area having a maximum correlation with the first area, on the second image;
Control for redefining the second area on the first image based on a positional relationship of the first maximum correlation area on the second image;
On the second image, control to determine a second maximum correlation area that is an area having the maximum correlation with the redefined second area;
The difference between the positional relationship between the first region and the redefined second region and the positional relationship between the first maximum correlation region and the second maximum correlation region, or Control for determining the degree of similarity based on the difference between the defined positional relationship between the second regions and the positional relationship between the second maximum correlation regions,
Storage medium storing an image data collation program for causing a computer to execute the program.
JP16676899A 1998-12-28 1999-06-14 Image data collation method, image data collation device, and storage medium storing image data collation program Expired - Fee Related JP3567259B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP16676899A JP3567259B2 (en) 1999-06-14 1999-06-14 Image data collation method, image data collation device, and storage medium storing image data collation program
AT99125650T ATE358854T1 (en) 1998-12-28 1999-12-22 DEVICE AND METHOD FOR IMAGE COMPARISON
EP99125650A EP1017008B1 (en) 1998-12-28 1999-12-22 Apparatus and method for collating image
US09/468,633 US6707934B1 (en) 1998-12-28 1999-12-22 Apparatus and method for collating image
DE69935705T DE69935705T2 (en) 1998-12-28 1999-12-22 Device and method for image comparison
TW089113234A TW522344B (en) 1998-12-28 2000-07-04 Apparatus and method for collating image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16676899A JP3567259B2 (en) 1999-06-14 1999-06-14 Image data collation method, image data collation device, and storage medium storing image data collation program

Publications (2)

Publication Number Publication Date
JP2000357227A JP2000357227A (en) 2000-12-26
JP3567259B2 true JP3567259B2 (en) 2004-09-22

Family

ID=15837347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16676899A Expired - Fee Related JP3567259B2 (en) 1998-12-28 1999-06-14 Image data collation method, image data collation device, and storage medium storing image data collation program

Country Status (1)

Country Link
JP (1) JP3567259B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4501627B2 (en) * 2004-10-19 2010-07-14 カシオ計算機株式会社 Image collation device, image collation method, and image collation program

Also Published As

Publication number Publication date
JP2000357227A (en) 2000-12-26

Similar Documents

Publication Publication Date Title
JP2776295B2 (en) Image index generation method and image index generation device
JP4670664B2 (en) Image recognition device
JP3883696B2 (en) Method for scanning and detecting multiple photos and removing artificial edges
JP6794766B2 (en) Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit
US6898316B2 (en) Multiple image area detection in a digital image
US6674902B1 (en) Image processing apparatus image processing method, and storage medium
US7970185B2 (en) Apparatus and methods for capturing a fingerprint
JP3170299B2 (en) Image reading processing device
US20030035098A1 (en) Pose estimation method and apparatus
EP1017008B1 (en) Apparatus and method for collating image
JP2001041899A (en) Apparatus for discriminating contamination degree of paper sheet
JP3567259B2 (en) Image data collation method, image data collation device, and storage medium storing image data collation program
JP2003162719A (en) Detection of pattern in digital image
US5825916A (en) Illuminant color detection
JP4088386B2 (en) How to update map information
JPH06282652A (en) Picture contour extraction device
JP3386733B2 (en) Image data collation method, image data collation device, and storage medium storing image data collation program
JP3674418B2 (en) Image data collation device, image data collation method, and storage medium storing image data collation processing program
KR100533209B1 (en) Method for detecting image
KR100443142B1 (en) Apparatus and method for collating image
US20020159654A1 (en) Method for processing an image of a concrete construction
JP3199009B2 (en) Image storage / management apparatus and image index generation method
JP2003216952A (en) Method and device for collation of image data and program therefor
JP3948283B2 (en) Image data collation method, image data collation apparatus, and program
JP2001344606A (en) Method and device for collating picture data and storage medium with picture data collation program stored thereon

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120625

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120625

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees