JP4380205B2 - Image collation device and image collation method - Google Patents

Image collation device and image collation method Download PDF

Info

Publication number
JP4380205B2
JP4380205B2 JP2003108390A JP2003108390A JP4380205B2 JP 4380205 B2 JP4380205 B2 JP 4380205B2 JP 2003108390 A JP2003108390 A JP 2003108390A JP 2003108390 A JP2003108390 A JP 2003108390A JP 4380205 B2 JP4380205 B2 JP 4380205B2
Authority
JP
Japan
Prior art keywords
image
unit
similarity
correlation
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003108390A
Other languages
Japanese (ja)
Other versions
JP2004272859A (en
Inventor
健 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003108390A priority Critical patent/JP4380205B2/en
Publication of JP2004272859A publication Critical patent/JP2004272859A/en
Application granted granted Critical
Publication of JP4380205B2 publication Critical patent/JP4380205B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、指紋画像、静止画像、動画像等の画像情報に基づいて照合を行う画像照合装置および画像照合方法に関するものである。
【0002】
【従来の技術】
従来、画像情報に基づいて照合を行う方法として、種々のパターン照合装置が知られている。例えばパターン照合装置としては、登録画像と、比較対象となる照合画像とを、所定の位置関係でのみ比較し相関値を算出し、その相関値に基づいて登録画像と照合画像の照合を行う。
【0003】
【発明が解決しようとする課題】
しかし、従来のパターン照合装置では、画像のパターンの種類によっては、ほぼ同じ画像であっても相関値が高くならずに、そのピークのみを用いても高精度に照合を行えない場合があり、改善が望まれている。
【0004】
本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像間の照合を高精度に行うことができる画像照合装置および画像照合方法を提供することにある。
【0005】
【課題を解決するための手段】
前記目的を達成するために、本発明の第1の観点は、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像をフーリエ変換するフーリエ変換部と、前記第1の画像と第2の画像をフーリエ変換した後極座標変換して極座標から位相を求める座標変換部と、座標変換部で得られた前記第1と第2の画像に対応する位相を合成し、当該合成した位相を逆フーリエ変換して相関強度画像におけるピーク位置を求める第1の位相限定相関部と、前記相関強度画像におけるピーク位置の画像中心からのずれ量を検出し、該ずれ量により、前記第2の画像である照合画像を前記第1の画像である登録画像に対して拡大、縮小、回転処理して補正する補正部と、前記第1の画像と、前記補正部で前記補正された第2の画像を、それぞれフーリエ変換したのち合成し位相を抽出して該抽出した位相を逆フーリエ変換してピーク位置を求める第2の位相限定相関部と、前記第2の位相限定相関部から出力された複数の前記ピーク位置を基に、前記第1の画像と前記補正された第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定手段と、前記候補特定手段で特定された前記第1の画像と前記補正された第2の画像との間の2次元上の異なる複数の位置関係のそれぞれにおいて、前記第1の画像と前記補正された第2の画像とを比較して類似度を生成する類似度生成手段と、前記類似度生成手段が生成した前記類似度を積算する積算手段と、前記積算手段が積算した前記類似度を基に、前記第1の画像と前記補正された第2の画像とを照合する照合手段とを有する。
【0006】
本発明の第1の観点によれば、前記画像照合装置は、さらに、前記座標変換部の前に前記フーリエ変換された画像を対数変換する対数変換部を有する。
また、前記画像照合装置は、さらに類似度補正手段を有し、該類似度補正手段は、前記類似度生成手段で前記第1の画像と前記補正された第2の画像のお互い異なる方向の線形パターンの交点から類似度を求め、該交点の周囲の所定個数の画素において中心部以外の交点の有無により該中心部の交点の相関を判別し、該相関を用いて前記類似度を補正して前記積算手段に出力する。
また、前記類似度補正手段は、前記第1の画像と前記補正された第2の画像のお互い異なる方向の線形パターンで構成される画像全体について求めた上記相関のある交点数を前記画像全体の全交点数で割り算した値を有効率とし、該有効率を前記類似度生成手段が生成した類似度に乗算して補正処理を行い、補正した類似度を生成する。
【0007】
さらに、前記目的を達成するために、本発明の第2の観点は、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、第1の画像と前記第2の画像をフーリエ変換する第1の工程と、前記第1の画像と第2の画像をフーリエ変換した後極座標変換して極座標から位相を求める第2の工程と、座標変換して得られた前記第1と第2の画像に対応する位相を合成し、当該合成した位相を逆フーリエ変換して相関強度画像におけるピーク位置を求める第3の工程と、前記相関強度画像におけるピーク位置の画像中心からのずれ量を検出し、該ずれ量により、前記第2の画像である照合画像を前記第1の画像である登録画像に対して拡大、縮小、回転処理して補正する第4の工程と、前記第1の画像と、前記補正された第2の画像を、それぞれフーリエ変換したのち合成し位相を抽出して該抽出した位相を逆フーリエ変換してピーク位置を求める第5の工程と、複数の前記ピーク位置を基に、前記第1の画像と前記補正された第2の画像との前記2次元上の位置関係の複数の候補を特定する第6の工程と、前記複数の候補を特定された前記第1の画像と前記補正された第2の画像との間の2次元上の異なる複数の位置関係のそれぞれにおいて、前記第1の画像と前記補正された第2の画像とを比較して類似度を生成する第7の工程と、生成された前記類似度を積算する第8の工程と、積算された前記類似度を基に、前記第1の画像と前記補正された第2の画像とを照合する第9の工程とを有する。
【0009】
【発明の実施の形態】
本発明に係る第1の実施形態に係る画像照合装置は、登録画像と照合画像間の回転角度補正処理または拡大率補正処理を行い、2次元上の異なる複数の位置関係それぞれにおいて、登録画像と照合画像とを比較して類似度を生成し、類似度を積算し、積算した類似度を基に照合を行う。
以下、図を参照しながら説明する。
【0010】
図1は、本発明に係る画像照合装置の第1実施形態の機能ブロック図である。本実施形態に係る画像照合装置1は、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、CPU15、および動作処理部16を有する。
画像入力部11、メモリ12、FFT処理部13、座標変換部14、およびCPU15は、バスBSにより接続されている。動作処理部16はCPU15に接続されている。
【0011】
画像入力部11は、外部からの画像を入力するための入力部である。例えば、画像入力部11には、登録画像AIM、および登録画像AIMの比較対象である画像(照合画像RIMという)が入力される。
メモリ12は、画像入力部から入力された画像等が記憶される。例えば、メモリ12には、登録画像AIM、照合画像RIM、およびプログラムPが記憶されている。
プログラムPは、例えばCPU15に実行させる、本発明に係る相関処理、補正処理、類似度生成処理、積算処理、および照合処理等に関する手順を含む。
FFT処理部13は、例えばCPU15の制御により、メモリ12に記憶された画像に基づいて2次元フーリエ変換処理を行い、処理結果を座標変換部14およびCPU15に出力する。
【0012】
座標変換部14は、例えば、CPU15の制御により、FFT処理部13が処理した2次元フーリエ変換処理の結果に基づいて対数−極座標に変換し、座標変換結果をCPU15に出力する。
動作処理部16は、後述するCPU15の照合処理の結果に基づいて、例えば2つの画像が一致した場合には、電子鍵を解除する等の所定処理を行う。
【0013】
CPU15は、例えばメモリ12に記憶されているプログラムP、登録画像AIM、および照合画像RIMに基づいて、本発明の実施形態に係る照合処理を行う。
また、CPU15は、画像入力部11、メモリ12、FFT処理部13、座標変換部14、および動作処理部16等の制御を行い、本実施形態に係る処理を実行する。
【0014】
図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。CPU15は、FFT処理部13および座標変換部14等を制御し、例えば図2に示すような機能ブロックに基づいて処理を行う。
CPU15は、図2に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、および判別部24を有する。
倍率情報−回転情報部21、補正部22、および位相限定相関部23は、本発明に係る相関検出手段に相当する。
【0015】
倍率情報−回転情報部21および補正部22は、登録画像AIMおよび照合画像RIMとの回転角度補正処理または拡大率補正処理を行う。
倍率情報−回転情報部21は、登録画像AIMおよび照合画像RIMに基づいて倍率情報および/または回転情報を生成し、補正部22に出力する。
倍率情報は、登録画像AIMおよび照合画像RIMの拡大・縮小率を示す情報を含む。回転情報は、登録画像AIMおよび照合画像RIMの回転角度を示す情報を含む。
【0016】
詳細には例えば倍率情報−回転情報部21は、フーリエ・メリン変換部211、位相限定相関部212、および倍率情報−回転情報生成部213を有する。
フーリエ・メリン変換部211は、それぞれの画像情報に基いて後述するフーリエ・メリン変換を行い、それぞれの変換結果を示す信号SA211,SR211を位相限定相関部212に出力する。
【0017】
詳細には、フーリエ・メリン変換部211は、フーリエ変換部21111,21112、対数変換部21121,21122、および対数−極座標変換部21131,21132を有する。
【0018】
フーリエ変換部21111は、例えば、登録画像AIMがN×N画像の画像の場合に、登録画像AIMをf1(m,n)とすると、数式(1)に示すようにフーリエ変換を行い、フーリエ画像データF1(m,n)を生成し、対数変換部21121に出力する。フーリエ変換部21112は、例えば、照合画像RIMがN×N画像の画像の場合に、照合画像RIMをf2(m,n)とすると、数式(2)に示すようにフーリエ変換を行い、フーリエ画像データF2(m,n)を生成し、対数変換部21122に出力する。
【0019】
フーリエ画像データF1(m,n)は、数式(1)に示すように振幅スペクトルA(u,v)および位相スペクトルΘ(u,v)で構成され、フーリエ画像データF2(m,n)は、数式(2)に示すように振幅スペクトルB(u,v)および位相スペクトルΦ(u,v)で構成される。
【0020】
【数1】

Figure 0004380205
【0021】
【数2】
Figure 0004380205
【0022】
対数変換部21121,21122は、フーリエ変換部21111,21112で生成された、フーリエ画像データF1(m,n),F2(m,n)の振幅成分に基いて対数処理を行う。この振幅成分の対数処理は、画像データの詳細な特徴情報を含む高周波成分を強調する。
【0023】
詳細には、対数変換部21121は数式(3)に示すように振幅成分A(u,v)に基いて対数処理を行いA’(u,v)を生成し対数−極座標変換部21131に出力する。対数変換部21122は数式(4)に示すように振幅成分B(u,v)に基いて対数処理を行いB’(u,v)を生成し対数−極座標変換部21132に出力する。
【0024】
【数3】
Figure 0004380205
【0025】
【数4】
Figure 0004380205
【0026】
対数−極座標変換部21131,21132は、対数変換部21121,21122から出力された信号に基いて、対数−極座標系(例えばlog−r,Θ)に変換する。
一般的に例えば点(x,y)に対して数式(5),(6)に示すように定義すると、r=eμの場合にはμ=log(r)であり、任意の点(x,y)に対応する一義的な(log(r),Θ)が存在する。この性質により対数−極座標変換部21131,21132は座標変換を行う。
【0027】
【数5】
Figure 0004380205
【0028】
【数6】
Figure 0004380205
Figure 0004380205
【0029】
詳細には、対数−極座標変換部21131,21132は、数式(7)に示す集合(r、θ)、および数式(8)に示す関数f(r、θ)を定義する。
【0030】
【数7】
Figure 0004380205
【0031】
【数8】
Figure 0004380205
【0032】
対数−極座標変換部21131,21132は、数式(7),(8)で定義した集合(r、θ),関数f(r、θ)を用いて、画像データA’(u,v),B’(u,v)それぞれを、数式(9),(10)に示すように対数−極座標変換を行い、pA(r、θ)、pB(r、θ)を生成し、それぞれ信号SA211、信号SR211として、位相限定相関部212に出力する。
【0033】
【数9】
Figure 0004380205
【0034】
【数10】
Figure 0004380205
【0035】
図3は、図2に示したフーリエ・メリン変換部211の動作を説明するための図である。
画像f1(m,n),画像f2(m,n)は、例えばx,y軸に対して異なる所定角度を持った矩形領域W1,W2を含む。
フーリエ・メリン変換部211において、例えば図3に示すように、画像f1(m,n)が、フーリエ変換部21111によりフーリエ変換されて、フーリエ画像データA’(u,v)が生成され、対数変換部21121および対数−極座標変換部21131により、画像データpA(r,θ)が生成される。
【0036】
同様に、画像f2(m,n)が、フーリエ変換部21112によりフーリエ変換されて、フーリエ画像データB’(u,v)が生成され、対数変換部21122および対数−極座標変換部21132により、画像データpB(r,θ)が生成される。
【0037】
上述したように、画像f1(m,n),f2(m,n)は、フーリエ変換および対数−極座標変換により、デカルト座標から対数−極座標系(フーリエ・メリン空間とも言う)上に変換される。
フーリエ・メリン空間では、画像のスケーリングに応じて、成分がlog−rの軸に沿って移動し、画像の回転角度に応じてθ軸に沿って移動する性質がある。
この性質を用いて、画像f1(m,n),f2(m,n)のスケーリング(倍率情報)および回転角度を、フーリエ・メリン空間上のlog−rの軸に沿った移動量、およびθ軸に沿った移動量に基いて、求めることができる。
【0038】
位相限定相関部212は、例えば位相限定フィルタ(SPOMF:Symmetricphase−only matched filter)を用いた位相限定相関法により、フーリエ・メリン変換部211から出力されたパターンデータを示す信号SA211およびSR211に基いて、それぞれの平行移動量を求める。
位相限定相関部212は、例えば図1に示すように、フーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124を有する。
【0039】
フーリエ変換部2120,2121は、対数−極座標変換部21131,21132から出力された信号SA211(pA(m,n)),SR211(pB(m,n))に基いて数式(11),(12)により、フーリエ変換を行う。ここで、X(u,v),Y(u,v)は、フーリエ係数である。フーリエ係数X(u,v)は数式(11)に示すように振幅スペクトルC(u,v)および位相スペクトルθ(u,v)により構成される。フーリエ係数Y(u,v)は数式(12)に示すように振幅スペクトルD(u,v)および位相スペクトルφ(u,v)により構成される。
【0040】
【数11】
Figure 0004380205
【0041】
【数12】
Figure 0004380205
【0042】
合成部2122は、フーリエ変換部2120,2121で生成されたX(u,v),Y(u,v)を合成して相関をとる。例えば合成部2122は、X(u,v)・Y(u,v)を生成し、位相抽出部2123に出力する。ここで、Y(u,v)は、Y(u,v)の複素共役である。
【0043】
位相抽出部2123は、合成部2122から出力された合成信号に基いて振幅成分を除去して位相情報を抽出する。
例えば位相抽出部2123は、例えばX(u,v)Y(u,v)に基いて、その位相成分Z(u,v)=ej(θ(u,v)−φ(u,v))を抽出する。
【0044】
位相情報の抽出は、上述した形態に限られるものではない。例えば、フーリエ変換部2120,2121の出力、数式(13),(14)に基いて位相情報を抽出した後、数式(15)に示すように位相成分のみ合成を行い、Z(u,v)を生成してもよい。
【0045】
【数13】
Figure 0004380205
【0046】
【数14】
Figure 0004380205
【0047】
【数15】
Figure 0004380205
【0048】
逆フーリエ変換部2124は、位相抽出部2123から出力された、位相情報のみの信号Z(u,v)に基いて、逆フーリエ変換処理を行い、相関強度画像を生成する。
詳細には、逆フーリエ変換部2124は、数式(16)に示すように、信号Z(u,v)に基いて逆フーリエ変換処理を行い、相関強度画像G(p,q)を生成する。
【0049】
【数16】
Figure 0004380205
【0050】
倍率情報−回転情報生成部213は、逆フーリエ変換部2124により生成された相関強度画像G(p、q)におけるピーク位置の画像中心からのずれ量が、すなわち登録画像AIMと、照合画像RIMに対してフーリエ・メリン変換を行った結果得られたパターンデータ間の平行移動量と等価であるので、このずれ量を検出することにより、登録画像AIMに対する照合画像RIMの倍率情報(拡大/縮小率)および回転角度情報を示すデータを含む補正情報S21を生成する。
【0051】
補正部22は、倍率情報−回転情報部21の倍率情報−回転情報生成部213から出力された補正情報S21に基いて、照合画像RIMの補正を行う。詳細には、補正部22は、補正情報S21に含まれる倍率情報および回転角度情報に基づいて、照合画像RIMを拡大/縮小処理し、回転処理を行い、位相限定相関部23に出力する。補正部22の補正処理により、登録画像AIMと照合画像RIM間のスケーリングおよび回転成分の差異が除去される。
このため、登録画像AIMと、補正処理された照合画像RIMとの間には、平行移動成分のみが差異として残っている。
【0052】
位相限定相関部23は、上述した登録画像AIMと、補正処理された照合画像RIMとの間の平行移動成分、およびその相関値を検出する。この検出は、例えば上述した位相限定フィルタを用いた位相限定相関法により求める。
詳細には、位相限定相関部23は、フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234を有する。
【0053】
フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234それぞれは、上述した位相限定相関部212のフーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124それぞれと同じ機能を有するので簡単に説明する。
【0054】
フーリエ変換部2311は、登録画像AIMをフーリエ変換し合成部232に出力する。この際、予めフーリエ変換部21111でフーリエ変換処理した登録画像AIMをメモリ12に記憶しておき、それを合成部232に出力してもよい。こうすることにより2重にフーリエ変換処理を行うことがないために、処理が軽減される。
フーリエ変換部2312は、補正部22により、補正された画像S22をフーリエ変換を行い、処理結果のフーリエ画像を合成部232に出力する。
【0055】
合成部232は、フーリエ変換部2311,2312から出力されたフーリエ画像S2311,S2312を合成し、合成画像S232を位相抽出部233に出力する。
位相抽出部233は,合成画像S232に基づいて上述したように位相情報を抽出して信号S233を逆フーリエ変換部234に出力する。
逆フーリエ変換部234は、信号S233に基づいて逆フーリエ変換を行い相関強度画像(相関画像データ)を生成し、信号S23として判別部24に出力する。
【0056】
上述の位相限定相関法における平行移動量の検出処理の詳細な説明を行う。
例えば、原画像f1(m,n)、原画像f2(m,n)、および画像f2(m,n)を平行移動した画像f3(m,n)=f2(m+α,n+β)それぞれをフーリエ変換処理し、数式(17)〜(19)に示すように、フーリエ係数F1(u,v),F2(u,v),F3(u,v)を生成する。
【0057】
【数17】
Figure 0004380205
【0058】
【数18】
Figure 0004380205
【0059】
【数19】
Figure 0004380205
【0060】
フーリエ係数F1(u,v)〜F3(u,v)に基づいて、数式(20)〜(22)に示すように、位相情報のみの位相画像F’1(u,v)〜F’3(u,v)を生成する。
【0061】
【数20】
Figure 0004380205
【0062】
【数21】
Figure 0004380205
【0063】
【数22】
Figure 0004380205
【0064】
位相画像F’1(u,v)と位相画像F’2(u,v)の相関の位相画像の相関Z12(u,v)を数式(23)に示すように計算し、位相画像F’1(u,v)と位相画像F’3(u,v)の相関の位相画像の相関Z13(u,v)を数式(24)に示すように計算する。
【0065】
【数23】
Figure 0004380205
【0066】
【数24】
Figure 0004380205
【0067】
相関Z12(u,v)の相関強度画像G12(r,s)、および相関Z13(u,v)の相関強度画像G13(r,s)を数式(25),(26)に示すように計算する。
【0068】
【数25】
Figure 0004380205
【0069】
【数26】
Figure 0004380205
【0070】
数式(25),(26)に示すように、画像f3(m,n)が、画像2(m,n)に比べて(+α、+β)だけずれている場合には、位相限定相関法では、相関強画像において、(−α,−β)だけずれた位置に相関強度のピークが生成される。この相関強度位置の位置により、2つの画像間の平行移動量を求めることができる。
また、上述したフーリエ・メリン空間上で、この位相限定相関法を用いることにより、フーリエ・メリン空間上の平行移動量が検出できる。この平行移動量は、上述したように実空間では倍率情報および回転角度情報に相当する。
【0071】
図4は、自己相関法と位相限定相関法の相違点を説明するための図である。
自己相関法では、例えば図4(a),(b)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い自己相関関数SG1を生成すると、図4(c)に示すように、相関強度が高いピークと、その周辺部に小さい相関強度を有する相関強度分布が得られる。図4(c)において縦軸は相関強度を示す。
【0072】
一方、上述した位相限定相関法では、図4(d),(e)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い、位相情報のみを相関すると図4(f)に示すように、相関強度が高く鋭いピークのみを有する相関強度分布が得られる。このように位相限定法では自己相関法に比べて相関に関して明確な情報を得ることができる。図4(f)において、縦軸(z軸)は相関強度を示し、x軸,y軸はずれ量を示す。
【0073】
図5は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
例えば図5(a),(b)に示すような画像IM1、および画像IM1より数画素平行移動している画像IM3の画像の位相限定法における相関強度分布は、例えば図5(c)に示すように、相関強度が高く鋭いピークが、図4(f)に示した相関画像データの内のピーク位置から、平行移動量に応じた距離だけずれた位置に分布している。しかし、図5(c)に示すピーク強度は、図4(f)に示したピーク強度に比べて小さい。これは画像IM1,IM2に比べて、画像IM1,IM3の一致している画素領域が小さいためである。
【0074】
図6は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
図6(a),(b)に示すような画像IM1、および画像IM1より数度回転している画像4の位相限定法における相関強度分布は、例えば図6に示すように、弱い相関強度の相関強度分布が得られる。単純に位相限定相関法を用いた場合には回転ずれにより、相関を検出することが困難である。
【0075】
このため、本実施形態に係る画像照合装置1では、登録画像AIMおよび照合画像RIMを、フーリエ・メリン変換を行い、フーリエ・メリン空間上で、位相限定相関法を用いることにより、平行移動量を検出し、登録画像AIMおよび照合画像RIMの倍率情報、および回転角度情報を検出する。その情報に基づいて、照合画像の倍率および回転角度を補正する。
補正した照合画像RIMおよび登録画像AIM間の平行移動ずれを、位相限定相関法により検出し、同時に相関ピークに基づいて画像間の照合を行う。
【0076】
図7は、位相限定相関部23が出力する相関画像データを説明するための図である。図7(a)は登録画像AIM、図7(b)は照合画像RIM、図7(c)は相関画像データの一具体例を示す図である。図8は図7(c)に示した相関画像データを説明するための図である。
【0077】
登録画像AIM,照合画像RIMとして、例えば手書き文字や血管パターン等の2値化および線形状のパターンを含む場合、例えば図7(a),(b)に示すような登録画像AIM,照合画像RIMの場合、位相限定相関部23は信号S23として図7(c)に示すような相関画像データを出力する。
【0078】
図7(c)において、z軸方向は相関画像データにおける相関ピーク強度を示し、相関ピーク強度は登録画像AIMと照合画像RIM間の相関度に相当する。図7(c)および図8に示すように、x軸方向,y軸方向での相関ピーク位置は、例えば画像中心からのずれ量が登録画像AIMと照合画像RIM間の平行移動量に相当する。
【0079】
判別部24は、位相限定相関部23から出力された信号S23に基づいて、登録画像AIMと照合画像RIMの照合を行う。
判別部24は、例えば図に示すように、候補特定部241、類似度生成部242、積算部243、および照合部244を有する。
候補特定部241は本発明に係る候補特定手段に相当し、類似度生成部242は本発明に係る類似度生成手段に相当し、積算部243は本発明に係る積算手段に相当し、照合部244は本発明に係る照合手段に相当する。
【0080】
候補特定部241は、位相限定相関部23から出力された信号S23に基づいて、登録画像AIMと照合画像RIMと2次元上の位置関係の複数の候補を特定し、信号S241として類似度生成部242に出力する。
【0081】
図9は、図1に示した候補特定部241の候補特定処理を説明するための図である。数値は、相関画像データのX−Y面上での相関画像データの相関ピーク強度を示す。
例えば図7(a),(b)に示すような2値化および線形状のパターンを含む登録画像AIM,照合画像RIMの場合、相関の大きい画像同士でも、相関ピーク強度(相関強度とも言う)が図9に示すように値が小さい。
候補特定部241は、例えば図9に示すように、信号S23に基づいて相関強度の上位N個、本実施形態では8個を、登録画像AIMと照合画像RIMと2次元上の位置関係の候補として特定し、信号S241として類似度生成部242に出力する。
【0082】
類似度生成部242は、候補特定部242で特定された複数の位置関係の候補を示す信号S242に基づいて、登録画像AIMと、補正部22で補正された照合画像RIMとの間の2次元上の異なる複数の位置関係それぞれにおいて、画素毎に、登録画像AIMと、補正部22で補正された照合画像RIMを比較して類似度を生成する。
【0083】
詳細には、類似度生成部242は、例えば図7(a),(b)に示すように、登録画像AIMをf1(m,n)、補正部22で補正された照合画像RIMをf2(m,n)のm×n画素の2値化および線形状のパターンを含む画像とすると、例えば類似度Simを数式(27)により算出し、算出結果を積算部243および照合部244に出力する。
【0084】
【数27】
Figure 0004380205
【0085】
積算部243は、類似度生成部242が生成した類似度Simを積算し、積算結果を信号S243として照合部244に出力する。
【0086】
照合部244は、積算部243が積算した類似度Simを基に登録画像AIMと照合画像RIMの照合を行う。詳細には、例えば照合部244は、積算した類似度Simが所定値よりも大きい場合には、登録画像AIMと照合画像RIMが一致していると判別する。
【0087】
また、照合部244は、類似度生成部242から出力された類似度Simを基に登録画像AIMと照合画像RIMの照合を行う。詳細には、例えば照合部244は、類似度Simが所定値よりも大きい場合には、登録画像AIMと照合画像RIMが一致していると判別する。
また、照合部244は、照合処理の結果を示す信号S24を出力する。
【0088】
図10は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1の動作を図8を参照しながら簡単に説明する。
例えば画像入力部11により、登録画像AIMおよび照合画像RIMが入力され、メモリにそれぞれの画像データが格納される(ST1)。
ここで、登録画像AIMに対する照合画像RIMの倍率(拡大/縮小率)および回転角度情報を求めるために、登録画像AIMがメモリ12から読み出され(ST2)、倍率情報−回転情報部21のフーリエ変換部21111により、フーリエ変換処理され(ST3)、フーリエ画像データS21111がメモリ12に格納、記憶される(ST4)。
フーリエ画像データS21111の内の振幅成分は、対数変換部21121により対数処理が行われ、対数−極座標変換部21131により、対数−極座標系に変換される(ST5)。
【0089】
照合画像RIMが、メモリ12から読み出され(ST6)、同様にフーリエ変換部21112によりフーリエ変換処理され(ST7)、フーリエ画像データS21112の内の振幅成分が、対数変換部21122により対数処理が行われ、対数−極座標変換部21132により、対数−極座標系に変換される(ST8)。
【0090】
上述した登録画像AIMおよび照合画像RIMにフーリエ・メリン変換を行った結果得られた、画像信号(パターンデータとも言う)SA211、SR211それぞれは、位相限定相関部212のフーリエ変換部2120,2121によりフーリエ変換処理され(ST9)、合成部2122により合成され(ST10)、位相抽出部2123により合成信号から振幅成分が除去され(ST11)、残りの位相成分が、逆フーリエ変換部2124により逆フーリエ変換処理され(ST12)、得られた相関画像データのピーク位置の画像中心からのずれ量に基づいて、倍率情報−回転情報生成部213により倍率情報および回転情報を含む補正情報が生成される(ST13)。
【0091】
補正部22では、補正情報に基づいて照合画像の拡大/縮小および回転処理の補正処理が行われ、画像間のスケーリング成分、および回転成分が除去される(ST14)。残る差異は平行移動成分のみであり、位相限定相関法を用いて検出される。
【0092】
補正処理が行われた照合画像RIMは、位相限定相関部23のフーリエ変換部2312によりフーリエ変換されて(ST15)フーリエ画像データS2312が生成され、メモリ12に格納されたフーリエ変換された登録画像AIMが読み出され(ST16)、合成部232により合成データS232が生成される(ST17)。
【0093】
この際、登録画像AIMがフーリエ変換部2311によりフーリエ変換されてフーリエ画像データS2311が生成されて合部部232に入力されてもよい。合成データS232の内の振幅情報が位相抽出部233により除去され(ST18)、残りの位相情報が逆フーリエ変換部234に入力され、相関画像データとして信号S23が出力される(ST19)。
【0094】
上述した処理により生成された相関画像データS23に基づいて、候補特定部241により相関画像データS23における相関ピーク強度の上位側から、例えばN個の候補P(P,P,P,…,Pn−1)が抽出され、信号S241として類似度生成部242に出力される(ST20)。
【0095】
積算部243は、積算のための変数を初期化する(ST21)。例えば変数iを0、積算値Sを0に初期化する。
類似度生成部242では、各候補(座標)Pについて、相関画像データの中心からのずれ量をそれぞれ検出することで、登録画像AIM,照合画像RIMの位置合わせを行った後に類似度Sim(i)を算出し信号S242として積算部243および判別部244に出力する(ST22)。
【0096】
ステップST23において、照合部244では、類似度Sim(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim(i)が第1の閾値より小さい場合には、積算部243では、類似度Sim(i)を積算し、詳細には数式S=S+Sim(i)により積算し照合部244に出力する(ST24)。
ステップST25において、照合部244では、積算値Sと予め設定した第2の閾値th2とを比較し、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST26)、変数iがN−1と一致していない場合には、変数iに1加算し(ST27)、ステップST22の処理に戻る。ステップST25において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST28)。
【0097】
一方、ステップST23の比較処理において、照合部244では、類似度Sim(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST25の比較処理において、照合部244では、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST29)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部16が行う。
【0098】
以上説明したように、登録画像AIMと照合画像RIMとの2次元上の位置関係の複数の候補を特定する候補特定部241と、登録画像AIMと照合画像RIMとの間の2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMとを比較して類似度Simを生成する類似度生成部242と、類似度生成部242が生成した類似度Simを積算する積算部243と、積算部243が積算した類似度Simを基に照合を行う照合部244とを設けたので、例えば、比較対照を行う2枚の画像データ間おの相関が小さい場合であっても、複数の各候補の位置関係それぞれについて算出される類似度を加算することにより、類似度単独で照合を行う場合に比べて、高精度に照合を行うことができる。また、類似度Simが第1の閾値th1よりも大きい場合には一致していると判別するので、高速に照合処理を行うことができる。
【0099】
また、登録画像AIMと照合画像RIMとの回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関を検出する倍率情報−回転情報部21、補正部22、および位相限定相関部23を設けたので、登録画像AIMと照合画像RIMとが回転角度や拡大率が異なる場合であっても、照合処理を行うことができる。
【0100】
図11は、本発明に係る画像照合装置の第2実施形態のソフトウェア的な機能ブロック図である。
本実施形態に係る画像照合装置1aのハード的な機能ブロックは、第1実施形態とほぼ同じであるので説明を省略する。
画像照合装置1aのCPU15aは、例えば図11に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、および判別部24aを有する。
判別部24aは、例えば図11に示すように、候補特定部241、類似度生成部242、類似度補正部2421、積算部243、および照合部244を有する。
第1実施形態と同様な機能については説明を省略し、相違点のみ説明する。
【0101】
類似度補正部2421は、類似度生成部242が、登録画像AIMと照合画像RIMとの2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMの画素毎に比較して生成した類似度Simを、当該画素の周囲の画像特性に応じて補正し類似度Sim’を生成し、信号S2421として積算部243および照合部244に出力する。
積算部243および照合部244は、類似度Sim’に基づいて第1実施形態と同様な処理を行う。
【0102】
図12は、図1に示した類似度補正部2421の機能を説明するための図である。図12(a)は登録画像AIMの画像パターン、図12(b)は照合画像RIMの画像パターン、図12(c)は類似度生成部242が生成する類似度Simの一具体例を説明するための図である。図13は、図1に示した類似度補正部2421の機能を説明するための図である。
【0103】
例えば類似度生成部242が生成する類似度Simは、例えば図12(a)に示す登録画像AIMの画像パターンと、図12(b)示す照合画像RIMの画像パターンの類似度Simを生成する場合には、図12(c)に示すように、両画像の線形状のパターンの交点CPに基づいて算出する。
【0104】
類似度生成部242は、例えば図13(a)に示すように、登録画像AIMのパターンPT11と、照合画像RIMのパターンPT21との相関パターンPT31の場合に、線形状のパターンの方向が異なり相関がないにもかかわらず、交点のみにより類似度Simを算出するために、類似度が上昇してしまう。
本実施形態に係る類似度補正部2421は、例えば交点CPを検出し、例えばその画素の周囲の9画素において中心部以外にも交点CPがある場合には中心部の交点CPを相関のある点と判別し、中心部以外に交点CPのない場合には中心部の交点CPを相関のない交点として判別する。
【0105】
例えば類似度補正部2421は、図13(a)に示すように登録画像AIMのパターンPT11と、照合画像RIMのパターンPT21との相関パターンPT31の場合に、中心部以外に交点CPがないので、中心部の交点を相関のない交点として判別する。
類似度補正部2421は、図13(b)に示すように登録画像AIMのパターンPT12と、照合画像RIMのパターンPT22との相関パターンPT32の場合に、中心部以外に交点CPがないので、中心部の交点を相関のない交点として判別する。
【0106】
類似度補正部2421は、図13(c)に示すように登録画像AIMのパターンPT12と、照合画像RIMのパターンPT22との相関パターンPT32の場合に、中心部以外に交点CPがあるので、中心部の交点CPを相関のある交点として判別する。
【0107】
類似度補正部2421は、画像全体について求めた相関のある交点数を、全交点数で割った値を有効率effとし、数式(28)に示すように、類似度生成部242が生成した類似度Simに乗算して補正処理を行い、補正した類似度Sim’を生成し、信号S2421として出力する。
【0108】
【数28】
Figure 0004380205
【0109】
例えば、図12に示したような場合には、有効率effが0であり、その結果補正した類似度Sim’は0である。
【0110】
図14は、図11に示した画像照合装置1aの動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1の動作を図14を参照しながら、第1実施形態との相違点のみ説明する。ステップST1〜ステップST20の処理は第1実施形態と同様であり説明を省略する。
【0111】
積算部243は、積算のための変数を初期化する(ST21)。例えば変数iを0、積算値Sを0に初期化する。
類似度生成部242では、各候補(座標)Pについて、相関画像データの中心からのずれ量をそれぞれ検出することで、登録画像AIM,照合画像RIMの位置合わせを行った後に類似度Sim(i)を算出し信号S242として、類似度補正部2421に出力する(ST22)。
【0112】
ステップST221において、類似度補正部2421は、類似度生成部242から出力された類似度Simとしての補正信号S242に基づいて、画像全体について求めた相関のある交点数を、全交点数で割った値を有効率effとし、数式(28)に示すように、類似度生成部242が生成した類似度Simに乗算して補正処理を行い、補正した類似度Sim’を生成し、信号S2421として、照合部244および積算部243に出力する。
【0113】
ステップST23において、照合部244では、類似度Sim’(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim’(i)が第1の閾値より小さい場合には、積算部243では、類似度Sim’(i)を積算し、詳細には数式S=S+Sim’(i)により積算し照合部244に出力する(ST24)。
【0114】
ステップST25において、照合部244では、積算値Sと予め設定した第2の閾値th2とを比較し、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST26)、変数iがN−1と一致していない場合には、変数iに1加算し(ST27)、ステップST22の処理に戻る。ステップST25において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST28)。
【0115】
一方、ステップST23の比較処理において、照合部244では、類似度Sim’(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST25の比較処理において、照合部244では、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST29)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部16が行う。
【0116】
以上、説明したように、本実施形態では、類似度生成部242が、登録画像AIMと照合画像RIMとの2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMの画素毎に比較して生成した類似度Simを、当該画素の周囲の画像特性に応じて補正し類似度Sim’を生成する類似度補正部2421を設け、照合部244は、補正した類似度Sim’に基づいて照合を行うので、第1実施形態に比べて、より高精度の照合処理を行うことができる。
【0117】
また、角度ずれの大きい、つまり相関の小さい線分同士の交点がある場合であっても、補正処理により類似度を低くするので、その結果、相関の大きい画像同士から求めた相関と、小さい画像同士から求めた相関度との差異が大きくなり、より高精度の照合処理を行うことができる。
【0118】
なお、本発明は本実施の形態に限られるものではなく、任意好適な種々の改変が可能である。
例えば、本実施形態では、類似度生成部は、数式(27)により類似度を算出したが、この形態に限られるものではない。例えば類似度生成部は、線形状のパターンの相関に適した類似度を算出する処理を行えればよい。
【0119】
本実施形態では、フーリエ変換処理、対数変換処理、および対数−局座標変換を行い、フーリエ・メリン空間上での平行移動量を算出することにより、倍率情報および回転角度情報を生成したが、この形態に限られるものではない。例えば、倍率情報および回転角度情報が検出可能な空間に、座標変換を行ってもよい。
【0120】
また、第1の閾値th1と、第2の閾値th2を固定値にしたが、この形態に限られるものではない。例えば閾値それぞれを、画像パターンにより可変にすることで、より高精度の照合を行うことができる。
【0121】
【発明の効果】
本発明によれば、画像間の照合を高精度に行うことができる画像照合装置、画像照合方法、およびプログラムを提供することができる。
【図面の簡単な説明】
【図1】図1は、本発明に係る画像照合装置の第1実施形態の機能ブロック図である。
【図2】図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。
【図3】図3は、図2に示したフーリエ・メリン変換部の動作を説明するための図である。
【図4】図4は、自己相関法と位相限定相関法の相違点を説明するための図である。
【図5】図5は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
【図6】図6は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
【図7】図7は、位相限定相関部23が出力する相関画像データを説明するための図である。(a)は登録画像AIM、(b)は照合画像RIM、(c)は相関画像データの一具体例を示す図である。
【図8】図8は図7(c)に示した相関画像データを説明するための図である。
【図9】図9は、図1に示した候補特定部241の候補特定処理を説明するための図である。
【図10】図10は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。
【図11】図11は、本発明に係る画像照合装置の第2実施形態のソフトウェア的な機能ブロック図である。
【図12】図12は、図1に示した類似度補正部2421の機能を説明するための図である。
【図13】図13は、図1に示した類似度補正部の機能を説明するための図である。
【図14】図14は、図11に示した画像照合装置1aの動作を説明するためのフローチャートである。
【符号の説明】
1,1a…画像照合装置、11…画像入力部、12…メモリ、13…FFT処理部、14…座標変換部、15…CPU、16…動作処理部、21…倍率情報−回転情報部、22…補正部、23…平行移動部、24…判別部、211…フーリエ・メリン変換部、212…位相限定相関部、213…倍率情報−回転情報生成部、232…合成部、233…位相抽出部、234…逆フーリエ変換部、241…候補特定部、242…類似度生成部、243…積算部、244…照合部、2120,2121…フーリエ変換部、2122…合成部、2123…位相抽出部、2124…逆フーリエ変換部、2311,2312…フーリエ変換部、2421…類似度補正部、21111,21112…フーリエ変換部、21121,21122…対数変換部、21131,21132…対数−極座標変換部。[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image collation apparatus that performs collation based on image information such as a fingerprint image, a still image, and a moving image.andImage verification methodTo the lawIt is related.
[0002]
[Prior art]
Conventionally, various pattern matching devices are known as methods for matching based on image information. For example, as a pattern matching device, a registered image and a matching image to be compared are compared only in a predetermined positional relationship, a correlation value is calculated, and the registered image and the matching image are matched based on the correlation value.
[0003]
[Problems to be solved by the invention]
However, in the conventional pattern matching device, depending on the type of image pattern, the correlation value may not be high even for almost the same image, and even if only the peak is used, matching may not be performed with high accuracy. Improvement is desired.
[0004]
  The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image collation apparatus capable of performing collation between images with high accuracy.andImage verification methodThe lawIt is to provide.
[0005]
[Means for Solving the Problems]
  In order to achieve the above object, a first aspect of the present invention is to provide the first image and the first image in each of a plurality of different two-dimensional positional relationships between the first image and the second image. A Fourier transform unit for Fourier transforming the two images, a coordinate transform unit for obtaining a phase from polar coordinates by performing a Fourier transform after Fourier transforming the first image and the second image, and the first obtained by the coordinate transform unit. A first phase-only correlation unit that synthesizes phases corresponding to the first and second images and inverse Fourier transforms the synthesized phase to obtain a peak position in the correlation intensity image; and an image of the peak position in the correlation intensity image Detect the amount of deviation from the center,A correction unit that corrects the verification image, which is the second image, by enlarging, reducing, and rotating the registered image, which is the first image, according to the shift amount, the first image, and the correction A second phase-only correlation unit that obtains a peak position by subjecting the corrected second image to Fourier transform and combining to extract a phase and performing inverse Fourier transform on the extracted phase; Candidate specification for specifying a plurality of candidates for the two-dimensional positional relationship between the first image and the corrected second image based on the plurality of peak positions output from the phase-only correlation unit And the first image and the correction in each of a plurality of different two-dimensional positional relationships between the first image specified by the candidate specifying means and the corrected second image. The second image is compared to generate similarity The first image and the corrected second image are generated based on the similarity generated by the similarity generation unit, the integration unit that integrates the similarity generated by the similarity generation unit, and the similarity acquired by the integration unit. Collating means for collating images withHave
[0006]
  According to the first aspect of the present invention, the image collating device further includes a logarithmic conversion unit that performs logarithmic conversion on the Fourier-transformed image before the coordinate conversion unit.
  Also,The image collating apparatus further includes a similarity correction unit, and the similarity correction unit includes linear patterns in different directions of the first image and the second image corrected by the similarity generation unit. The similarity is obtained from the intersection, the correlation of the intersection of the central portion is determined based on the presence or absence of an intersection other than the central portion in a predetermined number of pixels around the intersection, and the similarity is corrected using the correlation and the integration is performed. Output to the means.
  Further, the similarity correction unit calculates the number of intersecting intersection points obtained for the entire image composed of linear patterns in different directions of the first image and the corrected second image of the entire image. A value divided by the total number of intersections is used as an effective rate, and the effective rate is multiplied by the similarity generated by the similarity generation unit to perform correction processing, thereby generating a corrected similarity.
[0007]
  Furthermore, in order to achieve the above object, a second aspect of the present invention is to provide a first image and the second image in each of a plurality of different two-dimensional positional relationships between the first image and the second image. A first step of Fourier transforming the second image; a second step of Fourier transforming the first image and the second image and then obtaining a phase from the polar coordinates; and A third step of synthesizing phases corresponding to the first and second images and inverse Fourier transforming the synthesized phase to obtain a peak position in the correlation intensity image; and an image of the peak position in the correlation intensity image. Detect the amount of deviation from the center,A fourth step of correcting the verification image, which is the second image, by enlarging, reducing, and rotating the registered image, which is the first image, based on the shift amount; and the first image, The corrected second image is subjected to Fourier transform and then combined to extract a phase, and the extracted phase is subjected to inverse Fourier transform to obtain a peak position. Based on the plurality of peak positions , A sixth step of specifying a plurality of candidates for the two-dimensional positional relationship between the first image and the corrected second image, and the first image in which the plurality of candidates are specified The first image and the corrected second image are compared to generate a similarity in each of a plurality of different two-dimensional positional relationships between the image and the corrected second image. A seventh step and an eighth step of integrating the generated similarities; Based on the accumulated the degree of similarity, a ninth step of collating the second image which is the corrected and said first imageHave
[0009]
DETAILED DESCRIPTION OF THE INVENTION
The image collation apparatus according to the first embodiment of the present invention performs a rotation angle correction process or an enlargement ratio correction process between a registered image and a collated image, and performs registration and image registration in each of a plurality of different two-dimensional positional relationships. Similarity is generated by comparing with the verification image, the similarity is integrated, and verification is performed based on the integrated similarity.
Hereinafter, description will be given with reference to the drawings.
[0010]
FIG. 1 is a functional block diagram of a first embodiment of an image collating apparatus according to the present invention. For example, as illustrated in FIG. 1, the image matching device 1 according to the present embodiment includes an image input unit 11, a memory 12, an FFT processing unit 13, a coordinate conversion unit 14, a CPU 15, and an operation processing unit 16.
The image input unit 11, the memory 12, the FFT processing unit 13, the coordinate conversion unit 14, and the CPU 15 are connected by a bus BS. The operation processing unit 16 is connected to the CPU 15.
[0011]
The image input unit 11 is an input unit for inputting an image from the outside. For example, the registered image AIM and an image to be compared with the registered image AIM (referred to as a collation image RIM) are input to the image input unit 11.
The memory 12 stores an image input from the image input unit. For example, the memory 12 stores a registered image AIM, a collation image RIM, and a program P.
The program P includes, for example, procedures related to correlation processing, correction processing, similarity generation processing, integration processing, collation processing, and the like according to the present invention that are executed by the CPU 15.
The FFT processing unit 13 performs a two-dimensional Fourier transform process based on the image stored in the memory 12 under the control of the CPU 15, for example, and outputs the processing result to the coordinate conversion unit 14 and the CPU 15.
[0012]
The coordinate conversion unit 14 converts, for example, logarithm-polar coordinates based on the result of the two-dimensional Fourier transform process processed by the FFT processing unit 13 under the control of the CPU 15, and outputs the coordinate conversion result to the CPU 15.
The operation processing unit 16 performs a predetermined process such as releasing an electronic key when two images match, for example, based on a result of a collation process of the CPU 15 described later.
[0013]
CPU15 performs the collation process which concerns on embodiment of this invention, for example based on the program P memorize | stored in the memory 12, the registration image AIM, and the collation image RIM.
Further, the CPU 15 controls the image input unit 11, the memory 12, the FFT processing unit 13, the coordinate conversion unit 14, the operation processing unit 16, and the like, and executes processing according to the present embodiment.
[0014]
FIG. 2 is a software functional block diagram of the image collating apparatus shown in FIG. The CPU 15 controls the FFT processing unit 13, the coordinate conversion unit 14, and the like, and performs processing based on, for example, functional blocks as shown in FIG.
As shown in FIG. 2, the CPU 15 includes a magnification information / rotation information unit 21, a correction unit 22, a phase only correlation unit 23, and a determination unit 24.
The magnification information-rotation information unit 21, the correction unit 22, and the phase only correlation unit 23 correspond to a correlation detection unit according to the present invention.
[0015]
The magnification information-rotation information unit 21 and the correction unit 22 perform a rotation angle correction process or an enlargement ratio correction process on the registered image AIM and the collation image RIM.
The magnification information-rotation information unit 21 generates magnification information and / or rotation information based on the registered image AIM and the collation image RIM and outputs the magnification information and / or rotation information to the correction unit 22.
The magnification information includes information indicating the enlargement / reduction ratio of the registered image AIM and the collation image RIM. The rotation information includes information indicating the rotation angle of the registered image AIM and the collation image RIM.
[0016]
Specifically, for example, the magnification information-rotation information unit 21 includes a Fourier-Melin transform unit 211, a phase only correlation unit 212, and a magnification information-rotation information generation unit 213.
The Fourier-Merlin transform unit 211 performs Fourier-Merlin transform, which will be described later, based on the respective image information, and outputs signals SA211 and SR211 indicating the respective transformation results to the phase-only correlation unit 212.
[0017]
Specifically, the Fourier-Melin transform unit 211 includes Fourier transform units 2111, 21112, logarithmic transform units 21121, 2112, and logarithmic-polar coordinate transform units 2111, 211132.
[0018]
For example, when the registered image AIM is an N × N image and the registered image AIM is f1 (m, n), the Fourier transform unit 21111 performs Fourier transform as shown in Equation (1), and the Fourier image Data F <b> 1 (m, n) is generated and output to the logarithmic conversion unit 21121. For example, when the collation image RIM is an N × N image and the collation image RIM is f2 (m, n), the Fourier transform unit 21112 performs Fourier transform as shown in Equation (2), and the Fourier image Data F2 (m, n) is generated and output to the logarithmic conversion unit 21122.
[0019]
The Fourier image data F1 (m, n) is composed of an amplitude spectrum A (u, v) and a phase spectrum Θ (u, v) as shown in Equation (1), and the Fourier image data F2 (m, n) is As shown in Equation (2), it is composed of an amplitude spectrum B (u, v) and a phase spectrum Φ (u, v).
[0020]
[Expression 1]
Figure 0004380205
[0021]
[Expression 2]
Figure 0004380205
[0022]
Logarithmic conversion units 21121, 21122 perform logarithmic processing based on the amplitude components of the Fourier image data F1 (m, n) and F2 (m, n) generated by the Fourier transformation units 2111, 21112. This logarithmic processing of amplitude components emphasizes high frequency components including detailed feature information of image data.
[0023]
Specifically, the logarithmic conversion unit 21121 performs logarithmic processing based on the amplitude component A (u, v) as shown in Equation (3) to generate A ′ (u, v) and outputs it to the logarithmic-polar coordinate conversion unit 21131. To do. The logarithmic conversion unit 21122 performs logarithmic processing based on the amplitude component B (u, v) as shown in Equation (4) to generate B ′ (u, v) and outputs it to the logarithmic-polar coordinate conversion unit 21132.
[0024]
[Equation 3]
Figure 0004380205
[0025]
[Expression 4]
Figure 0004380205
[0026]
The logarithm-polar coordinate converters 21131, 21132 convert the logarithm-polar coordinate system (for example, log-r, Θ) based on the signals output from the logarithmic converters 21121, 2112.
In general, for example, if the point (x, y) is defined as shown in equations (5) and (6), r = eμIn this case, μ = log (r), and there is a unique (log (r), Θ) corresponding to an arbitrary point (x, y). Due to this property, the logarithm-polar coordinate conversion units 21131, 21132 perform coordinate conversion.
[0027]
[Equation 5]
Figure 0004380205
[0028]
[Formula 6]
Figure 0004380205
Figure 0004380205
[0029]
Specifically, the logarithm-polar coordinate converters 21131, 21132 are set to the set (ri, Θj), And the function f (r shown in Equation (8)i, Θj) Is defined.
[0030]
[Expression 7]
Figure 0004380205
[0031]
[Equation 8]
Figure 0004380205
[0032]
The logarithm-polar coordinate converters 21131, 21132 are the sets defined by the mathematical formulas (7), (8) (ri, Θj), Function f (ri, Θj), Log-polar coordinate conversion is performed on each of the image data A ′ (u, v) and B ′ (u, v) as shown in equations (9) and (10), and pA (ri, Θj), PB (ri, Θj) And output to the phase only correlation unit 212 as the signal SA211 and the signal SR211 respectively.
[0033]
[Equation 9]
Figure 0004380205
[0034]
[Expression 10]
Figure 0004380205
[0035]
FIG. 3 is a diagram for explaining the operation of the Fourier-Melin transform unit 211 shown in FIG.
The image f1 (m, n) and the image f2 (m, n) include rectangular regions W1 and W2 having different predetermined angles with respect to the x and y axes, for example.
In the Fourier-Melin transform unit 211, for example, as shown in FIG. 3, the image f1 (m, n) is Fourier transformed by the Fourier transform unit 21111 to generate Fourier image data A ′ (u, v), and the logarithm Image data pA (r, θ) is generated by the conversion unit 21121 and the logarithmic-polar coordinate conversion unit 21131.
[0036]
Similarly, the image f2 (m, n) is Fourier-transformed by the Fourier transform unit 21112 to generate Fourier image data B ′ (u, v). The logarithmic transform unit 21122 and the log-polar coordinate transform unit 21132 Data pB (r, θ) is generated.
[0037]
As described above, the images f1 (m, n) and f2 (m, n) are transformed from Cartesian coordinates onto a logarithmic-polar coordinate system (also referred to as Fourier-Melin space) by Fourier transformation and logarithmic-polar coordinate transformation. .
In the Fourier-Melin space, the component moves along the log-r axis according to the scaling of the image, and moves along the θ axis according to the rotation angle of the image.
Using this property, the scaling (magnification information) and the rotation angle of the images f1 (m, n) and f2 (m, n) are converted into the amount of movement along the log-r axis in the Fourier-Merlin space, and θ It can be determined based on the amount of movement along the axis.
[0038]
The phase-only correlation unit 212 is based on the signals SA211 and SR211 indicating the pattern data output from the Fourier-Melin transform unit 211 by a phase-only correlation method using, for example, a phase-only filter (SPOMF: Symmetric phase-only matched filter). Then, the respective parallel movement amounts are obtained.
For example, as illustrated in FIG. 1, the phase only correlation unit 212 includes Fourier transform units 2120 and 2121, a synthesis unit 2122, a phase extraction unit 2123, and an inverse Fourier transform unit 2124.
[0039]
The Fourier transform units 2120 and 2121 are based on the signals SA211 (pA (m, n)) and SR211 (pB (m, n)) output from the logarithmic-polar coordinate conversion units 21131 and 21132. ) To perform a Fourier transform. Here, X (u, v) and Y (u, v) are Fourier coefficients. The Fourier coefficient X (u, v) is composed of an amplitude spectrum C (u, v) and a phase spectrum θ (u, v) as shown in Equation (11). The Fourier coefficient Y (u, v) is composed of an amplitude spectrum D (u, v) and a phase spectrum φ (u, v) as shown in Equation (12).
[0040]
## EQU11 ##
Figure 0004380205
[0041]
[Expression 12]
Figure 0004380205
[0042]
The combining unit 2122 combines X (u, v) and Y (u, v) generated by the Fourier transform units 2120 and 2121 to obtain a correlation. For example, the synthesizing unit 2122 uses X (u, v) · Y*(U, v) is generated and output to the phase extraction unit 2123. Where Y*(U, v) is a complex conjugate of Y (u, v).
[0043]
The phase extraction unit 2123 extracts phase information by removing the amplitude component based on the combined signal output from the combining unit 2122.
For example, the phase extraction unit 2123 can perform, for example, X (u, v) Y*Based on (u, v), its phase component Z (u, v) = ej (θ (u, v) −φ (u, v))To extract.
[0044]
The extraction of the phase information is not limited to the above-described form. For example, after extracting phase information based on the outputs of the Fourier transform units 2120 and 2121 and the equations (13) and (14), only the phase component is synthesized as shown in the equation (15), and Z (u, v) May be generated.
[0045]
[Formula 13]
Figure 0004380205
[0046]
[Expression 14]
Figure 0004380205
[0047]
[Expression 15]
Figure 0004380205
[0048]
The inverse Fourier transform unit 2124 performs an inverse Fourier transform process based on the signal Z (u, v) having only phase information output from the phase extraction unit 2123 to generate a correlation strength image.
Specifically, the inverse Fourier transform unit 2124 performs an inverse Fourier transform process based on the signal Z (u, v) as shown in Equation (16), and generates a correlation strength image G (p, q).
[0049]
[Expression 16]
Figure 0004380205
[0050]
The magnification information-rotation information generation unit 213 determines the shift amount from the image center of the peak position in the correlation strength image G (p, q) generated by the inverse Fourier transform unit 2124, that is, the registered image AIM and the collation image RIM. Since this is equivalent to the amount of translation between the pattern data obtained as a result of the Fourier-Melin transformation, the magnification information (enlargement / reduction ratio) of the matching image RIM with respect to the registered image AIM is detected by detecting this deviation amount. ) And correction information S21 including data indicating the rotation angle information is generated.
[0051]
The correcting unit 22 corrects the collation image RIM based on the correction information S21 output from the magnification information-rotation information-rotation information unit 21 magnification information-rotation information generation unit 213. Specifically, the correction unit 22 performs an enlargement / reduction process on the collation image RIM based on the magnification information and the rotation angle information included in the correction information S21, performs the rotation process, and outputs the result to the phase-only correlation unit 23. By the correction process of the correction unit 22, the difference in scaling and rotation components between the registered image AIM and the collation image RIM is removed.
For this reason, only the translation component remains as a difference between the registered image AIM and the corrected collation image RIM.
[0052]
The phase only correlation unit 23 detects a translation component between the above-described registered image AIM and the corrected collation image RIM, and a correlation value thereof. This detection is obtained, for example, by the phase only correlation method using the above-described phase only filter.
Specifically, the phase only correlation unit 23 includes Fourier transform units 2311 and 2312, a synthesis unit 232, a phase extraction unit 233, and an inverse Fourier transform unit 234.
[0053]
The Fourier transform units 2311 and 2312, the synthesis unit 232, the phase extraction unit 233, and the inverse Fourier transform unit 234 are respectively the Fourier transform units 2120 and 2121, the synthesis unit 2122, the phase extraction unit 2123, and the phase-only correlation unit 212 described above. Since it has the same function as each of the inverse Fourier transform units 2124, it will be briefly described.
[0054]
The Fourier transform unit 2311 performs Fourier transform on the registered image AIM and outputs the result to the synthesis unit 232. At this time, the registered image AIM subjected to the Fourier transform process by the Fourier transform unit 21111 may be stored in the memory 12 and output to the combining unit 232. By doing so, the Fourier transform processing is not performed twice, so that the processing is reduced.
The Fourier transform unit 2312 performs Fourier transform on the image S22 that has been corrected by the correction unit 22 and outputs a Fourier image as a processing result to the synthesis unit 232.
[0055]
The synthesizing unit 232 synthesizes the Fourier images S2311, S2312 output from the Fourier transform units 2311, 2312 and outputs the synthesized image S232 to the phase extraction unit 233.
The phase extraction unit 233 extracts the phase information as described above based on the composite image S232 and outputs the signal S233 to the inverse Fourier transform unit 234.
The inverse Fourier transform unit 234 performs inverse Fourier transform based on the signal S233, generates a correlation strength image (correlation image data), and outputs the correlation strength image to the determination unit 24 as a signal S23.
[0056]
A detailed description of the parallel displacement detection process in the above-described phase-only correlation method will be given.
For example, the original image f1 (m, n), the original image f2 (m, n), and the image f3 (m, n) = f2 (m + α, n + β) obtained by translating the image f2 (m, n) are Fourier transformed. Processing is performed to generate Fourier coefficients F1 (u, v), F2 (u, v), and F3 (u, v) as shown in equations (17) to (19).
[0057]
[Expression 17]
Figure 0004380205
[0058]
[Formula 18]
Figure 0004380205
[0059]
[Equation 19]
Figure 0004380205
[0060]
Based on the Fourier coefficients F1 (u, v) to F3 (u, v), as shown in the equations (20) to (22), the phase images F′1 (u, v) to F′3 having only the phase information. (U, v) is generated.
[0061]
[Expression 20]
Figure 0004380205
[0062]
[Expression 21]
Figure 0004380205
[0063]
[Expression 22]
Figure 0004380205
[0064]
The correlation Z12 (u, v) of the phase image of the correlation between the phase image F′1 (u, v) and the phase image F′2 (u, v) is calculated as shown in Equation (23), and the phase image F ′ The correlation Z13 (u, v) of the phase image of the correlation between 1 (u, v) and the phase image F′3 (u, v) is calculated as shown in equation (24).
[0065]
[Expression 23]
Figure 0004380205
[0066]
[Expression 24]
Figure 0004380205
[0067]
The correlation strength image G12 (r, s) of the correlation Z12 (u, v) and the correlation strength image G13 (r, s) of the correlation Z13 (u, v) are calculated as shown in equations (25) and (26). To do.
[0068]
[Expression 25]
Figure 0004380205
[0069]
[Equation 26]
Figure 0004380205
[0070]
As shown in equations (25) and (26), when the image f3 (m, n) is shifted by (+ α, + β) compared to the image 2 (m, n), the phase-only correlation method is used. In the strong correlation image, a correlation strength peak is generated at a position shifted by (−α, −β). Based on the position of the correlation strength position, the amount of parallel movement between the two images can be obtained.
In addition, by using this phase-only correlation method on the above-described Fourier-Melin space, the amount of parallel movement on the Fourier-Melin space can be detected. This parallel movement amount corresponds to magnification information and rotation angle information in the real space as described above.
[0071]
FIG. 4 is a diagram for explaining the difference between the autocorrelation method and the phase only correlation method.
In the autocorrelation method, for example, as shown in FIGS. 4A and 4B, when the image IM1 and the same image IM2 as the image IM1 are subjected to Fourier transform to generate the autocorrelation function SG1, the result shown in FIG. As described above, a correlation strength distribution having a peak having a high correlation strength and a small correlation strength at the periphery thereof is obtained. In FIG.4 (c), a vertical axis | shaft shows correlation strength.
[0072]
On the other hand, in the above-described phase-only correlation method, as shown in FIGS. 4D and 4E, when the image IM1 and the image IM2 that is the same as the image IM1 are subjected to Fourier transform and only the phase information is correlated, FIG. ), A correlation strength distribution having a high correlation strength and only a sharp peak is obtained. Thus, the phase-only method can obtain clear information regarding the correlation as compared with the autocorrelation method. In FIG. 4F, the vertical axis (z-axis) indicates the correlation strength, and the x-axis and the y-axis indicate the shift amount.
[0073]
FIG. 5 is a diagram for explaining the correlation intensity distribution when there is a parallel displacement between two images in the phase-only correlation method.
For example, the correlation intensity distribution in the phase limiting method of the image IM1 as shown in FIGS. 5A and 5B and the image IM3 moved several pixels parallel to the image IM1 is shown in FIG. 5C, for example. Thus, sharp peaks with high correlation strength are distributed at positions shifted from the peak positions in the correlation image data shown in FIG. 4 (f) by a distance corresponding to the amount of parallel movement. However, the peak intensity shown in FIG. 5C is smaller than the peak intensity shown in FIG. This is because the matching pixel regions of the images IM1 and IM3 are smaller than those of the images IM1 and IM2.
[0074]
FIG. 6 is a diagram for explaining the correlation strength distribution when there is a rotational shift between two images in the phase only method.
The correlation intensity distribution in the phase limiting method of the image IM1 as shown in FIGS. 6A and 6B and the image 4 rotated several degrees from the image IM1 is, for example, as shown in FIG. A correlation strength distribution is obtained. If the phase-only correlation method is simply used, it is difficult to detect the correlation due to rotational deviation.
[0075]
For this reason, in the image collation device 1 according to the present embodiment, the registered image AIM and the collation image RIM are subjected to Fourier-Melin transformation, and the phase-only correlation method is used in the Fourier-Melin space to obtain the translation amount. And detecting magnification information and rotation angle information of the registered image AIM and the collation image RIM. Based on the information, the magnification and rotation angle of the verification image are corrected.
A translation shift between the corrected collation image RIM and the registered image AIM is detected by the phase only correlation method, and at the same time, collation between the images is performed based on the correlation peak.
[0076]
FIG. 7 is a diagram for explaining the correlation image data output by the phase only correlation unit 23. FIG. 7A is a registered image AIM, FIG. 7B is a collation image RIM, and FIG. 7C is a diagram showing a specific example of correlation image data. FIG. 8 is a diagram for explaining the correlation image data shown in FIG.
[0077]
When the registered image AIM and the collation image RIM include, for example, binarized and linear patterns such as handwritten characters and blood vessel patterns, for example, the registered image AIM and the collation image RIM as shown in FIGS. In this case, the phase only correlation unit 23 outputs correlation image data as shown in FIG.
[0078]
In FIG. 7C, the z-axis direction indicates the correlation peak intensity in the correlation image data, and the correlation peak intensity corresponds to the correlation degree between the registered image AIM and the collation image RIM. As shown in FIGS. 7C and 8, the correlation peak positions in the x-axis direction and the y-axis direction are, for example, the amount of deviation from the image center corresponds to the parallel movement amount between the registered image AIM and the collation image RIM. .
[0079]
  The discriminating unit 24 collates the registered image AIM and the collation image RIM based on the signal S23 output from the phase only correlation unit 23.
  DiscriminatorFor example, FIG.2As shown in FIG. 5, the candidate specifying unit 241, the similarity generation unit 242, the integrating unit 243, and the collating unit 244 are included.
  The candidate identification unit 241 corresponds to the candidate identification unit according to the present invention, the similarity generation unit 242 corresponds to the similarity generation unit according to the present invention, the integration unit 243 corresponds to the integration unit according to the present invention, and the collation unit Reference numeral 244 corresponds to collation means according to the present invention.
[0080]
The candidate specifying unit 241 specifies a plurality of candidates for the two-dimensional positional relationship between the registered image AIM, the matching image RIM, and the similarity generation unit as the signal S241 based on the signal S23 output from the phase only correlation unit 23. It outputs to 242.
[0081]
FIG. 9 is a diagram for explaining candidate specifying processing of the candidate specifying unit 241 shown in FIG. The numerical value indicates the correlation peak intensity of the correlation image data on the XY plane of the correlation image data.
For example, in the case of a registered image AIM and a collation image RIM including a binarized and linear pattern as shown in FIGS. 7A and 7B, correlation peak intensities (also referred to as correlation intensities) between images having a large correlation. However, the value is small as shown in FIG.
For example, as illustrated in FIG. 9, the candidate specifying unit 241 selects the top N correlation strengths based on the signal S23, that is, eight in the present embodiment, the registered image AIM, the matching image RIM, and the two-dimensional positional relationship candidates. And output to the similarity generation unit 242 as a signal S241.
[0082]
The similarity generation unit 242 generates a two-dimensional image between the registered image AIM and the matching image RIM corrected by the correction unit 22 based on the signal S242 indicating a plurality of positional relationship candidates specified by the candidate specifying unit 242. In each of the plurality of different positional relationships above, for each pixel, the registered image AIM and the collation image RIM corrected by the correction unit 22 are compared to generate a similarity.
[0083]
Specifically, as shown in FIGS. 7A and 7B, for example, the similarity generation unit 242 sets the registered image AIM to f1 (m, n) and the matching image RIM corrected by the correction unit 22 to f2 ( Assuming that the image includes a binarization of m × n pixels of m, n) and a linear pattern, for example, the similarity Sim is calculated by Equation (27), and the calculation result is output to the accumulating unit 243 and the matching unit 244. .
[0084]
[Expression 27]
Figure 0004380205
[0085]
The integration unit 243 integrates the similarity Sim generated by the similarity generation unit 242 and outputs the integration result to the collation unit 244 as a signal S243.
[0086]
The collation unit 244 collates the registered image AIM and the collation image RIM based on the similarity Sim accumulated by the accumulation unit 243. Specifically, for example, the collation unit 244 determines that the registered image AIM matches the collation image RIM when the integrated similarity Sim is greater than a predetermined value.
[0087]
The collation unit 244 collates the registered image AIM with the collation image RIM based on the similarity Sim output from the similarity generation unit 242. Specifically, for example, the collation unit 244 determines that the registered image AIM matches the collation image RIM when the similarity Sim is greater than a predetermined value.
Moreover, the collation part 244 outputs the signal S24 which shows the result of collation processing.
[0088]
FIG. 10 is a flowchart for explaining the operation of the image collating apparatus 1 shown in FIG. The operation of the image collating apparatus 1 having the above-described configuration will be briefly described with reference to FIG.
For example, the registered image AIM and the collation image RIM are input by the image input unit 11, and each image data is stored in the memory (ST1).
Here, in order to obtain the magnification (enlargement / reduction ratio) and rotation angle information of the collation image RIM with respect to the registration image AIM, the registration image AIM is read from the memory 12 (ST2), and the magnification information-rotation information unit 21 Fourier The transform unit 21111 performs Fourier transform processing (ST3), and Fourier image data S21111 is stored and stored in the memory 12 (ST4).
The amplitude component in the Fourier image data S21111 is subjected to logarithmic processing by the logarithmic conversion unit 21121 and converted to a logarithmic-polar coordinate system by the logarithmic-polar coordinate conversion unit 21131 (ST5).
[0089]
The collation image RIM is read from the memory 12 (ST6), similarly subjected to Fourier transform processing by the Fourier transform unit 21112 (ST7), and the amplitude component in the Fourier image data S21112 is subjected to logarithmic processing by the logarithmic transform unit 21122. Then, the logarithmic-polar coordinate conversion unit 21132 converts the logarithmic-polar coordinate system (ST8).
[0090]
The image signals (also referred to as pattern data) SA211 and SR211 obtained as a result of performing the Fourier-Merin transform on the registered image AIM and the collation image RIM described above are Fourier transformed by the Fourier transform units 2120 and 2121 of the phase-only correlation unit 212, respectively. It is transformed (ST9), synthesized by the synthesizer 2122 (ST10), the amplitude component is removed from the synthesized signal by the phase extractor 2123 (ST11), and the remaining phase component is inverse Fourier transformed by the inverse Fourier transformer 2124. (ST12) Based on the shift amount of the peak position of the obtained correlation image data from the image center, correction information including the magnification information and the rotation information is generated by the magnification information-rotation information generation unit 213 (ST13). .
[0091]
The correction unit 22 performs correction processing for enlargement / reduction of the collation image and rotation processing based on the correction information, and removes the scaling component and the rotation component between the images (ST14). The remaining difference is only the translation component and is detected using the phase only correlation method.
[0092]
The collated image RIM subjected to the correction process is Fourier transformed by the Fourier transform unit 2312 of the phase only correlation unit 23 (ST15) to generate Fourier image data S2312, and the Fourier transformed registered image AIM stored in the memory 12 Is read (ST16), and the combining unit 232 generates combined data S232 (ST17).
[0093]
At this time, the registered image AIM may be Fourier transformed by the Fourier transform unit 2311 to generate Fourier image data S2311 and input to the combining unit 232. The amplitude information in the synthesized data S232 is removed by the phase extraction unit 233 (ST18), the remaining phase information is input to the inverse Fourier transform unit 234, and the signal S23 is output as correlation image data (ST19).
[0094]
Based on the correlation image data S23 generated by the above-described processing, for example, N candidates P are detected by the candidate specifying unit 241 from the upper side of the correlation peak intensity in the correlation image data S23.i(P0, P1, P2, ..., Pn-1) Are extracted and output to the similarity generation unit 242 as a signal S241 (ST20).
[0095]
Integration unit 243 initializes variables for integration (ST21). For example, the variable i is initialized to 0 and the integrated value S is initialized to 0.
In the similarity generation unit 242, each candidate (coordinate) Pi, By detecting the amount of deviation from the center of the correlation image data, the registered image AIM and the collation image RIM are aligned, and the similarity Sim (i) is calculated. It outputs to 244 (ST22).
[0096]
In step ST23, the collation unit 244 compares the similarity Sim (i) with a preset first threshold th1, and when the similarity Sim (i) is smaller than the first threshold, the integration unit 243 Then, the degree of similarity Sim (i) is accumulated, and in detail, it is accumulated by the formula S = S + Sim (i) and is output to the collation unit 244 (ST24).
In step ST25, the collation unit 244 compares the integrated value S with a preset second threshold th2, and if the integrated value S is smaller than the second threshold th2, the variable i and the value N-1 are set. Are compared (ST26), and if the variable i does not match N-1, 1 is added to the variable i (ST27), and the process returns to step ST22. In step ST25, if the variable i matches N-1, it is assumed that the images do not match (ST28).
[0097]
On the other hand, in the comparison process in step ST23, the collation unit 244 determines that the images match when the similarity Sim (i) is equal to or greater than the first threshold value. In the comparison process in step ST25, In the matching unit 244, when the integrated value S is equal to or greater than the second threshold th2, it is assumed that the images match (ST29). For example, the image matching device according to the present embodiment is applied to the vein pattern matching device in the security field. When applied, the operation processing unit 16 performs processing such as releasing the electronic lock.
[0098]
As described above, the candidate specifying unit 241 that specifies a plurality of candidates for the two-dimensional positional relationship between the registered image AIM and the matching image RIM, and the two-dimensional difference between the registered image AIM and the matching image RIM. In each of a plurality of positional relationships, a similarity generation unit 242 that generates a similarity Sim by comparing the registered image AIM and the matching image RIM, and an integration unit 243 that integrates the similarity Sim generated by the similarity generation unit 242 Since the collation unit 244 that collates based on the similarity Sim accumulated by the accumulation unit 243 is provided, for example, even if the correlation between two image data to be compared is small, By adding the similarities calculated for the respective positional relationships of the candidates, it is possible to perform collation with higher accuracy than in the case where collation is performed using the similarity alone. In addition, when the similarity Sim is larger than the first threshold th1, it is determined that they match, so that the matching process can be performed at high speed.
[0099]
Further, a magnification information-rotation information unit 21, a correction unit 22, and a correction unit 22 for detecting a correlation based on a phase component as a result of a rotation angle correction process or an enlargement ratio correction process between the registered image AIM and the matching image RIM, and a Fourier transform process; Since the phase only correlation unit 23 is provided, the matching process can be performed even when the registered image AIM and the matching image RIM have different rotation angles and enlargement ratios.
[0100]
FIG. 11 is a software functional block diagram of the second embodiment of the image collating apparatus according to the present invention.
The hardware functional blocks of the image collating apparatus 1a according to the present embodiment are substantially the same as those in the first embodiment, and thus description thereof is omitted.
As shown in FIG. 11, for example, the CPU 15a of the image collating apparatus 1a includes a magnification information-rotation information unit 21, a correction unit 22, a phase only correlation unit 23, and a determination unit 24a.
For example, as illustrated in FIG. 11, the determination unit 24 a includes a candidate specifying unit 241, a similarity generation unit 242, a similarity correction unit 2421, an integration unit 243, and a collation unit 244.
Description of functions similar to those of the first embodiment will be omitted, and only differences will be described.
[0101]
The similarity correction unit 2421 is generated by the similarity generation unit 242 by comparing each pixel of the registered image AIM and the matching image RIM in each of a plurality of different two-dimensional positional relationships between the registered image AIM and the matching image RIM. The similarity Sim is corrected according to the image characteristics around the pixel to generate a similarity Sim ′, which is output to the integrating unit 243 and the collating unit 244 as a signal S2421.
The accumulating unit 243 and the collating unit 244 perform the same processing as in the first embodiment based on the similarity Sim ′.
[0102]
FIG. 12 is a diagram for explaining the function of the similarity correction unit 2421 shown in FIG. 12A illustrates an image pattern of the registered image AIM, FIG. 12B illustrates an image pattern of the matching image RIM, and FIG. 12C illustrates a specific example of the similarity Sim generated by the similarity generation unit 242. FIG. FIG. 13 is a diagram for explaining the function of the similarity correction unit 2421 shown in FIG.
[0103]
For example, the similarity Sim generated by the similarity generation unit 242 generates, for example, the similarity Sim between the image pattern of the registered image AIM illustrated in FIG. 12A and the image pattern of the matching image RIM illustrated in FIG. As shown in FIG. 12C, the calculation is based on the intersection CP of the linear patterns of both images.
[0104]
For example, as illustrated in FIG. 13A, the similarity generation unit 242 correlates the linear pattern with different directions in the case of the correlation pattern PT31 between the pattern PT11 of the registered image AIM and the pattern PT21 of the matching image RIM. In spite of the absence, the similarity is increased because the similarity Sim is calculated only from the intersection.
The similarity correction unit 2421 according to the present embodiment detects, for example, the intersection point CP. For example, in the nine pixels around the pixel, if there is an intersection point CP other than the center portion, the intersection point CP of the center portion is correlated. If there is no intersection CP other than the center, the center CP is determined as an uncorrelated intersection.
[0105]
For example, in the case of the correlation pattern PT31 between the pattern PT11 of the registered image AIM and the pattern PT21 of the collation image RIM as shown in FIG. The intersection at the center is determined as an intersection with no correlation.
In the case of the correlation pattern PT32 between the pattern PT12 of the registered image AIM and the pattern PT22 of the collation image RIM as shown in FIG. The intersection of the parts is determined as an uncorrelated intersection.
[0106]
In the case of the correlation pattern PT32 between the pattern PT12 of the registered image AIM and the pattern PT22 of the collation image RIM as shown in FIG. The intersection CP of the part is determined as a correlated intersection.
[0107]
The similarity correction unit 2421 uses the value obtained by dividing the number of intersecting intersections obtained for the entire image by the total number of intersections as the effective rate eff, and the similarity generated by the similarity generation unit 242 as shown in Equation (28). The degree Sim is multiplied to perform correction processing to generate a corrected similarity Sim ′ and output it as a signal S2421.
[0108]
[Expression 28]
Figure 0004380205
[0109]
For example, in the case shown in FIG. 12, the effectiveness rate eff is 0, and as a result, the corrected similarity Sim ′ is 0.
[0110]
FIG. 14 is a flowchart for explaining the operation of the image collating apparatus 1a shown in FIG. Only the differences from the first embodiment will be described with reference to FIG. 14 for the operation of the image collating apparatus 1 having the configuration described above. The processing from step ST1 to step ST20 is the same as that in the first embodiment, and a description thereof will be omitted.
[0111]
Integration unit 243 initializes variables for integration (ST21). For example, the variable i is initialized to 0 and the integrated value S is initialized to 0.
In the similarity generation unit 242, each candidate (coordinate) Pi, The degree of similarity Sim (i) is calculated after the registration image AIM and the matching image RIM are aligned by detecting the amount of deviation from the center of the correlation image data, and the similarity correction unit 2421 is used as the signal S242. (ST22).
[0112]
In step ST221, the similarity correction unit 2421 divides the number of correlated intersections obtained for the entire image based on the correction signal S242 as the similarity Sim output from the similarity generation unit 242 by the total number of intersections. The value is an effective rate eff, and as shown in Expression (28), the similarity Sim generated by the similarity generation unit 242 is multiplied to perform correction processing to generate a corrected similarity Sim ′, and a signal S2421 The data is output to the collation unit 244 and the integration unit 243.
[0113]
In step ST23, the collation unit 244 compares the similarity Sim ′ (i) with a preset first threshold th1, and if the similarity Sim ′ (i) is smaller than the first threshold, integration is performed. The unit 243 accumulates the similarity Sim ′ (i), specifically, accumulates by the formula S = S + Sim ′ (i), and outputs it to the collation unit 244 (ST24).
[0114]
In step ST25, the collation unit 244 compares the integrated value S with a preset second threshold th2, and if the integrated value S is smaller than the second threshold th2, the variable i and the value N-1 are set. Are compared (ST26), and if the variable i does not match N-1, 1 is added to the variable i (ST27), and the process returns to step ST22. In step ST25, if the variable i matches N-1, it is assumed that the images do not match (ST28).
[0115]
On the other hand, in the comparison process of step ST23, the collation unit 244 determines that the images match when the similarity Sim ′ (i) is equal to or greater than the first threshold, and also in the comparison process of step ST25. The collation unit 244 assumes that the images match if the integrated value S is equal to or greater than the second threshold th2 (ST29). For example, the image collation device according to the present embodiment is applied to the vein pattern collation device in the security field. Is applied, the operation processing unit 16 performs processing such as releasing the electronic lock.
[0116]
As described above, in the present embodiment, the similarity generation unit 242 performs pixel-by-pixel registration of the registered image AIM and the matching image RIM in each of a plurality of different two-dimensional positional relationships between the registered image AIM and the matching image RIM. A similarity correction unit 2421 is provided that corrects the similarity Sim generated in comparison with the image characteristics according to the image characteristics around the pixel to generate similarity Sim ′, and the collation unit 244 adds the similarity Sim ′ to the corrected similarity Sim ′. Since collation is performed based on this, it is possible to perform collation processing with higher accuracy than in the first embodiment.
[0117]
Even if there is an intersection between line segments with a large angle deviation, that is, a small correlation, the similarity is lowered by the correction process. As a result, a correlation obtained from images with a large correlation and a small image are obtained. The difference with the correlation degree calculated | required from each other becomes large, and more highly accurate collation processing can be performed.
[0118]
Note that the present invention is not limited to the present embodiment, and various suitable modifications can be made.
For example, in the present embodiment, the similarity generation unit calculates the similarity using Equation (27), but the present invention is not limited to this form. For example, the similarity generation unit only needs to be able to perform a process of calculating a similarity suitable for the correlation of the linear pattern.
[0119]
In the present embodiment, Fourier transform processing, logarithmic transformation processing, and logarithm-station coordinate transformation are performed, and the magnification information and the rotation angle information are generated by calculating the parallel movement amount in the Fourier-Merlin space. It is not limited to form. For example, coordinate conversion may be performed in a space where magnification information and rotation angle information can be detected.
[0120]
In addition, the first threshold th1 and the second threshold th2 are fixed values, but the present invention is not limited to this form. For example, by making each of the threshold values variable depending on the image pattern, it is possible to perform more accurate collation.
[0121]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the image collation apparatus, the image collation method, and program which can perform collation between images with high precision can be provided.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a first embodiment of an image collating apparatus according to the present invention.
FIG. 2 is a software functional block diagram of the image collating apparatus shown in FIG. 1;
FIG. 3 is a diagram for explaining the operation of the Fourier-Melin transform unit shown in FIG. 2;
FIG. 4 is a diagram for explaining a difference between an autocorrelation method and a phase-only correlation method;
FIG. 5 is a diagram for explaining a correlation intensity distribution when there is a parallel shift between two images in the phase-only correlation method;
FIG. 6 is a diagram for explaining a correlation intensity distribution when there is a rotational shift between two images in the phase limiting method.
FIG. 7 is a diagram for explaining correlation image data output by a phase-only correlation unit 23; (A) is a registered image AIM, (b) is a collation image RIM, and (c) is a diagram showing a specific example of correlation image data.
FIG. 8 is a diagram for explaining the correlation image data shown in FIG.
FIG. 9 is a diagram for explaining candidate specifying processing of the candidate specifying unit 241 illustrated in FIG. 1;
FIG. 10 is a flowchart for explaining the operation of the image collating apparatus 1 shown in FIG. 1;
FIG. 11 is a software functional block diagram of the second embodiment of the image collating apparatus according to the present invention.
FIG. 12 is a diagram for explaining a function of the similarity correction unit 2421 shown in FIG. 1;
FIG. 13 is a diagram for explaining the function of the similarity correction unit shown in FIG. 1;
FIG. 14 is a flowchart for explaining the operation of the image collating apparatus 1a shown in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1,1a ... Image collation apparatus, 11 ... Image input part, 12 ... Memory, 13 ... FFT processing part, 14 ... Coordinate conversion part, 15 ... CPU, 16 ... Operation processing part, 21 ... Magnification information-rotation information part, 22 ... correction unit, 23 ... parallel movement unit, 24 ... discriminating unit, 211 ... Fourier-Merin transform unit, 212 ... phase-only correlation unit, 213 ... magnification information-rotation information generation unit, 232 ... combination unit, 233 ... phase extraction unit 234 ... inverse Fourier transform unit, 241 ... candidate identification unit, 242 ... similarity generation unit, 243 ... integration unit, 244 ... collation unit, 2120, 2121 ... Fourier transform unit, 2122 ... synthesis unit, 2123 ... phase extraction unit, 2124 ... Inverse Fourier transform unit, 2311, 2112 ... Fourier transform unit, 2421 ... Similarity correction unit, 21111, 11112 ... Fourier transform unit, 21121, 2122 ... Logarithmic transform unit, 1131,21132 ... the log - polar coordinate conversion unit.

Claims (5)

第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像をフーリエ変換するフーリエ変換部と、
前記第1の画像と第2の画像をフーリエ変換した後極座標変換して極座標から位相を求める座標変換部と、
座標変換部で得られた前記第1と第2の画像に対応する位相を合成し、当該合成した位相を逆フーリエ変換して相関強度画像におけるピーク位置を求める第1の位相限定相関部と、
前記相関強度画像におけるピーク位置の画像中心からのずれ量を検出し、該ずれ量により、前記第2の画像である照合画像を前記第1の画像である登録画像に対して拡大、縮小、回転処理して補正する補正部と
前記第1の画像と、前記補正部で前記補正された第2の画像を、それぞれフーリエ変換したのち合成し位相を抽出して該抽出した位相を逆フーリエ変換してピーク位置を求める第2の位相限定相関部と
前記第2の位相限定相関部から出力された複数の前記ピーク位置を基に、前記第1の画像と前記補正された第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定手段と
前記候補特定手段で特定された前記第1の画像と前記補正された第2の画像との間の2次元上の異なる複数の位置関係のそれぞれにおいて、前記第1の画像と前記補正された第2の画像とを比較して類似度を生成する類似度生成手段と
前記類似度生成手段が生成した前記類似度を積算する積算手段と
前記積算手段が積算した前記類似度を基に、前記第1の画像と前記補正された第2の画像とを照合する照合手段と
を有する画像照合装置。
A Fourier transform unit that Fourier transforms the first image and the second image in each of a plurality of different two-dimensional positional relationships between the first image and the second image;
A coordinate conversion unit that performs a Fourier transform on the first image and the second image and then converts the polar coordinate to obtain a phase from the polar coordinate;
A first phase-only correlation unit that synthesizes phases corresponding to the first and second images obtained by the coordinate transformation unit, and inverse Fourier transforms the synthesized phase to obtain a peak position in the correlation intensity image;
The amount of deviation of the peak position in the correlation intensity image from the image center is detected, and the collation image as the second image is enlarged, reduced, or rotated with respect to the registered image as the first image based on the amount of deviation. A correction unit for processing and correcting ;
The first image and the second image corrected by the correction unit are respectively Fourier-transformed and combined to extract a phase, and the extracted phase is subjected to inverse Fourier transform to obtain a peak position. A phase only correlation section ;
Identifying a plurality of candidates for the two-dimensional positional relationship between the first image and the corrected second image based on the plurality of peak positions output from the second phase-only correlation unit Candidate identification means to
In each of a plurality of different two-dimensional positional relationships between the first image specified by the candidate specifying means and the corrected second image, the first image and the corrected first A similarity generation means for generating a similarity by comparing the two images ;
Integrating means for integrating the similarities generated by the similarity generating means ;
An image collating apparatus comprising: a collating unit that collates the first image with the corrected second image based on the similarity accumulated by the accumulating unit.
前記画像照合装置は、さらに、前記座標変換部の前に前記フーリエ変換された画像を対数変換する対数変換部を有する
請求項1に記載の画像照合装置。
The image collating apparatus according to claim 1, further comprising a logarithmic conversion unit that logarithmically converts the Fourier transformed image before the coordinate conversion unit.
前記画像照合装置は、さらに類似度補正手段を有し、該類似度補正手段は、前記類似度生成手段で前記第1の画像と前記補正された第2の画像のお互い異なる方向の線形パターンの交点から類似度を求め、該交点の周囲の所定個数の画素において中心部以外の交点の有無により該中心部の交点の相関を判別し、該相関を用いて前記類似度を補正して前記積算手段に出力する、
請求項1に記載の画像照合装置
The image collating apparatus further includes a similarity correction unit, and the similarity correction unit includes linear patterns in different directions of the first image and the second image corrected by the similarity generation unit. The similarity is obtained from the intersection, the correlation of the intersection of the central portion is determined based on the presence or absence of an intersection other than the central portion in a predetermined number of pixels around the intersection, and the similarity is corrected using the correlation and the integration is performed. Output to the means,
The image collation apparatus according to claim 1 .
前記類似度補正手段は、前記第1の画像と前記補正された第2の画像のお互い異なる方向の線形パターンで構成される画像全体について求めた上記相関のある交点数を前記画像全体の全交点数で割り算した値を有効率とし、該有効率を前記類似度生成手段が生成した類似度に乗算して補正処理を行い、補正した類似度を生成する
請求項3に記載の画像照合装置
The similarity correction means calculates the total number of intersecting points obtained for the entire image composed of linear patterns in different directions of the first image and the corrected second image. The value divided by the score is used as an effective rate, and the effective rate is multiplied by the similarity generated by the similarity generation unit to perform correction processing, thereby generating a corrected similarity.
The image collation apparatus according to claim 3 .
第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、第1の画像と前記第2の画像をフーリエ変換する第1の工程と、
前記第1の画像と第2の画像をフーリエ変換した後極座標変換して極座標から位相を求める第2の工程と、
座標変換して得られた前記第1と第2の画像に対応する位相を合成し、当該合成した位相を逆フーリエ変換して相関強度画像におけるピーク位置を求める第3の工程と、
前記相関強度画像におけるピーク位置の画像中心からのずれ量を検出し、該ずれ量により、前記第2の画像である照合画像を前記第1の画像である登録画像に対して拡大、縮小、回転処理して補正する第4の工程と
前記第1の画像と、前記補正された第2の画像を、それぞれフーリエ変換したのち合成し位相を抽出して該抽出した位相を逆フーリエ変換してピーク位置を求める第5の工程と
複数の前記ピーク位置を基に、前記第1の画像と前記補正された第2の画像との前記2次元上の位置関係の複数の候補を特定する第6の工程と
前記複数の候補を特定された前記第1の画像と前記補正された第2の画像との間の2次元上の異なる複数の位置関係のそれぞれにおいて、前記第1の画像と前記補正された第2の画像とを比較して類似度を生成する第7の工程と
生成された前記類似度を積算する第8の工程と
積算された前記類似度を基に、前記第1の画像と前記補正された第2の画像とを照合する第9の工程と
を有する画像照合方法。
A first step of Fourier transforming the first image and the second image in each of a plurality of different two-dimensional positional relationships between the first image and the second image;
A second step in which the first image and the second image are subjected to Fourier transformation and then subjected to polar coordinate transformation to obtain a phase from the polar coordinate;
A third step of synthesizing phases corresponding to the first and second images obtained by coordinate transformation, and inverse Fourier transforming the synthesized phase to obtain a peak position in the correlation intensity image;
The amount of deviation of the peak position in the correlation intensity image from the image center is detected, and the collation image as the second image is enlarged, reduced, or rotated with respect to the registered image as the first image based on the amount of deviation. A fourth step of processing and correcting ;
A fifth step in which the first image and the corrected second image are respectively subjected to Fourier transform and then combined to extract a phase, and the extracted phase is subjected to inverse Fourier transform to obtain a peak position ;
A sixth step of identifying a plurality of candidates for the two-dimensional positional relationship between the first image and the corrected second image based on a plurality of the peak positions ;
In each of a plurality of different two-dimensional positional relationships between the first image in which the plurality of candidates are specified and the corrected second image, the first image and the corrected first A seventh step of generating similarity by comparing the two images ;
An eighth step of integrating the generated similarities ;
An image collating method comprising: a ninth step of collating the first image with the corrected second image based on the integrated similarity .
JP2003108390A 2003-03-07 2003-03-07 Image collation device and image collation method Expired - Fee Related JP4380205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003108390A JP4380205B2 (en) 2003-03-07 2003-03-07 Image collation device and image collation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003108390A JP4380205B2 (en) 2003-03-07 2003-03-07 Image collation device and image collation method

Publications (2)

Publication Number Publication Date
JP2004272859A JP2004272859A (en) 2004-09-30
JP4380205B2 true JP4380205B2 (en) 2009-12-09

Family

ID=33128023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003108390A Expired - Fee Related JP4380205B2 (en) 2003-03-07 2003-03-07 Image collation device and image collation method

Country Status (1)

Country Link
JP (1) JP4380205B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5599494B2 (en) * 2013-07-11 2014-10-01 東芝テック株式会社 Product code reader and program
WO2020110309A1 (en) 2018-11-30 2020-06-04 日本電気株式会社 Image collation device, image collation method, and program

Also Published As

Publication number Publication date
JP2004272859A (en) 2004-09-30

Similar Documents

Publication Publication Date Title
KR101122944B1 (en) Image correlation method, image correlation device, and program
JP2004240931A (en) Image collation device, image collation method, and program
JP4345426B2 (en) Image collation method, program, and image collation apparatus
Zhang et al. Palm vein extraction and matching for personal authentication
JP4428067B2 (en) Image collation apparatus, program, and image collation method
Chen et al. A novel personal biometric authentication technique using human iris based on fractal dimension features
JPH10124667A (en) Pattern collating device
Sun et al. Palm vein recognition using curvelet transform
JP2004192633A (en) Pattern collation device
JP4380205B2 (en) Image collation device and image collation method
JP5045763B2 (en) Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method
JP4161942B2 (en) Image collation method, image collation apparatus, and program
KR20050094228A (en) Fingerprint recognition method
Toh et al. Minutiae data synthesis for fingerprint identification applications
Zang et al. Evaluation of minutia cylinder-code on fingerprint cross-matching and its improvement with scale
Sabir Sensitivity and specificity analysis of fingerprints based algorithm
Iwasokun et al. Singular-minutiae points relationship-based approach to fingerprint matching
JP2007179267A (en) Pattern matching device
Teymourzadeh et al. Smart analytical signature verification for DSP applications
JP4645198B2 (en) Image collation apparatus, image collation method, and program
Khan et al. Signature verification using velocity-based directional filter bank
Sindhu et al. Identification of a Person by Palmprint images based on Gabor Filter
Dey et al. An approach for identification using knuckle and fingerprint biometrics employing wavelet based image fusion and SIFT feature detection
Kisku et al. Biometrics sensor fusion
RAO et al. AN AVERGE BASED ORIENTATION FIELD ESTIMATION METHOD FOR LATENT FINGER PRINT MATCHING.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090901

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees