JP2004272859A - Image collating device, image collating method and program - Google Patents

Image collating device, image collating method and program Download PDF

Info

Publication number
JP2004272859A
JP2004272859A JP2003108390A JP2003108390A JP2004272859A JP 2004272859 A JP2004272859 A JP 2004272859A JP 2003108390 A JP2003108390 A JP 2003108390A JP 2003108390 A JP2003108390 A JP 2003108390A JP 2004272859 A JP2004272859 A JP 2004272859A
Authority
JP
Japan
Prior art keywords
image
similarity
unit
correlation
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003108390A
Other languages
Japanese (ja)
Other versions
JP4380205B2 (en
Inventor
Takeshi Iizuka
健 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003108390A priority Critical patent/JP4380205B2/en
Publication of JP2004272859A publication Critical patent/JP2004272859A/en
Application granted granted Critical
Publication of JP4380205B2 publication Critical patent/JP4380205B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image collating device, an image collating method and a program that can collate images with high precision. <P>SOLUTION: The image collating device has a candidate specification part 241 for specifying a plurality of candidates of two-dimensional positional relations between a registered image AIM and a collated image RIM, a similarity generation part 242 for comparing the registered image AIM and the collated image RIM to generate a similarity Sim in each of the plurality of different two-dimensional positional relations between the registered image AIM and the collated image RIM, an integration part 243 for integrating the similarities Sim generated by the similarity generation part 242, and a collating part 2454 for executing collating based on the similarities Sim integrated by the integration part 243. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、指紋画像、静止画像、動画像等の画像情報に基づいて照合を行う画像照合装置、画像照合方法、およびプログラムに関するものである。
【0002】
【従来の技術】
従来、画像情報に基づいて照合を行う方法として、種々のパターン照合装置が知られている。例えばパターン照合装置としては、登録画像と、比較対象となる照合画像とを、所定の位置関係でのみ比較し相関値を算出し、その相関値に基づいて登録画像と照合画像の照合を行う。
【0003】
【発明が解決しようとする課題】
しかし、従来のパターン照合装置では、画像のパターンの種類によっては、ほぼ同じ画像であっても相関値が高くならずに、そのピークのみを用いても高精度に照合を行えない場合があり、改善が望まれている。
【0004】
本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像間の照合を高精度に行うことができる画像照合装置、画像照合方法、およびプログラムを提供することにある。
【0005】
【課題を解決するための手段】
前記目的を達成するために、本発明の第1の観点は、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する類似度生成手段と、前記類似度生成手段が生成した前記類似度を積算する積算手段と、前記積算手段が積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する照合手段とを有する。
【0006】
本発明の第1の観点によれば、類似度生成手段では、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、第1の画像と第2の画像とを比較して類似度を生成する。
照合手段では、類似度生成手段が生成した類似度を積算する積算手段と、積算手段が積算した類似度を基に、第1の画像と第2の画像とを照合する。
【0007】
さらに、前記目的を達成するために、本発明の第2の観点は、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する第1の工程と、前記第1の工程で生成した前記類似度を積算する第2の工程と、前記第2の工程で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の工程とを有する。
【0008】
さらに、前記目的を達成するために、本発明の第3の観点は、情報処理装置に実行させるためのプログラムであって、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する第1の手順と、前記第1の手順で生成した前記類似度を積算する第2の手順と、前記第2の手順で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の手順とを実行させる。
【0009】
【発明の実施の形態】
本発明に係る第1の実施形態に係る画像照合装置は、登録画像と照合画像間の回転角度補正処理または拡大率補正処理を行い、2次元上の異なる複数の位置関係それぞれにおいて、登録画像と照合画像とを比較して類似度を生成し、類似度を積算し、積算した類似度を基に照合を行う。
以下、図を参照しながら説明する。
【0010】
図1は、本発明に係る画像照合装置の第1実施形態の機能ブロック図である。
本実施形態に係る画像照合装置1は、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、CPU15、および動作処理部16を有する。
画像入力部11、メモリ12、FFT処理部13、座標変換部14、およびCPU15は、バスBSにより接続されている。動作処理部16はCPU15に接続されている。
【0011】
画像入力部11は、外部からの画像を入力するための入力部である。例えば、画像入力部11には、登録画像AIM、および登録画像AIMの比較対象である画像(照合画像RIMという)が入力される。
メモリ12は、画像入力部から入力された画像等が記憶される。例えば、メモリ12には、登録画像AIM、照合画像RIM、およびプログラムPが記憶されている。
プログラムPは、例えばCPU15に実行させる、本発明に係る相関処理、補正処理、類似度生成処理、積算処理、および照合処理等に関する手順を含む。
FFT処理部13は、例えばCPU15の制御により、メモリ12に記憶された画像に基づいて2次元フーリエ変換処理を行い、処理結果を座標変換部14およびCPU15に出力する。
【0012】
座標変換部14は、例えば、CPU15の制御により、FFT処理部13が処理した2次元フーリエ変換処理の結果に基づいて対数−極座標に変換し、座標変換結果をCPU15に出力する。
動作処理部16は、後述するCPU15の照合処理の結果に基づいて、例えば2つの画像が一致した場合には、電子鍵を解除する等の所定処理を行う。
【0013】
CPU15は、例えばメモリ12に記憶されているプログラムP、登録画像AIM、および照合画像RIMに基づいて、本発明の実施形態に係る照合処理を行う。
また、CPU15は、画像入力部11、メモリ12、FFT処理部13、座標変換部14、および動作処理部16等の制御を行い、本実施形態に係る処理を実行する。
【0014】
図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。CPU15は、FFT処理部13および座標変換部14等を制御し、例えば図2に示すような機能ブロックに基づいて処理を行う。
CPU15は、図2に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、および判別部24を有する。
倍率情報−回転情報部21、補正部22、および位相限定相関部23は、本発明に係る相関検出手段に相当する。
【0015】
倍率情報−回転情報部21および補正部22は、登録画像AIMおよび照合画像RIMとの回転角度補正処理または拡大率補正処理を行う。
倍率情報−回転情報部21は、登録画像AIMおよび照合画像RIMに基づいて倍率情報および/または回転情報を生成し、補正部22に出力する。
倍率情報は、登録画像AIMおよび照合画像RIMの拡大・縮小率を示す情報を含む。回転情報は、登録画像AIMおよび照合画像RIMの回転角度を示す情報を含む。
【0016】
詳細には例えば倍率情報−回転情報部21は、フーリエ・メリン変換部211、位相限定相関部212、および倍率情報−回転情報生成部213を有する。
フーリエ・メリン変換部211は、それぞれの画像情報に基いて後述するフーリエ・メリン変換を行い、それぞれの変換結果を示す信号SA211,SR211を位相限定相関部212に出力する。
【0017】
詳細には、フーリエ・メリン変換部211は、フーリエ変換部21111,21112、対数変換部21121,21122、および対数−極座標変換部21131,21132を有する。
【0018】
フーリエ変換部21111は、例えば、登録画像AIMがN×N画像の画像の場合に、登録画像AIMをf1(m,n)とすると、数式(1)に示すようにフーリエ変換を行い、フーリエ画像データF1(m,n)を生成し、対数変換部21121に出力する。フーリエ変換部21112は、例えば、照合画像RIMがN×N画像の画像の場合に、照合画像RIMをf2(m,n)とすると、数式(2)に示すようにフーリエ変換を行い、フーリエ画像データF2(m,n)を生成し、対数変換部21122に出力する。
【0019】
フーリエ画像データF1(m,n)は、数式(1)に示すように振幅スペクトルA(u,v)および位相スペクトルΘ(u,v)で構成され、フーリエ画像データF2(m,n)は、数式(2)に示すように振幅スペクトルB(u,v)および位相スペクトルΦ(u,v)で構成される。
【0020】
【数1】

Figure 2004272859
【0021】
【数2】
Figure 2004272859
【0022】
対数変換部21121,21122は、フーリエ変換部21111,21112で生成された、フーリエ画像データF1(m,n),F2(m,n)の振幅成分に基いて対数処理を行う。この振幅成分の対数処理は、画像データの詳細な特徴情報を含む高周波成分を強調する。
【0023】
詳細には、対数変換部21121は数式(3)に示すように振幅成分A(u,v)に基いて対数処理を行いA’(u,v)を生成し対数−極座標変換部21131に出力する。対数変換部21122は数式(4)に示すように振幅成分B(u,v)に基いて対数処理を行いB’(u,v)を生成し対数−極座標変換部21132に出力する。
【0024】
【数3】
Figure 2004272859
【0025】
【数4】
Figure 2004272859
【0026】
対数−極座標変換部21131,21132は、対数変換部21121,21122から出力された信号に基いて、対数−極座標系(例えばlog−r,Θ)に変換する。
一般的に例えば点(x,y)に対して数式(5),(6)に示すように定義すると、r=eμの場合にはμ=log(r)であり、任意の点(x,y)に対応する一義的な(log(r),Θ)が存在する。この性質により対数−極座標変換部21131,21132は座標変換を行う。
【0027】
【数5】
Figure 2004272859
【0028】
【数6】
Figure 2004272859
Figure 2004272859
【0029】
詳細には、対数−極座標変換部21131,21132は、数式(7)に示す集合(r、θ)、および数式(8)に示す関数f(r、θ)を定義する。
【0030】
【数7】
Figure 2004272859
【0031】
【数8】
Figure 2004272859
【0032】
対数−極座標変換部21131,21132は、数式(7),(8)で定義した集合(r、θ),関数f(r、θ)を用いて、画像データA’(u,v),B’(u,v)それぞれを、数式(9),(10)に示すように対数−極座標変換を行い、pA(r、θ)、pB(r、θ)を生成し、それぞれ信号SA211、信号SR211として、位相限定相関部212に出力する。
【0033】
【数9】
Figure 2004272859
【0034】
【数10】
Figure 2004272859
【0035】
図3は、図2に示したフーリエ・メリン変換部211の動作を説明するための図である。
画像f1(m,n),画像f2(m,n)は、例えばx,y軸に対して異なる所定角度を持った矩形領域W1,W2を含む。
フーリエ・メリン変換部211において、例えば図3に示すように、画像f1(m,n)が、フーリエ変換部21111によりフーリエ変換されて、フーリエ画像データA’(u,v)が生成され、対数変換部21121および対数−極座標変換部21131により、画像データpA(r,θ)が生成される。
【0036】
同様に、画像f2(m,n)が、フーリエ変換部21112によりフーリエ変換されて、フーリエ画像データB’(u,v)が生成され、対数変換部21122および対数−極座標変換部21132により、画像データpB(r,θ)が生成される。
【0037】
上述したように、画像f1(m,n),f2(m,n)は、フーリエ変換および対数−極座標変換により、デカルト座標から対数−極座標系(フーリエ・メリン空間とも言う)上に変換される。
フーリエ・メリン空間では、画像のスケーリングに応じて、成分がlog−rの軸に沿って移動し、画像の回転角度に応じてθ軸に沿って移動する性質がある。
この性質を用いて、画像f1(m,n),f2(m,n)のスケーリング(倍率情報)および回転角度を、フーリエ・メリン空間上のlog−rの軸に沿った移動量、およびθ軸に沿った移動量に基いて、求めることができる。
【0038】
位相限定相関部212は、例えば位相限定フィルタ(SPOMF:Symmetricphase−only matched filter)を用いた位相限定相関法により、フーリエ・メリン変換部211から出力されたパターンデータを示す信号SA211およびSR211に基いて、それぞれの平行移動量を求める。
位相限定相関部212は、例えば図1に示すように、フーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124を有する。
【0039】
フーリエ変換部2120,2121は、対数−極座標変換部21131,21132から出力された信号SA211(pA(m,n)),SR211(pB(m,n))に基いて数式(11),(12)により、フーリエ変換を行う。ここで、X(u,v),Y(u,v)は、フーリエ係数である。フーリエ係数X(u,v)は数式(11)に示すように振幅スペクトルC(u,v)および位相スペクトルθ(u,v)により構成される。フーリエ係数Y(u,v)は数式(12)に示すように振幅スペクトルD(u,v)および位相スペクトルφ(u,v)により構成される。
【0040】
【数11】
Figure 2004272859
【0041】
【数12】
Figure 2004272859
【0042】
合成部2122は、フーリエ変換部2120,2121で生成されたX(u,v),Y(u,v)を合成して相関をとる。例えば合成部2122は、X(u,v)・Y(u,v)を生成し、位相抽出部2123に出力する。ここで、Y(u,v)は、Y(u,v)の複素共役である。
【0043】
位相抽出部2123は、合成部2122から出力された合成信号に基いて振幅成分を除去して位相情報を抽出する。
例えば位相抽出部2123は、例えばX(u,v)Y(u,v)に基いて、その位相成分Z(u,v)=ej(θ(u,v)−φ(u,v))を抽出する。
【0044】
位相情報の抽出は、上述した形態に限られるものではない。例えば、フーリエ変換部2120,2121の出力、数式(13),(14)に基いて位相情報を抽出した後、数式(15)に示すように位相成分のみ合成を行い、Z(u,v)を生成してもよい。
【0045】
【数13】
Figure 2004272859
【0046】
【数14】
Figure 2004272859
【0047】
【数15】
Figure 2004272859
【0048】
逆フーリエ変換部2124は、位相抽出部2123から出力された、位相情報のみの信号Z(u,v)に基いて、逆フーリエ変換処理を行い、相関強度画像を生成する。
詳細には、逆フーリエ変換部2124は、数式(16)に示すように、信号Z(u,v)に基いて逆フーリエ変換処理を行い、相関強度画像G(p,q)を生成する。
【0049】
【数16】
Figure 2004272859
【0050】
倍率情報−回転情報生成部213は、逆フーリエ変換部2124により生成された相関強度画像G(p、q)におけるピーク位置の画像中心からのずれ量が、すなわち登録画像AIMと、照合画像RIMに対してフーリエ・メリン変換を行った結果得られたパターンデータ間の平行移動量と等価であるので、このずれ量を検出することにより、登録画像AIMに対する照合画像RIMの倍率情報(拡大/縮小率)および回転角度情報を示すデータを含む補正情報S21を生成する。
【0051】
補正部22は、倍率情報−回転情報部21の倍率情報−回転情報生成部213から出力された補正情報S21に基いて、照合画像RIMの補正を行う。詳細には、補正部22は、補正情報S21に含まれる倍率情報および回転角度情報に基づいて、照合画像RIMを拡大/縮小処理し、回転処理を行い、位相限定相関部23に出力する。補正部22の補正処理により、登録画像AIMと照合画像RIM間のスケーリングおよび回転成分の差異が除去される。
このため、登録画像AIMと、補正処理された照合画像RIMとの間には、平行移動成分のみが差異として残っている。
【0052】
位相限定相関部23は、上述した登録画像AIMと、補正処理された照合画像RIMとの間の平行移動成分、およびその相関値を検出する。この検出は、例えば上述した位相限定フィルタを用いた位相限定相関法により求める。
詳細には、位相限定相関部23は、フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234を有する。
【0053】
フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234それぞれは、上述した位相限定相関部212のフーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124それぞれと同じ機能を有するので簡単に説明する。
【0054】
フーリエ変換部2311は、登録画像AIMをフーリエ変換し合成部232に出力する。この際、予めフーリエ変換部21111でフーリエ変換処理した登録画像AIMをメモリ12に記憶しておき、それを合成部232に出力してもよい。こうすることにより2重にフーリエ変換処理を行うことがないために、処理が軽減される。
フーリエ変換部2312は、補正部22により、補正された画像S22をフーリエ変換を行い、処理結果のフーリエ画像を合成部232に出力する。
【0055】
合成部232は、フーリエ変換部2311,2312から出力されたフーリエ画像S2311,S2312を合成し、合成画像S232を位相抽出部233に出力する。
位相抽出部233は,合成画像S232に基づいて上述したように位相情報を抽出して信号S233を逆フーリエ変換部234に出力する。
逆フーリエ変換部234は、信号S233に基づいて逆フーリエ変換を行い相関強度画像(相関画像データ)を生成し、信号S23として判別部24に出力する。
【0056】
上述の位相限定相関法における平行移動量の検出処理の詳細な説明を行う。
例えば、原画像f1(m,n)、原画像f2(m,n)、および画像f2(m,n)を平行移動した画像f3(m,n)=f2(m+α,n+β)それぞれをフーリエ変換処理し、数式(17)〜(19)に示すように、フーリエ係数F1(u,v),F2(u,v),F3(u,v)を生成する。
【0057】
【数17】
Figure 2004272859
【0058】
【数18】
Figure 2004272859
【0059】
【数19】
Figure 2004272859
【0060】
フーリエ係数F1(u,v)〜F3(u,v)に基づいて、数式(20)〜(22)に示すように、位相情報のみの位相画像F’1(u,v)〜F’3(u,v)を生成する。
【0061】
【数20】
Figure 2004272859
【0062】
【数21】
Figure 2004272859
【0063】
【数22】
Figure 2004272859
【0064】
位相画像F’1(u,v)と位相画像F’2(u,v)の相関の位相画像の相関Z12(u,v)を数式(23)に示すように計算し、位相画像F’1(u,v)と位相画像F’3(u,v)の相関の位相画像の相関Z13(u,v)を数式(24)に示すように計算する。
【0065】
【数23】
Figure 2004272859
【0066】
【数24】
Figure 2004272859
【0067】
相関Z12(u,v)の相関強度画像G12(r,s)、および相関Z13(u,v)の相関強度画像G13(r,s)を数式(25),(26)に示すように計算する。
【0068】
【数25】
Figure 2004272859
【0069】
【数26】
Figure 2004272859
【0070】
数式(25),(26)に示すように、画像f3(m,n)が、画像2(m,n)に比べて(+α、+β)だけずれている場合には、位相限定相関法では、相関強画像において、(−α,−β)だけずれた位置に相関強度のピークが生成される。この相関強度位置の位置により、2つの画像間の平行移動量を求めることができる。
また、上述したフーリエ・メリン空間上で、この位相限定相関法を用いることにより、フーリエ・メリン空間上の平行移動量が検出できる。この平行移動量は、上述したように実空間では倍率情報および回転角度情報に相当する。
【0071】
図4は、自己相関法と位相限定相関法の相違点を説明するための図である。
自己相関法では、例えば図4(a),(b)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い自己相関関数SG1を生成すると、図4(c)に示すように、相関強度が高いピークと、その周辺部に小さい相関強度を有する相関強度分布が得られる。図4(c)において縦軸は相関強度を示す。
【0072】
一方、上述した位相限定相関法では、図4(d),(e)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い、位相情報のみを相関すると図4(f)に示すように、相関強度が高く鋭いピークのみを有する相関強度分布が得られる。このように位相限定法では自己相関法に比べて相関に関して明確な情報を得ることができる。図4(f)において、縦軸(z軸)は相関強度を示し、x軸,y軸はずれ量を示す。
【0073】
図5は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
例えば図5(a),(b)に示すような画像IM1、および画像IM1より数画素平行移動している画像IM3の画像の位相限定法における相関強度分布は、例えば図5(c)に示すように、相関強度が高く鋭いピークが、図4(f)に示した相関画像データの内のピーク位置から、平行移動量に応じた距離だけずれた位置に分布している。しかし、図5(c)に示すピーク強度は、図4(f)に示したピーク強度に比べて小さい。これは画像IM1,IM2に比べて、画像IM1,IM3の一致している画素領域が小さいためである。
【0074】
図6は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
図6(a),(b)に示すような画像IM1、および画像IM1より数度回転している画像4の位相限定法における相関強度分布は、例えば図6に示すように、弱い相関強度の相関強度分布が得られる。単純に位相限定相関法を用いた場合には回転ずれにより、相関を検出することが困難である。
【0075】
このため、本実施形態に係る画像照合装置1では、登録画像AIMおよび照合画像RIMを、フーリエ・メリン変換を行い、フーリエ・メリン空間上で、位相限定相関法を用いることにより、平行移動量を検出し、登録画像AIMおよび照合画像RIMの倍率情報、および回転角度情報を検出する。その情報に基づいて、照合画像の倍率および回転角度を補正する。
補正した照合画像RIMおよび登録画像AIM間の平行移動ずれを、位相限定相関法により検出し、同時に相関ピークに基づいて画像間の照合を行う。
【0076】
図7は、位相限定相関部23が出力する相関画像データを説明するための図である。図7(a)は登録画像AIM、図7(b)は照合画像RIM、図7(c)は相関画像データの一具体例を示す図である。図8は図7(c)に示した相関画像データを説明するための図である。
【0077】
登録画像AIM,照合画像RIMとして、例えば手書き文字や血管パターン等の2値化および線形状のパターンを含む場合、例えば図7(a),(b)に示すような登録画像AIM,照合画像RIMの場合、位相限定相関部23は信号S23として図7(c)に示すような相関画像データを出力する。
【0078】
図7(c)において、z軸方向は相関画像データにおける相関ピーク強度を示し、相関ピーク強度は登録画像AIMと照合画像RIM間の相関度に相当する。図7(c)および図8に示すように、x軸方向,y軸方向での相関ピーク位置は、例えば画像中心からのずれ量が登録画像AIMと照合画像RIM間の平行移動量に相当する。
【0079】
判別部24は、位相限定相関部23から出力された信号S23に基づいて、登録画像AIMと照合画像RIMの照合を行う。
照合部24は、例えば図1に示すように、候補特定部241、類似度生成部242、積算部243、および照合部244を有する。
候補特定部241は本発明に係る候補特定手段に相当し、類似度生成部242は本発明に係る類似度生成手段に相当し、積算部243は本発明に係る積算手段に相当し、照合部244は本発明に係る照合手段に相当する。
【0080】
候補特定部241は、位相限定相関部23から出力された信号S23に基づいて、登録画像AIMと照合画像RIMと2次元上の位置関係の複数の候補を特定し、信号S241として類似度生成部242に出力する。
【0081】
図9は、図1に示した候補特定部241の候補特定処理を説明するための図である。数値は、相関画像データのX−Y面上での相関画像データの相関ピーク強度を示す。
例えば図7(a),(b)に示すような2値化および線形状のパターンを含む登録画像AIM,照合画像RIMの場合、相関の大きい画像同士でも、相関ピーク強度(相関強度とも言う)が図9に示すように値が小さい。
候補特定部241は、例えば図9に示すように、信号S23に基づいて相関強度の上位N個、本実施形態では8個を、登録画像AIMと照合画像RIMと2次元上の位置関係の候補として特定し、信号S241として類似度生成部242に出力する。
【0082】
類似度生成部242は、候補特定部242で特定された複数の位置関係の候補を示す信号S242に基づいて、登録画像AIMと、補正部22で補正された照合画像RIMとの間の2次元上の異なる複数の位置関係それぞれにおいて、画素毎に、登録画像AIMと、補正部22で補正された照合画像RIMを比較して類似度を生成する。
【0083】
詳細には、類似度生成部242は、例えば図7(a),(b)に示すように、登録画像AIMをf1(m,n)、補正部22で補正された照合画像RIMをf2(m,n)のm×n画素の2値化および線形状のパターンを含む画像とすると、例えば類似度Simを数式(27)により算出し、算出結果を積算部243および照合部244に出力する。
【0084】
【数27】
Figure 2004272859
【0085】
積算部243は、類似度生成部242が生成した類似度Simを積算し、積算結果を信号S243として照合部244に出力する。
【0086】
照合部244は、積算部243が積算した類似度Simを基に登録画像AIMと照合画像RIMの照合を行う。詳細には、例えば照合部244は、積算した類似度Simが所定値よりも大きい場合には、登録画像AIMと照合画像RIMが一致していると判別する。
【0087】
また、照合部244は、類似度生成部242から出力された類似度Simを基に登録画像AIMと照合画像RIMの照合を行う。詳細には、例えば照合部244は、類似度Simが所定値よりも大きい場合には、登録画像AIMと照合画像RIMが一致していると判別する。
また、照合部244は、照合処理の結果を示す信号S24を出力する。
【0088】
図10は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1の動作を図8を参照しながら簡単に説明する。
例えば画像入力部11により、登録画像AIMおよび照合画像RIMが入力され、メモリにそれぞれの画像データが格納される(ST1)。
ここで、登録画像AIMに対する照合画像RIMの倍率(拡大/縮小率)および回転角度情報を求めるために、登録画像AIMがメモリ12から読み出され(ST2)、倍率情報−回転情報部21のフーリエ変換部21111により、フーリエ変換処理され(ST3)、フーリエ画像データS21111がメモリ12に格納、記憶される(ST4)。
フーリエ画像データS21111の内の振幅成分は、対数変換部21121により対数処理が行われ、対数−極座標変換部21131により、対数−極座標系に変換される(ST5)。
【0089】
照合画像RIMが、メモリ12から読み出され(ST6)、同様にフーリエ変換部21112によりフーリエ変換処理され(ST7)、フーリエ画像データS21112の内の振幅成分が、対数変換部21122により対数処理が行われ、対数−極座標変換部21132により、対数−極座標系に変換される(ST8)。
【0090】
上述した登録画像AIMおよび照合画像RIMにフーリエ・メリン変換を行った結果得られた、画像信号(パターンデータとも言う)SA211、SR211それぞれは、位相限定相関部212のフーリエ変換部2120,2121によりフーリエ変換処理され(ST9)、合成部2122により合成され(ST10)、位相抽出部2123により合成信号から振幅成分が除去され(ST11)、残りの位相成分が、逆フーリエ変換部2124により逆フーリエ変換処理され(ST12)、得られた相関画像データのピーク位置の画像中心からのずれ量に基づいて、倍率情報−回転情報生成部213により倍率情報および回転情報を含む補正情報が生成される(ST13)。
【0091】
補正部22では、補正情報に基づいて照合画像の拡大/縮小および回転処理の補正処理が行われ、画像間のスケーリング成分、および回転成分が除去される(ST14)。残る差異は平行移動成分のみであり、位相限定相関法を用いて検出される。
【0092】
補正処理が行われた照合画像RIMは、位相限定相関部23のフーリエ変換部2312によりフーリエ変換されて(ST15)フーリエ画像データS2312が生成され、メモリ12に格納されたフーリエ変換された登録画像AIMが読み出され(ST16)、合成部232により合成データS232が生成される(ST17)。
【0093】
この際、登録画像AIMがフーリエ変換部2311によりフーリエ変換されてフーリエ画像データS2311が生成されて合部部232に入力されてもよい。
合成データS232の内の振幅情報が位相抽出部233により除去され(ST18)、残りの位相情報が逆フーリエ変換部234に入力され、相関画像データとして信号S23が出力される(ST19)。
【0094】
上述した処理により生成された相関画像データS23に基づいて、候補特定部241により相関画像データS23における相関ピーク強度の上位側から、例えばN個の候補P(P,P,P,…,Pn−1)が抽出され、信号S241として類似度生成部242に出力される(ST20)。
【0095】
積算部243は、積算のための変数を初期化する(ST21)。例えば変数iを0、積算値Sを0に初期化する。
類似度生成部242では、各候補(座標)Pについて、相関画像データの中心からのずれ量をそれぞれ検出することで、登録画像AIM,照合画像RIMの位置合わせを行った後に類似度Sim(i)を算出し信号S242として積算部243および判別部244に出力する(ST22)。
【0096】
ステップST23において、照合部244では、類似度Sim(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim(i)が第1の閾値より小さい場合には、積算部243では、類似度Sim(i)を積算し、詳細には数式S=S+Sim(i)により積算し照合部244に出力する(ST24)。
ステップST25において、照合部244では、積算値Sと予め設定した第2の閾値th2とを比較し、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST26)、変数iがN−1と一致していない場合には、変数iに1加算し(ST27)、ステップST22の処理に戻る。ステップST25において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST28)。
【0097】
一方、ステップST23の比較処理において、照合部244では、類似度Sim(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST25の比較処理において、照合部244では、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST29)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部16が行う。
【0098】
以上説明したように、登録画像AIMと照合画像RIMとの2次元上の位置関係の複数の候補を特定する候補特定部241と、登録画像AIMと照合画像RIMとの間の2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMとを比較して類似度Simを生成する類似度生成部242と、類似度生成部242が生成した類似度Simを積算する積算部243と、積算部243が積算した類似度Simを基に照合を行う照合部244とを設けたので、例えば、比較対照を行う2枚の画像データ間おの相関が小さい場合であっても、複数の各候補の位置関係それぞれについて算出される類似度を加算することにより、類似度単独で照合を行う場合に比べて、高精度に照合を行うことができる。
また、類似度Simが第1の閾値th1よりも大きい場合には一致していると判別するので、高速に照合処理を行うことができる。
【0099】
また、登録画像AIMと照合画像RIMとの回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関を検出する倍率情報−回転情報部21、補正部22、および位相限定相関部23を設けたので、登録画像AIMと照合画像RIMとが回転角度や拡大率が異なる場合であっても、照合処理を行うことができる。
【0100】
図11は、本発明に係る画像照合装置の第2実施形態のソフトウェア的な機能ブロック図である。
本実施形態に係る画像照合装置1aのハード的な機能ブロックは、第1実施形態とほぼ同じであるので説明を省略する。
画像照合装置1aのCPU15aは、例えば図11に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、および判別部24aを有する。
判別部24aは、例えば図11に示すように、候補特定部241、類似度生成部242、類似度補正部2421、積算部243、および照合部244を有する。
第1実施形態と同様な機能については説明を省略し、相違点のみ説明する。
【0101】
類似度補正部2421は、類似度生成部242が、登録画像AIMと照合画像RIMとの2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMの画素毎に比較して生成した類似度Simを、当該画素の周囲の画像特性に応じて補正し類似度Sim’を生成し、信号S2421として積算部243および照合部244に出力する。
積算部243および照合部244は、類似度Sim’に基づいて第1実施形態と同様な処理を行う。
【0102】
図12は、図1に示した類似度補正部2421の機能を説明するための図である。図12(a)は登録画像AIMの画像パターン、図12(b)は照合画像RIMの画像パターン、図12(c)は類似度生成部242が生成する類似度Simの一具体例を説明するための図である。図13は、図1に示した類似度補正部2421の機能を説明するための図である。
【0103】
例えば類似度生成部242が生成する類似度Simは、例えば図12(a)に示す登録画像AIMの画像パターンと、図12(b)示す照合画像RIMの画像パターンの類似度Simを生成する場合には、図12(c)に示すように、両画像の線形状のパターンの交点CPに基づいて算出する。
【0104】
類似度生成部242は、例えば図13(a)に示すように、登録画像AIMのパターンPT11と、照合画像RIMのパターンPT21との相関パターンPT31の場合に、線形状のパターンの方向が異なり相関がないにもかかわらず、交点のみにより類似度Simを算出するために、類似度が上昇してしまう。
本実施形態に係る類似度補正部2421は、例えば交点CPを検出し、例えばその画素の周囲の9画素において中心部以外にも交点CPがある場合には中心部の交点CPを相関のある点と判別し、中心部以外に交点CPのない場合には中心部の交点CPを相関のない交点として判別する。
【0105】
例えば類似度補正部2421は、図13(a)に示すように登録画像AIMのパターンPT11と、照合画像RIMのパターンPT21との相関パターンPT31の場合に、中心部以外に交点CPがないので、中心部の交点を相関のない交点として判別する。
類似度補正部2421は、図13(b)に示すように登録画像AIMのパターンPT12と、照合画像RIMのパターンPT22との相関パターンPT32の場合に、中心部以外に交点CPがないので、中心部の交点を相関のない交点として判別する。
【0106】
類似度補正部2421は、図13(c)に示すように登録画像AIMのパターンPT12と、照合画像RIMのパターンPT22との相関パターンPT32の場合に、中心部以外に交点CPがあるので、中心部の交点CPを相関のある交点として判別する。
【0107】
類似度補正部2421は、画像全体について求めた相関のある交点数を、全交点数で割った値を有効率effとし、数式(28)に示すように、類似度生成部242が生成した類似度Simに乗算して補正処理を行い、補正した類似度Sim’を生成し、信号S2421として出力する。
【0108】
【数28】
Figure 2004272859
【0109】
例えば、図12に示したような場合には、有効率effが0であり、その結果補正した類似度Sim’は0である。
【0110】
図14は、図11に示した画像照合装置1aの動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1の動作を図14を参照しながら、第1実施形態との相違点のみ説明する。ステップST1〜ステップST20の処理は第1実施形態と同様であり説明を省略する。
【0111】
積算部243は、積算のための変数を初期化する(ST21)。例えば変数iを0、積算値Sを0に初期化する。
類似度生成部242では、各候補(座標)Pについて、相関画像データの中心からのずれ量をそれぞれ検出することで、登録画像AIM,照合画像RIMの位置合わせを行った後に類似度Sim(i)を算出し信号S242として、類似度補正部2421に出力する(ST22)。
【0112】
ステップST221において、類似度補正部2421は、類似度生成部242から出力された類似度Simとしての補正信号S242に基づいて、画像全体について求めた相関のある交点数を、全交点数で割った値を有効率effとし、数式(28)に示すように、類似度生成部242が生成した類似度Simに乗算して補正処理を行い、補正した類似度Sim’を生成し、信号S2421として、照合部244および積算部243に出力する。
【0113】
ステップST23において、照合部244では、類似度Sim’(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim’(i)が第1の閾値より小さい場合には、積算部243では、類似度Sim’(i)を積算し、詳細には数式S=S+Sim’(i)により積算し照合部244に出力する(ST24)。
【0114】
ステップST25において、照合部244では、積算値Sと予め設定した第2の閾値th2とを比較し、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST26)、変数iがN−1と一致していない場合には、変数iに1加算し(ST27)、ステップST22の処理に戻る。ステップST25において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST28)。
【0115】
一方、ステップST23の比較処理において、照合部244では、類似度Sim’(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST25の比較処理において、照合部244では、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST29)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部16が行う。
【0116】
以上、説明したように、本実施形態では、類似度生成部242が、登録画像AIMと照合画像RIMとの2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMの画素毎に比較して生成した類似度Simを、当該画素の周囲の画像特性に応じて補正し類似度Sim’を生成する類似度補正部2421を設け、照合部244は、補正した類似度Sim’に基づいて照合を行うので、第1実施形態に比べて、より高精度の照合処理を行うことができる。
【0117】
また、角度ずれの大きい、つまり相関の小さい線分同士の交点がある場合であっても、補正処理により類似度を低くするので、その結果、相関の大きい画像同士から求めた相関と、小さい画像同士から求めた相関度との差異が大きくなり、より高精度の照合処理を行うことができる。
【0118】
なお、本発明は本実施の形態に限られるものではなく、任意好適な種々の改変が可能である。
例えば、本実施形態では、類似度生成部は、数式(27)により類似度を算出したが、この形態に限られるものではない。例えば類似度生成部は、線形状のパターンの相関に適した類似度を算出する処理を行えればよい。
【0119】
本実施形態では、フーリエ変換処理、対数変換処理、および対数−局座標変換を行い、フーリエ・メリン空間上での平行移動量を算出することにより、倍率情報および回転角度情報を生成したが、この形態に限られるものではない。例えば、倍率情報および回転角度情報が検出可能な空間に、座標変換を行ってもよい。
【0120】
また、第1の閾値th1と、第2の閾値th2を固定値にしたが、この形態に限られるものではない。例えば閾値それぞれを、画像パターンにより可変にすることで、より高精度の照合を行うことができる。
【0121】
【発明の効果】
本発明によれば、画像間の照合を高精度に行うことができる画像照合装置、画像照合方法、およびプログラムを提供することができる。
【図面の簡単な説明】
【図1】図1は、本発明に係る画像照合装置の第1実施形態の機能ブロック図である。
【図2】図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。
【図3】図3は、図2に示したフーリエ・メリン変換部の動作を説明するための図である。
【図4】図4は、自己相関法と位相限定相関法の相違点を説明するための図である。
【図5】図5は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
【図6】図6は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
【図7】図7は、位相限定相関部23が出力する相関画像データを説明するための図である。(a)は登録画像AIM、(b)は照合画像RIM、(c)は相関画像データの一具体例を示す図である。
【図8】図8は図7(c)に示した相関画像データを説明するための図である。
【図9】図9は、図1に示した候補特定部241の候補特定処理を説明するための図である。
【図10】図10は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。
【図11】図11は、本発明に係る画像照合装置の第2実施形態のソフトウェア的な機能ブロック図である。
【図12】図12は、図1に示した類似度補正部2421の機能を説明するための図である。
【図13】図13は、図1に示した類似度補正部の機能を説明するための図である。
【図14】図14は、図11に示した画像照合装置1aの動作を説明するためのフローチャートである。
【符号の説明】
1,1a…画像照合装置、11…画像入力部、12…メモリ、13…FFT処理部、14…座標変換部、15…CPU、16…動作処理部、21…倍率情報−回転情報部、22…補正部、23…平行移動部、24…判別部、211…フーリエ・メリン変換部、212…位相限定相関部、213…倍率情報−回転情報生成部、232…合成部、233…位相抽出部、234…逆フーリエ変換部、241…候補特定部、242…類似度生成部、243…積算部、244…照合部、2120,2121…フーリエ変換部、2122…合成部、2123…位相抽出部、2124…逆フーリエ変換部、2311,2312…フーリエ変換部、2421…類似度補正部、21111,21112…フーリエ変換部、21121,21122…対数変換部、21131,21132…対数−極座標変換部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image matching device, an image matching method, and a program for performing matching based on image information such as a fingerprint image, a still image, and a moving image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, various pattern matching devices have been known as a method of performing matching based on image information. For example, the pattern matching device compares a registered image and a matching image to be compared only in a predetermined positional relationship, calculates a correlation value, and performs matching between the registered image and the matching image based on the correlation value.
[0003]
[Problems to be solved by the invention]
However, in the conventional pattern matching device, depending on the type of the pattern of the image, even if the images are almost the same, the correlation value may not be high, and matching may not be performed with high accuracy by using only the peak. Improvement is desired.
[0004]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image matching device, an image matching method, and a program that can perform matching between images with high accuracy.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a first aspect of the present invention provides a method according to the first aspect, wherein the first image and the second image are provided in a plurality of different two-dimensional positional relationships between a first image and a second image. A similarity generating unit that generates a similarity by comparing the two images, an integrating unit that integrates the similarity generated by the similarity generating unit, and a similarity that is integrated by the integrating unit. A matching unit that matches the first image with the second image.
[0006]
According to the first aspect of the present invention, in the similarity generation means, in each of a plurality of different two-dimensional positional relationships between the first image and the second image, the first image and the second A similarity is generated by comparing with an image.
The matching unit compares the first image and the second image based on the integrating unit that integrates the similarity generated by the similarity generating unit and the similarity that is integrated by the integrating unit.
[0007]
Furthermore, in order to achieve the above object, a second aspect of the present invention provides a method for controlling the first image and the second image in different two-dimensional positional relationships between a first image and a second image. A first step of comparing the second image to generate a similarity, a second step of integrating the similarity generated in the first step, and the second step of integrating in the second step. A third step of collating the first image with the second image based on the similarity.
[0008]
Further, in order to achieve the above object, a third aspect of the present invention is a program for causing an information processing apparatus to execute, the two-dimensionally different program between a first image and a second image. A first procedure of comparing the first image and the second image to generate a similarity in each of the plurality of positional relationships, and a second procedure of integrating the similarity generated in the first procedure And a third procedure of collating the first image with the second image based on the similarity calculated in the second procedure.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
The image matching device according to the first embodiment of the present invention performs a rotation angle correction process or an enlargement ratio correction process between a registered image and a matching image, and performs a plurality of different two-dimensional positional relationships with the registered image. A similarity is generated by comparing with the collation image, the similarity is integrated, and collation is performed based on the integrated similarity.
This will be described below with reference to the drawings.
[0010]
FIG. 1 is a functional block diagram of a first embodiment of the image matching device according to the present invention.
The image matching apparatus 1 according to the present embodiment includes, for example, an image input unit 11, a memory 12, an FFT processing unit 13, a coordinate conversion unit 14, a CPU 15, and an operation processing unit 16, as shown in FIG.
The image input unit 11, the memory 12, the FFT processing unit 13, the coordinate conversion unit 14, and the CPU 15 are connected by a bus BS. The operation processing section 16 is connected to the CPU 15.
[0011]
The image input unit 11 is an input unit for inputting an external image. For example, the registered image AIM and an image to be compared with the registered image AIM (referred to as a collation image RIM) are input to the image input unit 11.
The memory 12 stores an image and the like input from the image input unit. For example, the memory 12 stores a registered image AIM, a collation image RIM, and a program P.
The program P includes, for example, procedures related to the correlation processing, the correction processing, the similarity generation processing, the integration processing, the collation processing, and the like according to the present invention that are executed by the CPU 15.
The FFT processing unit 13 performs a two-dimensional Fourier transform process based on the image stored in the memory 12 under the control of the CPU 15, for example, and outputs a processing result to the coordinate transforming unit 14 and the CPU 15.
[0012]
For example, the coordinate transformation unit 14 transforms the coordinates into log-polar coordinates based on the result of the two-dimensional Fourier transform processing performed by the FFT processing unit 13 under the control of the CPU 15, and outputs the coordinate transformation result to the CPU 15.
The operation processing unit 16 performs a predetermined process such as releasing the electronic key, for example, when the two images match, based on the result of the collation process of the CPU 15 described later.
[0013]
The CPU 15 performs the matching process according to the embodiment of the present invention based on, for example, the program P, the registered image AIM, and the matching image RIM stored in the memory 12.
In addition, the CPU 15 controls the image input unit 11, the memory 12, the FFT processing unit 13, the coordinate conversion unit 14, the operation processing unit 16, and the like, and executes processing according to the present embodiment.
[0014]
FIG. 2 is a software functional block diagram of the image matching apparatus shown in FIG. The CPU 15 controls the FFT processing unit 13, the coordinate transformation unit 14, and the like, and performs processing based on, for example, functional blocks as shown in FIG.
As shown in FIG. 2, the CPU 15 has a magnification information / rotation information unit 21, a correction unit 22, a phase-only correlation unit 23, and a determination unit 24.
The magnification information / rotation information unit 21, the correction unit 22, and the phase-only correlation unit 23 correspond to a correlation detection unit according to the present invention.
[0015]
The magnification information-rotation information unit 21 and the correction unit 22 perform a rotation angle correction process or an enlargement ratio correction process with the registered image AIM and the collation image RIM.
The magnification information / rotation information unit 21 generates magnification information and / or rotation information based on the registered image AIM and the collation image RIM, and outputs the information to the correction unit 22.
The magnification information includes information indicating the enlargement / reduction ratio of the registered image AIM and the collation image RIM. The rotation information includes information indicating the rotation angles of the registered image AIM and the collation image RIM.
[0016]
Specifically, for example, the magnification information-rotation information unit 21 includes a Fourier-Mellin conversion unit 211, a phase-only correlation unit 212, and a magnification information-rotation information generation unit 213.
The Fourier-Mellin transform unit 211 performs a Fourier-Mellin transform described later based on each image information, and outputs signals SA211 and SR211 indicating the respective transform results to the phase-only correlation unit 212.
[0017]
More specifically, the Fourier-Mellin transform unit 211 has Fourier transform units 21111 and 11112, logarithmic transform units 21112 and 1122, and log-polar coordinate transform units 211131 and 11132.
[0018]
For example, when the registered image AIM is an N × N image and the registered image AIM is f1 (m, n), the Fourier transform unit 21111 performs the Fourier transform as shown in Expression (1), The data F1 (m, n) is generated and output to the logarithmic converter 21121. For example, when the collation image RIM is an N × N image and the collation image RIM is f2 (m, n), the Fourier transform unit 21112 performs the Fourier transform as shown in Expression (2). The data F2 (m, n) is generated and output to the logarithmic converter 21122.
[0019]
The Fourier image data F1 (m, n) is composed of an amplitude spectrum A (u, v) and a phase spectrum Θ (u, v) as shown in Expression (1), and the Fourier image data F2 (m, n) is , (2), the amplitude spectrum B (u, v) and the phase spectrum Φ (u, v).
[0020]
(Equation 1)
Figure 2004272859
[0021]
(Equation 2)
Figure 2004272859
[0022]
The logarithmic converters 2111 and 11212 perform logarithmic processing based on the amplitude components of the Fourier image data F1 (m, n) and F2 (m, n) generated by the Fourier transformers 21111 and 21112. The logarithmic processing of the amplitude component emphasizes a high-frequency component including detailed characteristic information of the image data.
[0023]
Specifically, the logarithmic conversion unit 21121 performs logarithmic processing based on the amplitude component A (u, v) as shown in Expression (3), generates A ′ (u, v), and outputs it to the logarithmic-polar coordinate conversion unit 21131. I do. The logarithmic converter 21122 performs logarithmic processing based on the amplitude component B (u, v) as shown in Expression (4), generates B ′ (u, v), and outputs it to the logarithmic-polar coordinate converter 21132.
[0024]
[Equation 3]
Figure 2004272859
[0025]
(Equation 4)
Figure 2004272859
[0026]
The logarithmic-polar coordinate converters 211311, 21132 convert the signals output from the logarithmic converters 21121, 11212 into a log-polar coordinate system (for example, log-r, Θ).
Generally, for example, when the point (x, y) is defined as shown in Expressions (5) and (6), r = e μ In the case of, μ = log (r), and there is a unique (log (r), Θ) corresponding to an arbitrary point (x, y). Due to this property, the logarithmic-polar coordinate converters 211311, 21132 perform coordinate conversion.
[0027]
(Equation 5)
Figure 2004272859
[0028]
(Equation 6)
Figure 2004272859
Figure 2004272859
[0029]
Specifically, the logarithm-polar coordinate conversion units 21131 and 11132 determine the set (r i , Θ j ) And a function f (r i , Θ j ) Is defined.
[0030]
(Equation 7)
Figure 2004272859
[0031]
(Equation 8)
Figure 2004272859
[0032]
The logarithm-polar coordinate conversion units 21131 and 21132 calculate the set (r) defined by Expressions (7) and (8) i , Θ j ), Function f (r i , Θ j ), The image data A ′ (u, v) and B ′ (u, v) are subjected to log-polar conversion as shown in equations (9) and (10), and pA (r i , Θ j ), PB (r i , Θ j ) Is generated and output to the phase-only correlation unit 212 as a signal SA211 and a signal SR211.
[0033]
(Equation 9)
Figure 2004272859
[0034]
(Equation 10)
Figure 2004272859
[0035]
FIG. 3 is a diagram for explaining the operation of the Fourier-Mellin transform unit 211 shown in FIG.
The image f1 (m, n) and the image f2 (m, n) include, for example, rectangular regions W1 and W2 having different predetermined angles with respect to the x and y axes.
In the Fourier-Mellin transform unit 211, for example, as shown in FIG. 3, the image f1 (m, n) is Fourier-transformed by the Fourier transform unit 21111, and Fourier image data A ′ (u, v) is generated. The image data pA (r, θ) is generated by the conversion unit 21121 and the log-polar coordinate conversion unit 21131.
[0036]
Similarly, the image f2 (m, n) is Fourier-transformed by the Fourier transform unit 21112 to generate Fourier image data B ′ (u, v). Data pB (r, θ) is generated.
[0037]
As described above, the images f1 (m, n) and f2 (m, n) are transformed from Cartesian coordinates to a log-polar coordinate system (also called Fourier-Mellin space) by Fourier transform and log-polar coordinate transform. .
In the Fourier-Mellin space, the components move along the log-r axis in accordance with the scaling of the image, and move along the θ axis in accordance with the rotation angle of the image.
By using this property, the scaling (magnification information) and the rotation angle of the images f1 (m, n) and f2 (m, n) are determined by the amount of movement along the log-r axis on the Fourier-Mellin space, and θ It can be determined based on the amount of movement along the axis.
[0038]
The phase-only correlation unit 212 is based on the signals SA211 and SR211 indicating the pattern data output from the Fourier-Mellin conversion unit 211, for example, by a phase-only correlation method using a phase-only filter (SPOMF: Symmetric Phase-Only Matched Filter). , And the amount of each translation.
The phase-only correlation unit 212 includes, for example, Fourier transform units 2120 and 2121, a synthesis unit 2122, a phase extraction unit 2123, and an inverse Fourier transform unit 2124, as shown in FIG.
[0039]
The Fourier transform units 2120 and 2121 calculate the mathematical expressions (11) and (12) based on the signals SA211 (pA (m, n)) and SR211 (pB (m, n)) output from the logarithmic-polar coordinate transform units 21113 and 11132. ) Performs a Fourier transform. Here, X (u, v) and Y (u, v) are Fourier coefficients. The Fourier coefficient X (u, v) is composed of an amplitude spectrum C (u, v) and a phase spectrum θ (u, v) as shown in Expression (11). The Fourier coefficient Y (u, v) is composed of an amplitude spectrum D (u, v) and a phase spectrum φ (u, v) as shown in Expression (12).
[0040]
[Equation 11]
Figure 2004272859
[0041]
(Equation 12)
Figure 2004272859
[0042]
The combining unit 2122 combines the X (u, v) and Y (u, v) generated by the Fourier transform units 2120 and 2121 to obtain a correlation. For example, the synthesizing unit 2122 calculates X (u, v) · Y * (U, v) is generated and output to the phase extraction unit 2123. Where Y * (U, v) is the complex conjugate of Y (u, v).
[0043]
The phase extracting unit 2123 removes an amplitude component based on the combined signal output from the combining unit 2122 to extract phase information.
For example, the phase extraction unit 2123 outputs X (u, v) Y * Based on (u, v), its phase component Z (u, v) = e j (θ (u, v) -φ (u, v)) Is extracted.
[0044]
The extraction of the phase information is not limited to the above-described embodiment. For example, after extracting the phase information based on the outputs of the Fourier transform units 2120 and 2121 and Expressions (13) and (14), only the phase components are synthesized as shown in Expression (15), and Z (u, v) May be generated.
[0045]
(Equation 13)
Figure 2004272859
[0046]
[Equation 14]
Figure 2004272859
[0047]
(Equation 15)
Figure 2004272859
[0048]
The inverse Fourier transform unit 2124 performs an inverse Fourier transform process based on the signal Z (u, v) including only the phase information output from the phase extracting unit 2123, and generates a correlation strength image.
More specifically, the inverse Fourier transform unit 2124 performs an inverse Fourier transform process based on the signal Z (u, v) to generate a correlation strength image G (p, q), as shown in Expression (16).
[0049]
(Equation 16)
Figure 2004272859
[0050]
The magnification information-rotation information generation unit 213 determines whether the amount of deviation of the peak position in the correlation intensity image G (p, q) generated by the inverse Fourier transform unit 2124 from the image center is equal to the registered image AIM and the collation image RIM. On the other hand, since the amount of translation is equivalent to the amount of parallel movement between pattern data obtained as a result of performing the Fourier-Mellin transform, by detecting the amount of displacement, magnification information (enlargement / reduction ratio) of the collation image RIM with respect to the registered image AIM is obtained. ) And correction information S21 including data indicating rotation angle information.
[0051]
The correction unit 22 corrects the collation image RIM based on the correction information S21 output from the magnification information-rotation information generation unit 213 of the magnification information-rotation information unit 21. More specifically, the correction unit 22 performs enlargement / reduction processing on the collation image RIM, performs rotation processing, and outputs the result to the phase-only correlation unit 23 based on the magnification information and the rotation angle information included in the correction information S21. By the correction processing of the correction unit 22, differences in the scaling and rotation components between the registered image AIM and the collation image RIM are removed.
Therefore, only the translation component remains as a difference between the registered image AIM and the corrected collation image RIM.
[0052]
The phase only correlation unit 23 detects a translation component between the above-described registered image AIM and the corrected matching image RIM, and a correlation value thereof. This detection is obtained by, for example, a phase-only correlation method using the above-described phase-only filter.
Specifically, the phase-only correlation unit 23 has Fourier transform units 2311 and 2312, a synthesis unit 232, a phase extraction unit 233, and an inverse Fourier transform unit 234.
[0053]
The Fourier transform units 2311 and 2312, the combining unit 232, the phase extracting unit 233, and the inverse Fourier transform unit 234 respectively include the Fourier transform units 2120 and 2121, the combining unit 2122, and the phase extracting unit 2123 of the above-described phase only correlation unit 212. Since it has the same function as each of the inverse Fourier transform units 2124, it will be briefly described.
[0054]
The Fourier transform unit 2311 performs Fourier transform on the registered image AIM and outputs the result to the synthesizing unit 232. At this time, the registered image AIM subjected to Fourier transform processing by the Fourier transform unit 21111 may be stored in the memory 12 and output to the synthesizing unit 232. By doing so, the processing is reduced because the Fourier transform processing is not performed twice.
The Fourier transform unit 2312 performs a Fourier transform on the image S22 corrected by the correcting unit 22, and outputs a Fourier image as a processing result to the synthesizing unit 232.
[0055]
The combining unit 232 combines the Fourier images S2311, S2312 output from the Fourier transform units 2311, 2312, and outputs the combined image S232 to the phase extracting unit 233.
The phase extracting unit 233 extracts the phase information based on the composite image S232 as described above, and outputs the signal S233 to the inverse Fourier transform unit 234.
The inverse Fourier transform unit 234 performs an inverse Fourier transform based on the signal S233, generates a correlation intensity image (correlation image data), and outputs it as a signal S23 to the determination unit 24.
[0056]
A detailed description will be given of the process of detecting the amount of translation in the above-described phase only correlation method.
For example, each of the original image f1 (m, n), the original image f2 (m, n), and the image f3 (m, n) = f2 (m + α, n + β) obtained by translating the image f2 (m, n) is Fourier-transformed. The processing is performed to generate Fourier coefficients F1 (u, v), F2 (u, v), F3 (u, v) as shown in equations (17) to (19).
[0057]
[Equation 17]
Figure 2004272859
[0058]
(Equation 18)
Figure 2004272859
[0059]
[Equation 19]
Figure 2004272859
[0060]
Based on the Fourier coefficients F1 (u, v) to F3 (u, v), as shown in equations (20) to (22), phase images F′1 (u, v) to F′3 including only phase information Generate (u, v).
[0061]
(Equation 20)
Figure 2004272859
[0062]
(Equation 21)
Figure 2004272859
[0063]
(Equation 22)
Figure 2004272859
[0064]
The correlation Z12 (u, v) of the phase image F′1 (u, v) and the phase image F′2 (u, v) is calculated as shown in Expression (23), and the phase image F ′ is calculated. The correlation Z13 (u, v) of the phase image of the correlation between 1 (u, v) and the phase image F′3 (u, v) is calculated as shown in Expression (24).
[0065]
[Equation 23]
Figure 2004272859
[0066]
(Equation 24)
Figure 2004272859
[0067]
The correlation intensity image G12 (r, s) of the correlation Z12 (u, v) and the correlation intensity image G13 (r, s) of the correlation Z13 (u, v) are calculated as shown in Expressions (25) and (26). I do.
[0068]
(Equation 25)
Figure 2004272859
[0069]
(Equation 26)
Figure 2004272859
[0070]
As shown in Expressions (25) and (26), when the image f3 (m, n) is shifted by (+ α, + β) compared to the image 2 (m, n), the phase-only correlation method In the strong correlation image, a peak of the correlation strength is generated at a position shifted by (−α, −β). The amount of parallel movement between the two images can be obtained from the position of the correlation strength position.
Also, by using this phase-only correlation method on the above-described Fourier-Mellin space, the amount of parallel movement on the Fourier-Mellin space can be detected. This translation amount corresponds to the magnification information and the rotation angle information in the real space as described above.
[0071]
FIG. 4 is a diagram for explaining a difference between the autocorrelation method and the phase-only correlation method.
In the autocorrelation method, for example, as shown in FIGS. 4A and 4B, when an image IM1 and an image IM2 which is the same as the image IM1 are subjected to Fourier transform to generate an autocorrelation function SG1, FIG. Thus, a peak having a high correlation intensity and a correlation intensity distribution having a small correlation intensity around the peak are obtained. In FIG. 4C, the vertical axis indicates the correlation strength.
[0072]
On the other hand, in the above-described phase-only correlation method, as shown in FIGS. 4D and 4E, the image IM1 and the image IM2 which is the same as the image IM1 are subjected to Fourier transform, and only the phase information is correlated. As shown in ()), a correlation intensity distribution having only a sharp peak with a high correlation intensity is obtained. As described above, in the phase only method, clear information on the correlation can be obtained as compared with the autocorrelation method. In FIG. 4F, the vertical axis (z-axis) indicates the correlation strength, and the x-axis and the y-axis indicate the shift amount.
[0073]
FIG. 5 is a diagram for explaining a correlation intensity distribution in the case where there is a translation shift between two images in the phase only correlation method.
For example, the correlation intensity distribution of the image IM1 as shown in FIGS. 5A and 5B and the image IM3 shifted by several pixels from the image IM1 in the phase only method is shown in FIG. 5C, for example. As described above, sharp peaks having a high correlation intensity are distributed at positions shifted from the peak positions in the correlation image data shown in FIG. 4F by a distance corresponding to the amount of parallel movement. However, the peak intensity shown in FIG. 5C is smaller than the peak intensity shown in FIG. This is because the matching pixel area of the images IM1 and IM3 is smaller than the images IM1 and IM2.
[0074]
FIG. 6 is a diagram for explaining a correlation intensity distribution in a case where there is a rotational shift between two images in the phase only method.
As shown in FIG. 6, for example, the correlation intensity distribution of the image IM1 as shown in FIGS. 6A and 6B and the image 4 rotated several degrees from the image IM1 has a weak correlation intensity. A correlation strength distribution is obtained. When the phase-only correlation method is simply used, it is difficult to detect a correlation due to a rotational shift.
[0075]
Therefore, in the image matching device 1 according to the present embodiment, the registered image AIM and the matched image RIM are subjected to Fourier-Mellin transformation, and the amount of parallel movement is calculated by using the phase-only correlation method in Fourier-Mellin space. Then, magnification information and rotation angle information of the registered image AIM and the collation image RIM are detected. The magnification and rotation angle of the collation image are corrected based on the information.
The parallel displacement between the corrected collation image RIM and the registered image AIM is detected by the phase-only correlation method, and at the same time, collation between the images is performed based on the correlation peak.
[0076]
FIG. 7 is a diagram for explaining the correlation image data output by the phase-only correlation unit 23. FIG. 7A is a diagram illustrating a registered image AIM, FIG. 7B is a diagram illustrating a collation image RIM, and FIG. 7C is a diagram illustrating a specific example of correlation image data. FIG. 8 is a diagram for explaining the correlation image data shown in FIG.
[0077]
When the registered image AIM and the collation image RIM include, for example, binarized and linear patterns such as handwritten characters and blood vessel patterns, for example, the registered image AIM and the collation image RIM as shown in FIGS. In this case, the phase-only correlation unit 23 outputs correlation image data as shown in FIG. 7C as the signal S23.
[0078]
In FIG. 7C, the z-axis direction indicates the correlation peak intensity in the correlation image data, and the correlation peak intensity corresponds to the degree of correlation between the registered image AIM and the collation image RIM. As shown in FIGS. 7C and 8, the correlation peak position in the x-axis direction and the y-axis direction is such that, for example, the amount of deviation from the image center corresponds to the amount of translation between the registered image AIM and the collation image RIM. .
[0079]
The determination unit 24 compares the registered image AIM with the comparison image RIM based on the signal S23 output from the phase only correlation unit 23.
For example, as illustrated in FIG. 1, the matching unit 24 includes a candidate specifying unit 241, a similarity generating unit 242, an integrating unit 243, and a matching unit 244.
The candidate specifying unit 241 corresponds to the candidate specifying unit according to the present invention, the similarity generating unit 242 corresponds to the similarity generating unit according to the present invention, the integrating unit 243 corresponds to the integrating unit according to the present invention, and the matching unit 244 corresponds to the matching means according to the present invention.
[0080]
The candidate specifying unit 241 specifies a plurality of candidates of a two-dimensional positional relationship between the registered image AIM and the collation image RIM based on the signal S23 output from the phase-only correlation unit 23, and as a signal S241, a similarity generation unit 242.
[0081]
FIG. 9 is a diagram for explaining the candidate specifying process of the candidate specifying unit 241 shown in FIG. The numerical value indicates the correlation peak intensity of the correlation image data on the XY plane of the correlation image data.
For example, in the case of a registered image AIM and a collation image RIM that include a binarized and linear pattern as shown in FIGS. 7A and 7B, a correlation peak intensity (also referred to as a correlation intensity) even between images having a large correlation. Has a small value as shown in FIG.
As shown in FIG. 9, for example, as shown in FIG. 9, the candidate specifying unit 241 determines the top N pieces of correlation strength based on the signal S23, eight pieces in the present embodiment, and the candidates of the two-dimensional positional relationship between the registered image AIM and the collation image RIM. And outputs it to the similarity generation unit 242 as a signal S241.
[0082]
The similarity generation unit 242 performs a two-dimensional process between the registered image AIM and the collation image RIM corrected by the correction unit 22, based on the signal S242 indicating the plurality of positional relationship candidates specified by the candidate specification unit 242. In each of the above plurality of different positional relationships, the similarity is generated by comparing the registered image AIM and the collation image RIM corrected by the correction unit 22 for each pixel.
[0083]
More specifically, the similarity generation unit 242, for example, as shown in FIGS. 7A and 7B, stores the registered image AIM at f1 (m, n), and outputs the collation image RIM corrected by the correction unit 22 at f2 ( Assuming that the image includes a binarized and linear pattern of m × n pixels of (m, n), for example, the similarity Sim is calculated by Expression (27), and the calculation result is output to the integrating unit 243 and the matching unit 244. .
[0084]
[Equation 27]
Figure 2004272859
[0085]
The integration unit 243 integrates the similarity Sim generated by the similarity generation unit 242, and outputs the integration result to the matching unit 244 as a signal S243.
[0086]
The collation unit 244 performs collation between the registered image AIM and the collation image RIM based on the similarity Sim accumulated by the accumulation unit 243. Specifically, for example, when the integrated similarity Sim is larger than a predetermined value, the matching unit 244 determines that the registered image AIM matches the matching image RIM.
[0087]
Further, the matching unit 244 performs matching between the registered image AIM and the matching image RIM based on the similarity Sim output from the similarity generating unit 242. Specifically, for example, when the similarity Sim is larger than a predetermined value, the matching unit 244 determines that the registered image AIM matches the matching image RIM.
In addition, the matching unit 244 outputs a signal S24 indicating the result of the matching process.
[0088]
FIG. 10 is a flowchart for explaining the operation of the image matching apparatus 1 shown in FIG. The operation of the image matching device 1 having the above-described configuration will be briefly described with reference to FIG.
For example, the registered image AIM and the collation image RIM are input by the image input unit 11, and the respective image data is stored in the memory (ST1).
Here, in order to obtain the magnification (enlargement / reduction ratio) and rotation angle information of the collation image RIM with respect to the registered image AIM, the registered image AIM is read from the memory 12 (ST2), and the Fourier of the magnification information-rotation information unit 21 is read. The transform unit 21111 performs Fourier transform processing (ST3), and Fourier image data S21111 is stored and stored in the memory 12 (ST4).
The amplitude component of the Fourier image data S21111 is subjected to logarithmic processing by the logarithmic converter 21121, and is converted to a logarithmic-polar coordinate system by the logarithmic-polar coordinate converter 21131 (ST5).
[0089]
The collation image RIM is read from the memory 12 (ST6), similarly Fourier transformed by the Fourier transform unit 21112 (ST7), and the amplitude component of the Fourier image data S21112 is subjected to logarithmic processing by the logarithmic transform unit 21122. Then, the logarithmic-polar coordinate conversion unit 21132 converts the data into a logarithmic-polar coordinate system (ST8).
[0090]
Image signals (also referred to as pattern data) SA211 and SR211 obtained as a result of performing the Fourier-Mellin transform on the registered image AIM and the collation image RIM described above are Fourier-transformed by the Fourier transform units 2120 and 2121 of the phase-only correlation unit 212. It is converted (ST9), synthesized by the synthesizing unit 2122 (ST10), the amplitude component is removed from the synthesized signal by the phase extracting unit 2123 (ST11), and the remaining phase components are inverse Fourier transformed by the inverse Fourier transform unit 2124. Then, based on the amount of deviation of the peak position of the obtained correlation image data from the image center, the magnification information / rotation information generation unit 213 generates correction information including magnification information and rotation information (ST13). .
[0091]
The correction unit 22 performs the correction processing of the enlargement / reduction and rotation of the collation image based on the correction information, and removes the scaling component and the rotation component between the images (ST14). The only difference that remains is the translation component, which is detected using the phase-only correlation method.
[0092]
The corrected image RIM subjected to the correction processing is Fourier-transformed by the Fourier transform unit 2312 of the phase-only correlation unit 23 (ST15) to generate Fourier image data S2312, and the Fourier-transformed registered image AIM stored in the memory 12 Is read out (ST16), and the combining unit 232 generates combined data S232 (ST17).
[0093]
At this time, the registered image AIM may be Fourier transformed by the Fourier transform unit 2311 to generate Fourier image data S2311 and input to the joining unit 232.
The amplitude information in the combined data S232 is removed by the phase extraction unit 233 (ST18), the remaining phase information is input to the inverse Fourier transform unit 234, and the signal S23 is output as correlation image data (ST19).
[0094]
On the basis of the correlation image data S23 generated by the above-described processing, the candidate specifying unit 241 selects, for example, N candidates P from the upper side of the correlation peak intensity in the correlation image data S23. i (P 0 , P 1 , P 2 , ..., P n-1 ) Is extracted and output to the similarity generation unit 242 as a signal S241 (ST20).
[0095]
The integrating unit 243 initializes a variable for integration (ST21). For example, the variable i is initialized to 0 and the integrated value S is initialized to 0.
In the similarity generation unit 242, each candidate (coordinate) P i , By detecting the amount of deviation from the center of the correlation image data, the registration image AIM and the collation image RIM are aligned, and then the similarity Sim (i) is calculated. 244 (ST22).
[0096]
In step ST23, the matching unit 244 compares the similarity Sim (i) with a preset first threshold th1, and when the similarity Sim (i) is smaller than the first threshold, the integrating unit 243. Then, the similarity Sim (i) is integrated, and more specifically, is integrated using the formula S = S + Sim (i) and output to the matching unit 244 (ST24).
In step ST25, the collating unit 244 compares the integrated value S with a second threshold value th2 set in advance. If the integrated value S is smaller than the second threshold value th2, the variable i and the value N-1 are compared. Are compared (ST26), and when the variable i does not match N-1, 1 is added to the variable i (ST27), and the process returns to the step ST22. If the variable i matches N−1 in step ST25, it is determined that the images do not match (ST28).
[0097]
On the other hand, when the similarity Sim (i) is equal to or greater than the first threshold in the comparison process of step ST23, the matching unit 244 determines that the images match, and in the comparison process of step ST25, When the integrated value S is equal to or larger than the second threshold th2, the matching unit 244 determines that the images match (ST29). For example, the image matching device according to the present embodiment is used as a vein pattern matching device in the security field. When applied, the operation processing unit 16 performs a process of releasing the electronic lock.
[0098]
As described above, the two-dimensional difference between the registered image AIM and the collation image RIM differs from the candidate identification unit 241 that identifies a plurality of candidates of the two-dimensional positional relationship between the registered image AIM and the collation image RIM. In each of the plurality of positional relationships, a similarity generating unit 242 that compares the registered image AIM and the collation image RIM to generate a similarity Sim, and an integrating unit 243 that integrates the similarity Sim generated by the similarity generating unit 242. Since the matching unit 244 that performs matching based on the similarity Sim accumulated by the integrating unit 243 is provided, for example, even when the correlation between two pieces of image data to be compared is small, a plurality of By adding the similarities calculated for each of the positional relationships of the candidates, the matching can be performed with higher accuracy than when matching is performed using the similarity alone.
When the similarity Sim is larger than the first threshold th1, it is determined that they match, so that the matching process can be performed at high speed.
[0099]
Further, a magnification information-rotation information unit 21, a correction unit 22, and a rotation angle correction process or a magnification correction process between the registered image AIM and the collation image RIM that detect a correlation based on a phase component as a result of the Fourier transform process. Since the phase-only correlation unit 23 is provided, the collation processing can be performed even when the registered image AIM and the collation image RIM have different rotation angles and magnifications.
[0100]
FIG. 11 is a software functional block diagram of the second embodiment of the image matching apparatus according to the present invention.
The hardware functional blocks of the image matching device 1a according to the present embodiment are substantially the same as those of the first embodiment, and thus description thereof is omitted.
The CPU 15a of the image matching device 1a includes, for example, a magnification information / rotation information unit 21, a correction unit 22, a phase-only correlation unit 23, and a determination unit 24a, as shown in FIG.
For example, as illustrated in FIG. 11, the determination unit 24a includes a candidate identification unit 241, a similarity generation unit 242, a similarity correction unit 2421, an accumulation unit 243, and a collation unit 244.
A description of the same functions as in the first embodiment will be omitted, and only different points will be described.
[0101]
The similarity correction unit 2421 generates the similarity generation unit 242 by comparing the registered image AIM and the collation image RIM for each pixel in each of a plurality of different two-dimensional positional relationships between the registered image AIM and the collation image RIM. The calculated similarity Sim is corrected according to the image characteristics around the pixel to generate a similarity Sim ′, and is output as the signal S2421 to the integrating unit 243 and the matching unit 244.
The integrating unit 243 and the matching unit 244 perform the same processing as in the first embodiment based on the similarity Sim ′.
[0102]
FIG. 12 is a diagram for explaining the function of the similarity correction unit 2421 shown in FIG. 12A illustrates an image pattern of the registered image AIM, FIG. 12B illustrates an image pattern of the collation image RIM, and FIG. 12C illustrates a specific example of the similarity Sim generated by the similarity generation unit 242. FIG. FIG. 13 is a diagram for explaining the function of the similarity correction unit 2421 shown in FIG.
[0103]
For example, the similarity Sim generated by the similarity generation unit 242 is, for example, a case where the similarity Sim between the image pattern of the registered image AIM illustrated in FIG. 12A and the image pattern of the collation image RIM illustrated in FIG. Is calculated based on the intersection CP of the linear patterns of the two images, as shown in FIG.
[0104]
For example, as illustrated in FIG. 13A, the similarity generation unit 242 determines the correlation pattern PT31 between the pattern PT11 of the registered image AIM and the pattern PT21 of the collation image RIM in a different direction of the linear pattern. Despite the absence, there is an increase in the similarity because the similarity Sim is calculated only from the intersection.
The similarity correction unit 2421 according to the present embodiment detects, for example, the intersection CP, and, for example, when there are intersections CP other than the center in nine pixels around the pixel, the similarity correction unit 2421 determines the intersection CP of the center with a point having a correlation. If there is no intersection CP other than the center, the intersection CP at the center is determined as an uncorrelated intersection.
[0105]
For example, as shown in FIG. 13A, the similarity correction unit 2421 has no intersection CP other than the center in the case of the correlation pattern PT31 between the pattern PT11 of the registered image AIM and the pattern PT21 of the collation image RIM, The intersection at the center is determined as an uncorrelated intersection.
As shown in FIG. 13B, the similarity correction unit 2421 determines the center of the pattern PT12 of the registered image AIM and the correlation pattern PT32 of the collation image RIM since there is no intersection CP except for the center. The intersection of the parts is determined as an intersection having no correlation.
[0106]
As shown in FIG. 13 (c), the similarity correction unit 2421 has the intersection CP other than the center in the case of the correlation pattern PT32 between the pattern PT12 of the registered image AIM and the pattern PT22 of the collation image RIM. The intersection CP of the part is determined as an intersection having a correlation.
[0107]
The similarity correction unit 2421 sets the value obtained by dividing the number of intersecting intersections obtained for the entire image by the total number of intersections as an effective rate eff, and calculates the similarity generated by the similarity generating unit 242 as shown in Expression (28). The degree of Sim is multiplied to perform a correction process to generate a corrected similarity degree Sim ′, which is output as a signal S2421.
[0108]
[Equation 28]
Figure 2004272859
[0109]
For example, in the case as shown in FIG. 12, the effective rate eff is 0, and as a result, the corrected similarity Sim ′ is 0.
[0110]
FIG. 14 is a flowchart for explaining the operation of the image matching apparatus 1a shown in FIG. The operation of the image matching apparatus 1 having the above-described configuration will be described with reference to FIG. 14 only for differences from the first embodiment. The processes in steps ST1 to ST20 are the same as those in the first embodiment, and a description thereof will be omitted.
[0111]
The integrating unit 243 initializes a variable for integration (ST21). For example, the variable i is initialized to 0 and the integrated value S is initialized to 0.
In the similarity generation unit 242, each candidate (coordinate) P i , By detecting the amount of deviation from the center of the correlation image data, the similarity Sim (i) is calculated after the registration of the registered image AIM and the matching image RIM, and the similarity corrector 2421 is calculated as a signal S242. (ST22).
[0112]
In step ST221, based on the correction signal S242 as the similarity Sim output from the similarity generation unit 242, the similarity correction unit 2421 divides the number of correlated intersections obtained for the entire image by the total number of intersections. The value is defined as the effective rate eff, and as shown in Expression (28), the similarity Sim generated by the similarity generation unit 242 is multiplied to perform a correction process, and a corrected similarity Sim ′ is generated. The data is output to the matching unit 244 and the integrating unit 243.
[0113]
In step ST23, the matching unit 244 compares the similarity Sim ′ (i) with a preset first threshold th1, and when the similarity Sim ′ (i) is smaller than the first threshold, adds The unit 243 integrates the similarity Sim '(i), and more specifically, integrates the expression S = S + Sim' (i) and outputs the result to the matching unit 244 (ST24).
[0114]
In step ST25, the collating unit 244 compares the integrated value S with a second threshold value th2 set in advance. If the integrated value S is smaller than the second threshold value th2, the variable i and the value N−1 are compared. Are compared (ST26), and when the variable i does not match N-1, 1 is added to the variable i (ST27), and the process returns to the step ST22. If the variable i matches N−1 in step ST25, it is determined that the images do not match (ST28).
[0115]
On the other hand, in the comparison process of step ST23, the collation unit 244 determines that the images match when the similarity Sim ′ (i) is equal to or more than the first threshold, and in the comparison process of step ST25. When the integrated value S is equal to or greater than the second threshold value th2, the matching unit 244 determines that the images match (ST29). For example, the image matching device according to the present embodiment is applied to a vein pattern matching device in the security field. Is applied, the operation processing unit 16 performs a process of releasing the electronic lock.
[0116]
As described above, in the present embodiment, in each of the plurality of two-dimensionally different positional relationships between the registered image AIM and the collation image RIM, the similarity generation unit 242 The similarity correction unit 2421 that corrects the similarity Sim generated in comparison with the pixel value according to the image characteristics around the pixel to generate the similarity Sim ′ is provided. The collation unit 244 sets the corrected similarity Sim ′ to the similarity Sim ′. Since the matching is performed based on the first embodiment, the matching process can be performed with higher accuracy than in the first embodiment.
[0117]
Further, even when there is an intersection between line segments having a large angle shift, that is, a line segment having a small correlation, the similarity is reduced by the correction processing. As a result, the correlation obtained from the images having a large correlation and the small image The difference from the degree of correlation obtained from each other becomes large, and a more accurate matching process can be performed.
[0118]
Note that the present invention is not limited to the present embodiment, and various suitable modifications are possible.
For example, in the present embodiment, the similarity generation unit calculates the similarity using Expression (27), but the present invention is not limited to this. For example, the similarity generation unit only needs to be able to perform a process of calculating a similarity suitable for correlation between linear patterns.
[0119]
In the present embodiment, the magnification information and the rotation angle information are generated by performing a Fourier transform process, a logarithmic transform process, and a logarithmic-to-stationary coordinate transform, and calculating a translation amount in a Fourier-Mellin space. It is not limited to the form. For example, coordinate conversion may be performed on a space in which magnification information and rotation angle information can be detected.
[0120]
Further, the first threshold value th1 and the second threshold value th2 are fixed values, but are not limited to this mode. For example, by making each of the thresholds variable according to the image pattern, more accurate matching can be performed.
[0121]
【The invention's effect】
According to the present invention, it is possible to provide an image matching device, an image matching method, and a program that can perform matching between images with high accuracy.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a first embodiment of an image matching device according to the present invention.
FIG. 2 is a software functional block diagram of the image matching apparatus shown in FIG. 1;
FIG. 3 is a diagram for explaining an operation of the Fourier-Mellin transform unit shown in FIG. 2;
FIG. 4 is a diagram for explaining a difference between an autocorrelation method and a phase-only correlation method.
FIG. 5 is a diagram for explaining a correlation intensity distribution when there is a translation shift between two images in the phase only correlation method.
FIG. 6 is a diagram for explaining a correlation intensity distribution in a case where there is a rotational shift between two images in the phase only method.
FIG. 7 is a diagram for explaining correlation image data output by a phase-only correlation unit 23; (A) is a diagram showing a registered image AIM, (b) is a collation image RIM, (c) is a diagram showing a specific example of correlation image data.
FIG. 8 is a diagram for explaining the correlation image data shown in FIG. 7 (c).
FIG. 9 is a diagram for explaining a candidate specifying process of a candidate specifying unit 241 illustrated in FIG. 1;
FIG. 10 is a flowchart for explaining the operation of the image matching apparatus 1 shown in FIG. 1;
FIG. 11 is a software functional block diagram of a second embodiment of the image matching apparatus according to the present invention.
FIG. 12 is a diagram for explaining a function of a similarity correction unit 2421 shown in FIG. 1;
FIG. 13 is a diagram for explaining a function of a similarity correction unit illustrated in FIG. 1;
FIG. 14 is a flowchart for explaining the operation of the image matching apparatus 1a shown in FIG. 11;
[Explanation of symbols]
1, 1a: Image collating device, 11: Image input unit, 12: Memory, 13: FFT processing unit, 14: Coordinate conversion unit, 15: CPU, 16: Operation processing unit, 21: Magnification information-rotation information unit, 22 ... Correction unit, 23... Parallel translation unit, 24... Discrimination unit, 211... Fourier-Mellin conversion unit, 212... Phase-only correlation unit, 213, magnification information-rotation information generation unit, 232. 234: inverse Fourier transform unit; 241, candidate specifying unit; 242: similarity generating unit; 243: integrating unit; 244: collating unit; 2120, 2121: Fourier transform unit; 2122: combining unit; 2123: phase extracting unit; 2124: inverse Fourier transform unit, 2311, 2312: Fourier transform unit, 2421: similarity correction unit, 21111, 21112: Fourier transform unit, 211211, 1122 ... logarithmic transform unit, 1131,21132 ... the log - polar coordinate conversion unit.

Claims (12)

第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する類似度生成手段と、
前記類似度生成手段が生成した前記類似度を積算する積算手段と、
前記積算手段が積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する照合手段と
を有する画像照合装置。
Similarity generating means for comparing the first image and the second image to generate a similarity in each of a plurality of different two-dimensional positional relationships between the first image and the second image When,
Integrating means for integrating the similarity generated by the similarity generating means,
An image matching device, comprising: matching means for matching the first image and the second image based on the similarity integrated by the integrating means.
前記第1の画像と前記第2の画像との相関を検出する相関検出手段と、
前記相関検出手段が検出した前記相関を基に、前記第1の画像と前記第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定手段と
をさらに有し、
前記類似度生成手段は、前記候補特定手段で特定された前記複数の候補それぞれの位置関係で前記類似度を生成する
請求項1に記載の画像照合装置。
Correlation detection means for detecting a correlation between the first image and the second image;
Based on the correlation detected by the correlation detecting means, further comprising candidate specifying means for specifying a plurality of candidates of the two-dimensional positional relationship between the first image and the second image,
The image matching device according to claim 1, wherein the similarity generating unit generates the similarity based on a positional relationship of each of the plurality of candidates specified by the candidate specifying unit.
前記類似度生成手段は、前記第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像の画素毎に比較して前記類似度を生成する
請求項1に記載の画像照合装置。
The similarity generation means compares each pixel of the first image and the second image in each of a plurality of different two-dimensional positional relationships between the first image and the second image. The image matching device according to claim 1, wherein the similarity is generated by performing the following.
前記類似度生成手段は、前記第1の画像と前記第2の画像との2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像の画素毎に比較し、前記比較の結果を当該画素の周囲の画像特性に応じて補正して前記類似度を生成する
請求項3に記載の画像照合装置。
The similarity generation unit compares, for each of a plurality of two-dimensionally different positional relationships between the first image and the second image, each pixel of the first image and the second image, 4. The image matching device according to claim 3, wherein the similarity is generated by correcting a result of the comparison according to image characteristics around the pixel.
前記相関検出手段は、前記第1の画像と前記第2の画像との回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて前記相関を検出する
請求項2に記載の画像照合装置。
The method according to claim 2, wherein the correlation detection unit detects the correlation based on a phase component as a result of a rotation angle correction process or a magnification correction process between the first image and the second image, and a Fourier transform process. Image collating device as described in the above.
第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する第1の工程と、
前記第1の工程で生成した前記類似度を積算する第2の工程と、
前記第2の工程で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の工程と
を有する画像照合方法。
A first step of comparing the first image and the second image to generate a similarity in each of a plurality of different two-dimensional positional relationships between the first image and the second image; When,
A second step of integrating the similarity generated in the first step;
A third step of comparing the first image and the second image based on the degree of similarity integrated in the second step.
前記第1の工程の前に、前記第1の画像と前記第2の画像との相関を検出する検出工程と、
前記検出工程で検出した前記相関を基に、前記第1の画像と前記第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定工程と
をさらに有し、
前記第1の工程は、前記候補特定工程で特定された前記複数の候補それぞれの位置関係で前記類似度を生成する
請求項6に記載の画像照合方法。
A detecting step of detecting a correlation between the first image and the second image before the first step;
A candidate identification step of identifying a plurality of candidates of the two-dimensional positional relationship between the first image and the second image based on the correlation detected in the detection step,
The image matching method according to claim 6, wherein the first step generates the similarity based on a positional relationship of each of the plurality of candidates specified in the candidate specifying step.
前記第1の工程は、前記第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像の画素毎に比較して前記類似度を生成する
請求項6に記載の画像照合方法。
In the first step, in each of a plurality of two-dimensionally different positional relationships between the first image and the second image, a comparison is made for each pixel of the first image and the second image. The image matching method according to claim 6, wherein the similarity is generated by using the same.
前記第1の工程は、前記第1の画像と前記第2の画像との2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像の画素毎に比較し、前記比較の結果を当該画素の周囲の画像特性に応じて補正して前記類似度を生成する
請求項8に記載の画像照合方法。
In the first step, in each of a plurality of different two-dimensional positional relationship between the first image and the second image, by comparing each pixel of the first image and the second image, The image matching method according to claim 8, wherein the similarity is generated by correcting a result of the comparison according to image characteristics around the pixel.
前記検出工程は、前記第1の画像と前記第2の画像との回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて前記相関を検出する
請求項7に記載の画像照合方法。
The said detection process detects the said correlation based on the phase component of the result of a rotation angle correction process or a magnification correction process of the said 1st image and the said 2nd image, and a Fourier-transform process. Image matching method.
情報処理装置に実行させるためのプログラムであって、
第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する第1の手順と、
前記第1の手順で生成した前記類似度を積算する第2の手順と、
前記第2の手順で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の手順とを実行させる
プログラム。
A program to be executed by an information processing device,
A first procedure of comparing the first image and the second image to generate a similarity in each of a plurality of different two-dimensional positional relationships between the first image and the second image When,
A second procedure for integrating the similarity generated in the first procedure,
A program for executing a third procedure of collating the first image with the second image based on the similarity calculated in the second procedure.
前記第1の手順の前に、前記第1の画像と前記第2の画像との相関を検出する検出手順と、
前記検出手順で検出した前記相関を基に、前記第1の画像と前記第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定手順と
をさらに有し、
前記第1の手順は、前記候補特定手順で特定された前記複数の候補それぞれの位置関係で前記類似度を生成する
請求項11に記載のプログラム。
A detecting step of detecting a correlation between the first image and the second image before the first step;
Based on the correlation detected in the detection step, further comprising a candidate specification step of specifying a plurality of candidates of the two-dimensional positional relationship between the first image and the second image,
12. The program according to claim 11, wherein the first procedure generates the similarity based on a positional relationship of each of the plurality of candidates specified in the candidate specifying procedure.
JP2003108390A 2003-03-07 2003-03-07 Image collation device and image collation method Expired - Fee Related JP4380205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003108390A JP4380205B2 (en) 2003-03-07 2003-03-07 Image collation device and image collation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003108390A JP4380205B2 (en) 2003-03-07 2003-03-07 Image collation device and image collation method

Publications (2)

Publication Number Publication Date
JP2004272859A true JP2004272859A (en) 2004-09-30
JP4380205B2 JP4380205B2 (en) 2009-12-09

Family

ID=33128023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003108390A Expired - Fee Related JP4380205B2 (en) 2003-03-07 2003-03-07 Image collation device and image collation method

Country Status (1)

Country Link
JP (1) JP4380205B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225337A (en) * 2013-07-11 2013-10-31 Toshiba Tec Corp Merchandise code reader and program
US11748863B2 (en) 2018-11-30 2023-09-05 Nec Corporation Image matching apparatus, image matching method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225337A (en) * 2013-07-11 2013-10-31 Toshiba Tec Corp Merchandise code reader and program
US11748863B2 (en) 2018-11-30 2023-09-05 Nec Corporation Image matching apparatus, image matching method, and program

Also Published As

Publication number Publication date
JP4380205B2 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
KR101122944B1 (en) Image correlation method, image correlation device, and program
JP2004240931A (en) Image collation device, image collation method, and program
US7860279B2 (en) Image matching method, program, and image matching system
JP4428067B2 (en) Image collation apparatus, program, and image collation method
JP5031641B2 (en) Pattern alignment method, verification method, and verification device
JP2012256272A (en) Biological body identifying device and biological body identifying method
JP3574301B2 (en) Pattern matching device
JP5045763B2 (en) Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method
JP4161942B2 (en) Image collation method, image collation apparatus, and program
JP4380205B2 (en) Image collation device and image collation method
Kumar et al. Key-point based copy-move forgery detection in digital images
Arun et al. An automatic feature based registration algorithm for medical images
JP4645198B2 (en) Image collation apparatus, image collation method, and program
JP2007179267A (en) Pattern matching device
Teymourzadeh et al. Smart analytical signature verification for DSP applications
KR101035936B1 (en) Pattern aligning method, verifying method, and verifying device
RAO et al. AN AVERGE BASED ORIENTATION FIELD ESTIMATION METHOD FOR LATENT FINGER PRINT MATCHING.
JPH10134195A (en) Tracking device
Su Locating the position and orientation of an image by the automatic image registration technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090901

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees