JP2004272859A - Image collating device, image collating method and program - Google Patents
Image collating device, image collating method and program Download PDFInfo
- Publication number
- JP2004272859A JP2004272859A JP2003108390A JP2003108390A JP2004272859A JP 2004272859 A JP2004272859 A JP 2004272859A JP 2003108390 A JP2003108390 A JP 2003108390A JP 2003108390 A JP2003108390 A JP 2003108390A JP 2004272859 A JP2004272859 A JP 2004272859A
- Authority
- JP
- Japan
- Prior art keywords
- image
- similarity
- unit
- correlation
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、例えば、指紋画像、静止画像、動画像等の画像情報に基づいて照合を行う画像照合装置、画像照合方法、およびプログラムに関するものである。
【0002】
【従来の技術】
従来、画像情報に基づいて照合を行う方法として、種々のパターン照合装置が知られている。例えばパターン照合装置としては、登録画像と、比較対象となる照合画像とを、所定の位置関係でのみ比較し相関値を算出し、その相関値に基づいて登録画像と照合画像の照合を行う。
【0003】
【発明が解決しようとする課題】
しかし、従来のパターン照合装置では、画像のパターンの種類によっては、ほぼ同じ画像であっても相関値が高くならずに、そのピークのみを用いても高精度に照合を行えない場合があり、改善が望まれている。
【0004】
本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像間の照合を高精度に行うことができる画像照合装置、画像照合方法、およびプログラムを提供することにある。
【0005】
【課題を解決するための手段】
前記目的を達成するために、本発明の第1の観点は、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する類似度生成手段と、前記類似度生成手段が生成した前記類似度を積算する積算手段と、前記積算手段が積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する照合手段とを有する。
【0006】
本発明の第1の観点によれば、類似度生成手段では、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、第1の画像と第2の画像とを比較して類似度を生成する。
照合手段では、類似度生成手段が生成した類似度を積算する積算手段と、積算手段が積算した類似度を基に、第1の画像と第2の画像とを照合する。
【0007】
さらに、前記目的を達成するために、本発明の第2の観点は、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する第1の工程と、前記第1の工程で生成した前記類似度を積算する第2の工程と、前記第2の工程で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の工程とを有する。
【0008】
さらに、前記目的を達成するために、本発明の第3の観点は、情報処理装置に実行させるためのプログラムであって、第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する第1の手順と、前記第1の手順で生成した前記類似度を積算する第2の手順と、前記第2の手順で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の手順とを実行させる。
【0009】
【発明の実施の形態】
本発明に係る第1の実施形態に係る画像照合装置は、登録画像と照合画像間の回転角度補正処理または拡大率補正処理を行い、2次元上の異なる複数の位置関係それぞれにおいて、登録画像と照合画像とを比較して類似度を生成し、類似度を積算し、積算した類似度を基に照合を行う。
以下、図を参照しながら説明する。
【0010】
図1は、本発明に係る画像照合装置の第1実施形態の機能ブロック図である。
本実施形態に係る画像照合装置1は、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、CPU15、および動作処理部16を有する。
画像入力部11、メモリ12、FFT処理部13、座標変換部14、およびCPU15は、バスBSにより接続されている。動作処理部16はCPU15に接続されている。
【0011】
画像入力部11は、外部からの画像を入力するための入力部である。例えば、画像入力部11には、登録画像AIM、および登録画像AIMの比較対象である画像(照合画像RIMという)が入力される。
メモリ12は、画像入力部から入力された画像等が記憶される。例えば、メモリ12には、登録画像AIM、照合画像RIM、およびプログラムPが記憶されている。
プログラムPは、例えばCPU15に実行させる、本発明に係る相関処理、補正処理、類似度生成処理、積算処理、および照合処理等に関する手順を含む。
FFT処理部13は、例えばCPU15の制御により、メモリ12に記憶された画像に基づいて2次元フーリエ変換処理を行い、処理結果を座標変換部14およびCPU15に出力する。
【0012】
座標変換部14は、例えば、CPU15の制御により、FFT処理部13が処理した2次元フーリエ変換処理の結果に基づいて対数−極座標に変換し、座標変換結果をCPU15に出力する。
動作処理部16は、後述するCPU15の照合処理の結果に基づいて、例えば2つの画像が一致した場合には、電子鍵を解除する等の所定処理を行う。
【0013】
CPU15は、例えばメモリ12に記憶されているプログラムP、登録画像AIM、および照合画像RIMに基づいて、本発明の実施形態に係る照合処理を行う。
また、CPU15は、画像入力部11、メモリ12、FFT処理部13、座標変換部14、および動作処理部16等の制御を行い、本実施形態に係る処理を実行する。
【0014】
図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。CPU15は、FFT処理部13および座標変換部14等を制御し、例えば図2に示すような機能ブロックに基づいて処理を行う。
CPU15は、図2に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、および判別部24を有する。
倍率情報−回転情報部21、補正部22、および位相限定相関部23は、本発明に係る相関検出手段に相当する。
【0015】
倍率情報−回転情報部21および補正部22は、登録画像AIMおよび照合画像RIMとの回転角度補正処理または拡大率補正処理を行う。
倍率情報−回転情報部21は、登録画像AIMおよび照合画像RIMに基づいて倍率情報および/または回転情報を生成し、補正部22に出力する。
倍率情報は、登録画像AIMおよび照合画像RIMの拡大・縮小率を示す情報を含む。回転情報は、登録画像AIMおよび照合画像RIMの回転角度を示す情報を含む。
【0016】
詳細には例えば倍率情報−回転情報部21は、フーリエ・メリン変換部211、位相限定相関部212、および倍率情報−回転情報生成部213を有する。
フーリエ・メリン変換部211は、それぞれの画像情報に基いて後述するフーリエ・メリン変換を行い、それぞれの変換結果を示す信号SA211,SR211を位相限定相関部212に出力する。
【0017】
詳細には、フーリエ・メリン変換部211は、フーリエ変換部21111,21112、対数変換部21121,21122、および対数−極座標変換部21131,21132を有する。
【0018】
フーリエ変換部21111は、例えば、登録画像AIMがN×N画像の画像の場合に、登録画像AIMをf1(m,n)とすると、数式(1)に示すようにフーリエ変換を行い、フーリエ画像データF1(m,n)を生成し、対数変換部21121に出力する。フーリエ変換部21112は、例えば、照合画像RIMがN×N画像の画像の場合に、照合画像RIMをf2(m,n)とすると、数式(2)に示すようにフーリエ変換を行い、フーリエ画像データF2(m,n)を生成し、対数変換部21122に出力する。
【0019】
フーリエ画像データF1(m,n)は、数式(1)に示すように振幅スペクトルA(u,v)および位相スペクトルΘ(u,v)で構成され、フーリエ画像データF2(m,n)は、数式(2)に示すように振幅スペクトルB(u,v)および位相スペクトルΦ(u,v)で構成される。
【0020】
【数1】
【0021】
【数2】
【0022】
対数変換部21121,21122は、フーリエ変換部21111,21112で生成された、フーリエ画像データF1(m,n),F2(m,n)の振幅成分に基いて対数処理を行う。この振幅成分の対数処理は、画像データの詳細な特徴情報を含む高周波成分を強調する。
【0023】
詳細には、対数変換部21121は数式(3)に示すように振幅成分A(u,v)に基いて対数処理を行いA’(u,v)を生成し対数−極座標変換部21131に出力する。対数変換部21122は数式(4)に示すように振幅成分B(u,v)に基いて対数処理を行いB’(u,v)を生成し対数−極座標変換部21132に出力する。
【0024】
【数3】
【0025】
【数4】
【0026】
対数−極座標変換部21131,21132は、対数変換部21121,21122から出力された信号に基いて、対数−極座標系(例えばlog−r,Θ)に変換する。
一般的に例えば点(x,y)に対して数式(5),(6)に示すように定義すると、r=eμの場合にはμ=log(r)であり、任意の点(x,y)に対応する一義的な(log(r),Θ)が存在する。この性質により対数−極座標変換部21131,21132は座標変換を行う。
【0027】
【数5】
【0028】
【数6】
【0029】
詳細には、対数−極座標変換部21131,21132は、数式(7)に示す集合(ri、θj)、および数式(8)に示す関数f(ri、θj)を定義する。
【0030】
【数7】
【0031】
【数8】
【0032】
対数−極座標変換部21131,21132は、数式(7),(8)で定義した集合(ri、θj),関数f(ri、θj)を用いて、画像データA’(u,v),B’(u,v)それぞれを、数式(9),(10)に示すように対数−極座標変換を行い、pA(ri、θj)、pB(ri、θj)を生成し、それぞれ信号SA211、信号SR211として、位相限定相関部212に出力する。
【0033】
【数9】
【0034】
【数10】
【0035】
図3は、図2に示したフーリエ・メリン変換部211の動作を説明するための図である。
画像f1(m,n),画像f2(m,n)は、例えばx,y軸に対して異なる所定角度を持った矩形領域W1,W2を含む。
フーリエ・メリン変換部211において、例えば図3に示すように、画像f1(m,n)が、フーリエ変換部21111によりフーリエ変換されて、フーリエ画像データA’(u,v)が生成され、対数変換部21121および対数−極座標変換部21131により、画像データpA(r,θ)が生成される。
【0036】
同様に、画像f2(m,n)が、フーリエ変換部21112によりフーリエ変換されて、フーリエ画像データB’(u,v)が生成され、対数変換部21122および対数−極座標変換部21132により、画像データpB(r,θ)が生成される。
【0037】
上述したように、画像f1(m,n),f2(m,n)は、フーリエ変換および対数−極座標変換により、デカルト座標から対数−極座標系(フーリエ・メリン空間とも言う)上に変換される。
フーリエ・メリン空間では、画像のスケーリングに応じて、成分がlog−rの軸に沿って移動し、画像の回転角度に応じてθ軸に沿って移動する性質がある。
この性質を用いて、画像f1(m,n),f2(m,n)のスケーリング(倍率情報)および回転角度を、フーリエ・メリン空間上のlog−rの軸に沿った移動量、およびθ軸に沿った移動量に基いて、求めることができる。
【0038】
位相限定相関部212は、例えば位相限定フィルタ(SPOMF:Symmetricphase−only matched filter)を用いた位相限定相関法により、フーリエ・メリン変換部211から出力されたパターンデータを示す信号SA211およびSR211に基いて、それぞれの平行移動量を求める。
位相限定相関部212は、例えば図1に示すように、フーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124を有する。
【0039】
フーリエ変換部2120,2121は、対数−極座標変換部21131,21132から出力された信号SA211(pA(m,n)),SR211(pB(m,n))に基いて数式(11),(12)により、フーリエ変換を行う。ここで、X(u,v),Y(u,v)は、フーリエ係数である。フーリエ係数X(u,v)は数式(11)に示すように振幅スペクトルC(u,v)および位相スペクトルθ(u,v)により構成される。フーリエ係数Y(u,v)は数式(12)に示すように振幅スペクトルD(u,v)および位相スペクトルφ(u,v)により構成される。
【0040】
【数11】
【0041】
【数12】
【0042】
合成部2122は、フーリエ変換部2120,2121で生成されたX(u,v),Y(u,v)を合成して相関をとる。例えば合成部2122は、X(u,v)・Y*(u,v)を生成し、位相抽出部2123に出力する。ここで、Y*(u,v)は、Y(u,v)の複素共役である。
【0043】
位相抽出部2123は、合成部2122から出力された合成信号に基いて振幅成分を除去して位相情報を抽出する。
例えば位相抽出部2123は、例えばX(u,v)Y*(u,v)に基いて、その位相成分Z(u,v)=ej(θ(u,v)−φ(u,v))を抽出する。
【0044】
位相情報の抽出は、上述した形態に限られるものではない。例えば、フーリエ変換部2120,2121の出力、数式(13),(14)に基いて位相情報を抽出した後、数式(15)に示すように位相成分のみ合成を行い、Z(u,v)を生成してもよい。
【0045】
【数13】
【0046】
【数14】
【0047】
【数15】
【0048】
逆フーリエ変換部2124は、位相抽出部2123から出力された、位相情報のみの信号Z(u,v)に基いて、逆フーリエ変換処理を行い、相関強度画像を生成する。
詳細には、逆フーリエ変換部2124は、数式(16)に示すように、信号Z(u,v)に基いて逆フーリエ変換処理を行い、相関強度画像G(p,q)を生成する。
【0049】
【数16】
【0050】
倍率情報−回転情報生成部213は、逆フーリエ変換部2124により生成された相関強度画像G(p、q)におけるピーク位置の画像中心からのずれ量が、すなわち登録画像AIMと、照合画像RIMに対してフーリエ・メリン変換を行った結果得られたパターンデータ間の平行移動量と等価であるので、このずれ量を検出することにより、登録画像AIMに対する照合画像RIMの倍率情報(拡大/縮小率)および回転角度情報を示すデータを含む補正情報S21を生成する。
【0051】
補正部22は、倍率情報−回転情報部21の倍率情報−回転情報生成部213から出力された補正情報S21に基いて、照合画像RIMの補正を行う。詳細には、補正部22は、補正情報S21に含まれる倍率情報および回転角度情報に基づいて、照合画像RIMを拡大/縮小処理し、回転処理を行い、位相限定相関部23に出力する。補正部22の補正処理により、登録画像AIMと照合画像RIM間のスケーリングおよび回転成分の差異が除去される。
このため、登録画像AIMと、補正処理された照合画像RIMとの間には、平行移動成分のみが差異として残っている。
【0052】
位相限定相関部23は、上述した登録画像AIMと、補正処理された照合画像RIMとの間の平行移動成分、およびその相関値を検出する。この検出は、例えば上述した位相限定フィルタを用いた位相限定相関法により求める。
詳細には、位相限定相関部23は、フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234を有する。
【0053】
フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234それぞれは、上述した位相限定相関部212のフーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124それぞれと同じ機能を有するので簡単に説明する。
【0054】
フーリエ変換部2311は、登録画像AIMをフーリエ変換し合成部232に出力する。この際、予めフーリエ変換部21111でフーリエ変換処理した登録画像AIMをメモリ12に記憶しておき、それを合成部232に出力してもよい。こうすることにより2重にフーリエ変換処理を行うことがないために、処理が軽減される。
フーリエ変換部2312は、補正部22により、補正された画像S22をフーリエ変換を行い、処理結果のフーリエ画像を合成部232に出力する。
【0055】
合成部232は、フーリエ変換部2311,2312から出力されたフーリエ画像S2311,S2312を合成し、合成画像S232を位相抽出部233に出力する。
位相抽出部233は,合成画像S232に基づいて上述したように位相情報を抽出して信号S233を逆フーリエ変換部234に出力する。
逆フーリエ変換部234は、信号S233に基づいて逆フーリエ変換を行い相関強度画像(相関画像データ)を生成し、信号S23として判別部24に出力する。
【0056】
上述の位相限定相関法における平行移動量の検出処理の詳細な説明を行う。
例えば、原画像f1(m,n)、原画像f2(m,n)、および画像f2(m,n)を平行移動した画像f3(m,n)=f2(m+α,n+β)それぞれをフーリエ変換処理し、数式(17)〜(19)に示すように、フーリエ係数F1(u,v),F2(u,v),F3(u,v)を生成する。
【0057】
【数17】
【0058】
【数18】
【0059】
【数19】
【0060】
フーリエ係数F1(u,v)〜F3(u,v)に基づいて、数式(20)〜(22)に示すように、位相情報のみの位相画像F’1(u,v)〜F’3(u,v)を生成する。
【0061】
【数20】
【0062】
【数21】
【0063】
【数22】
【0064】
位相画像F’1(u,v)と位相画像F’2(u,v)の相関の位相画像の相関Z12(u,v)を数式(23)に示すように計算し、位相画像F’1(u,v)と位相画像F’3(u,v)の相関の位相画像の相関Z13(u,v)を数式(24)に示すように計算する。
【0065】
【数23】
【0066】
【数24】
【0067】
相関Z12(u,v)の相関強度画像G12(r,s)、および相関Z13(u,v)の相関強度画像G13(r,s)を数式(25),(26)に示すように計算する。
【0068】
【数25】
【0069】
【数26】
【0070】
数式(25),(26)に示すように、画像f3(m,n)が、画像2(m,n)に比べて(+α、+β)だけずれている場合には、位相限定相関法では、相関強画像において、(−α,−β)だけずれた位置に相関強度のピークが生成される。この相関強度位置の位置により、2つの画像間の平行移動量を求めることができる。
また、上述したフーリエ・メリン空間上で、この位相限定相関法を用いることにより、フーリエ・メリン空間上の平行移動量が検出できる。この平行移動量は、上述したように実空間では倍率情報および回転角度情報に相当する。
【0071】
図4は、自己相関法と位相限定相関法の相違点を説明するための図である。
自己相関法では、例えば図4(a),(b)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い自己相関関数SG1を生成すると、図4(c)に示すように、相関強度が高いピークと、その周辺部に小さい相関強度を有する相関強度分布が得られる。図4(c)において縦軸は相関強度を示す。
【0072】
一方、上述した位相限定相関法では、図4(d),(e)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い、位相情報のみを相関すると図4(f)に示すように、相関強度が高く鋭いピークのみを有する相関強度分布が得られる。このように位相限定法では自己相関法に比べて相関に関して明確な情報を得ることができる。図4(f)において、縦軸(z軸)は相関強度を示し、x軸,y軸はずれ量を示す。
【0073】
図5は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
例えば図5(a),(b)に示すような画像IM1、および画像IM1より数画素平行移動している画像IM3の画像の位相限定法における相関強度分布は、例えば図5(c)に示すように、相関強度が高く鋭いピークが、図4(f)に示した相関画像データの内のピーク位置から、平行移動量に応じた距離だけずれた位置に分布している。しかし、図5(c)に示すピーク強度は、図4(f)に示したピーク強度に比べて小さい。これは画像IM1,IM2に比べて、画像IM1,IM3の一致している画素領域が小さいためである。
【0074】
図6は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
図6(a),(b)に示すような画像IM1、および画像IM1より数度回転している画像4の位相限定法における相関強度分布は、例えば図6に示すように、弱い相関強度の相関強度分布が得られる。単純に位相限定相関法を用いた場合には回転ずれにより、相関を検出することが困難である。
【0075】
このため、本実施形態に係る画像照合装置1では、登録画像AIMおよび照合画像RIMを、フーリエ・メリン変換を行い、フーリエ・メリン空間上で、位相限定相関法を用いることにより、平行移動量を検出し、登録画像AIMおよび照合画像RIMの倍率情報、および回転角度情報を検出する。その情報に基づいて、照合画像の倍率および回転角度を補正する。
補正した照合画像RIMおよび登録画像AIM間の平行移動ずれを、位相限定相関法により検出し、同時に相関ピークに基づいて画像間の照合を行う。
【0076】
図7は、位相限定相関部23が出力する相関画像データを説明するための図である。図7(a)は登録画像AIM、図7(b)は照合画像RIM、図7(c)は相関画像データの一具体例を示す図である。図8は図7(c)に示した相関画像データを説明するための図である。
【0077】
登録画像AIM,照合画像RIMとして、例えば手書き文字や血管パターン等の2値化および線形状のパターンを含む場合、例えば図7(a),(b)に示すような登録画像AIM,照合画像RIMの場合、位相限定相関部23は信号S23として図7(c)に示すような相関画像データを出力する。
【0078】
図7(c)において、z軸方向は相関画像データにおける相関ピーク強度を示し、相関ピーク強度は登録画像AIMと照合画像RIM間の相関度に相当する。図7(c)および図8に示すように、x軸方向,y軸方向での相関ピーク位置は、例えば画像中心からのずれ量が登録画像AIMと照合画像RIM間の平行移動量に相当する。
【0079】
判別部24は、位相限定相関部23から出力された信号S23に基づいて、登録画像AIMと照合画像RIMの照合を行う。
照合部24は、例えば図1に示すように、候補特定部241、類似度生成部242、積算部243、および照合部244を有する。
候補特定部241は本発明に係る候補特定手段に相当し、類似度生成部242は本発明に係る類似度生成手段に相当し、積算部243は本発明に係る積算手段に相当し、照合部244は本発明に係る照合手段に相当する。
【0080】
候補特定部241は、位相限定相関部23から出力された信号S23に基づいて、登録画像AIMと照合画像RIMと2次元上の位置関係の複数の候補を特定し、信号S241として類似度生成部242に出力する。
【0081】
図9は、図1に示した候補特定部241の候補特定処理を説明するための図である。数値は、相関画像データのX−Y面上での相関画像データの相関ピーク強度を示す。
例えば図7(a),(b)に示すような2値化および線形状のパターンを含む登録画像AIM,照合画像RIMの場合、相関の大きい画像同士でも、相関ピーク強度(相関強度とも言う)が図9に示すように値が小さい。
候補特定部241は、例えば図9に示すように、信号S23に基づいて相関強度の上位N個、本実施形態では8個を、登録画像AIMと照合画像RIMと2次元上の位置関係の候補として特定し、信号S241として類似度生成部242に出力する。
【0082】
類似度生成部242は、候補特定部242で特定された複数の位置関係の候補を示す信号S242に基づいて、登録画像AIMと、補正部22で補正された照合画像RIMとの間の2次元上の異なる複数の位置関係それぞれにおいて、画素毎に、登録画像AIMと、補正部22で補正された照合画像RIMを比較して類似度を生成する。
【0083】
詳細には、類似度生成部242は、例えば図7(a),(b)に示すように、登録画像AIMをf1(m,n)、補正部22で補正された照合画像RIMをf2(m,n)のm×n画素の2値化および線形状のパターンを含む画像とすると、例えば類似度Simを数式(27)により算出し、算出結果を積算部243および照合部244に出力する。
【0084】
【数27】
【0085】
積算部243は、類似度生成部242が生成した類似度Simを積算し、積算結果を信号S243として照合部244に出力する。
【0086】
照合部244は、積算部243が積算した類似度Simを基に登録画像AIMと照合画像RIMの照合を行う。詳細には、例えば照合部244は、積算した類似度Simが所定値よりも大きい場合には、登録画像AIMと照合画像RIMが一致していると判別する。
【0087】
また、照合部244は、類似度生成部242から出力された類似度Simを基に登録画像AIMと照合画像RIMの照合を行う。詳細には、例えば照合部244は、類似度Simが所定値よりも大きい場合には、登録画像AIMと照合画像RIMが一致していると判別する。
また、照合部244は、照合処理の結果を示す信号S24を出力する。
【0088】
図10は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1の動作を図8を参照しながら簡単に説明する。
例えば画像入力部11により、登録画像AIMおよび照合画像RIMが入力され、メモリにそれぞれの画像データが格納される(ST1)。
ここで、登録画像AIMに対する照合画像RIMの倍率(拡大/縮小率)および回転角度情報を求めるために、登録画像AIMがメモリ12から読み出され(ST2)、倍率情報−回転情報部21のフーリエ変換部21111により、フーリエ変換処理され(ST3)、フーリエ画像データS21111がメモリ12に格納、記憶される(ST4)。
フーリエ画像データS21111の内の振幅成分は、対数変換部21121により対数処理が行われ、対数−極座標変換部21131により、対数−極座標系に変換される(ST5)。
【0089】
照合画像RIMが、メモリ12から読み出され(ST6)、同様にフーリエ変換部21112によりフーリエ変換処理され(ST7)、フーリエ画像データS21112の内の振幅成分が、対数変換部21122により対数処理が行われ、対数−極座標変換部21132により、対数−極座標系に変換される(ST8)。
【0090】
上述した登録画像AIMおよび照合画像RIMにフーリエ・メリン変換を行った結果得られた、画像信号(パターンデータとも言う)SA211、SR211それぞれは、位相限定相関部212のフーリエ変換部2120,2121によりフーリエ変換処理され(ST9)、合成部2122により合成され(ST10)、位相抽出部2123により合成信号から振幅成分が除去され(ST11)、残りの位相成分が、逆フーリエ変換部2124により逆フーリエ変換処理され(ST12)、得られた相関画像データのピーク位置の画像中心からのずれ量に基づいて、倍率情報−回転情報生成部213により倍率情報および回転情報を含む補正情報が生成される(ST13)。
【0091】
補正部22では、補正情報に基づいて照合画像の拡大/縮小および回転処理の補正処理が行われ、画像間のスケーリング成分、および回転成分が除去される(ST14)。残る差異は平行移動成分のみであり、位相限定相関法を用いて検出される。
【0092】
補正処理が行われた照合画像RIMは、位相限定相関部23のフーリエ変換部2312によりフーリエ変換されて(ST15)フーリエ画像データS2312が生成され、メモリ12に格納されたフーリエ変換された登録画像AIMが読み出され(ST16)、合成部232により合成データS232が生成される(ST17)。
【0093】
この際、登録画像AIMがフーリエ変換部2311によりフーリエ変換されてフーリエ画像データS2311が生成されて合部部232に入力されてもよい。
合成データS232の内の振幅情報が位相抽出部233により除去され(ST18)、残りの位相情報が逆フーリエ変換部234に入力され、相関画像データとして信号S23が出力される(ST19)。
【0094】
上述した処理により生成された相関画像データS23に基づいて、候補特定部241により相関画像データS23における相関ピーク強度の上位側から、例えばN個の候補Pi(P0,P1,P2,…,Pn−1)が抽出され、信号S241として類似度生成部242に出力される(ST20)。
【0095】
積算部243は、積算のための変数を初期化する(ST21)。例えば変数iを0、積算値Sを0に初期化する。
類似度生成部242では、各候補(座標)Piについて、相関画像データの中心からのずれ量をそれぞれ検出することで、登録画像AIM,照合画像RIMの位置合わせを行った後に類似度Sim(i)を算出し信号S242として積算部243および判別部244に出力する(ST22)。
【0096】
ステップST23において、照合部244では、類似度Sim(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim(i)が第1の閾値より小さい場合には、積算部243では、類似度Sim(i)を積算し、詳細には数式S=S+Sim(i)により積算し照合部244に出力する(ST24)。
ステップST25において、照合部244では、積算値Sと予め設定した第2の閾値th2とを比較し、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST26)、変数iがN−1と一致していない場合には、変数iに1加算し(ST27)、ステップST22の処理に戻る。ステップST25において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST28)。
【0097】
一方、ステップST23の比較処理において、照合部244では、類似度Sim(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST25の比較処理において、照合部244では、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST29)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部16が行う。
【0098】
以上説明したように、登録画像AIMと照合画像RIMとの2次元上の位置関係の複数の候補を特定する候補特定部241と、登録画像AIMと照合画像RIMとの間の2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMとを比較して類似度Simを生成する類似度生成部242と、類似度生成部242が生成した類似度Simを積算する積算部243と、積算部243が積算した類似度Simを基に照合を行う照合部244とを設けたので、例えば、比較対照を行う2枚の画像データ間おの相関が小さい場合であっても、複数の各候補の位置関係それぞれについて算出される類似度を加算することにより、類似度単独で照合を行う場合に比べて、高精度に照合を行うことができる。
また、類似度Simが第1の閾値th1よりも大きい場合には一致していると判別するので、高速に照合処理を行うことができる。
【0099】
また、登録画像AIMと照合画像RIMとの回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関を検出する倍率情報−回転情報部21、補正部22、および位相限定相関部23を設けたので、登録画像AIMと照合画像RIMとが回転角度や拡大率が異なる場合であっても、照合処理を行うことができる。
【0100】
図11は、本発明に係る画像照合装置の第2実施形態のソフトウェア的な機能ブロック図である。
本実施形態に係る画像照合装置1aのハード的な機能ブロックは、第1実施形態とほぼ同じであるので説明を省略する。
画像照合装置1aのCPU15aは、例えば図11に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、および判別部24aを有する。
判別部24aは、例えば図11に示すように、候補特定部241、類似度生成部242、類似度補正部2421、積算部243、および照合部244を有する。
第1実施形態と同様な機能については説明を省略し、相違点のみ説明する。
【0101】
類似度補正部2421は、類似度生成部242が、登録画像AIMと照合画像RIMとの2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMの画素毎に比較して生成した類似度Simを、当該画素の周囲の画像特性に応じて補正し類似度Sim’を生成し、信号S2421として積算部243および照合部244に出力する。
積算部243および照合部244は、類似度Sim’に基づいて第1実施形態と同様な処理を行う。
【0102】
図12は、図1に示した類似度補正部2421の機能を説明するための図である。図12(a)は登録画像AIMの画像パターン、図12(b)は照合画像RIMの画像パターン、図12(c)は類似度生成部242が生成する類似度Simの一具体例を説明するための図である。図13は、図1に示した類似度補正部2421の機能を説明するための図である。
【0103】
例えば類似度生成部242が生成する類似度Simは、例えば図12(a)に示す登録画像AIMの画像パターンと、図12(b)示す照合画像RIMの画像パターンの類似度Simを生成する場合には、図12(c)に示すように、両画像の線形状のパターンの交点CPに基づいて算出する。
【0104】
類似度生成部242は、例えば図13(a)に示すように、登録画像AIMのパターンPT11と、照合画像RIMのパターンPT21との相関パターンPT31の場合に、線形状のパターンの方向が異なり相関がないにもかかわらず、交点のみにより類似度Simを算出するために、類似度が上昇してしまう。
本実施形態に係る類似度補正部2421は、例えば交点CPを検出し、例えばその画素の周囲の9画素において中心部以外にも交点CPがある場合には中心部の交点CPを相関のある点と判別し、中心部以外に交点CPのない場合には中心部の交点CPを相関のない交点として判別する。
【0105】
例えば類似度補正部2421は、図13(a)に示すように登録画像AIMのパターンPT11と、照合画像RIMのパターンPT21との相関パターンPT31の場合に、中心部以外に交点CPがないので、中心部の交点を相関のない交点として判別する。
類似度補正部2421は、図13(b)に示すように登録画像AIMのパターンPT12と、照合画像RIMのパターンPT22との相関パターンPT32の場合に、中心部以外に交点CPがないので、中心部の交点を相関のない交点として判別する。
【0106】
類似度補正部2421は、図13(c)に示すように登録画像AIMのパターンPT12と、照合画像RIMのパターンPT22との相関パターンPT32の場合に、中心部以外に交点CPがあるので、中心部の交点CPを相関のある交点として判別する。
【0107】
類似度補正部2421は、画像全体について求めた相関のある交点数を、全交点数で割った値を有効率effとし、数式(28)に示すように、類似度生成部242が生成した類似度Simに乗算して補正処理を行い、補正した類似度Sim’を生成し、信号S2421として出力する。
【0108】
【数28】
【0109】
例えば、図12に示したような場合には、有効率effが0であり、その結果補正した類似度Sim’は0である。
【0110】
図14は、図11に示した画像照合装置1aの動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1の動作を図14を参照しながら、第1実施形態との相違点のみ説明する。ステップST1〜ステップST20の処理は第1実施形態と同様であり説明を省略する。
【0111】
積算部243は、積算のための変数を初期化する(ST21)。例えば変数iを0、積算値Sを0に初期化する。
類似度生成部242では、各候補(座標)Piについて、相関画像データの中心からのずれ量をそれぞれ検出することで、登録画像AIM,照合画像RIMの位置合わせを行った後に類似度Sim(i)を算出し信号S242として、類似度補正部2421に出力する(ST22)。
【0112】
ステップST221において、類似度補正部2421は、類似度生成部242から出力された類似度Simとしての補正信号S242に基づいて、画像全体について求めた相関のある交点数を、全交点数で割った値を有効率effとし、数式(28)に示すように、類似度生成部242が生成した類似度Simに乗算して補正処理を行い、補正した類似度Sim’を生成し、信号S2421として、照合部244および積算部243に出力する。
【0113】
ステップST23において、照合部244では、類似度Sim’(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim’(i)が第1の閾値より小さい場合には、積算部243では、類似度Sim’(i)を積算し、詳細には数式S=S+Sim’(i)により積算し照合部244に出力する(ST24)。
【0114】
ステップST25において、照合部244では、積算値Sと予め設定した第2の閾値th2とを比較し、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST26)、変数iがN−1と一致していない場合には、変数iに1加算し(ST27)、ステップST22の処理に戻る。ステップST25において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST28)。
【0115】
一方、ステップST23の比較処理において、照合部244では、類似度Sim’(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST25の比較処理において、照合部244では、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST29)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部16が行う。
【0116】
以上、説明したように、本実施形態では、類似度生成部242が、登録画像AIMと照合画像RIMとの2次元上の異なる複数の位置関係それぞれにおいて、登録画像AIMと照合画像RIMの画素毎に比較して生成した類似度Simを、当該画素の周囲の画像特性に応じて補正し類似度Sim’を生成する類似度補正部2421を設け、照合部244は、補正した類似度Sim’に基づいて照合を行うので、第1実施形態に比べて、より高精度の照合処理を行うことができる。
【0117】
また、角度ずれの大きい、つまり相関の小さい線分同士の交点がある場合であっても、補正処理により類似度を低くするので、その結果、相関の大きい画像同士から求めた相関と、小さい画像同士から求めた相関度との差異が大きくなり、より高精度の照合処理を行うことができる。
【0118】
なお、本発明は本実施の形態に限られるものではなく、任意好適な種々の改変が可能である。
例えば、本実施形態では、類似度生成部は、数式(27)により類似度を算出したが、この形態に限られるものではない。例えば類似度生成部は、線形状のパターンの相関に適した類似度を算出する処理を行えればよい。
【0119】
本実施形態では、フーリエ変換処理、対数変換処理、および対数−局座標変換を行い、フーリエ・メリン空間上での平行移動量を算出することにより、倍率情報および回転角度情報を生成したが、この形態に限られるものではない。例えば、倍率情報および回転角度情報が検出可能な空間に、座標変換を行ってもよい。
【0120】
また、第1の閾値th1と、第2の閾値th2を固定値にしたが、この形態に限られるものではない。例えば閾値それぞれを、画像パターンにより可変にすることで、より高精度の照合を行うことができる。
【0121】
【発明の効果】
本発明によれば、画像間の照合を高精度に行うことができる画像照合装置、画像照合方法、およびプログラムを提供することができる。
【図面の簡単な説明】
【図1】図1は、本発明に係る画像照合装置の第1実施形態の機能ブロック図である。
【図2】図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。
【図3】図3は、図2に示したフーリエ・メリン変換部の動作を説明するための図である。
【図4】図4は、自己相関法と位相限定相関法の相違点を説明するための図である。
【図5】図5は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
【図6】図6は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
【図7】図7は、位相限定相関部23が出力する相関画像データを説明するための図である。(a)は登録画像AIM、(b)は照合画像RIM、(c)は相関画像データの一具体例を示す図である。
【図8】図8は図7(c)に示した相関画像データを説明するための図である。
【図9】図9は、図1に示した候補特定部241の候補特定処理を説明するための図である。
【図10】図10は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。
【図11】図11は、本発明に係る画像照合装置の第2実施形態のソフトウェア的な機能ブロック図である。
【図12】図12は、図1に示した類似度補正部2421の機能を説明するための図である。
【図13】図13は、図1に示した類似度補正部の機能を説明するための図である。
【図14】図14は、図11に示した画像照合装置1aの動作を説明するためのフローチャートである。
【符号の説明】
1,1a…画像照合装置、11…画像入力部、12…メモリ、13…FFT処理部、14…座標変換部、15…CPU、16…動作処理部、21…倍率情報−回転情報部、22…補正部、23…平行移動部、24…判別部、211…フーリエ・メリン変換部、212…位相限定相関部、213…倍率情報−回転情報生成部、232…合成部、233…位相抽出部、234…逆フーリエ変換部、241…候補特定部、242…類似度生成部、243…積算部、244…照合部、2120,2121…フーリエ変換部、2122…合成部、2123…位相抽出部、2124…逆フーリエ変換部、2311,2312…フーリエ変換部、2421…類似度補正部、21111,21112…フーリエ変換部、21121,21122…対数変換部、21131,21132…対数−極座標変換部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image matching device, an image matching method, and a program for performing matching based on image information such as a fingerprint image, a still image, and a moving image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, various pattern matching devices have been known as a method of performing matching based on image information. For example, the pattern matching device compares a registered image and a matching image to be compared only in a predetermined positional relationship, calculates a correlation value, and performs matching between the registered image and the matching image based on the correlation value.
[0003]
[Problems to be solved by the invention]
However, in the conventional pattern matching device, depending on the type of the pattern of the image, even if the images are almost the same, the correlation value may not be high, and matching may not be performed with high accuracy by using only the peak. Improvement is desired.
[0004]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image matching device, an image matching method, and a program that can perform matching between images with high accuracy.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a first aspect of the present invention provides a method according to the first aspect, wherein the first image and the second image are provided in a plurality of different two-dimensional positional relationships between a first image and a second image. A similarity generating unit that generates a similarity by comparing the two images, an integrating unit that integrates the similarity generated by the similarity generating unit, and a similarity that is integrated by the integrating unit. A matching unit that matches the first image with the second image.
[0006]
According to the first aspect of the present invention, in the similarity generation means, in each of a plurality of different two-dimensional positional relationships between the first image and the second image, the first image and the second A similarity is generated by comparing with an image.
The matching unit compares the first image and the second image based on the integrating unit that integrates the similarity generated by the similarity generating unit and the similarity that is integrated by the integrating unit.
[0007]
Furthermore, in order to achieve the above object, a second aspect of the present invention provides a method for controlling the first image and the second image in different two-dimensional positional relationships between a first image and a second image. A first step of comparing the second image to generate a similarity, a second step of integrating the similarity generated in the first step, and the second step of integrating in the second step. A third step of collating the first image with the second image based on the similarity.
[0008]
Further, in order to achieve the above object, a third aspect of the present invention is a program for causing an information processing apparatus to execute, the two-dimensionally different program between a first image and a second image. A first procedure of comparing the first image and the second image to generate a similarity in each of the plurality of positional relationships, and a second procedure of integrating the similarity generated in the first procedure And a third procedure of collating the first image with the second image based on the similarity calculated in the second procedure.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
The image matching device according to the first embodiment of the present invention performs a rotation angle correction process or an enlargement ratio correction process between a registered image and a matching image, and performs a plurality of different two-dimensional positional relationships with the registered image. A similarity is generated by comparing with the collation image, the similarity is integrated, and collation is performed based on the integrated similarity.
This will be described below with reference to the drawings.
[0010]
FIG. 1 is a functional block diagram of a first embodiment of the image matching device according to the present invention.
The
The
[0011]
The
The
The program P includes, for example, procedures related to the correlation processing, the correction processing, the similarity generation processing, the integration processing, the collation processing, and the like according to the present invention that are executed by the
The
[0012]
For example, the
The operation processing unit 16 performs a predetermined process such as releasing the electronic key, for example, when the two images match, based on the result of the collation process of the
[0013]
The
In addition, the
[0014]
FIG. 2 is a software functional block diagram of the image matching apparatus shown in FIG. The
As shown in FIG. 2, the
The magnification information /
[0015]
The magnification information-
The magnification information /
The magnification information includes information indicating the enlargement / reduction ratio of the registered image AIM and the collation image RIM. The rotation information includes information indicating the rotation angles of the registered image AIM and the collation image RIM.
[0016]
Specifically, for example, the magnification information-
The Fourier-
[0017]
More specifically, the Fourier-
[0018]
For example, when the registered image AIM is an N × N image and the registered image AIM is f1 (m, n), the
[0019]
The Fourier image data F1 (m, n) is composed of an amplitude spectrum A (u, v) and a phase spectrum Θ (u, v) as shown in Expression (1), and the Fourier image data F2 (m, n) is , (2), the amplitude spectrum B (u, v) and the phase spectrum Φ (u, v).
[0020]
(Equation 1)
[0021]
(Equation 2)
[0022]
The logarithmic converters 2111 and 11212 perform logarithmic processing based on the amplitude components of the Fourier image data F1 (m, n) and F2 (m, n) generated by the
[0023]
Specifically, the logarithmic conversion unit 21121 performs logarithmic processing based on the amplitude component A (u, v) as shown in Expression (3), generates A ′ (u, v), and outputs it to the logarithmic-polar coordinate
[0024]
[Equation 3]
[0025]
(Equation 4)
[0026]
The logarithmic-polar coordinate
Generally, for example, when the point (x, y) is defined as shown in Expressions (5) and (6), r = e μ In the case of, μ = log (r), and there is a unique (log (r), Θ) corresponding to an arbitrary point (x, y). Due to this property, the logarithmic-polar coordinate
[0027]
(Equation 5)
[0028]
(Equation 6)
[0029]
Specifically, the logarithm-polar coordinate
[0030]
(Equation 7)
[0031]
(Equation 8)
[0032]
The logarithm-polar coordinate
[0033]
(Equation 9)
[0034]
(Equation 10)
[0035]
FIG. 3 is a diagram for explaining the operation of the Fourier-
The image f1 (m, n) and the image f2 (m, n) include, for example, rectangular regions W1 and W2 having different predetermined angles with respect to the x and y axes.
In the Fourier-
[0036]
Similarly, the image f2 (m, n) is Fourier-transformed by the
[0037]
As described above, the images f1 (m, n) and f2 (m, n) are transformed from Cartesian coordinates to a log-polar coordinate system (also called Fourier-Mellin space) by Fourier transform and log-polar coordinate transform. .
In the Fourier-Mellin space, the components move along the log-r axis in accordance with the scaling of the image, and move along the θ axis in accordance with the rotation angle of the image.
By using this property, the scaling (magnification information) and the rotation angle of the images f1 (m, n) and f2 (m, n) are determined by the amount of movement along the log-r axis on the Fourier-Mellin space, and θ It can be determined based on the amount of movement along the axis.
[0038]
The phase-
The phase-
[0039]
The
[0040]
[Equation 11]
[0041]
(Equation 12)
[0042]
The combining
[0043]
The
For example, the
[0044]
The extraction of the phase information is not limited to the above-described embodiment. For example, after extracting the phase information based on the outputs of the
[0045]
(Equation 13)
[0046]
[Equation 14]
[0047]
(Equation 15)
[0048]
The inverse
More specifically, the inverse
[0049]
(Equation 16)
[0050]
The magnification information-rotation
[0051]
The
Therefore, only the translation component remains as a difference between the registered image AIM and the corrected collation image RIM.
[0052]
The phase
Specifically, the phase-
[0053]
The
[0054]
The
The
[0055]
The combining
The
The inverse
[0056]
A detailed description will be given of the process of detecting the amount of translation in the above-described phase only correlation method.
For example, each of the original image f1 (m, n), the original image f2 (m, n), and the image f3 (m, n) = f2 (m + α, n + β) obtained by translating the image f2 (m, n) is Fourier-transformed. The processing is performed to generate Fourier coefficients F1 (u, v), F2 (u, v), F3 (u, v) as shown in equations (17) to (19).
[0057]
[Equation 17]
[0058]
(Equation 18)
[0059]
[Equation 19]
[0060]
Based on the Fourier coefficients F1 (u, v) to F3 (u, v), as shown in equations (20) to (22), phase images F′1 (u, v) to F′3 including only phase information Generate (u, v).
[0061]
(Equation 20)
[0062]
(Equation 21)
[0063]
(Equation 22)
[0064]
The correlation Z12 (u, v) of the phase image F′1 (u, v) and the phase image F′2 (u, v) is calculated as shown in Expression (23), and the phase image F ′ is calculated. The correlation Z13 (u, v) of the phase image of the correlation between 1 (u, v) and the phase image F′3 (u, v) is calculated as shown in Expression (24).
[0065]
[Equation 23]
[0066]
(Equation 24)
[0067]
The correlation intensity image G12 (r, s) of the correlation Z12 (u, v) and the correlation intensity image G13 (r, s) of the correlation Z13 (u, v) are calculated as shown in Expressions (25) and (26). I do.
[0068]
(Equation 25)
[0069]
(Equation 26)
[0070]
As shown in Expressions (25) and (26), when the image f3 (m, n) is shifted by (+ α, + β) compared to the image 2 (m, n), the phase-only correlation method In the strong correlation image, a peak of the correlation strength is generated at a position shifted by (−α, −β). The amount of parallel movement between the two images can be obtained from the position of the correlation strength position.
Also, by using this phase-only correlation method on the above-described Fourier-Mellin space, the amount of parallel movement on the Fourier-Mellin space can be detected. This translation amount corresponds to the magnification information and the rotation angle information in the real space as described above.
[0071]
FIG. 4 is a diagram for explaining a difference between the autocorrelation method and the phase-only correlation method.
In the autocorrelation method, for example, as shown in FIGS. 4A and 4B, when an image IM1 and an image IM2 which is the same as the image IM1 are subjected to Fourier transform to generate an autocorrelation function SG1, FIG. Thus, a peak having a high correlation intensity and a correlation intensity distribution having a small correlation intensity around the peak are obtained. In FIG. 4C, the vertical axis indicates the correlation strength.
[0072]
On the other hand, in the above-described phase-only correlation method, as shown in FIGS. 4D and 4E, the image IM1 and the image IM2 which is the same as the image IM1 are subjected to Fourier transform, and only the phase information is correlated. As shown in ()), a correlation intensity distribution having only a sharp peak with a high correlation intensity is obtained. As described above, in the phase only method, clear information on the correlation can be obtained as compared with the autocorrelation method. In FIG. 4F, the vertical axis (z-axis) indicates the correlation strength, and the x-axis and the y-axis indicate the shift amount.
[0073]
FIG. 5 is a diagram for explaining a correlation intensity distribution in the case where there is a translation shift between two images in the phase only correlation method.
For example, the correlation intensity distribution of the image IM1 as shown in FIGS. 5A and 5B and the image IM3 shifted by several pixels from the image IM1 in the phase only method is shown in FIG. 5C, for example. As described above, sharp peaks having a high correlation intensity are distributed at positions shifted from the peak positions in the correlation image data shown in FIG. 4F by a distance corresponding to the amount of parallel movement. However, the peak intensity shown in FIG. 5C is smaller than the peak intensity shown in FIG. This is because the matching pixel area of the images IM1 and IM3 is smaller than the images IM1 and IM2.
[0074]
FIG. 6 is a diagram for explaining a correlation intensity distribution in a case where there is a rotational shift between two images in the phase only method.
As shown in FIG. 6, for example, the correlation intensity distribution of the image IM1 as shown in FIGS. 6A and 6B and the image 4 rotated several degrees from the image IM1 has a weak correlation intensity. A correlation strength distribution is obtained. When the phase-only correlation method is simply used, it is difficult to detect a correlation due to a rotational shift.
[0075]
Therefore, in the
The parallel displacement between the corrected collation image RIM and the registered image AIM is detected by the phase-only correlation method, and at the same time, collation between the images is performed based on the correlation peak.
[0076]
FIG. 7 is a diagram for explaining the correlation image data output by the phase-
[0077]
When the registered image AIM and the collation image RIM include, for example, binarized and linear patterns such as handwritten characters and blood vessel patterns, for example, the registered image AIM and the collation image RIM as shown in FIGS. In this case, the phase-
[0078]
In FIG. 7C, the z-axis direction indicates the correlation peak intensity in the correlation image data, and the correlation peak intensity corresponds to the degree of correlation between the registered image AIM and the collation image RIM. As shown in FIGS. 7C and 8, the correlation peak position in the x-axis direction and the y-axis direction is such that, for example, the amount of deviation from the image center corresponds to the amount of translation between the registered image AIM and the collation image RIM. .
[0079]
The
For example, as illustrated in FIG. 1, the matching
The
[0080]
The
[0081]
FIG. 9 is a diagram for explaining the candidate specifying process of the
For example, in the case of a registered image AIM and a collation image RIM that include a binarized and linear pattern as shown in FIGS. 7A and 7B, a correlation peak intensity (also referred to as a correlation intensity) even between images having a large correlation. Has a small value as shown in FIG.
As shown in FIG. 9, for example, as shown in FIG. 9, the
[0082]
The
[0083]
More specifically, the
[0084]
[Equation 27]
[0085]
The
[0086]
The
[0087]
Further, the
In addition, the
[0088]
FIG. 10 is a flowchart for explaining the operation of the
For example, the registered image AIM and the collation image RIM are input by the
Here, in order to obtain the magnification (enlargement / reduction ratio) and rotation angle information of the collation image RIM with respect to the registered image AIM, the registered image AIM is read from the memory 12 (ST2), and the Fourier of the magnification information-
The amplitude component of the Fourier image data S21111 is subjected to logarithmic processing by the logarithmic converter 21121, and is converted to a logarithmic-polar coordinate system by the logarithmic-polar coordinate converter 21131 (ST5).
[0089]
The collation image RIM is read from the memory 12 (ST6), similarly Fourier transformed by the Fourier transform unit 21112 (ST7), and the amplitude component of the Fourier image data S21112 is subjected to logarithmic processing by the
[0090]
Image signals (also referred to as pattern data) SA211 and SR211 obtained as a result of performing the Fourier-Mellin transform on the registered image AIM and the collation image RIM described above are Fourier-transformed by the
[0091]
The
[0092]
The corrected image RIM subjected to the correction processing is Fourier-transformed by the
[0093]
At this time, the registered image AIM may be Fourier transformed by the
The amplitude information in the combined data S232 is removed by the phase extraction unit 233 (ST18), the remaining phase information is input to the inverse
[0094]
On the basis of the correlation image data S23 generated by the above-described processing, the
[0095]
The integrating
In the
[0096]
In step ST23, the
In step ST25, the collating
[0097]
On the other hand, when the similarity Sim (i) is equal to or greater than the first threshold in the comparison process of step ST23, the
[0098]
As described above, the two-dimensional difference between the registered image AIM and the collation image RIM differs from the
When the similarity Sim is larger than the first threshold th1, it is determined that they match, so that the matching process can be performed at high speed.
[0099]
Further, a magnification information-
[0100]
FIG. 11 is a software functional block diagram of the second embodiment of the image matching apparatus according to the present invention.
The hardware functional blocks of the image matching device 1a according to the present embodiment are substantially the same as those of the first embodiment, and thus description thereof is omitted.
The
For example, as illustrated in FIG. 11, the
A description of the same functions as in the first embodiment will be omitted, and only different points will be described.
[0101]
The
The integrating
[0102]
FIG. 12 is a diagram for explaining the function of the
[0103]
For example, the similarity Sim generated by the
[0104]
For example, as illustrated in FIG. 13A, the
The
[0105]
For example, as shown in FIG. 13A, the
As shown in FIG. 13B, the
[0106]
As shown in FIG. 13 (c), the
[0107]
The
[0108]
[Equation 28]
[0109]
For example, in the case as shown in FIG. 12, the effective rate eff is 0, and as a result, the corrected similarity Sim ′ is 0.
[0110]
FIG. 14 is a flowchart for explaining the operation of the image matching apparatus 1a shown in FIG. The operation of the
[0111]
The integrating
In the
[0112]
In step ST221, based on the correction signal S242 as the similarity Sim output from the
[0113]
In step ST23, the
[0114]
In step ST25, the collating
[0115]
On the other hand, in the comparison process of step ST23, the
[0116]
As described above, in the present embodiment, in each of the plurality of two-dimensionally different positional relationships between the registered image AIM and the collation image RIM, the
[0117]
Further, even when there is an intersection between line segments having a large angle shift, that is, a line segment having a small correlation, the similarity is reduced by the correction processing. As a result, the correlation obtained from the images having a large correlation and the small image The difference from the degree of correlation obtained from each other becomes large, and a more accurate matching process can be performed.
[0118]
Note that the present invention is not limited to the present embodiment, and various suitable modifications are possible.
For example, in the present embodiment, the similarity generation unit calculates the similarity using Expression (27), but the present invention is not limited to this. For example, the similarity generation unit only needs to be able to perform a process of calculating a similarity suitable for correlation between linear patterns.
[0119]
In the present embodiment, the magnification information and the rotation angle information are generated by performing a Fourier transform process, a logarithmic transform process, and a logarithmic-to-stationary coordinate transform, and calculating a translation amount in a Fourier-Mellin space. It is not limited to the form. For example, coordinate conversion may be performed on a space in which magnification information and rotation angle information can be detected.
[0120]
Further, the first threshold value th1 and the second threshold value th2 are fixed values, but are not limited to this mode. For example, by making each of the thresholds variable according to the image pattern, more accurate matching can be performed.
[0121]
【The invention's effect】
According to the present invention, it is possible to provide an image matching device, an image matching method, and a program that can perform matching between images with high accuracy.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a first embodiment of an image matching device according to the present invention.
FIG. 2 is a software functional block diagram of the image matching apparatus shown in FIG. 1;
FIG. 3 is a diagram for explaining an operation of the Fourier-Mellin transform unit shown in FIG. 2;
FIG. 4 is a diagram for explaining a difference between an autocorrelation method and a phase-only correlation method.
FIG. 5 is a diagram for explaining a correlation intensity distribution when there is a translation shift between two images in the phase only correlation method.
FIG. 6 is a diagram for explaining a correlation intensity distribution in a case where there is a rotational shift between two images in the phase only method.
FIG. 7 is a diagram for explaining correlation image data output by a phase-
FIG. 8 is a diagram for explaining the correlation image data shown in FIG. 7 (c).
FIG. 9 is a diagram for explaining a candidate specifying process of a
FIG. 10 is a flowchart for explaining the operation of the
FIG. 11 is a software functional block diagram of a second embodiment of the image matching apparatus according to the present invention.
FIG. 12 is a diagram for explaining a function of a
FIG. 13 is a diagram for explaining a function of a similarity correction unit illustrated in FIG. 1;
FIG. 14 is a flowchart for explaining the operation of the image matching apparatus 1a shown in FIG. 11;
[Explanation of symbols]
1, 1a: Image collating device, 11: Image input unit, 12: Memory, 13: FFT processing unit, 14: Coordinate conversion unit, 15: CPU, 16: Operation processing unit, 21: Magnification information-rotation information unit, 22 ... Correction unit, 23... Parallel translation unit, 24... Discrimination unit, 211... Fourier-Mellin conversion unit, 212... Phase-only correlation unit, 213, magnification information-rotation information generation unit, 232. 234: inverse Fourier transform unit; 241, candidate specifying unit; 242: similarity generating unit; 243: integrating unit; 244: collating unit; 2120, 2121: Fourier transform unit; 2122: combining unit; 2123: phase extracting unit; 2124: inverse Fourier transform unit, 2311, 2312: Fourier transform unit, 2421: similarity correction unit, 21111, 21112: Fourier transform unit, 211211, 1122 ... logarithmic transform unit, 1131,21132 ... the log - polar coordinate conversion unit.
Claims (12)
前記類似度生成手段が生成した前記類似度を積算する積算手段と、
前記積算手段が積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する照合手段と
を有する画像照合装置。Similarity generating means for comparing the first image and the second image to generate a similarity in each of a plurality of different two-dimensional positional relationships between the first image and the second image When,
Integrating means for integrating the similarity generated by the similarity generating means,
An image matching device, comprising: matching means for matching the first image and the second image based on the similarity integrated by the integrating means.
前記相関検出手段が検出した前記相関を基に、前記第1の画像と前記第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定手段と
をさらに有し、
前記類似度生成手段は、前記候補特定手段で特定された前記複数の候補それぞれの位置関係で前記類似度を生成する
請求項1に記載の画像照合装置。Correlation detection means for detecting a correlation between the first image and the second image;
Based on the correlation detected by the correlation detecting means, further comprising candidate specifying means for specifying a plurality of candidates of the two-dimensional positional relationship between the first image and the second image,
The image matching device according to claim 1, wherein the similarity generating unit generates the similarity based on a positional relationship of each of the plurality of candidates specified by the candidate specifying unit.
請求項1に記載の画像照合装置。The similarity generation means compares each pixel of the first image and the second image in each of a plurality of different two-dimensional positional relationships between the first image and the second image. The image matching device according to claim 1, wherein the similarity is generated by performing the following.
請求項3に記載の画像照合装置。The similarity generation unit compares, for each of a plurality of two-dimensionally different positional relationships between the first image and the second image, each pixel of the first image and the second image, 4. The image matching device according to claim 3, wherein the similarity is generated by correcting a result of the comparison according to image characteristics around the pixel.
請求項2に記載の画像照合装置。The method according to claim 2, wherein the correlation detection unit detects the correlation based on a phase component as a result of a rotation angle correction process or a magnification correction process between the first image and the second image, and a Fourier transform process. Image collating device as described in the above.
前記第1の工程で生成した前記類似度を積算する第2の工程と、
前記第2の工程で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の工程と
を有する画像照合方法。A first step of comparing the first image and the second image to generate a similarity in each of a plurality of different two-dimensional positional relationships between the first image and the second image; When,
A second step of integrating the similarity generated in the first step;
A third step of comparing the first image and the second image based on the degree of similarity integrated in the second step.
前記検出工程で検出した前記相関を基に、前記第1の画像と前記第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定工程と
をさらに有し、
前記第1の工程は、前記候補特定工程で特定された前記複数の候補それぞれの位置関係で前記類似度を生成する
請求項6に記載の画像照合方法。A detecting step of detecting a correlation between the first image and the second image before the first step;
A candidate identification step of identifying a plurality of candidates of the two-dimensional positional relationship between the first image and the second image based on the correlation detected in the detection step,
The image matching method according to claim 6, wherein the first step generates the similarity based on a positional relationship of each of the plurality of candidates specified in the candidate specifying step.
請求項6に記載の画像照合方法。In the first step, in each of a plurality of two-dimensionally different positional relationships between the first image and the second image, a comparison is made for each pixel of the first image and the second image. The image matching method according to claim 6, wherein the similarity is generated by using the same.
請求項8に記載の画像照合方法。In the first step, in each of a plurality of different two-dimensional positional relationship between the first image and the second image, by comparing each pixel of the first image and the second image, The image matching method according to claim 8, wherein the similarity is generated by correcting a result of the comparison according to image characteristics around the pixel.
請求項7に記載の画像照合方法。The said detection process detects the said correlation based on the phase component of the result of a rotation angle correction process or a magnification correction process of the said 1st image and the said 2nd image, and a Fourier-transform process. Image matching method.
第1の画像と第2の画像との間の2次元上の異なる複数の位置関係それぞれにおいて、前記第1の画像と前記第2の画像とを比較して類似度を生成する第1の手順と、
前記第1の手順で生成した前記類似度を積算する第2の手順と、
前記第2の手順で積算した前記類似度を基に、前記第1の画像と前記第2の画像とを照合する第3の手順とを実行させる
プログラム。A program to be executed by an information processing device,
A first procedure of comparing the first image and the second image to generate a similarity in each of a plurality of different two-dimensional positional relationships between the first image and the second image When,
A second procedure for integrating the similarity generated in the first procedure,
A program for executing a third procedure of collating the first image with the second image based on the similarity calculated in the second procedure.
前記検出手順で検出した前記相関を基に、前記第1の画像と前記第2の画像との前記2次元上の位置関係の複数の候補を特定する候補特定手順と
をさらに有し、
前記第1の手順は、前記候補特定手順で特定された前記複数の候補それぞれの位置関係で前記類似度を生成する
請求項11に記載のプログラム。A detecting step of detecting a correlation between the first image and the second image before the first step;
Based on the correlation detected in the detection step, further comprising a candidate specification step of specifying a plurality of candidates of the two-dimensional positional relationship between the first image and the second image,
12. The program according to claim 11, wherein the first procedure generates the similarity based on a positional relationship of each of the plurality of candidates specified in the candidate specifying procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003108390A JP4380205B2 (en) | 2003-03-07 | 2003-03-07 | Image collation device and image collation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003108390A JP4380205B2 (en) | 2003-03-07 | 2003-03-07 | Image collation device and image collation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004272859A true JP2004272859A (en) | 2004-09-30 |
JP4380205B2 JP4380205B2 (en) | 2009-12-09 |
Family
ID=33128023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003108390A Expired - Fee Related JP4380205B2 (en) | 2003-03-07 | 2003-03-07 | Image collation device and image collation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4380205B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225337A (en) * | 2013-07-11 | 2013-10-31 | Toshiba Tec Corp | Merchandise code reader and program |
US11748863B2 (en) | 2018-11-30 | 2023-09-05 | Nec Corporation | Image matching apparatus, image matching method, and program |
-
2003
- 2003-03-07 JP JP2003108390A patent/JP4380205B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225337A (en) * | 2013-07-11 | 2013-10-31 | Toshiba Tec Corp | Merchandise code reader and program |
US11748863B2 (en) | 2018-11-30 | 2023-09-05 | Nec Corporation | Image matching apparatus, image matching method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4380205B2 (en) | 2009-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101122944B1 (en) | Image correlation method, image correlation device, and program | |
JP2004240931A (en) | Image collation device, image collation method, and program | |
US7860279B2 (en) | Image matching method, program, and image matching system | |
JP4428067B2 (en) | Image collation apparatus, program, and image collation method | |
JP5031641B2 (en) | Pattern alignment method, verification method, and verification device | |
JP2012256272A (en) | Biological body identifying device and biological body identifying method | |
JP3574301B2 (en) | Pattern matching device | |
JP5045763B2 (en) | Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method | |
JP4161942B2 (en) | Image collation method, image collation apparatus, and program | |
JP4380205B2 (en) | Image collation device and image collation method | |
Kumar et al. | Key-point based copy-move forgery detection in digital images | |
Arun et al. | An automatic feature based registration algorithm for medical images | |
JP4645198B2 (en) | Image collation apparatus, image collation method, and program | |
JP2007179267A (en) | Pattern matching device | |
Teymourzadeh et al. | Smart analytical signature verification for DSP applications | |
KR101035936B1 (en) | Pattern aligning method, verifying method, and verifying device | |
RAO et al. | AN AVERGE BASED ORIENTATION FIELD ESTIMATION METHOD FOR LATENT FINGER PRINT MATCHING. | |
JPH10134195A (en) | Tracking device | |
Su | Locating the position and orientation of an image by the automatic image registration technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090310 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090609 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090901 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090914 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131002 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |