JP4181811B2 - Corresponding point search method of image, corresponding point search device, and corresponding point search program - Google Patents

Corresponding point search method of image, corresponding point search device, and corresponding point search program Download PDF

Info

Publication number
JP4181811B2
JP4181811B2 JP2002212389A JP2002212389A JP4181811B2 JP 4181811 B2 JP4181811 B2 JP 4181811B2 JP 2002212389 A JP2002212389 A JP 2002212389A JP 2002212389 A JP2002212389 A JP 2002212389A JP 4181811 B2 JP4181811 B2 JP 4181811B2
Authority
JP
Japan
Prior art keywords
image
similarity
images
input
corresponding point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002212389A
Other languages
Japanese (ja)
Other versions
JP2004054682A (en
Inventor
弘之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2002212389A priority Critical patent/JP4181811B2/en
Publication of JP2004054682A publication Critical patent/JP2004054682A/en
Application granted granted Critical
Publication of JP4181811B2 publication Critical patent/JP4181811B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索方法、対応点探索装置および対応点探索プログラムに関し、特に、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる画像の対応点探索方法、対応点探索装置および対応点探索プログラムに関する。
【0002】
【従来の技術】
従来、スキャナなどの画像入力装置から入力された入力画像をあらかじめ登録した参照画像とを照合する際に、両画像の対応点を探索して画像間の対応付けをおこなう技術が知られている。
【0003】
たとえば、「T.Poggio,V.Torre and C.Koch,”Computational vision and regularization theory”,NATURE Vol.317,pp. 314-319,1985」(従来技術1)には、設定したエネルギー関数を変分法の枠組みにより最小化する標準正則化理論を適用した技術が開示されている。この従来技術1が採用する標準正則化理論は、局所的な情報のみを使った繰り返し計算によりエネルギーを最小化することによって対応点を計算するものであるので、並列分散処理をおこなうことができ、人間の脳情報処理に近い処理を実現できる可能性がある。
【0004】
また、「内田誠一,迫江博昭,”動的計画法に基づく単調連続2次元ワープ法の検討”,信学論(D-II) Vol. J81-D-II no. 6,pp.1251-1258,June 1998」(従来技術2)には、DP(Dynamic Programming)を用いて効率的に最適解を探索する2次元DPワープ法を採用した技術が開示されている。この従来技術2によれば、最適化問題を効率的に計算することができる。
【0005】
ところが、上記従来技術1のものは、局所的な情報のみを使った繰り返し計算によってエネルギーを最小化して対応点を計算するため、初期値の影響が大きくなるという問題や、局所解(ローカルミニマム)に陥り易いことから最適な対応付け結果を得られ難いという問題がある。また、従来技術2のものは、DPによって効率よく最適解を探索できるものの、その計算量が膨大なものになるという問題がある。具体的には、最適解を得るためには画像サイズの指数オーダーの計算時間が必要となる。
【0006】
これらのことから、本願特許出願人は、特願2002−056661号(従来技術3)において、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速に得ることができる画像の対応点探索装置、対応点探索方法およびその方法をコンピュータに実行させるプログラムを提案した。
【0007】
【発明が解決しようとする課題】
しかしながら、この従来技術3では、複数の類似度画像を作成した後に、j方向に累積加算をおこなった後に、−j方向に累積加算をおこない、その後i方向に累積加算をおこない、さらに−i方向に累積加算する一連の処理を繰り返すこととしていたので、これらの処理を並列化することができず、処理を迅速化する上での制約がある。
【0008】
また、この従来技術3では、どの方向から累積加算するかによって結果が異なり、具体的には、最初に累積加算をおこなうj方向の影響が大きくなりがちとなるという問題もある。
【0009】
この発明は、上述した従来技術による問題点を解消するためになされたものであり、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる画像の対応点探索方法、対応点探索装置および対応点探索プログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するため、請求項1の発明に係る画像の対応点探索方法は、入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索方法であって、前記参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように前記入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成する類似度画像生成工程と、前記類似度画像生成工程により生成された類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を前記注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返す加算工程と、前記加算工程により累積加算処理された各類似度画像の画素値が最大となる位置を前記参照画像に対応する入力画像の対応点として特定する対応点特定工程とを含んだことを特徴とする。
【0011】
また、請求項2の発明に係る画像の対応点探索方法は、請求項1の発明において、前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像に隣接する複数の隣接類似度画像の画素値を前記注目類似度画像の画素値に加算することを特徴とする。
【0012】
また、請求項3の発明に係る画像の対応点探索方法は、請求項1の発明において、前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像に隣接する複数の隣接類似度画像および各隣接類似度画像にさらに隣接する複数の近傍類似度画像の画素値を前記注目類似度画像の画素値に加算することを特徴とする。
【0013】
また、請求項4の発明に係る画像の対応点探索方法は、請求項1、2または3の発明において、前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像の横方向(j方向)、該横方向の逆方向(−j方向)、縦方向(i方向)、該縦方向の逆方向(−i方向)にそれぞれ隣接する4つの類似度画像を加算対象としたことを特徴とする。
【0014】
また、請求項5の発明に係る画像の対応点探索方法は、請求項1、2または3の発明において、前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像の横方向(j方向)、該横方向の逆方向(−j方向)、縦方向(i方向)、該縦方向の逆方向(−i方向)並びに各斜め方向にそれぞれ隣接する8つの類似度画像を加算対象としたことを特徴とする。
【0015】
また、請求項6の発明に係る画像の対応点探索方法は、請求項1〜5のいずれか一つの発明において、前記加算工程は、前記隣接類似度画像または近傍類似度画像を形成する各画素の画素値を前記注目類似度画像の画素値に加算する際に、前記隣接類似度画像または近傍類似度画像の注目画素の周辺画素のうちの最大値を持つ画素の画素値を該注目画素に対応する前記注目類似度画像の画素の画素値に加算することを特徴とする。
【0016】
また、請求項7の発明に係る画像の対応点探索装置は、入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索装置であって、前記参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように前記入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成する類似度画像生成手段と、前記類似度画像生成手段により生成された類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を前記注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返す加算手段と、前記加算手段により累積加算処理された各類似度画像の画素値が最大となる位置を前記参照画像に対応する入力画像の対応点として特定する対応点特定手段とを備えたことを特徴とする。
【0017】
また、請求項8の発明に係る画像の対応点探索プログラムは、入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索プログラムであって、前記参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように前記入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成する類似度画像生成手順と、前記類似度画像生成手順により生成された類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を前記注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返す加算手順と、前記加算手順により累積加算処理された各類似度画像の画素値が最大となる位置を前記参照画像に対応する入力画像の対応点として特定する対応点特定手順とをコンピュータに実行させることを特徴とする。
【0018】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る画像の対応点探索方法、対応点探索装置および対応点探索プログラムの実施の形態を詳細に説明する。
【0019】
図1は、本実施の形態で用いる対応点探索装置の構成を示す機能ブロック図である。同図に示す対応点探索装置1は、(1)入力画像を分割した入力部分画像と参照画像を分割した参照部分画像との間の類似度を示す類似度画像を作成する類似度画像作成段階と、(2)複数の類似度画像を加算した結果に基づいて最適な対応点を決定する対応点決定段階とからなる処理により画像間の対応点を探索する。
【0020】
具体的には、(1)類似度画像作成段階では、たとえば7×7画素のサイズからなる参照部分画像を21×21画素のサイズからなる入力部分画像内を移動させつつ順次相関値を求め、この相関値を画素値として持つ類似度画像を作成する。このため、この類似度画像は、参照部分画像上の中心点が入力部分画像上の点にどの程度類似しているかを示すことになる。
【0021】
次に、(2)対応点決定段階では、複数の類似度画像のうちの一つに注目した場合に、この注目した類似度画像(以下「注目類似度画像」と言う)の画素の画素値に対して周辺の類似度画像の画素の画素値を加算し、その加算結果を用いて各類似度画像を更新し、各類似度画像を形成する画素のうち最大の画素値を持つ画素の位置を求め、この位置を入力部分画像上での対応点として決定する。
【0022】
具体的には、注目類似度画像に隣接する複数の類似度画像(以下「隣接類似度画像」と言う)を形成する注目画素の近傍画素のうちの最大の画素値をそれぞれ隣接類似度画像ごとに求め、求めた各画素値を注目類似度画像の注目画素の画素値に加算する処理をおこなう。たとえば、注目類似度画像のj方向に隣接する類似度画像の画素値(注目画素の近傍画素の最大値)と、−j方向に隣接する類似度画像の画素値と、i方向に隣接する類似度画像の画素値と、−i方向に隣接する類似度画像の画素値とを注目類似度画像の注目画素の画素値に加算する。
【0023】
このように、この対応点探索装置1によれば、累積加算を繰り返す最適化の微調整により従来よりも対応付けの精度が高くなり、さらに並列分散処理が可能になるのでハードウエア化が容易となる。
【0024】
特に、この対応点探索装置1では、j方向、−j方向、i方向および−i方向に隣接する隣接類似度画像の画素値を注目類似度画像の注目画素の画素値に加算する処理を注目類似度画像を変えつつ独立しておこなうこととしているので、並列処理化をさらに進めることができる。
【0025】
次に、図1に示した対応点探索装置1の構成について説明する。なお、ここでは参照画像、入力画像の順に画像を入力する場合を示すこととする。図1に示すように、この対応点探索装置1は、画像入力部10と、分割処理部11と、参照部分画像一時記憶部12と、類似度画像作成部13と、加算処理部14と、対応点決定部15とからなる。
【0026】
画像入力部10は、縦横のサイズI,Jからなる参照画像I0(i,j)および入力画像I1(i,j)(0≦i≦I−1,0≦j≦J−1)を入力する入力部である。具体的には、光学的に原稿を読み取って画像を取得するスキャナや、ネットワークから画像を取得するインターフェース部や、二次記憶装置から画像を読み出す読み出し部が該当する。ここで、この入力画像とは、対応点の探索対象となる画像であって、歪みや変形を伴うものであっても良い。これに対して、参照画像とは、入力画像の比較の対象となる画像であり、歪みなどを伴わないものであることが望ましい。
【0027】
図2(a)には参照画像21を示しており、同図(b)には入力画像22を示している。これらの参照画像21および入力画像22は、いずれもアルファベット「a」の文字画像であり、32×32画素からなる。
【0028】
分割処理部11は、画像入力部10により入力された入力画像および参照画像を入力部分画像および参照部分画像にそれぞれ分割する処理部である。ただし、入力画像の分割手順と参照画像の分割手順はそれぞれ異なる。
【0029】
参照画像を分割する場合には、参照画像上で縦方向にM個、横方向にN個サンプリングした点(pm,qn)(0≦m≦M−1,0≦n≦N−1)を中心とした参照部分画像を作成する。図3は、図2(a)に示した参照画像21の分割結果の一例を示す図であり、同図に示すように、ここでは32×32画素の参照画像21を7×7画素からなる25個の参照部分画像に分割している。具体的には、pm=round(I/M)、qn=round(J/N)としている。ただし、round()は四捨五入を示している。
【0030】
入力画像を分割する場合には、参照画像を分割する場合と異なり、各入力部分画像の一部が重なり合う重複したデータを持つように分割する。図4は、図2(b)に示した入力画像22の分割結果の一例を示す図であり、同図に示すように、ここでは32×32画素の入力画像22を21×21画素からなる25個の入力部分画像に分割している。
【0031】
参照部分画像一時記憶部12は、分割処理部11で分割した各参照部分画像を一時記憶する記憶部であり、類似度画像作成部13が類似度画像を作成する際に該当する参照部分画像が取り出される。
【0032】
類似度画像作成部13は、入力部分画像と参照部分画像の間の変形を考慮した類似度を算定して、該類似度を画素値として持つ類似度画像Cm,n(u,v)(0≦m≦M−1,0≦n≦N−1,0≦u≦U−1,0≦v≦V−1)を作成する処理部である。ただし、U,Vはそれぞれ類似度画像の縦横のサイズであるものとする。この類似度として正規化相関係数を用いることができる。
【0033】
図5は、参照部分画像と入力部分画像から類似度画像を作成する概念を説明するための説明図である。なお、ここでは図3および図4の2行2列に位置する入力部分画像と参照部分画像を用いることとする。
【0034】
同図に示す入力部分画像51と参照部分画像52の類似度を求める場合には、参照部分画像52の中心画素を入力部分画像51の左上部の画素に対応づけて正規化相関係数を計算し、その計算結果を類似度画像53の左上部の画素の画素値とする。その後、参照部分画像52を右にずらし、同様の処理をおこなう。上記処理を参照部分画像52をずらしながら入力部分画像51の全画素についておこなうことにより、類似度画像53が求められる。
【0035】
かかる類似度画像の作成処理を各入力部分画像ごとにおこなうと、図6に示すような複数の類似度画像が得られる。なお、参照部分画像の全ての画素の画素値が一定値である場合には、正規化相関係数の分母がゼロとなるため、この場合の類似度画像の画素値もゼロとなる。
【0036】
加算処理部14は、図7に示すように、注目類似度画像Cm,n(u,v)のj方向に隣接する隣接類似度画像Cm,n+1(u,v)、−j方向に隣接する隣接類似度画像Cm,n-1(u,v)、i方向に隣接する隣接類似度画像Cm+1,n(u,v)、−i方向に隣接する隣接類似度画像Cm-1,n(u,v)の画素値を注目類似度画像Cm,n(u,v)の注目画素の画素値に加える。
【0037】
具体的には、

Figure 0004181811
を算定する。ただし、Max()は最大値を示し、αは定数であり、tは繰り返し回数であり、0≦u≦U−1、0≦v≦V−1、0≦m≦M−1、0≦n≦N−1、u−1≦p≦u+1、v−1≦q≦v+1とする。
【0038】
すなわち、図7に示した繰り返し回数t+1での注目類似度画像Cm,n(u,v)の注目画素Pの画素値を求める場合には、繰り返し回数tでの注目類似度画像Cm,n(u,v)の注目画素の画素値に、上下左右に隣接する隣接類似度画像の画素P1、P2、P3、P4の周辺画素のうちの最大値をそれぞれα倍して加算する。このように、ある方向への累積加算を繰り返すのではなく、繰り返し回数t+1での画素値をそれぞれ独立して算定することにより、処理の並列化を図ることができる。
【0039】
対応点決定部15は、加算処理部14と連携しながら加算後の類似度画像に基づいて対応点を決定する処理部である。具体的には、まず各画素の加算処理をおこなったならば、各類似度画像の最大値の位置を検出し、それらの位置と前回の累積加算処理時における最大値の位置との変化が所定の範囲内でなければ累積加算処理をフィードバックして繰り返し、所定の範囲内となった時点で繰り返しを終了し、そのときの各類似度画像の最大値の位置を対応点として決定する。
【0040】
たとえば、累積加算処理の繰り返しによって図8に示す各類似度画像が得られた場合には、各類似度画像の最大値の位置の変化分を調べ、その変化分が所定の範囲内となった場合には、図9に示すように各類似度画像の最大値の位置を求めてこれを対応点とする。そして、この対応点に基づいて入力画像の歪みを図示すると図10のようになる。
【0041】
次に、図1に示した対応点検索装置1の処理手順について説明する。なお、上記説明と一部重複するが、図2〜図10を用いて処理の流れを例示しつつ処理手順について説明することとする。
【0042】
図11は、図1に示した対応点検索装置1の処理手順を示すフローチャートである。同図に示すように、この対応点検出装置1が参照画像と入力画像を取得したならば、この参照画像を参照部分画像に分割する(ステップS101)。たとえば、図2(a)に示した32×32画素の参照画像21を図3に示した7×7画素からなる25個の参照部分画像に分割して記憶する。この参照部分画像は、参照したい画像毎に予め記憶しておいてもよいし、また、参照部分画像ではなく、参照画像のみを予め別途記憶しておき、後述する入力画像と参照画像との類似度の計算の際に、記憶された参照画像から参照部分画像に分割してもよい。
【0043】
その後、入力画像を入力部分画像に分割する(ステップS102)。たとえば、図2(b)に示した32×32画素の入力画像22を図4に示した21×21画素からなる25個の入力部分画像に分割する。
【0044】
そして、この参照部分画像と入力部分画像の間の類似度画像を作成する(ステップS103)。たとえば、図5に示すようにして入力部分画像51と参照部分画像52の類似度を画素値とする類似度画像53の作成を各入力部分画像ごとにおこなって、図6に示したような複数の類似度画像を作成する。
【0045】
その後、図7に示したように、繰り返し回数t+1における各類似度画像を求めるために、繰り返し回数tにおける注目類似度画像とj方向、−j方向、i方向、−i方向の4方向に隣接する各隣接類似度画像の所定範囲内の最大画素値を加算する処理を各画素ごとにおこない(ステップS104)、この加算結果を用いて図9に示した類似度画像の最大値の位置を検出する(ステップS105)。
【0046】
そして、最大値の位置の変動が一定値以内であるか否かを調べ(ステップS106)、一定値以内でなければ(ステップS106否定)、ステップS104に移行して繰り返し回数をインクリメントした後に同様の処理を繰り返し、一定値以内であれば(ステップS106肯定)、この位置を対応点として処理を終了する。
【0047】
次に、図1に示した加算処理部14による加算処理手順について説明する。図12は、図1に示した加算処理部14による加算処理手順を示すフローチャートである。
【0048】
同図に示すように、まず変数m、uおよびvを0にするとともに、変数nを1とする初期化をおこなう(ステップS201〜S204)。ここで、この変数mはi方向のインデックスとして用いる変数であり、変数nはj方向のインデックスとして用いる変数である。また、変数u,vは探索範囲を示すi方向およびj方向の変数である。
【0049】
そして、この初期化を終えたならば、
Figure 0004181811
の算定式による計算をおこなう(ステップS205)。
【0050】
その後、変数vをインクリメントし(ステップS206)、この変数vがVよりも小さければ(ステップS207肯定)、ステップS205に移行して加算処理を繰り返す。つまり、探索範囲をj方向にずらすのである。
【0051】
これに対して、変数vがV以上であれば(ステップS207否定)、変数uをインクリメントし(ステップS208)、この変数uがUよりも小さければ(ステップS209肯定)、ステップS204に移行して加算処理を繰り返す。つまり、探索範囲をi方向にずらすことになる。
【0052】
そして、変数uがU以上であれば(ステップS209否定)、ある画素についての計算を終了し、次の画素に移行する。具体的には、変数nをインクリメントして注目画素をj方向に移行させた後に(ステップS210)、この変数nをNと比較し(ステップS211)、この変数nがNよりも小さければ(ステップS211肯定)、ステップS203に移行して加算処理を繰り返す。
【0053】
これに対して、変数nがN以上であれば(ステップS211否定)、変数mをインクリメントして注目画素をi方向に移行させた後に(ステップS212)、この変数mがMよりも小さければ(ステップS213肯定)、ステップS202に移行して加算処理を繰り返し、変数mがM以上であれば(ステップS213否定)、処理を終了する。上記一連の処理をおこなうことにより、各類似度画像の全画素についてj方向の累積加算結果が得られることになる。
【0054】
ところで、上記図12のフローチャートでは、変数u,vのインクリメントをおこないながら最大値を算出していた。別の計算方法として、あらかじめすべてのCt m,n(u,v)に最大値フィルターをかけた最大値フィルター画像Ct' m,n(u,v)を作成しておくこともできる。
【0055】
そこで、かかる最大値フィルターを用いる場合の処理手順を図13および図14を用いて説明する。図13は、図1に示した加算処理部14による最大値フィルターを用いた加算処理手順を示すフローチャートであり、図14は、最大値フィルターの処理手順を示すフローチャートである。
【0056】
図13に示すように、すべてのCt m,n(u,v)に最大値フィルターをかけた最大値フィルター画像Ct' m,n(u,v)を求める(ステップS301)。具体的には、図14に示すように、変数u,vを0に初期化した後に(ステップS401〜S402)、C’m,n(u,v)=Max[Cm,n(p,q)]を計算する(ステップS403)。ただし、u−1≦p≦u+1、v−1≦q≦v+1とする。そして、vをインクリメントして(ステップS404)、この変数vがVよりも小さい場合には(ステップS405肯定)、ステップS403に移行して同様に計算をおこなう。また、変数vがV以上である場合には(ステップS405否定)、変数uをインクリメントして(ステップS406)、この変数uがUよりも小さい場合には(ステップS406肯定)、ステップS402に移行して同様の処理を繰り返し、結果的に最大値を求める。
【0057】
このようにして最大値を求めたならば、変数m=0、n=0、u=0、v=0と初期化し(ステップS302〜S305)、
Figure 0004181811
の算定式による計算をおこなう(ステップS306)。
【0058】
その後、変数vをインクリメントし(ステップS307)、この変数vがVよりも小さければ(ステップS308肯定)、ステップS306に移行して加算処理を繰り返す。つまり、探索範囲をj方向にずらすのである。
【0059】
これに対して、変数vがV以上であれば(ステップS308否定)、変数uをインクリメントし(ステップS309)、この変数uがUよりも小さければ(ステップS310肯定)、ステップS305に移行して加算処理を繰り返す。つまり、探索範囲をi方向にずらすことになる。
【0060】
そして、変数uがU以上であれば(ステップS310否定)、ある画素についての計算を終了し、次の画素に移行する。具体的には、変数nをインクリメントして注目画素をj方向に移行させた後に(ステップS311)、この変数nをNと比較し(ステップS312)、この変数nがNよりも小さければ(ステップS312肯定)、ステップS304に移行して加算処理を繰り返す。
【0061】
これに対して、変数nがN以上であれば(ステップS312否定)、変数mをインクリメントして注目画素をi方向に移行させた後に(ステップS313)、この変数mがMよりも小さければ(ステップS314肯定)、ステップS303に移行して加算処理を繰り返し、変数mがM以上であれば(ステップS314否定)、処理を終了する。
【0062】
上述してきたように、本実施の形態によれば、画像入力部10から参照画像と入力画像をそれぞれ入力し、分割処理部11で参照部分画像および入力部分画像をそれぞれ作成、類似度画像作成部13で参照部分画像と入力部分画像の類似度を求めた類似度画像をそれぞれ作成し、加算処理部14で隣接類似度画像の最大画素値を注目類似度画像の注目画素の画素値に加算する処理を注目画素を変えながら順次おこない、その結果に基づいて対応点決定部15が対応点を決定するよう構成したので、(1)ローカルミニマムに陥るケースを低減することができ、(2)処理の独立化を進めることで効率良く並列分散処理化し高速に処理することができる。
【0063】
なお、本実施の形態では、説明の便宜上、参照画像と入力画像のサイズが同じ場合を示したが、本発明はこれに限定されるものではなく、参照画像と入力画像のサイズを異なる場合に適用することもできる。かかる場合にも同様の処理をおこなうことができる。
【0064】
また、本実施の形態では、加算処理をおこなう際に、注目類似度画像のj方向、−j方向、i方向、−i方向に隣接する隣接類似度画像を対象とした場合を示したが、本発明はこれに限定されるものではなく、図15(a)に示すように斜め方向に隣接する類似度画像を考慮して注目類似度画像Cm,nに8連接する8つの隣接類似度画像Cm-1,n-1,Cm-1,n,Cm-1,n+1,Cm,n-1,Cm,n+1,Cm+1,n-1,Cm+1,n,Cm+1,n+1を用いた場合に適用することもできる。さらに、図15(b)に示すように、注目類似度画像Cm,nに隣接する隣接類似度画像Cm-1,n,Cm,n-1,Cm+1,n,Cm,n+1だけではなく、これらの隣接類似度画像にさらに隣接する類似度画像(近傍類似度画像)Cm-2,n,Cm,n-2,Cm+2,n,Cm,n+2を用いた場合に適用することもできる。
【0065】
また、本実施の形態では、類似度として正規化相関係数を用いた場合を示したが、本発明はこれに限定されるものではなく、ユークリッド距離などの他の指標を類似度として用いることもできる。
【0066】
【発明の効果】
以上説明したように、請求項1の発明によれば、参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成し、生成した類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返し、累積加算処理された各類似度画像の画素値が最大となる位置を参照画像に対応する入力画像の対応点として特定するよう構成したので、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができ、また並列処理化によるさらなる高速化を図りつつ、累積加算順序に起因する悪影響を回避することが可能な画像の対応点探索方法が得られるという効果を奏する。
【0067】
また、請求項2の発明によれば、複数の類似度画像のうちの注目した注目類似度画像に隣接する複数の隣接類似度画像の画素値を注目類似度画像の画素値に加算するよう構成したので、隣接類似度画像を対象とした迅速な加算処理を並列的におこなうことが可能な画像の対応点探索方法が得られるという効果を奏する。
【0068】
また、請求項3の発明によれば、複数の類似度画像のうちの注目した注目類似度画像に隣接する複数の隣接類似度画像および各隣接類似度画像にさらに隣接する複数の近傍類似度画像の画素値を注目類似度画像の画素値に加算するよう構成したので、位置ずれが大きい場合であっても対応することが可能な画像の対応点探索方法が得られるという効果を奏する。
【0069】
また、請求項4の発明によれば、類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像の横方向(j方向)、該横方向の逆方向(−j方向)、縦方向(i方向)、該縦方向の逆方向(−i方向)にそれぞれ隣接する4つの類似度画像を加算対象とするよう構成したので、ハードウエア化が容易な画像の対応点探索方法が得られるという効果を奏する。
【0070】
また、請求項5の発明によれば、複数の類似度画像のうちの注目した注目類似度画像の横方向(j方向)、該横方向の逆方向(−j方向)、縦方向(i方向)、該縦方向の逆方向(−i方向)並びに各斜め方向にそれぞれ隣接する8つの類似度画像を加算対象とするよう構成したので、より大局的な整合性を満たした画像の対応点探索方法が得られるという効果を奏する。
【0071】
また、請求項6の発明によれば、隣接類似度画像または近傍類似度画像を形成する各画素の画素値を注目類似度画像の画素値に加算する際に、隣接類似度画像または近傍類似度画像の注目画素の周辺画素のうちの最大値を持つ画素の画素値を該注目画素に対応する注目類似度画像の画素の画素値に加算するよう構成したので、最大値を効率良く利用して対応点を求めることが可能な画像の対応点探索方法が得られるという効果を奏する。
【0072】
また、請求項7の発明によれば、参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成し、生成した類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返し、累積加算処理された各類似度画像の画素値が最大となる位置を参照画像に対応する入力画像の対応点として特定するよう構成したので、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができ、また並列処理化によるさらなる高速化を図りつつ、累積加算順序に起因する悪影響を回避することが可能な画像の対応点探索装置が得られるという効果を奏する。
【0073】
また、請求項8の発明によれば、参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成し、生成した類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返し、累積加算処理された各類似度画像の画素値が最大となる位置を参照画像に対応する入力画像の対応点として特定するよう構成したので、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができ、また並列処理化によるさらなる高速化を図りつつ、累積加算順序に起因する悪影響を回避することが可能な画像の対応点探索プログラムが得られるという効果を奏する。
【図面の簡単な説明】
【図1】この発明の実施の形態に係る対応点探索装置の構成を示す機能ブロック図である。
【図2】本実施の形態で用いる参照画像および入力画像の一例を示す図である。
【図3】参照部分画像の一例を示す図である。
【図4】入力部分画像の一例を示す図である。
【図5】類似度画像の作成概念を説明するための説明図である。
【図6】図4に示した各入力部分画像に対応する類似度画像を示す図である。
【図7】加算手順を説明するための説明図である。
【図8】加算後の類似度画像を示す図である。
【図9】図9に示した類似度画像の最大値の位置を示す図である。
【図10】対応点に基づいて再構成した入力画像の歪み(変形)の一例を示す図である。
【図11】図1に示した対応点探索装置の処理手順を示すフローチャートである。
【図12】累積加算処理手順の一例を示すフローチャートである。
【図13】最大値フィルターを用いて累積加算処理をおこなう場合の処理手順の一例を示すフローチャートである。
【図14】最大値フィルターの処理手順の一例を示すフローチャートである。
【図15】加算処理の変形例を説明するための説明図である。
【符号の説明】
1 対応点探索装置
10 画像入力部
11 分割処理部
12 参照部分画像一時記憶部
13 類似度画像作成部
14 加算処理部
15 対応点決定部
21 参照画像
22 入力画像
51 入力部分画像
52 参照部分画像
53 類似度画像[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image corresponding point search method, a corresponding point search device, and a corresponding point search program for searching for corresponding points that associate an input image with a reference image to be compared with the input image, and in particular, correspondence between images. The present invention relates to a corresponding point search method, a corresponding point search device, and a corresponding point search program for an image that can acquire a stable matching result that is difficult to fall into a local solution at high speed and efficiency.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a technique is known in which when an input image input from an image input device such as a scanner is collated with a reference image registered in advance, a corresponding point between both images is searched and the images are associated with each other.
[0003]
For example, “T. Poggio, V. Torre and C. Koch,“ Computational vision and regularization theory ”, NATURE Vol. 317, pp. 314-319, 1985” (prior art 1) changes the set energy function. A technique is disclosed that applies standard regularization theory that is minimized by the framework of the division method. The standard regularization theory adopted by this prior art 1 is to calculate corresponding points by minimizing energy by iterative calculation using only local information, so that parallel distributed processing can be performed. There is a possibility that processing close to human brain information processing can be realized.
[0004]
Also, “Seiichi Uchida, Hiroaki Sakoe,“ Study of monotonic continuous two-dimensional warp method based on dynamic programming ”, Shingaku theory (D-II) Vol. J81-D-II no. 6, pp.1251- 1258, June 1998 "(Prior Art 2) discloses a technique that employs a two-dimensional DP warp method for efficiently searching for an optimal solution using DP (Dynamic Programming). According to this prior art 2, the optimization problem can be calculated efficiently.
[0005]
However, in the above prior art 1, since the corresponding points are calculated by minimizing energy by iterative calculation using only local information, there is a problem that the influence of the initial value becomes large, and a local solution (local minimum). There is a problem that it is difficult to obtain an optimum matching result because it is easy to fall into the process. Moreover, although the thing of the prior art 2 can search an optimal solution efficiently by DP, there exists a problem that the computational complexity becomes huge. Specifically, in order to obtain an optimal solution, calculation time in the exponent order of the image size is required.
[0006]
From these facts, the applicant of the present patent application can obtain a stable matching result that is difficult to fall into a local solution at a high speed when performing matching between images in Japanese Patent Application No. 2002-056661 (prior art 3). A corresponding point searching apparatus for an image, a corresponding point searching method, and a program for causing a computer to execute the method have been proposed.
[0007]
[Problems to be solved by the invention]
However, in this prior art 3, after a plurality of similarity images are created, cumulative addition is performed in the j direction, then cumulative addition is performed in the -j direction, then cumulative addition is performed in the i direction, and further in the -i direction. Since a series of processes for accumulative addition is repeated, these processes cannot be parallelized, and there are restrictions in speeding up the processes.
[0008]
Further, in this prior art 3, there is a problem that the result differs depending on from which direction the cumulative addition is performed. Specifically, there is a problem that the influence of the j direction in which the cumulative addition is performed first tends to be large.
[0009]
The present invention has been made to solve the above-described problems caused by the prior art, and when performing association between images, it is possible to quickly and efficiently acquire a stable association result that does not easily fall into a local solution. An object of the present invention is to provide a corresponding point search method, a corresponding point search device, and a corresponding point search program.
[0010]
[Means for Solving the Problems]
In order to solve the above-described problems and achieve the object, a corresponding point search method for an image according to the invention of claim 1 searches for a corresponding point that associates an input image with a reference image to be compared with the input image. A method for searching corresponding points of an image, wherein the reference image is divided into m × n reference partial images, the block size is larger than the block size of the reference partial images, and the portions overlap each other. The input image is divided into m × n input partial images, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and the obtained similarity is represented by a pixel. A similarity image generation step for generating m × n similarity images as values, and a plurality of similarity images generated by the similarity image generation step in the vicinity of the noted attention similarity image Degree of similarity The accumulation processing to a constant multiplied by the value of the maximum pixel value is added to the pixel value of the target similarity image new similarity image within a predetermined range of the image, the position change of the maximum value before and after the addition of the predetermined An adding step that repeats until it falls within the range, and a corresponding point specifying step that specifies, as a corresponding point of the input image corresponding to the reference image, a position where the pixel value of each similarity image cumulatively processed by the adding step is maximum It is characterized by including.
[0011]
According to a second aspect of the present invention, there is provided the corresponding point search method according to the first aspect of the invention, wherein the adding step is focused attention among a plurality of similarity images generated by the similarity image generation step. The pixel values of a plurality of adjacent similarity images adjacent to the similarity image are added to the pixel values of the attention similarity image.
[0012]
According to a third aspect of the present invention, in the image corresponding point search method according to the first aspect of the present invention, the adding step is focused attention among a plurality of similarity images generated by the similarity image generation step. The pixel values of a plurality of adjacent similarity images adjacent to the similarity image and a plurality of neighboring similarity images further adjacent to each adjacent similarity image are added to the pixel values of the attention similarity image.
[0013]
According to a fourth aspect of the present invention, in the image corresponding point search method according to the first, second, or third aspect of the invention, the adding step includes a plurality of similarity images generated by the similarity image generating step. 4 which are adjacent to each other in the horizontal direction (j direction), the reverse direction of the horizontal direction (−j direction), the vertical direction (i direction), and the reverse direction of the vertical direction (−i direction). One similarity image is an addition target.
[0014]
According to a fifth aspect of the present invention, in the image corresponding point search method according to the first, second, or third aspect of the invention, the adding step includes a plurality of similarity images generated by the similarity image generating step. In the horizontal direction (j direction), the reverse direction of the horizontal direction (−j direction), the vertical direction (i direction), the reverse direction of the vertical direction (−i direction), and each diagonal direction. Eight adjacent similarity images are targeted for addition.
[0015]
According to a sixth aspect of the present invention, in the image corresponding point search method according to any one of the first to fifth aspects, the adding step includes each pixel forming the adjacent similarity image or the neighborhood similarity image. Is added to the pixel value of the target similarity image, the pixel value of the pixel having the maximum value among the peripheral pixels of the target pixel of the adjacent similarity image or the neighborhood similarity image is used as the target pixel. It adds to the pixel value of the pixel of the said attention similarity image corresponding.
[0016]
An image corresponding point searching device according to the invention of claim 7 is an image corresponding point searching device for searching for corresponding points for associating an input image with a reference image to be compared with the input image. The reference image is divided into mxn reference partial images, and the input image is larger than the block size of the reference partial image and the input image is mxn input partial images so as to partially overlap each other. Are divided into blocks, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and m × n similarity images having the obtained similarity as a pixel value And a maximum pixel value within a predetermined range of a plurality of similarity images located in the vicinity of the noted attention similarity image among the similarity images generated by the similarity image generation unit Is a constant multiple And the cumulative addition process for a new similarity image by adding the pixel value of the target similarity image values, adding means change in position of the maximum value before and after the addition is repeated until within a predetermined range, the sum And corresponding point specifying means for specifying the position where the pixel value of each similarity image cumulatively processed by the means becomes the maximum as the corresponding point of the input image corresponding to the reference image.
[0017]
An image corresponding point search program according to the invention of claim 8 is an image corresponding point search program for searching for a corresponding point that associates an input image with a reference image to be compared with the input image, The reference image is divided into mxn reference partial images, and the input image is larger than the block size of the reference partial image and the input image is mxn input partial images so as to partially overlap each other. Are divided into blocks, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and m × n similarity images having the obtained similarity as a pixel value a similarity image generation step of generating, maximum field within a predetermined range of the plurality of similarity degree images, located in the vicinity of the target was noted similarity image of the similarity images generated by the similarity image generation step Adding procedure repeated cumulative addition process by adding a constant a value obtained by multiplying the value to the pixel value of the target similarity image as a new similarity image, to the position change of the maximum value before and after the addition is within a predetermined range And causing the computer to execute a corresponding point specifying procedure for specifying, as a corresponding point of the input image corresponding to the reference image, a position where the pixel value of each similarity image that has been cumulatively added by the adding procedure is maximum. Features.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of a corresponding point search method, a corresponding point search apparatus, and a corresponding point search program according to the present invention will be described below in detail with reference to the accompanying drawings.
[0019]
FIG. 1 is a functional block diagram showing the configuration of the corresponding point search apparatus used in the present embodiment. The corresponding point search apparatus 1 shown in FIG. 1 (1) creates a similarity image that creates a similarity image indicating the similarity between the input partial image obtained by dividing the input image and the reference partial image obtained by dividing the reference image. And (2) searching for corresponding points between the images by a process consisting of a corresponding point determining step for determining an optimal corresponding point based on the result of adding a plurality of similarity images.
[0020]
Specifically, (1) in the similarity image creation stage, for example, a correlation value is sequentially obtained while moving a reference partial image having a size of 7 × 7 pixels within an input partial image having a size of 21 × 21 pixels, A similarity image having the correlation value as a pixel value is created. Therefore, this similarity image indicates how similar the center point on the reference partial image is to the point on the input partial image.
[0021]
Next, (2) in the corresponding point determination stage, when attention is paid to one of the plurality of similarity images, the pixel value of the pixel of the noticed similarity image (hereinafter referred to as “attention similarity image”) The pixel values of the pixels of the peripheral similarity image are added to each other, the respective similarity images are updated using the addition result, and the position of the pixel having the maximum pixel value among the pixels forming each similarity image This position is determined as a corresponding point on the input partial image.
[0022]
Specifically, the maximum pixel value among the neighboring pixels of the target pixel forming a plurality of similarity images adjacent to the target similarity image (hereinafter referred to as “adjacent similarity image”) is set for each adjacent similarity image. The obtained pixel values are added to the pixel value of the target pixel of the target similarity image. For example, the pixel value of the similarity image adjacent in the j direction of the attention similarity image (the maximum value of the neighboring pixels of the target pixel), the pixel value of the similarity image adjacent in the −j direction, and the similarity adjacent in the i direction The pixel value of the attention image and the pixel value of the similarity image adjacent in the −i direction are added to the pixel value of the attention pixel of the attention similarity image.
[0023]
As described above, according to the corresponding point search apparatus 1, the fine adjustment of the optimization that repeats the cumulative addition increases the accuracy of the association as compared with the prior art, and further enables parallel and distributed processing, which facilitates hardware implementation. Become.
[0024]
In particular, in the corresponding point search apparatus 1, attention is paid to the process of adding the pixel value of the adjacent similarity image adjacent in the j direction, −j direction, i direction, and −i direction to the pixel value of the target pixel of the target similarity image. Since the processing is performed independently while changing the similarity image, parallel processing can be further advanced.
[0025]
Next, the configuration of the corresponding point search apparatus 1 shown in FIG. 1 will be described. Here, the case where the images are input in the order of the reference image and the input image is shown. As shown in FIG. 1, the corresponding point search apparatus 1 includes an image input unit 10, a division processing unit 11, a reference partial image temporary storage unit 12, a similarity image creation unit 13, an addition processing unit 14, And a corresponding point determination unit 15.
[0026]
The image input unit 10 includes a reference image I 0 (i, j) having vertical and horizontal sizes I and J and an input image I 1 (i, j) (0 ≦ i ≦ I−1, 0 ≦ j ≦ J−1). Is an input unit for inputting. Specifically, a scanner that optically reads a document to acquire an image, an interface unit that acquires an image from a network, and a reading unit that reads an image from a secondary storage device are applicable. Here, the input image is an image to be searched for corresponding points, and may be one that is distorted or deformed. On the other hand, the reference image is an image to be compared with the input image, and it is desirable that the image is not accompanied by distortion.
[0027]
FIG. 2A shows a reference image 21 and FIG. 2B shows an input image 22. The reference image 21 and the input image 22 are both character images of the alphabet “a” and are composed of 32 × 32 pixels.
[0028]
The division processing unit 11 is a processing unit that divides the input image and the reference image input by the image input unit 10 into an input partial image and a reference partial image, respectively. However, the procedure for dividing the input image is different from the procedure for dividing the reference image.
[0029]
When the reference image is divided, M (vertical m , q n ) points (p m , q n ) (0 ≦ m ≦ M−1, 0 ≦ n ≦ N−1) are sampled on the reference image in the vertical direction and N in the horizontal direction. ) To create a reference partial image. FIG. 3 is a diagram showing an example of the division result of the reference image 21 shown in FIG. 2A. As shown in FIG. 3, the reference image 21 of 32 × 32 pixels is composed of 7 × 7 pixels. The image is divided into 25 reference partial images. Specifically, p m = round (I / M) and q n = round (J / N). However, round () indicates rounding off.
[0030]
When the input image is divided, unlike the case of dividing the reference image, the input image is divided so that a part of each input partial image has overlapping data. FIG. 4 is a diagram showing an example of the division result of the input image 22 shown in FIG. 2B. As shown in FIG. 4, the 32 × 32 pixel input image 22 is composed of 21 × 21 pixels. It is divided into 25 input partial images.
[0031]
The reference partial image temporary storage unit 12 is a storage unit that temporarily stores each reference partial image divided by the division processing unit 11, and the reference partial image corresponding when the similarity image creating unit 13 creates the similarity image is displayed. It is taken out.
[0032]
The similarity image creation unit 13 calculates a similarity considering the deformation between the input partial image and the reference partial image, and a similarity image C m, n (u, v) (with the similarity as a pixel value) 0 ≦ m ≦ M−1, 0 ≦ n ≦ N−1, 0 ≦ u ≦ U−1, 0 ≦ v ≦ V−1). However, U and V are the vertical and horizontal sizes of the similarity image. A normalized correlation coefficient can be used as this similarity.
[0033]
FIG. 5 is an explanatory diagram for explaining the concept of creating a similarity image from a reference partial image and an input partial image. Here, the input partial image and the reference partial image located in 2 rows and 2 columns of FIGS. 3 and 4 are used.
[0034]
When obtaining the similarity between the input partial image 51 and the reference partial image 52 shown in the figure, the normalized correlation coefficient is calculated by associating the center pixel of the reference partial image 52 with the upper left pixel of the input partial image 51. The calculation result is used as the pixel value of the upper left pixel of the similarity image 53. Thereafter, the reference partial image 52 is shifted to the right, and the same processing is performed. The similarity image 53 is obtained by performing the above processing for all the pixels of the input partial image 51 while shifting the reference partial image 52.
[0035]
When such similarity image creation processing is performed for each input partial image, a plurality of similarity images as shown in FIG. 6 are obtained. Note that when the pixel values of all the pixels of the reference partial image are constant, the denominator of the normalized correlation coefficient is zero, and the pixel value of the similarity image in this case is also zero.
[0036]
Addition processing unit 14, as shown in FIG. 7, attention similarity image C m, n (u, v) adjacent similarity image C m adjacent direction j, n + 1 (u, v ), - j Adjacent similarity image C m, n-1 (u, v) adjacent in the direction, adjacent similarity image C m + 1, n (u, v) adjacent in the i direction, adjacent similarity adjacent in the -i direction The pixel value of the image C m-1, n (u, v) is added to the pixel value of the target pixel of the attention similarity image C m, n (u, v).
[0037]
In particular,
Figure 0004181811
Is calculated. However, Max () indicates a maximum value, α is a constant, t is the number of repetitions, 0 ≦ u ≦ U−1, 0 ≦ v ≦ V−1, 0 ≦ m ≦ M−1, 0 ≦ It is assumed that n ≦ N−1, u−1 ≦ p ≦ u + 1, and v−1 ≦ q ≦ v + 1.
[0038]
That is, when the pixel value of the attention pixel P of the attention similarity image C m, n (u, v) at the repetition number t + 1 shown in FIG. 7 is obtained, the attention similarity image C m, The maximum value among the peripheral pixels of the pixels P1, P2, P3, and P4 of the adjacent similarity image adjacent vertically and horizontally is added to the pixel value of the target pixel of n (u, v) by multiplying by α. Thus, instead of repeating the cumulative addition in a certain direction, it is possible to parallelize the processing by independently calculating the pixel values at the number of repetitions t + 1.
[0039]
The corresponding point determination unit 15 is a processing unit that determines a corresponding point based on the similarity image after the addition in cooperation with the addition processing unit 14. Specifically, if the addition processing of each pixel is first performed, the position of the maximum value of each similarity image is detected, and the change between the position and the position of the maximum value during the previous cumulative addition processing is predetermined. If it is not within the range, the cumulative addition process is fed back and repeated, and when it is within the predetermined range, the repetition is terminated, and the position of the maximum value of each similarity image at that time is determined as a corresponding point.
[0040]
For example, when each similarity image shown in FIG. 8 is obtained by repeating the cumulative addition process, the change in the position of the maximum value of each similarity image is checked, and the change is within a predetermined range. In this case, as shown in FIG. 9, the position of the maximum value of each similarity image is obtained and used as a corresponding point. FIG. 10 shows the distortion of the input image based on the corresponding points.
[0041]
Next, the processing procedure of the corresponding point search apparatus 1 shown in FIG. 1 will be described. Although partially overlapping with the above description, the processing procedure will be described with reference to FIGS.
[0042]
FIG. 11 is a flowchart showing a processing procedure of the corresponding point search apparatus 1 shown in FIG. As shown in the figure, when the corresponding point detection device 1 acquires a reference image and an input image, the reference image is divided into reference partial images (step S101). For example, the reference image 21 of 32 × 32 pixels shown in FIG. 2A is divided into 25 reference partial images composed of 7 × 7 pixels shown in FIG. 3 and stored. This reference partial image may be stored in advance for each image to be referred to, or only a reference image is stored separately in advance, not a reference partial image, and the similarity between an input image and a reference image, which will be described later, is stored. When calculating the degree, the stored reference image may be divided into reference partial images.
[0043]
Thereafter, the input image is divided into input partial images (step S102). For example, the 32 × 32 pixel input image 22 shown in FIG. 2B is divided into 25 input partial images consisting of 21 × 21 pixels shown in FIG.
[0044]
Then, a similarity image between the reference partial image and the input partial image is created (step S103). For example, as shown in FIG. 5, the similarity image 53 having the similarity between the input partial image 51 and the reference partial image 52 as a pixel value is created for each input partial image, and a plurality of such as shown in FIG. Create a similarity image of.
[0045]
Thereafter, as shown in FIG. 7, in order to obtain each similarity image at the number of repetitions t + 1, the attention similarity image at the number of repetitions t is adjacent to the four directions of j direction, −j direction, i direction, and −i direction. The maximum pixel value within the predetermined range of each adjacent similarity image is added for each pixel (step S104), and the position of the maximum value of the similarity image shown in FIG. 9 is detected using the addition result. (Step S105).
[0046]
Then, it is checked whether or not the variation in the position of the maximum value is within a certain value (step S106). If it is not within the certain value (No at step S106), the process proceeds to step S104 and the number of repetitions is incremented. The process is repeated, and if it is within a certain value (Yes at Step S106), the process is terminated with this position as a corresponding point.
[0047]
Next, an addition processing procedure by the addition processing unit 14 shown in FIG. 1 will be described. FIG. 12 is a flowchart showing an addition processing procedure by the addition processing unit 14 shown in FIG.
[0048]
As shown in the figure, first, the variables m, u, and v are set to 0, and the variable n is set to 1 (steps S201 to S204). Here, the variable m is a variable used as an index in the i direction, and the variable n is a variable used as an index in the j direction. Variables u and v are i-direction and j-direction variables indicating the search range.
[0049]
And when this initialization is finished,
Figure 0004181811
The calculation is performed according to the formula (step S205).
[0050]
Thereafter, the variable v is incremented (step S206). If the variable v is smaller than V (Yes in step S207), the process proceeds to step S205 and the addition process is repeated. That is, the search range is shifted in the j direction.
[0051]
On the other hand, if the variable v is greater than or equal to V (No at Step S207), the variable u is incremented (Step S208). If the variable u is smaller than U (Yes at Step S209), the process proceeds to Step S204. Repeat the addition process. That is, the search range is shifted in the i direction.
[0052]
If the variable u is greater than or equal to U (No at step S209), the calculation for a certain pixel is terminated and the process proceeds to the next pixel. Specifically, after the variable n is incremented to shift the pixel of interest in the j direction (step S210), the variable n is compared with N (step S211). If the variable n is smaller than N (step S211) (Yes in S211), the process proceeds to step S203 and the addition process is repeated.
[0053]
On the other hand, if the variable n is greater than or equal to N (No in step S211), the variable m is incremented to shift the pixel of interest in the i direction (step S212), and if the variable m is smaller than M (step S212). If affirmative (step S213), the process proceeds to step S202 to repeat the addition process. If the variable m is equal to or greater than M (No in step S213), the process ends. By performing the above-described series of processing, a cumulative addition result in the j direction is obtained for all the pixels of each similarity image.
[0054]
In the flowchart of FIG. 12, the maximum value is calculated while incrementing the variables u and v. Another calculation method, may be created in advance all the C t m, n (u, v) the maximum value multiplied by the maximum value filter in the filter image C t 'm, n and (u, v).
[0055]
Therefore, a processing procedure when such a maximum value filter is used will be described with reference to FIGS. FIG. 13 is a flowchart showing an addition processing procedure using the maximum value filter by the addition processing unit 14 shown in FIG. 1, and FIG. 14 is a flowchart showing a processing procedure of the maximum value filter.
[0056]
As shown in FIG. 13, all C t m, n (u, v) the maximum value filter image C t 'times the maximum value filter m, n (u, v) obtaining the (step S301). Specifically, as shown in FIG. 14, after variables u and v are initialized to 0 (steps S401 to S402), C ′ m, n (u, v) = Max [C m, n (p, q)] is calculated (step S403). However, u−1 ≦ p ≦ u + 1 and v−1 ≦ q ≦ v + 1. Then, v is incremented (step S404), and when the variable v is smaller than V (Yes at step S405), the process proceeds to step S403 and the same calculation is performed. If the variable v is greater than or equal to V (No at Step S405), the variable u is incremented (Step S406). If the variable u is smaller than U (Yes at Step S406), the process proceeds to Step S402. The same processing is repeated, and the maximum value is obtained as a result.
[0057]
When the maximum value is obtained in this way, the variables m = 0, n = 0, u = 0, v = 0 are initialized (steps S302 to S305),
Figure 0004181811
The calculation is performed according to the calculation formula (step S306).
[0058]
Thereafter, the variable v is incremented (step S307). If the variable v is smaller than V (Yes at step S308), the process proceeds to step S306 and the addition process is repeated. That is, the search range is shifted in the j direction.
[0059]
On the other hand, if the variable v is equal to or greater than V (No at Step S308), the variable u is incremented (Step S309). If the variable u is smaller than U (Yes at Step S310), the process proceeds to Step S305. Repeat the addition process. That is, the search range is shifted in the i direction.
[0060]
If the variable u is greater than or equal to U (No at step S310), the calculation for a certain pixel is terminated and the process proceeds to the next pixel. Specifically, after the variable n is incremented to shift the pixel of interest in the j direction (step S311), the variable n is compared with N (step S312), and if the variable n is smaller than N (step S311). (Yes in S312), the process proceeds to step S304 and the addition process is repeated.
[0061]
On the other hand, if the variable n is greater than or equal to N (No in step S312), the variable m is incremented to shift the pixel of interest in the i direction (step S313), and if the variable m is smaller than M (step S313). If step S314 is affirmative, the process proceeds to step S303 and the addition process is repeated. If the variable m is equal to or greater than M (No in step S314), the process ends.
[0062]
As described above, according to the present embodiment, the reference image and the input image are respectively input from the image input unit 10, and the reference partial image and the input partial image are respectively generated by the division processing unit 11. 13 respectively generate similarity images obtained by calculating the similarity between the reference partial image and the input partial image, and the addition processing unit 14 adds the maximum pixel value of the adjacent similarity image to the pixel value of the target pixel of the target similarity image. Since the processing is sequentially performed while changing the target pixel, and the corresponding point determination unit 15 determines the corresponding point based on the result, (1) the case of falling into the local minimum can be reduced, and (2) the processing Can be processed in parallel and distributed efficiently and processed at high speed.
[0063]
In this embodiment, for convenience of explanation, the case where the size of the reference image and the input image is the same is shown. However, the present invention is not limited to this, and the size of the reference image and the input image is different. It can also be applied. In such a case, similar processing can be performed.
[0064]
Further, in the present embodiment, when performing the addition process, the case where the adjacent similarity image adjacent in the j direction, the −j direction, the i direction, and the −i direction of the attention similarity image is shown as a target. The present invention is not limited to this, and as shown in FIG. 15A, eight adjacent similarities connected to the attention similarity image C m, n in consideration of similarity images adjacent in the oblique direction are connected. Images Cm-1, n-1 , Cm-1, n , Cm-1, n + 1 , Cm, n-1 , Cm, n + 1 , Cm + 1, n-1 and C m + 1, n, can also be applied to a case of using a C m + 1, n + 1 . Further, as shown in FIG. 15B, adjacent similarity images C m−1, n , C m, n−1 , C m + 1, n , and C m adjacent to the attention similarity image C m, n. , n + 1, as well as adjacent image (neighbor similarity image) C m-2, n , C m, n-2 , C m + 2, n , C m , n + 2 can also be applied.
[0065]
In this embodiment, the case where the normalized correlation coefficient is used as the similarity is shown. However, the present invention is not limited to this, and another index such as the Euclidean distance is used as the similarity. You can also.
[0066]
【The invention's effect】
As described above, according to the first aspect of the present invention, the reference image is divided into m × n reference partial images, which are larger than the block size of the reference partial images, and some of them are mutually connected. The input image is divided into m × n input partial images so as to overlap, and the similarity is obtained by shifting the reference partial image located at the corresponding position of each input partial image on the input partial image. The maximum pixel value within a predetermined range of a plurality of similarity images generated in the vicinity of the noticed similarity image among the generated similarity images generated by generating m × n similarity images having degrees as pixel values The cumulative addition process is repeated until the position change of the maximum value before and after the addition falls within a predetermined range by adding the value obtained by multiplying the value by a constant to the pixel value of the attention similarity image to obtain a new similarity image. Of each similarity image Since the position where the prime value is the maximum is specified as the corresponding point of the input image corresponding to the reference image, when matching between images, stable matching results that are difficult to fall into a local solution are fast and efficient. It is possible to obtain a method for searching for corresponding points of an image that can be obtained well and can avoid the adverse effects caused by the cumulative addition order while further speeding up by parallel processing.
[0067]
According to the invention of claim 2, the pixel values of the plurality of adjacent similarity images adjacent to the noticed attention similarity image among the plurality of similarity images are added to the pixel value of the attention similarity image. Therefore, there is an effect that it is possible to obtain an image corresponding point search method capable of performing a rapid addition process on adjacent similarity images in parallel.
[0068]
According to the invention of claim 3, a plurality of adjacent similarity images adjacent to the noted attention similarity image among a plurality of similarity images and a plurality of neighboring similarity images further adjacent to each adjacent similarity image Is added to the pixel value of the attention similarity image, so that it is possible to obtain a corresponding point search method for an image that can be handled even when the positional deviation is large.
[0069]
According to the invention of claim 4, the horizontal direction (j direction) of the noticed similarity image of the plurality of similarity images generated by the similarity image generation step, the reverse direction of the horizontal direction (− (j direction), vertical direction (i direction), and four similarity images that are adjacent to each other in the vertical direction (-i direction) are added as objects to be added. There is an effect that a point search method is obtained.
[0070]
According to the invention of claim 5, the horizontal direction (j direction), the reverse direction of the horizontal direction (−j direction), and the vertical direction (i direction) of the noted attention similarity image among the plurality of similarity images. ), Because it is configured to add eight similarity images adjacent to each other in the vertical direction (−i direction) and diagonal directions, search for corresponding points of an image satisfying more global consistency There is an effect that a method is obtained.
[0071]
According to the invention of claim 6, when adding the pixel value of each pixel forming the adjacent similarity image or the neighborhood similarity image to the pixel value of the attention similarity image, the adjacent similarity image or the neighborhood similarity image Since the pixel value of the pixel having the maximum value among the peripheral pixels of the target pixel of the image is added to the pixel value of the target similarity image pixel corresponding to the target pixel, the maximum value can be used efficiently. There is an effect that a corresponding point search method for an image capable of obtaining corresponding points is obtained.
[0072]
According to the invention of claim 7, the reference image is divided into m × n reference partial images, and the reference image is larger than the block size of the reference partial images and is input so as to partially overlap each other. The image is divided into m × n input partial images, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and the obtained similarity is represented by a pixel value. M × n similarity images are generated, and the maximum pixel value within a predetermined range of a plurality of similarity images located in the vicinity of the noticed similarity image among the generated similarity images is multiplied by a constant The cumulative addition process of adding a value to the pixel value of the attention similarity image to obtain a new similarity image is repeated until the position change of the maximum value before and after the addition falls within a predetermined range, and each of the similarities subjected to the cumulative addition process When the pixel value of the image Since the position of the input image is specified as the corresponding point of the input image corresponding to the reference image, it is possible to quickly and efficiently acquire a stable association result that does not easily fall into a local solution when performing association between images. In addition, it is possible to obtain an image corresponding point search apparatus capable of avoiding the adverse effects caused by the cumulative addition order while further speeding up by parallel processing.
[0073]
According to the invention of claim 8, the reference image is divided into m × n reference partial images, and input so that the block size is larger than the reference partial image and part of them overlap each other. The image is divided into m × n input partial images, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and the obtained similarity is represented by a pixel value. M × n similarity images are generated, and the maximum pixel value within a predetermined range of a plurality of similarity images located in the vicinity of the noticed similarity image among the generated similarity images is multiplied by a constant The cumulative addition process of adding a value to the pixel value of the attention similarity image to obtain a new similarity image is repeated until the position change of the maximum value before and after the addition falls within a predetermined range, and each of the similarities subjected to the cumulative addition process When the pixel value of the image Since the position of the input image is specified as the corresponding point of the input image corresponding to the reference image, it is possible to quickly and efficiently acquire a stable association result that does not easily fall into a local solution when performing association between images. In addition, it is possible to obtain an image corresponding point search program capable of avoiding adverse effects caused by the cumulative addition order while further speeding up by parallel processing.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a configuration of a corresponding point search apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a reference image and an input image used in the present embodiment.
FIG. 3 is a diagram illustrating an example of a reference partial image.
FIG. 4 is a diagram illustrating an example of an input partial image.
FIG. 5 is an explanatory diagram for explaining a concept of creating a similarity image.
6 is a view showing a similarity image corresponding to each input partial image shown in FIG. 4. FIG.
FIG. 7 is an explanatory diagram for explaining an addition procedure;
FIG. 8 is a diagram showing a similarity image after addition.
9 is a diagram showing the position of the maximum value of the similarity image shown in FIG. 9. FIG.
FIG. 10 is a diagram illustrating an example of distortion (deformation) of an input image reconstructed based on corresponding points.
FIG. 11 is a flowchart showing a processing procedure of the corresponding point search apparatus shown in FIG. 1;
FIG. 12 is a flowchart illustrating an example of a cumulative addition processing procedure.
FIG. 13 is a flowchart illustrating an example of a processing procedure when cumulative addition processing is performed using a maximum value filter.
FIG. 14 is a flowchart illustrating an example of a maximum value filter processing procedure;
FIG. 15 is an explanatory diagram for describing a modification of addition processing;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Corresponding point search apparatus 10 Image input part 11 Division processing part 12 Reference partial image temporary storage part 13 Similarity image creation part 14 Addition processing part 15 Corresponding point determination part 21 Reference image 22 Input image 51 Input partial image 52 Reference partial image 53 Similarity image

Claims (8)

入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索方法であって、
前記参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように前記入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成する類似度画像生成工程と、
前記類似度画像生成工程により生成された類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を前記注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返す加算工程と、
前記加算工程により累積加算処理された各類似度画像の画素値が最大となる位置を前記参照画像に対応する入力画像の対応点として特定する対応点特定工程と
を含んだことを特徴とする画像の対応点探索方法。
A corresponding point search method for an image for searching for a corresponding point that associates an input image with a reference image to be compared with the input image,
The reference image is divided into m × n reference partial images, and the input image is larger than the block size of the reference partial images, and the input image is m × n input portions so as to partially overlap each other. The block is divided into images, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and m × n similarities having the obtained similarity as a pixel value A similarity image generation step for generating an image;
Of the similarity images generated by the similarity image generation step, a value obtained by multiplying a maximum pixel value within a predetermined range of a plurality of similarity images located in the vicinity of the noted attention similarity image among the similarity images by a constant number is used. An addition step of repeating the cumulative addition process to be added to the pixel value of the image to obtain a new similarity image until the position change of the maximum value before and after the addition falls within a predetermined range;
And a corresponding point specifying step of specifying a position where the pixel value of each similarity image subjected to cumulative addition processing by the adding step is maximum as a corresponding point of the input image corresponding to the reference image. Corresponding point search method.
前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像に隣接する複数の隣接類似度画像の画素値を前記注目類似度画像の画素値に加算することを特徴とする請求項1に記載の画像の対応点探索方法。  In the adding step, pixel values of a plurality of adjacent similarity images adjacent to a noticed attention similarity image among a plurality of similarity images generated by the similarity image generating step are used as pixel values of the attention similarity image. The method for searching for corresponding points of an image according to claim 1, wherein: 前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像に隣接する複数の隣接類似度画像および各隣接類似度画像にさらに隣接する複数の近傍類似度画像の画素値を前記注目類似度画像の画素値に加算することを特徴とする請求項1に記載の画像の対応点探索方法。  The adding step includes a plurality of adjacent similarity images adjacent to the noted attention similarity image among a plurality of similarity images generated by the similarity image generation step, and a plurality of adjacent similarity images further adjacent to the adjacent similarity images. 2. The method for searching for corresponding points of an image according to claim 1, wherein a pixel value of a neighborhood similarity image is added to a pixel value of the attention similarity image. 前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像の横方向(j方向)、該横方向の逆方向(−j方向)、縦方向(i方向)、該縦方向の逆方向(−i方向)にそれぞれ隣接する4つの類似度画像を加算対象としたことを特徴とする請求項1、2または3に記載の画像の対応点探索方法。  The adding step includes a horizontal direction (j direction) of a noted attention similarity image among a plurality of similarity images generated by the similarity image generation step, a reverse direction of the horizontal direction (−j direction), a vertical direction The corresponding points of the image according to claim 1, 2 or 3, wherein four similarity images adjacent to each other in a direction (i direction) and a reverse direction (-i direction) of the vertical direction are added. Search method. 前記加算工程は、前記類似度画像生成工程により生成された複数の類似度画像のうちの注目した注目類似度画像の横方向(j方向)、該横方向の逆方向(−j方向)、縦方向(i方向)、該縦方向の逆方向(−i方向)並びに各斜め方向にそれぞれ隣接する8つの類似度画像を加算対象としたことを特徴とする請求項1、2または3に記載の画像の対応点探索方法。  The adding step includes a horizontal direction (j direction) of a noted attention similarity image among a plurality of similarity images generated by the similarity image generation step, a reverse direction of the horizontal direction (−j direction), a vertical direction The eight similarity images adjacent to each other in the direction (i direction), the reverse direction of the vertical direction (-i direction), and each oblique direction are set as addition targets. Corresponding point search method for images. 前記加算工程は、前記隣接類似度画像または近傍類似度画像を形成する各画素の画素値を前記注目類似度画像の画素値に加算する際に、前記隣接類似度画像または近傍類似度画像の注目画素の周辺画素のうちの最大値を持つ画素の画素値を該注目画素に対応する前記注目類似度画像の画素の画素値に加算することを特徴とする請求項1〜5のいずれか一つに記載の画像の対応点探索方法。  In the adding step, when the pixel value of each pixel forming the adjacent similarity image or the neighborhood similarity image is added to the pixel value of the attention similarity image, the attention of the adjacent similarity image or the neighborhood similarity image 6. The pixel value of a pixel having the maximum value among peripheral pixels of the pixel is added to a pixel value of a pixel of the attention similarity image corresponding to the attention pixel. 2. A method for searching corresponding points of an image described in 1. 入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索装置であって、
前記参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように前記入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成する類似度画像生成手段と、
前記類似度画像生成手段により生成された類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を前記注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返す加算手段と、
前記加算手段により累積加算処理された各類似度画像の画素値が最大となる位置を前記参照画像に対応する入力画像の対応点として特定する対応点特定手段と
を備えたことを特徴とする画像の対応点探索装置。
An image corresponding point search device that searches for corresponding points that associate an input image with a reference image to be compared with the input image,
The reference image is divided into m × n reference partial images, and the input image is larger than the block size of the reference partial images, and the input image is m × n input portions so as to partially overlap each other. The block is divided into images, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and m × n similarities having the obtained similarity as a pixel value Similarity image generation means for generating an image;
Of the similarity images generated by the similarity image generation means, a value obtained by multiplying a maximum pixel value within a predetermined range of a plurality of similarity images located in the vicinity of the noted attention similarity image by a fixed number is the attention similarity. An addition means for repeating the cumulative addition processing to be added to the pixel value of the image to obtain a new similarity image until the position change of the maximum value before and after the addition falls within a predetermined range;
And a corresponding point specifying unit that specifies a position where the pixel value of each similarity image cumulatively added by the adding unit is maximum as a corresponding point of the input image corresponding to the reference image. Corresponding point search device.
入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索プログラムであって、
前記参照画像をm×n個の参照部分画像にブロック分割するとともに、該参照部分画像のブロックサイズよりも大きく、かつ、互いにその一部が重なり合うように前記入力画像をm×n個の入力部分画像にブロック分割し、各入力部分画像の対応する位置に所在する参照部分画像を該入力部分画像上でずらしつつ類似度を求め、求めた類似度を画素値とするm×n個の類似度画像を生成する類似度画像生成手順と、
前記類似度画像生成手順により生成された類似度画像のうちの注目した注目類似度画像の近傍に所在する複数の類似度画像の所定範囲内の最大画素値を定数倍した値を前記注目類似度画像の画素値に加算して新たな類似度画像とする累積加算処理を、加算前後の最大値の位置変化が所定の範囲内となるまで繰り返す加算手順と、
前記加算手順により累積加算処理された各類似度画像の画素値が最大となる位置を前記参照画像に対応する入力画像の対応点として特定する対応点特定手順と
をコンピュータに実行させる画像の対応点探索プログラム。
An image corresponding point search program for searching for corresponding points that associate an input image with a reference image to be compared with the input image,
The reference image is divided into m × n reference partial images, and the input image is larger than the block size of the reference partial images, and the input image is m × n input portions so as to partially overlap each other. The block is divided into images, the similarity is obtained while shifting the reference partial image located at the corresponding position of each input partial image on the input partial image, and m × n similarities having the obtained similarity as a pixel value A similarity image generation procedure for generating an image;
Attention was focused similarities plurality of similarity constant a value obtained by multiplying the maximum pixel value the interest similarity within a predetermined range of the image to be located in the vicinity of the image of the similarity similarity image generated by the image generation procedure An addition procedure for repeating the cumulative addition process to be added to the pixel value of the image to obtain a new similarity image until the position change of the maximum value before and after the addition falls within a predetermined range;
Corresponding points of an image for causing a computer to execute a corresponding point specifying procedure for specifying a position where the pixel value of each similarity image subjected to cumulative addition processing by the adding procedure is maximum as a corresponding point of an input image corresponding to the reference image Search program.
JP2002212389A 2002-07-22 2002-07-22 Corresponding point search method of image, corresponding point search device, and corresponding point search program Expired - Fee Related JP4181811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002212389A JP4181811B2 (en) 2002-07-22 2002-07-22 Corresponding point search method of image, corresponding point search device, and corresponding point search program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002212389A JP4181811B2 (en) 2002-07-22 2002-07-22 Corresponding point search method of image, corresponding point search device, and corresponding point search program

Publications (2)

Publication Number Publication Date
JP2004054682A JP2004054682A (en) 2004-02-19
JP4181811B2 true JP4181811B2 (en) 2008-11-19

Family

ID=31935336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002212389A Expired - Fee Related JP4181811B2 (en) 2002-07-22 2002-07-22 Corresponding point search method of image, corresponding point search device, and corresponding point search program

Country Status (1)

Country Link
JP (1) JP4181811B2 (en)

Also Published As

Publication number Publication date
JP2004054682A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
JP4080951B2 (en) Frame interpolation method and apparatus, and image display system
JP4298749B2 (en) Time-series data dimension compressor
CN108241854A (en) A kind of deep video conspicuousness detection method based on movement and recall info
CN103390275B (en) The method of dynamical image joining
JP2001043368A5 (en)
JP4160762B2 (en) Corresponding point search device for image, corresponding point searching method, and program for causing computer to execute the method
CN109447239B (en) Embedded convolutional neural network acceleration method based on ARM
JP4181811B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
JP4460277B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
JP4286565B2 (en) Corresponding point search method, corresponding point search device, and corresponding point search program
JP4460274B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
JP2007157112A (en) Method for recognizing iris by utilizing analysis of cumulative sum basis transition and apparatus thereof
JP2001109879A (en) Device and method for image processing, and medium
JP2012043437A (en) Image processing method and image processing device
JP6778625B2 (en) Image search system, image search method and image search program
JPH08137908A (en) Method and device for retrieving picture
JP3842080B2 (en) Signature verification apparatus, signature verification method, and signature verification program
JP3898936B2 (en) Corresponding point search device, corresponding point search processing method, and corresponding point search processing program
JP5164912B2 (en) Corresponding point search method, corresponding point search device, and corresponding point search program
JP4307485B2 (en) Image processing apparatus and image processing method
JP2001337990A (en) Image retrieval system and image retrieval method
JP4181810B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
CN114565792B (en) Image classification method and device based on lightweight convolutional neural network
JP5858762B2 (en) Image correction apparatus, image correction method, and image correction program
JPH1069542A (en) Template matching method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050413

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080716

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080901

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120905

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120905

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130905

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees