JP4460274B2 - Corresponding point search method of image, corresponding point search device, and corresponding point search program - Google Patents

Corresponding point search method of image, corresponding point search device, and corresponding point search program Download PDF

Info

Publication number
JP4460274B2
JP4460274B2 JP2003407126A JP2003407126A JP4460274B2 JP 4460274 B2 JP4460274 B2 JP 4460274B2 JP 2003407126 A JP2003407126 A JP 2003407126A JP 2003407126 A JP2003407126 A JP 2003407126A JP 4460274 B2 JP4460274 B2 JP 4460274B2
Authority
JP
Japan
Prior art keywords
image
similarity
corresponding point
pixel
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003407126A
Other languages
Japanese (ja)
Other versions
JP2005165928A (en
Inventor
和隆 安達
弘之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2003407126A priority Critical patent/JP4460274B2/en
Publication of JP2005165928A publication Critical patent/JP2005165928A/en
Application granted granted Critical
Publication of JP4460274B2 publication Critical patent/JP4460274B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、入力画像と参照画像の類似度を画素値として持つ類似度画像を作成し、該類似度画像に対して対応点探索処理をおこなって対応点を決定する画像の対応点探索方法、対応点探索装置および対応点探索プログラムに関し、特に、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる画像の対応点探索方法、対応点探索装置および対応点探索プログラムに関する。   The present invention creates a similarity image having the similarity between an input image and a reference image as a pixel value, performs a corresponding point search process on the similarity image, and determines a corresponding point. With respect to the corresponding point search device and the corresponding point search program, in particular, when performing correlation between images, a corresponding point search method for an image that can quickly and efficiently acquire a stable correlation result that does not easily fall into a local solution, The present invention relates to a corresponding point search device and a corresponding point search program.

従来より、スキャナなどの画像入力装置から入力された入力画像をあらかじめ登録した参照画像とを照合する際に、両画像の対応点を探索して画像間の対応付けをおこなう技術が知られている。   2. Description of the Related Art Conventionally, when matching an input image input from an image input device such as a scanner with a reference image registered in advance, a technique for searching for corresponding points of both images and associating the images is known. .

たとえば、非特許文献1(従来技術1)には、設定したエネルギー関数を変分法の枠組みにより最小化する標準正則化理論を適用した技術が開示されている。この従来技術1が採用する標準正則化理論は、局所的な情報のみを使った繰り返し計算によりエネルギーを最小化することによって対応点を計算するものであるので、並列分散処理をおこなうことができ、人間の脳情報処理に近い処理を実現できる可能性がある。   For example, Non-Patent Document 1 (Prior Art 1) discloses a technique that applies a standard regularization theory that minimizes a set energy function by a framework of a variational method. The standard regularization theory adopted by this prior art 1 is to calculate corresponding points by minimizing energy by iterative calculation using only local information, so that parallel distributed processing can be performed. There is a possibility that processing close to human brain information processing can be realized.

また、非特許文献2(従来技術2)には、DP(Dynamic Programming)を用いて効率的に最適解を探索する2次元DPワープ法を採用した技術が開示されている。この従来技術2によれば、最適化問題を効率的に計算することができる。   Non-Patent Document 2 (Prior Art 2) discloses a technique that employs a two-dimensional DP warp method that efficiently searches for an optimal solution using DP (Dynamic Programming). According to this prior art 2, the optimization problem can be calculated efficiently.

ところが、上記従来技術1のものは、局所的な情報のみを使った繰り返し計算によってエネルギーを最小化して対応点を計算するため、初期値の影響が大きくなるという問題や、局所解(ローカルミニマム)に陥り易いことから最適な対応付け結果を得られ難いという問題がある。また、従来技術2のものは、DPによって効率よく最適解を探索できるものの、その計算量が膨大なものになるという問題がある。具体的には、最適解を得るためには画像サイズの指数オーダーの計算時間が必要となる。   However, in the above prior art 1, since the corresponding points are calculated by minimizing energy by iterative calculation using only local information, there is a problem that the influence of the initial value becomes large, and a local solution (local minimum). There is a problem that it is difficult to obtain an optimum matching result because it is easy to fall into the process. Moreover, although the thing of the prior art 2 can search an optimal solution efficiently by DP, there exists a problem that the computational complexity becomes huge. Specifically, in order to obtain an optimal solution, calculation time in the exponent order of the image size is required.

これらのことから、本願特許出願人は、特許文献1(従来技術3)において、画像間の対応付けをおこなう際に、局所解に陥ることなく安定した対応付け結果を得ることができる画像の対応点探索装置、対応点探索方法およびその方法をコンピュータに実行させるプログラムを提案した。   From these facts, the applicant of the present patent application, in Patent Document 1 (Prior Art 3), when matching between images, it is possible to obtain image matching that can obtain a stable matching result without falling into a local solution. A point search device, a corresponding point search method, and a program for causing a computer to execute the method were proposed.

具体的には、各類似度画像の画素値を垂直方向および水平方向別に累積加算を繰り返した後に、これらの累積加算結果から得られる各画素の周辺画素の最大値を類似度画像の各画素の画素値に累積加算して類似度画像を更新し、更新後の各類似度画像の最大値の位置と更新前の各類似度画像の最大値の位置との変動が所定値未満となるまでこれらの処理を繰り返して、入力部分画像上での対応点を求めるものである。   Specifically, after repeating cumulative addition of the pixel values of each similarity image for each of the vertical direction and the horizontal direction, the maximum value of the peripheral pixels of each pixel obtained from these cumulative addition results is calculated for each pixel of the similarity image. The similarity image is updated by accumulatively adding to the pixel value, and the variation between the position of the maximum value of each updated similarity image and the position of the maximum value of each similarity image before the update is less than a predetermined value. This process is repeated to obtain corresponding points on the input partial image.

T.Poggio,V.TorreandC.Koch,”Computational vision and regularization theory”,NATURE Vol.317,pp. 314-319,1985T.Poggio, V.TorreandC.Koch, “Computational vision and regularization theory”, NATURE Vol.317, pp. 314-319, 1985 内田誠一,迫江博昭,”動的計画法に基づく単調連続2次元ワープ法の検討”,信学論(D-II) Vol. J81-D-II no. 6,pp.1251-1258,June 1998Seiichi Uchida and Hiroaki Sakoe, “Study of monotonic continuous two-dimensional warp method based on dynamic programming”, IEICE theory (D-II) Vol. J81-D-II no. 6, pp.1251-1258, June 1998 特願2002−056661号Japanese Patent Application No. 2002-056761

しかしながら、この従来技術3では、各類似度画像の全画素を探索範囲として累積加算処理および更新処理を繰り返して対応点を求めるものであるため、処理を迅速化する上での制約があった。   However, in this prior art 3, since all the pixels of each similarity image are used as a search range and the cumulative addition process and the update process are repeated to obtain corresponding points, there is a limitation in speeding up the process.

また、同じパターンが周期的に現れる画像間の対応付けをおこなう場合、精度の良い対応付け結果を取得することが困難であるという問題点があった。具体的には、参照画像および入力画像に同じパターンが周期的に存在することに起因して同一の類似度画像内に画素値の近い画素が複数存在するようになる。このため、類似度画像の最大値の位置が曖昧になり、精度の良い対応付け結果を取得することができない。   In addition, when matching between images in which the same pattern appears periodically, there is a problem that it is difficult to obtain a highly accurate matching result. Specifically, due to the same pattern periodically present in the reference image and the input image, there are a plurality of pixels having similar pixel values in the same similarity image. For this reason, the position of the maximum value of the similarity image becomes ambiguous, and an accurate association result cannot be acquired.

そこで、この発明は、上述した従来技術による問題点を解消するためになされたものであり、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる画像の対応点探索方法、対応点探索装置および対応点探索プログラムを提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems caused by the prior art, and when performing association between images, a stable association result that is unlikely to fall into a local solution is acquired quickly and efficiently. An object of the present invention is to provide a corresponding point search method, a corresponding point search device, and a corresponding point search program.

上述した課題を解決し、目的を達成するため、本発明は、入力画像と参照画像の類似度を画素値として持つ類似度画像を作成し、該類似度画像に対して対応点探索処理をおこなって対応点を決定する画像の対応点探索方法であって、前記類似度画像に対して最大値圧縮をおこなった後に、該最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定する領域特定工程と、前記領域特定工程によって特定された各類似度画像内の領域に限定して対応点探索処理をおこなって、各類似度画像内の対応点を決定する対応点決定工程とを含んだことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention creates a similarity image having the similarity between the input image and the reference image as a pixel value, and performs corresponding point search processing on the similarity image. The corresponding point search method of the image for determining the corresponding points, wherein after the maximum value compression is performed on the similarity image, the corresponding point search process is performed on the similarity image on which the maximum value compression has been performed. The region specifying step for specifying the region where the corresponding point exists in each similarity image, and the corresponding point search processing limited to the region in each similarity image specified by the region specifying step, And a corresponding point determining step for determining corresponding points in each similarity image.

また、本発明は、入力画像と参照画像の類似度を画素値として持つ類似度画像を作成し、該類似度画像に対して対応点探索処理をおこなって対応点を決定する画像の対応点探索方法であって、前記類似度画像に対して最大値圧縮を段階的に繰り返しおこなう類似度画像圧縮処理工程と、前記類似度画像圧縮処理工程によって最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定する領域特定工程と、前記領域特定工程によって各類似度画像内で対応点が存在するとして特定された領域が画像中心になるようにシフトするシフト工程と、前記領域特定工程によって特定された各類似度画像内の領域に限定して対応点探索処理をおこなった後に、前記シフト工程による前記シフトの累積量に応じて各類似度画像内の対応点を決定する対応点決定工程とを含んだことを特徴とする。 Also, the present invention creates a similarity image having the similarity between the input image and the reference image as a pixel value, and performs corresponding point search processing on the similarity image to determine corresponding points. A similarity image compression processing step that repeatedly performs maximum value compression on the similarity image in stages, and a similarity image that has been subjected to maximum value compression by the similarity image compression processing step. An area specifying step for performing a corresponding point search process to specify an area where a corresponding point exists in each similarity image, and an area specified as having a corresponding point in each similarity image by the area specifying step After performing the shift process for shifting to the center of the image and performing the corresponding point search process limited to the area in each similarity image specified by the area specifying process, the shift process by the shift process. It contains a corresponding point determination step of determining a corresponding point in each similarity image according to the accumulated amount of bets characterized.

また、本発明は、入力画像と参照画像の類似度を画素値として持つ類似度画像を作成し、該類似度画像に対して対応点探索処理をおこなって対応点を決定する画像の対応点探索装置であって、前記類似度画像に対して最大値圧縮をおこなった後に、該最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定する領域特定手段と、前記領域特定手段によって特定された各類似度画像内の領域に限定して対応点探索処理をおこなって、各類似度画像内の対応点を決定する対応点決定手段とを備えたことを特徴とする。 Also, the present invention creates a similarity image having the similarity between the input image and the reference image as a pixel value, and performs corresponding point search processing on the similarity image to determine corresponding points. The apparatus, after performing maximum value compression on the similarity image, performing corresponding point search processing on the similarity image on which the maximum value compression has been performed, and corresponding points in each similarity image The region specifying means for specifying the region where the image is present, and the corresponding point search processing is limited to the regions in each similarity image specified by the region specifying means, and the corresponding points in each similarity image are determined. And corresponding point determination means.

また、本発明は、入力画像と参照画像の類似度を画素値として持つ類似度画像を作成し、該類似度画像に対して対応点探索処理をおこなって対応点を決定する画像の対応点探索装置であって、前記類似度画像に対して最大値圧縮を段階的に繰り返しおこなう類似度画像圧縮処理手段と、前記類似度画像圧縮処理手段によって最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定する領域特定手段と、前記領域特定手段によって各類似度画像内で対応点が存在するとして特定された領域が画像中心になるようにシフトするシフト手段と、前記領域特定手段によって特定された各類似度画像内の領域に限定して対応点探索処理をおこなった後に、前記シフト手段による前記シフトの累積量に応じて各類似度画像内の対応点を決定する対応点決定手段とを備えたことを特徴とする。 Also, the present invention creates a similarity image having the similarity between the input image and the reference image as a pixel value, and performs corresponding point search processing on the similarity image to determine corresponding points. A similarity image compression processing unit that repeatedly performs maximum value compression on the similarity image stepwise, and a similarity image that has been subjected to maximum value compression by the similarity image compression processing unit. A region specifying unit that performs a corresponding point search process to specify a region where a corresponding point exists in each similarity image, and a region specified by the region specifying unit as having a corresponding point in each similarity image After performing a corresponding point search process limited to a region in each similarity image specified by the region specifying unit and a shift unit that shifts to be the center of the image, Characterized by comprising in the corresponding point determination means for determining a corresponding point in each similarity image according to the accumulated amount of bets.

また、本発明は、入力画像と参照画像の類似度を画素値として持つ類似度画像を作成し、該類似度画像に対して対応点探索処理をおこなって対応点を決定する画像の対応点探索プログラムであって、前記類似度画像に対して最大値圧縮をおこなった後に、該最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定する領域特定手順と、前記領域特定手順によって特定された各類似度画像内の領域に限定して対応点探索処理をおこなって、各類似度画像内の対応点を決定する対応点決定手順とをコンピュータに実行させることを特徴とする。 Also, the present invention creates a similarity image having the similarity between the input image and the reference image as a pixel value, and performs corresponding point search processing on the similarity image to determine corresponding points. After performing maximum value compression on the similarity image, the program performs corresponding point search processing on the similarity image on which the maximum value compression has been performed, and corresponding points in each similarity image The corresponding point search process is performed only for the region specifying procedure for specifying the region in which the image exists, and the region in each similarity image specified by the region specifying procedure, and the corresponding point in each similarity image is determined. And causing the computer to execute a corresponding point determination procedure.

本発明に係る対応点探索方法によれば、類似度画像に対して最大値圧縮をおこなった後に、該最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定し、各類似度画像内の領域に限定して対応点探索処理をおこなって、各類似度画像内の対応点を決定するように構成したので、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる。さらに、これに関連して、最大値圧縮した類似度画像に対して「対応点探索処理」をおこなうことにより、隣接するブロック(類似度画像)間の変形許容度が大きくなり、画像の大きな変形に追従できるようになる。このため、元の類似度画像に対して「対応点探索処理」をおこなう際に変形許容度を限定する(累積加算処理部17におけるαの値を1に近づける)ことが可能になり、同じパターンが周期的に現れる画像間の対応付けをおこなう場合でも、精度の良い対応付け結果を取得することができる。   According to the corresponding point search method of the present invention, after performing maximum value compression on a similarity image, corresponding point search processing is performed on the similarity image on which the maximum value compression has been performed, and Since the region where the corresponding point exists in the degree image is specified, the corresponding point search process is performed only in the region in each similarity image, and the corresponding point in each similarity image is determined. When associating images, a stable associating result that is unlikely to fall into a local solution can be acquired quickly and efficiently. Further, in relation to this, by performing “corresponding point search processing” on the similarity image having the maximum value compressed, the deformation tolerance between the adjacent blocks (similarity images) is increased, and the image is greatly deformed. Can follow. For this reason, it becomes possible to limit the deformation tolerance when the “corresponding point search process” is performed on the original similarity image (the value of α in the cumulative addition processing unit 17 approaches 1), and the same pattern Even when performing association between images that periodically appear, an accurate association result can be acquired.

また、本発明によれば、類似度画像に対して最大値圧縮を段階的に繰り返しおこない、最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定し、各類似度画像内で対応点が存在するとして特定された領域が画像中心になるようにシフトし、各類似度画像内の領域に限定して対応点探索処理をおこなった後に、シフトの累積量に応じて各類似度画像内の対応点を決定するよう構成したので、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる。   Further, according to the present invention, maximum value compression is repeatedly performed in steps on similarity images, and corresponding point search processing is performed on similarity images on which maximum value compression has been performed. To identify the area where the corresponding point exists, shift the area identified as having the corresponding point in each similarity image to be the center of the image, and limit the corresponding point to the area in each similarity image After performing the search process, the corresponding points in each similarity image are determined according to the cumulative amount of shift, so when matching between images, stable matching results that are difficult to fall into a local solution Can be obtained quickly and efficiently.

以下に添付図面を参照して、この発明に係る画像の対応点探索方法、対応点探索装置および対応点探索プログラムの好適な実施例を詳細に説明する。   Exemplary embodiments of a corresponding point search method, a corresponding point search apparatus, and a corresponding point search program according to the present invention will be described below in detail with reference to the accompanying drawings.

図1は、本実施例で用いる対応点探索装置の構成を示す機能ブロック図である。同図に示す対応点探索装置1は、概略的には、(1)入力画像を分割した入力部分画像と参照画像を分割した参照部分画像との間の類似度を示す類似度画像を作成する類似度画像作成段階と、(2)類似度画像に対して最大値圧縮をおこなった後に、該最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域(対応点候補位置)を特定する「対応点候補位置特定段階」(特許請求の範囲に記載の「領域特定手段」に相当する。)と、(3)対応点候補位置特定段階で特定された各類似度画像内の領域に限定して対応点探索処理をおこなって、各類似度画像内の対応点を決定する「対応点決定段階」の3つの段階の処理をおこなう。   FIG. 1 is a functional block diagram showing the configuration of the corresponding point search apparatus used in this embodiment. The corresponding point search apparatus 1 shown in the figure schematically creates (1) a similarity image indicating a similarity between an input partial image obtained by dividing an input image and a reference partial image obtained by dividing a reference image. (2) After performing maximum value compression on the similarity image, corresponding point search processing is performed on the similarity image on which the maximum value compression has been performed. A “corresponding point candidate position specifying stage” (corresponding to “area specifying means” described in the claims) for specifying a region (corresponding point candidate position) in which corresponding points exist, and (3) corresponding points Three-step processing of “corresponding point determination step” for determining corresponding points in each similarity image by performing corresponding point search processing limited to the region in each similarity image specified in the candidate position specifying step To do.

具体的には、(1)類似度画像作成段階では、たとえば16×16画素のサイズからなる参照部分画像を48×48画素のサイズからなる入力部分画像内を移動させつつ順次相関値を求め、この相関値を画素値として持つ類似度画像を作成する(図5参照)。このため、この類似度画像は、参照部分画像上の中心点が入力部分画像上の点にどの程度類似しているかを示すことになる。   Specifically, (1) at the similarity image creation stage, for example, a correlation value is sequentially obtained while moving a reference partial image having a size of 16 × 16 pixels within an input partial image having a size of 48 × 48 pixels, A similarity image having the correlation value as a pixel value is created (see FIG. 5). For this reason, this similarity image indicates how similar the center point on the reference partial image is to the point on the input partial image.

次に、(2)対応点候補位置特定段階では、類似度画像に対して1/4最大値圧縮をおこない、該最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、類似度画像の解像度が1/4の場合(粗探索時)での対応点を求める(図8参照)。この粗探索時での「対応点」(すなわち、「対応点候補位置」)は、元の類似度画像の対応点が存在し得る領域を示唆するものである。さらに、類似度画像に対して1/2最大値圧縮をおこなった場合についても同様に「対応点候補位置」を求め(図9参照)、各類似度画像内で対応点が存在する領域を段階的に絞り込んでいく(図6参照)。   Next, (2) in the corresponding point candidate position specifying stage, the maximum similarity value compression is performed on the similarity image, and the corresponding point search process is performed on the similarity image on which the maximum value compression has been performed. Corresponding points when the resolution of the similarity image is 1/4 (during rough search) are obtained (see FIG. 8). The “corresponding point” (that is, “corresponding point candidate position”) at the time of this rough search suggests an area where the corresponding point of the original similarity image can exist. Further, in the case where 1/2 maximum value compression is performed on similarity images, “corresponding point candidate positions” are similarly obtained (see FIG. 9), and regions where corresponding points exist in each similarity image are staged. (Refer to FIG. 6).

そして、(3)対応点決定段階では、対応点探索処理の探索範囲を各類似度画像内で対応点が存在する領域に限定し、該限定された探索範囲(各類似度画像内で対応点が存在する領域)の画素値を累積加算した結果に基づいて最適な対応点を決定する(図6および図10参照)。   Then, (3) at the corresponding point determination stage, the search range of the corresponding point search process is limited to a region where the corresponding point exists in each similarity image, and the limited search range (corresponding point in each similarity image) The optimum corresponding point is determined based on the result of cumulative addition of the pixel values in the region where the pixel exists) (see FIGS. 6 and 10).

次に、図1に示した対応点探索装置1の構成について説明する。なお、ここでは参照画像、入力画像の順に画像を入力する場合を示すこととする。図1に示すように、この対応点探索装置1は、画像入力部10と、分割処理部11と、参照部分画像一時記憶部12と、類似度画像作成部13と、類似度画像圧縮処理部14と、シフト量算出部15と、シフト補正部16と、累積加算処理部17と、類似度画像更新部18と、対応点決定部19と、からなる。   Next, the configuration of the corresponding point search apparatus 1 shown in FIG. 1 will be described. Here, the case where the images are input in the order of the reference image and the input image is shown. As shown in FIG. 1, the corresponding point search apparatus 1 includes an image input unit 10, a division processing unit 11, a reference partial image temporary storage unit 12, a similarity image creation unit 13, and a similarity image compression processing unit. 14, a shift amount calculation unit 15, a shift correction unit 16, a cumulative addition processing unit 17, a similarity image update unit 18, and a corresponding point determination unit 19.

画像入力部10は、縦横のサイズI、Jからなる参照画像I0(i,j)および入力画像I1(i,j)(0≦i≦I−1,0≦j≦J−1)を入力する入力部である。具体的には、光学的に原稿を読み取って画像を取得するスキャナや、ネットワークから画像を取得するインターフェース部や、二次記憶装置から画像を読み出す読み出し部が該当する。ここで、この入力画像とは、対応点の探索対象となる画像であって、歪みや変形を伴うものであっても良い。これに対して、参照画像とは、入力画像の比較の対象となる画像であり、歪みなどを伴わないものであることが望ましい。 The image input unit 10 includes a reference image I 0 (i, j) and an input image I 1 (i, j) (0 ≦ i ≦ I−1, 0 ≦ j ≦ J−1) having vertical and horizontal sizes I and J. Is an input unit for inputting. Specifically, a scanner that optically reads a document to acquire an image, an interface unit that acquires an image from a network, and a reading unit that reads an image from a secondary storage device are applicable. Here, the input image is an image to be searched for corresponding points, and may be one that is distorted or deformed. On the other hand, the reference image is an image to be compared with the input image, and it is desirable that the image is not accompanied by distortion.

図2−1には参照画像21を示しており、図2−2には入力画像22を示している。これらの参照画像21および入力画像22は、いずれも同じパターン(斜線)が繰り返し周期的に現れる画像であり、48×64画素からなる。   FIG. 2A shows a reference image 21, and FIG. 2B shows an input image 22. Each of the reference image 21 and the input image 22 is an image in which the same pattern (oblique line) repeatedly appears periodically, and is composed of 48 × 64 pixels.

分割処理部11は、画像入力部10により入力された入力画像および参照画像を入力部分画像および参照部分画像にそれぞれ分割する処理部である。ただし、入力画像の分割手順と参照画像の分割手順はそれぞれ異なる。   The division processing unit 11 is a processing unit that divides the input image and the reference image input by the image input unit 10 into an input partial image and a reference partial image, respectively. However, the procedure for dividing the input image is different from the procedure for dividing the reference image.

参照画像を分割する場合には、参照画像上で縦方向にM個、横方向にN個サンプリングした点(pm,qn)(0≦m≦M−1,0≦n≦N−1)を中心とした参照部分画像を作成する。図3は、図2−1に示した参照画像21の分割結果の一例を示す図であり、同図に示すように、ここでは48×64画素の参照画像21を16×16画素からなる12個の参照部分画像に分割している。具体的には、pm=round(I/M)、qn=round(J/N)としている。ただし、round()は四捨五入を示している。 When the reference image is divided, M (vertical m , q n ) points (p m , q n ) (0 ≦ m ≦ M−1, 0 ≦ n ≦ N−1) are sampled vertically and N on the reference image ) To create a reference partial image. FIG. 3 is a diagram illustrating an example of the division result of the reference image 21 illustrated in FIG. 2A. As illustrated in FIG. 3, the reference image 21 of 48 × 64 pixels is represented by 12 × 16 × 16 pixels. It is divided into reference partial images. Specifically, p m = round (I / M) and q n = round (J / N). However, round () indicates rounding off.

入力画像を分割する場合には、参照画像を分割する場合と異なり、各入力部分画像の一部が重なり合う重複したデータを持つように分割する。図4は、図2−2に示した入力画像22の分割結果の一例を示す図であり、同図に示すように、ここでは48×64画素の入力画像22を48×48画素からなる12個の入力部分画像に分割している。   When the input image is divided, unlike the case where the reference image is divided, the input image is divided so that a part of each input partial image has overlapping data. FIG. 4 is a diagram showing an example of the division result of the input image 22 shown in FIG. 2-2. As shown in the figure, here, the input image 22 of 48 × 64 pixels is formed of 12 × 48 × 48 pixels. It is divided into input partial images.

参照部分画像一時記憶部12は、分割処理部11で分割した各参照部分画像を一時記憶する記憶部であり、類似度画像作成部13が類似度画像を作成する際に該当する参照部分画像が取り出される。   The reference partial image temporary storage unit 12 is a storage unit that temporarily stores each reference partial image divided by the division processing unit 11, and the reference partial image corresponding when the similarity image creating unit 13 creates the similarity image is displayed. It is taken out.

類似度画像作成部13は、入力部分画像と参照部分画像の間の変形を考慮した類似度を算定して、該類似度を画素値として持つ類似度画像C(m , n , u , v)(0≦m≦M−1,0≦n≦N−1,0≦u≦U−1,0≦v≦V−1)を作成する処理部である。ただし、U,Vはそれぞれ類似度画像の縦横のサイズであるものとする。この類似度として正規化相関係数を用いることができる。   The similarity image creation unit 13 calculates a similarity considering the deformation between the input partial image and the reference partial image, and a similarity image C (m 1, n 2, u 3 v) having the similarity as a pixel value. (0 ≦ m ≦ M−1, 0 ≦ n ≦ N−1, 0 ≦ u ≦ U−1, 0 ≦ v ≦ V−1). However, U and V are the vertical and horizontal sizes of the similarity image. A normalized correlation coefficient can be used as this similarity.

図5は、参照部分画像と入力部分画像から類似度画像を作成する概念を説明するための説明図である。なお、ここでは図3および図4の2行2列に位置する入力部分画像と参照部分画像を用いることとする。   FIG. 5 is an explanatory diagram for explaining the concept of creating a similarity image from a reference partial image and an input partial image. Here, the input partial image and the reference partial image located in 2 rows and 2 columns of FIGS. 3 and 4 are used.

同図に示すように、入力部分画像51と参照部分画像52の類似度を求める場合には、参照部分画像52の中心画素を入力部分画像51の左上部の画素に対応づけて正規化相関係数を計算し、その計算結果を類似度画像53の左上部の画素の画素値とする。その後、参照部分画像52を右にずらし、同様の処理をおこなう。上記処理を参照部分画像52をずらしながら入力部分画像51の全画素についておこなうことにより、類似度画像53が求められる。   As shown in the figure, when obtaining the similarity between the input partial image 51 and the reference partial image 52, the normalization phase relationship is obtained by associating the center pixel of the reference partial image 52 with the upper left pixel of the input partial image 51. The number is calculated, and the calculation result is set as the pixel value of the upper left pixel of the similarity image 53. Thereafter, the reference partial image 52 is shifted to the right, and the same processing is performed. The similarity image 53 is obtained by performing the above processing for all the pixels of the input partial image 51 while shifting the reference partial image 52.

かかる類似度画像の作成処理を各入力部分画像ごとにおこなうと、図6に示す(1)のような複数の類似度画像が得られる。なお、参照部分画像の全ての画素の画素値が一定値である場合には、正規化相関係数の分母がゼロとなるため、この場合の類似度画像の画素値もゼロとなる。   When the similarity image creation process is performed for each input partial image, a plurality of similarity images such as (1) shown in FIG. 6 are obtained. Note that when the pixel values of all the pixels of the reference partial image are constant, the denominator of the normalized correlation coefficient is zero, and the pixel value of the similarity image in this case is also zero.

類似度画像圧縮処理部14は、類似度画像作成部13によって作成された類似度画像に対して最大値圧縮をおこなう処理部である。具体的には、類似度画像作成部13によって作成された類似度画像(図6に示す(1))に対して1/4最大値圧縮または1/2最大値圧縮をおこなう(図6に示す(2)および図6に示す(3)参照)。このように、類似度画像に対して最大値圧縮をおこなうこととしたのは、最大値圧縮がおこなわれた類似度画像に対して、後述する「対応点探索処理」をおこなって「対応点候補位置」を求めることにより、各類似度画像内で対応点(解)が存在する領域を特定するためである。   The similarity image compression processing unit 14 is a processing unit that performs maximum value compression on the similarity image created by the similarity image creation unit 13. Specifically, 1/4 maximum value compression or 1/2 maximum value compression is performed on the similarity image created by the similarity image creation unit 13 ((1) shown in FIG. 6) (shown in FIG. 6). (See (2) and (3) shown in FIG. 6). As described above, the maximum value compression is performed on the similarity image because the “corresponding point search process” described later is performed on the similarity image on which the maximum value compression is performed, and “corresponding point candidate” is selected. This is because the region where the corresponding point (solution) exists in each similarity image is specified by obtaining the “position”.

また、「最大値圧縮」とは、画像を所定の圧縮率で圧縮する場合に、圧縮画像として画素値が最大のものを抽出して画像を圧縮することを言う。例えば、図7に示すように、8×8画素の画像を1/4最大値圧縮する場合、4×4マスク内の最大値を1画素として抽出する。   “Maximum value compression” means that when an image is compressed at a predetermined compression rate, a compressed image having a maximum pixel value is extracted and the image is compressed. For example, as shown in FIG. 7, when an 8 × 8 pixel image is compressed by ¼ maximum value, the maximum value in the 4 × 4 mask is extracted as one pixel.

シフト量算出部15は、「対応点候補位置特定段階」で「対応点探索処理」によって特定された「対応点候補位置」に基づいて元の類似度画像の対応点が存在する領域が画像中心となるシフト量を算出する処理部である。具体的には、1/4最大値圧縮または1/2最大値圧縮がおこなわれた類似度画像の中心点に対する「対応点候補位置」のずれから算出される。また、1/4最大値圧縮された類似度画像における対応点候補位置から求められた「シフト量」および1/2最大値圧縮された類似度画像における対応点候補位置から求められた「シフト量」を順次累積して「累積シフト量」を算出する。   The shift amount calculation unit 15 determines that the region where the corresponding point of the original similarity image exists based on the “corresponding point candidate position” specified by the “corresponding point search process” in the “corresponding point candidate position specifying stage” is the image center Is a processing unit that calculates the shift amount. Specifically, it is calculated from the shift of the “corresponding point candidate position” with respect to the center point of the similarity image that has been subjected to the 1/4 maximum value compression or the 1/2 maximum value compression. Also, the “shift amount” obtained from the corresponding point candidate position in the similarity image compressed by ¼ maximum value and the “shift amount” obtained from the corresponding point candidate position in the similarity image compressed by ½ maximum value. Are sequentially accumulated to calculate an “accumulated shift amount”.

シフト補正部16は、シフト量算出部15によって算出されたシフト量に応じて元の類似度画像の対応点が存在する領域が中心となるように元の類似度画像をシフト補正する処理部である。具体的には、1/4最大値圧縮された類似度画像の「対応点候補位置」が特定された後、1/2最大値圧縮における類似度画像に対して対応点探索処理をおこなう前処理としてシフト量算出部18によって算出されたシフト量に応じて元の類似度画像をシフト補正する(図9参照)。同様にして、1/2最大値圧縮された類似度画像の対応点候補位置が特定された後(「対応点候補位置特定段階」が終了した後)、「対応点決定段階」において、元の類似度画像の対応点を決定する前処理としてシフト量算出部15によって算出されたシフト量に応じて元の類似度画像をシフト補正する(図10参照)。   The shift correction unit 16 is a processing unit that shift-corrects the original similarity image so that the region where the corresponding point of the original similarity image exists is centered according to the shift amount calculated by the shift amount calculation unit 15. is there. Specifically, after the “corresponding point candidate position” of the similarity image compressed by ¼ maximum value is specified, preprocessing for performing corresponding point search processing on the similarity image in ½ maximum value compression Then, the original similarity image is shift-corrected according to the shift amount calculated by the shift amount calculation unit 18 (see FIG. 9). Similarly, after the corresponding point candidate position of the similarity image compressed by 1/2 maximum value is specified (after the “corresponding point candidate position specifying stage” is completed), in the “corresponding point determination stage”, the original As a pre-process for determining the corresponding points of the similarity image, the original similarity image is shift-corrected according to the shift amount calculated by the shift amount calculation unit 15 (see FIG. 10).

ここで、本発明に密接に関連する「対応点探索処理」について説明する。この「対応点探索処理」は、概略的に、各類似度画像の画素値を垂直方向および水平方向別に独立に累積加算を繰り返した後に、これらの累積加算結果から得られる各画素の周辺画素の最大値を類似度画像の各画素の画素値に累積加算して類似度画像を更新し、更新後の各類似度画像の最大値の位置と更新前の各類似度画像の最大値の位置との変動が所定値未満となるまでこれらの処理を繰り返して、入力部分画像上での対応点を求める処理であり、機能概念的に、累積加算処理部17、類似度画像更新部18および対応点決定部19によって上記の処理がおこなわれる。   Here, the “corresponding point search process” closely related to the present invention will be described. This “corresponding point search process” generally involves repeating the cumulative addition of the pixel values of each similarity image independently in the vertical direction and the horizontal direction, and then determining the peripheral pixels of each pixel obtained from these cumulative addition results. The maximum value is cumulatively added to the pixel value of each pixel of the similarity image to update the similarity image, and the position of the maximum value of each similarity image after the update and the position of the maximum value of each similarity image before the update These processes are repeated until the fluctuation of the value becomes less than a predetermined value to obtain corresponding points on the input partial image. Functionally, the cumulative addition processing unit 17, the similarity image updating unit 18, and the corresponding points The determination unit 19 performs the above processing.

このうち、累積加算処理部17は、図11に示すように、各類似度画像を横方向(j方向)、該横方向の逆方向(−j方向)、縦方向(i方向)、該縦方向の逆方向(−i方向)にそれぞれ独立して累積加算する処理部である。具体的には、類似度画像全体C(m , n , u , v)を4枚複写して、これをそれぞれD1(m , n, u , v)、D2(m , n , u , v)、D3(m , n , u , v)、D4(m , n , u , v)とし、それぞれj方向、−j方向、i方向、−i方向の累積加算に使用する。たとえば、D1(m , n , u , v)を用いてj方向に累積加算する場合には、n=1〜N−1の類似度画像について、
D1(m , n , u , v)=C(m , n , u , v)+α・Max(D1(m , n-1 ,p , q))
を順次再帰的に計算する。ただし、Max()は最大値を示し、αは定数であり、0≦u≦U−1、0≦v≦V−1、0≦m≦M−1、0≦n≦N−1、u−1≦p≦u+1、v−1≦q≦v+1とする。
Among these, the cumulative addition processing unit 17, as shown in FIG. 11, displays each similarity image in the horizontal direction (j direction), the reverse direction of the horizontal direction (−j direction), the vertical direction (i direction), and the vertical direction. It is a processing unit that performs cumulative addition independently in the opposite direction (−i direction). Specifically, four similar images C (m, n, u, v) are copied, and these are copied as D1 (m, n, u, v) and D2 (m, n, u, v), respectively. , D3 (m, n, u, v) and D4 (m, n, u, v), which are used for cumulative addition in the j direction, -j direction, i direction, and -i direction, respectively. For example, in the case of cumulative addition in the j direction using D1 (m, n, u, v), for similarity images of n = 1 to N−1,
D1 (m, n, u, v) = C (m, n, u, v) + α · Max (D1 (m, n-1, p, q))
Are sequentially recursively calculated. However, Max () indicates the maximum value, α is a constant, 0 ≦ u ≦ U−1, 0 ≦ v ≦ V−1, 0 ≦ m ≦ M−1, 0 ≦ n ≦ N−1, u −1 ≦ p ≦ u + 1 and v−1 ≦ q ≦ v + 1.

すなわち、j方向に累積加算する場合には、図12に示すように、D1(m , n-1 , u , v)を中心とする8近傍内の9画素のうちの最大の画素値を求め、この最大の画素値をα倍してC(m , n , u , v)の画素値に加算する処理を再帰的に繰り返すことになる。   That is, when accumulatively adding in the j direction, as shown in FIG. 12, the maximum pixel value of 9 pixels in 8 neighborhoods centered on D1 (m, n-1, u, v) is obtained. The process of multiplying the maximum pixel value by α and adding it to the pixel value of C (m, n, u, v) is recursively repeated.

また、−j方向に累積加算する場合には、n=N−2〜0の類似度画像について、
D3(m , n , u , v )=C(m , n , u , v)+α・Max(D3(m , n+1 , p , q))
を順次再帰的に計算する。ただし、0≦u≦U−1、0≦v≦V−1、0≦m≦M−1、0≦n≦N−2とする。すなわち、−j方向に累積加算する場合には、図13に示すように、D3(m , n+1 ,u , v)を中心とする8近傍内の9画素のうちの最大の画素値を求め、この最大の画素値をα倍してC(m , n , u , v)の画素値に加算する処理を再帰的に繰り返すことになる。
When accumulatively adding in the −j direction, n = N−2 to 0 similarity images,
D3 (m, n, u, v) = C (m, n, u, v) + α · Max (D3 (m, n + 1, p, q))
Are sequentially recursively calculated. However, 0≤u≤U-1, 0≤v≤V-1, 0≤m≤M-1, and 0≤n≤N-2. That is, when cumulative addition is performed in the −j direction, as shown in FIG. 13, the maximum pixel value among 9 pixels in 8 neighborhoods centered on D3 (m, n + 1, u, v) is set. The process of obtaining and multiplying the maximum pixel value by α and adding it to the pixel value of C (m, n, u, v) is recursively repeated.

また、i方向に累積加算する場合には、m=1〜M−1の類似度画像について、
D2(m , n , u , v)=C(m , n , u , v)+α・Max(D2(m-1 , n, p , q))
を順次再帰的に計算する。ただし、0≦u≦U−1、0≦v≦V−1、1≦m≦M−1、0≦n≦N−1とする。すなわち、i方向に累積加算する場合には、図14に示すように、D2(m-1 , n , u , v)を中心とする8近傍内の9画素のうちの最大の画素値を求め、この最大の画素値をα倍してC(m , n , u , v)の画素値に加算する処理を再帰的に繰り返すことになる。
In addition, in the case of cumulative addition in the i direction, for m = 1 to M−1 similarity images,
D2 (m, n, u, v) = C (m, n, u, v) + α · Max (D2 (m−1, n, p, q))
Are sequentially recursively calculated. However, 0≤u≤U-1, 0≤v≤V-1, 1≤m≤M-1, and 0≤n≤N-1. That is, when accumulatively adding in the i direction, as shown in FIG. 14, the maximum pixel value of 9 pixels in 8 neighborhoods centered on D2 (m−1, n, u, v) is obtained. The process of multiplying the maximum pixel value by α and adding it to the pixel value of C (m, n, u, v) is recursively repeated.

また、−i方向に累積加算する場合には、m=M−2〜0の類似度画像について、
D4(m , n , u , v)=C(m , n , u , v)+α・Max(D4(m+1 , n ,p , q))
を順次再帰的に計算する。ただし、0≦u≦U−1、0≦v≦V−1、0≦m≦M−2、0≦n≦N−1とする。すなわち、−i方向に累積加算する場合には、図15に示すように、D4(m+1 , n , u , v)を中心とする8近傍内の9画素のうちの最大の画素値を求め、この最大の画素値をα倍してC(m , n , u , v)の画素値に加算する処理を再帰的に繰り返すことになる。
In addition, in the case of cumulative addition in the -i direction, for similarity images of m = M-2 to 0,
D4 (m, n, u, v) = C (m, n, u, v) + α · Max (D4 (m + 1, n, p, q))
Are sequentially recursively calculated. However, 0≤u≤U-1, 0≤v≤V-1, 0≤m≤M-2, and 0≤n≤N-1. That is, when accumulatively adding in the -i direction, as shown in FIG. 15, the maximum pixel value of 9 pixels in 8 neighborhoods centered on D4 (m + 1, n, u, v) is set. The process of obtaining and multiplying the maximum pixel value by α and adding it to the pixel value of C (m, n, u, v) is recursively repeated.

類似度画像更新部18は、累積加算処理部17の累積加算後の類似度画像に基づいて類似度画像を更新する処理部である。具体的には、まず各方向についての累積加算処理をおこなったならば、図16の概念図に示すように、
C(m , n , u , v)=C(m , n , u , v)+α・Max(D1(m , n-1 ,p , q))
+α・Max(D2(m-1 , n , p , q))
+α・Max(D3(m , n+1 , p , q))
+α・Max(D4(m+1, n , p , q))
の算定式によりC( m , n , u , v)を更新する。
The similarity image update unit 18 is a processing unit that updates the similarity image based on the similarity image after the cumulative addition of the cumulative addition processing unit 17. Specifically, if cumulative addition processing is performed for each direction, as shown in the conceptual diagram of FIG.
C (m, n, u, v) = C (m, n, u, v) + α · Max (D1 (m, n-1, p, q))
+ Α · Max (D2 (m−1, n, p, q))
+ Α · Max (D3 (m, n + 1, p, q))
+ Α · Max (D4 (m + 1, n, p, q))
C (m, n, u, v) is updated by the following formula.

その後、対応点決定部19は、各類似度画像の最大値の位置を検出し、それらの位置と前回の各類似度画像の最大値の位置との変化が所定の範囲内でなければ累積加算処理をフィードバックして繰り返し、所定の範囲内となった時点で繰り返しを終了し、そのときの各類似度画像の最大値の位置を対応点として決定する(図6に示す(4)参照)。   Thereafter, the corresponding point determination unit 19 detects the position of the maximum value of each similarity image, and cumulative addition is performed unless the change between these positions and the position of the maximum value of each previous similarity image is within a predetermined range. The process is repeated by feeding back, and the repetition is terminated when it falls within a predetermined range, and the position of the maximum value of each similarity image at that time is determined as a corresponding point (see (4) shown in FIG. 6).

ここで、この対応点探索装置1は、類似度画像圧縮処理部14によって最大値圧縮された類似度画像に対して「対応点探索処理」をおこなうことによって各類似度画像内で対応点が存在する領域を示唆する「対応点候補位置」を特定する「対応点候補位置特定段階」と、「対応点候補位置特定段階」で得られた「対応点候補位置」が示唆する各類似度画像内の領域に限定して対応点探索処理をおこなって、各類似度画像内の対応点を決定する「対応点決定段階」に主たる特徴がある。   Here, the corresponding point search device 1 performs a “corresponding point search process” on the similarity image that has been subjected to maximum value compression by the similarity image compression processing unit 14, so that a corresponding point exists in each similarity image. Within each similarity image suggested by the “corresponding point candidate position identifying stage” that identifies the “corresponding point candidate position” that suggests the region to be used, and the “corresponding point candidate position” obtained in the “corresponding point candidate position identifying stage” There is a main feature in the “corresponding point determination stage” in which the corresponding point search process is performed only in the region and the corresponding points in each similarity image are determined.

この主たる特徴を具体的に説明すると、類似度画像圧縮処理部14によって1/4最大値圧縮がおこなわれた類似度画像を累積加算した結果に基づいて「対応点候補位置」を特定する(図6に示す(2)参照)。さらに、類似度画像圧縮処理部14によって1/2最大値圧縮された類似度画像に対して「対応点探索処理」をおこなう際に、1/4最大値圧縮された類似度画像の「対応点候補位置」に基づいて対応点探索処理の探索範囲を限定し(図9参照)、該限定された探索範囲(各類似度画像内で対応点が存在する領域)の画素値を累積加算した結果に基づいて対応点候補位置を特定する(図6に示す(3)参照)。このようにして、「対応点候補位置特定段階」では、各類似度画像内で対応点が存在する領域を段階的に絞り込んでいく(図6参照)。   This main feature will be specifically described. The “corresponding point candidate position” is specified based on the result of cumulative addition of the similarity images that have been subjected to ¼ maximum value compression by the similarity image compression processing unit 14 (FIG. 6 (see (2)). Furthermore, when the “corresponding point search process” is performed on the similarity image compressed by the maximum value of 1/2 by the similarity image compression processing unit 14, the “corresponding point” of the similarity image compressed by the maximum 1/4 value is used. The search range of the corresponding point search process is limited based on the “candidate position” (see FIG. 9), and the pixel values of the limited search range (the region where the corresponding point exists in each similarity image) are cumulatively added. The corresponding point candidate position is specified based on (see (3) shown in FIG. 6). In this way, in the “corresponding point candidate position specifying stage”, the areas where the corresponding points exist in each similarity image are narrowed down in stages (see FIG. 6).

そして、「対応点決定段階」では、「対応点候補位置特定段階」で得られた「対応点候補位置」に基づいて対応点探索処理の探索範囲(各類似度画像の全画素)を各類似度画像内で対応点が存在し得る領域に限定し(図10参照)、該限定された探索範囲(各類似度画像内で対応点が存在する領域)の画素値を累積加算した結果に基づいて最適な対応付け結果を求め、該対応付け結果にシフト量算出部18によって算出された「累積シフト量」を反映して対応点を決定する(図6に示す(4)参照)。   Then, in the “corresponding point determination stage”, the search range (all pixels of each similarity image) of the corresponding point search process is set based on the “corresponding point candidate position” obtained in the “corresponding point candidate position specifying stage”. Based on the result of accumulating the pixel values of the limited search range (the region where the corresponding points exist in each similarity image). Then, the optimum association result is obtained, and the corresponding point is determined by reflecting the “cumulative shift amount” calculated by the shift amount calculation unit 18 in the association result (see (4) shown in FIG. 6).

したがって、上記した従来技術の例で言えば、各類似度画像の全画素を探索範囲として「対応点探索処理」をおこなうのではなく、類似度画像に対して最大値圧縮をおこなった後に、該最大値圧縮がおこなわれた類似度画像に対して対応点探索処理をおこなって、各類似度画像内で対応点が存在する領域を特定し、各類似度画像内の領域に限定して「対応点探索処理」をおこなって、各類似度画像内の対応点を決定するよう構成したので、画像間の対応付け結果の精度を維持しつつ、高速かつ効率良く対応付け結果を取得することができる。   Therefore, in the above prior art example, instead of performing “corresponding point search processing” with all pixels of each similarity image as a search range, after performing maximum value compression on the similarity image, Corresponding point search processing is performed on the similarity image that has been subjected to maximum value compression, the region where the corresponding point exists in each similarity image is identified, and the corresponding image is limited to the region in each similarity image. Since “corresponding points in each similarity degree image” are determined by performing “point search processing”, it is possible to obtain the association result quickly and efficiently while maintaining the accuracy of the association result between the images. .

さらに、これに関連して、最大値圧縮した類似度画像に対して「対応点探索処理」をおこなうことにより、隣接するブロック(類似度画像)間の変形許容度が大きくなり、画像の大きな変形に追従できるようになる。このため、元の類似度画像に対して「対応点探索処理」をおこなう際に変形許容度を限定する(累積加算処理部17におけるαの値を1に近づける)ことが可能になり、同じパターンが周期的に現れる画像間の対応付けをおこなう場合でも、精度の良い対応付け結果を取得することができる。   Further, in relation to this, by performing “corresponding point search processing” on the similarity image having the maximum value compressed, the deformation tolerance between the adjacent blocks (similarity images) is increased, and the image is greatly deformed. Can follow. For this reason, it becomes possible to limit the deformation tolerance when the “corresponding point search process” is performed on the original similarity image (the value of α in the cumulative addition processing unit 17 approaches 1), and the same pattern Even when performing association between images that periodically appear, an accurate association result can be acquired.

次に、図1に示した対応点探索装置1の処理手順について説明する。なお、上記説明と一部重複するが、図2〜図16を用いて処理の流れを例示しつつ処理手順について説明することとする。   Next, the processing procedure of the corresponding point search apparatus 1 shown in FIG. 1 will be described. Although partially overlapping with the above description, the processing procedure will be described while exemplifying the processing flow with reference to FIGS.

図17は、図1に示した対応点探索装置1の処理手順を示すフローチャートである。同図に示すように、この対応点探索装置1が参照画像と入力画像を取得したならば、この参照画像を参照部分画像に分割する(ステップS101)。たとえば、図2−1に示した48×64画素の参照画像21を図3に示した16×16画素からなる12個の参照部分画像に分割して記憶する。この参照部分画像は、参照したい画像ごとに予め記憶しておいてもよいし、また、参照部分画像ではなく、参照画像のみを予め別途記憶しておき、後述する入力画像と参照画像との類似度画像の計算の際に、記憶された参照画像から参照部分画像に分割してもよい。   FIG. 17 is a flowchart showing a processing procedure of the corresponding point searching apparatus 1 shown in FIG. As shown in the figure, when the corresponding point search device 1 acquires a reference image and an input image, the reference image is divided into reference partial images (step S101). For example, the 48 × 64 pixel reference image 21 shown in FIG. 2A is divided into 12 reference partial images of 16 × 16 pixels shown in FIG. 3 and stored. The reference partial image may be stored in advance for each image to be referred to, or only the reference image is stored separately in advance, not the reference partial image, and the similarity between the input image and the reference image, which will be described later, is stored. When calculating the degree image, the stored reference image may be divided into reference partial images.

その後、入力画像を入力部分画像に分割する(ステップS102)。たとえば、図2−2に示した48×64画素の入力画像22を図4に示した48×48画素からなる12個の入力部分画像に分割する。   Thereafter, the input image is divided into input partial images (step S102). For example, the 48 × 64 pixel input image 22 shown in FIG. 2-2 is divided into 12 input partial images of 48 × 48 pixels shown in FIG.

そして、この参照部分画像と入力部分画像の間の類似度画像を作成する(ステップS103)。たとえば、図5に示すようにして入力部分画像51と参照部分画像52の類似度を画素値とする類似度画像53の作成を各入力部分画像ごとにおこなって、図6に示した(1)のような複数の類似度画像を作成する。   Then, a similarity image between the reference partial image and the input partial image is created (step S103). For example, as shown in FIG. 5, a similarity image 53 having the similarity between the input partial image 51 and the reference partial image 52 as a pixel value is created for each input partial image, which is shown in FIG. 6 (1). A plurality of similarity images are created.

続いて、類似度画像(図6に示す(1))に対して1/4最大値圧縮をおこなった後に(ステップS104)、1/4最大値圧縮された類似度画像に対して「対応点探索処理」をおこなう(ステップS105)。具体的には、類似度画像圧縮処理部14によって1/4最大値圧縮がおこなわれた類似度画像を累積加算した結果に基づいて対応点候補位置を特定する(図6に示す(2)参照)。   Subsequently, after the 1/4 maximum value compression is performed on the similarity image ((1) shown in FIG. 6) (step S104), the “corresponding point” is applied to the similarity image compressed by the 1/4 maximum value compression. "Search process" is performed (step S105). Specifically, corresponding point candidate positions are identified based on the result of cumulative addition of similarity images that have been subjected to 1/4 maximum compression by the similarity image compression processing unit 14 (see (2) shown in FIG. 6). ).

その後、1/4最大値圧縮がおこなわれた類似度画像の中心点に対する「対応点候補位置」のずれに基づいて元の類似度画像の対応点が存在する領域が画像中心となるシフト量を算出し(ステップS106)、元の類似度画像をシフト補正する(ステップS107)。   After that, based on the shift of the “corresponding point candidate position” with respect to the center point of the similarity image that has been subjected to the 1/4 maximum value compression, the shift amount in which the region where the corresponding point of the original similarity image exists becomes the image center is set. Calculation is performed (step S106), and the original similarity image is shift-corrected (step S107).

そして、類似度画像(図6に示す(1))に対して1/2最大値圧縮をおこなった後に(ステップS108)、1/4最大値圧縮された類似度画像の「対応点候補位置」が示唆する各類似度画像内の領域に限定して、1/2最大値圧縮がおこなわれた類似度画像に対して「対応点探索処理」を実行する(ステップS109)。   Then, after 1/2 maximum value compression is performed on the similarity image ((1) shown in FIG. 6) (step S108), the “corresponding point candidate position” of the similarity image compressed by 1/4 maximum value compression is performed. The “corresponding point search process” is executed on the similarity image that has been subjected to the 1/2 maximum value compression only in the region in each similarity image suggested by (step S109).

続いて、1/2最大値圧縮がおこなわれた類似度画像の中心点に対する「対応点候補位置」のずれに基づいて元の類似度画像の対応点が存在する領域が画像中心となるシフト量を算出し(ステップS110)、元の類似度画像をシフト補正する(ステップS111)。   Subsequently, based on the shift of the “corresponding point candidate position” with respect to the center point of the similarity image that has been subjected to 1/2 maximum value compression, the shift amount in which the region where the corresponding point of the original similarity image exists is the image center Is calculated (step S110), and the original similarity image is shift-corrected (step S111).

そして、1/2最大値圧縮された類似度画像の「対応点候補位置」が示唆する各類似度画像内の領域に限定して「対応点探索処理」を実行し(ステップS112)、該「対応点探索処理」の対応付け結果に「累積シフト量」を反映して対応点を決定する(ステップS113)。   Then, the “corresponding point search process” is executed only for the region in each similarity image suggested by the “corresponding point candidate position” of the similarity image compressed by the maximum value of 1/2 (step S112). Corresponding points are determined by reflecting “cumulative shift amount” in the association result of “corresponding point search process” (step S113).

次に、本発明に密接に関連する「対応点探索処理」における累積加算処理手順について詳細に説明する。図18は、図1に示した累積加算処理部17によるj方向の累積加算処理手順を示すフローチャートである。なお、−j方向、i方向、−i方向の累積加算処理も同様におこなうことができる。   Next, the cumulative addition process procedure in the “corresponding point search process” closely related to the present invention will be described in detail. FIG. 18 is a flowchart showing the cumulative addition processing procedure in the j direction by the cumulative addition processing unit 17 shown in FIG. The cumulative addition processing in the −j direction, i direction, and −i direction can be performed in the same manner.

同図に示すように、まず変数m、uおよびvを0にするとともに、変数nを1とする初期化をおこなう(ステップS201〜S204)。ここで、この変数mはi方向のインデックスとして用いる変数であり、変数nはj方向のインデックスとして用いる変数である。また、変数u,vは探索範囲を示すi方向およびj方向の変数である。   As shown in the figure, first, the variables m, u, and v are set to 0, and the variable n is set to 1 (steps S201 to S204). Here, the variable m is a variable used as an index in the i direction, and the variable n is a variable used as an index in the j direction. Variables u and v are i-direction and j-direction variables indicating the search range.

そして、この初期化を終えたならば、
D1(m , n , u , v)=C(m , n , u , v)+α・Max(D1(m , n-1, p , q))
の算定式による計算をおこなう(ステップS205)。
And when this initialization is finished,
D1 (m, n, u, v) = C (m, n, u, v) + α · Max (D1 (m, n-1, p, q))
The calculation is performed according to the formula (step S205).

その後、変数vをインクリメントし(ステップS206)、この変数vがVよりも小さければ(ステップS207肯定)、ステップS205に移行して加算処理を繰り返す。つまり、探索範囲をj方向にずらすのである。   Thereafter, the variable v is incremented (step S206). If the variable v is smaller than V (Yes in step S207), the process proceeds to step S205 and the addition process is repeated. That is, the search range is shifted in the j direction.

これに対して、変数vがV以上であれば(ステップS207否定)、変数uをインクリメントし(ステップS208)、この変数uがUよりも小さければ(ステップS209肯定)、ステップS204に移行して加算処理を繰り返す。つまり、探索範囲をi方向にずらすことになる。   On the other hand, if the variable v is greater than or equal to V (No at Step S207), the variable u is incremented (Step S208). If the variable u is smaller than U (Yes at Step S209), the process proceeds to Step S204. Repeat the addition process. That is, the search range is shifted in the i direction.

そして、変数uがU以上であれば(ステップS209否定)、ある画素についての計算を終了し、次の画素に移行する。具体的には、変数nをインクリメントして注目画素をj方向に移行させた後に(ステップS210)、この変数nをNと比較し(ステップS211)、この変数nがNよりも小さければ(ステップS211肯定)、ステップS203に移行して加算処理を繰り返す。   If the variable u is greater than or equal to U (No at step S209), the calculation for a certain pixel is terminated and the process proceeds to the next pixel. Specifically, after the variable n is incremented to shift the pixel of interest in the j direction (step S210), the variable n is compared with N (step S211). If the variable n is smaller than N (step S211) (Yes in S211), the process proceeds to step S203 and the addition process is repeated.

これに対して、変数nがN以上であれば(ステップS211否定)、変数mをインクリメントして注目画素をi方向に移行させた後に(ステップS212)、この変数mがMよりも小さければ(ステップS213肯定)、ステップS202に移行して加算処理を繰り返し、変数mがM以上であれば(ステップS213否定)、処理を終了する。上記一連の処理をおこなうことにより、各類似度画像の全画素についてj方向の累積加算結果が得られることになる。   On the other hand, if the variable n is greater than or equal to N (No in step S211), the variable m is incremented to shift the pixel of interest in the i direction (step S212), and if the variable m is smaller than M (step S212). If affirmative (step S213), the process proceeds to step S202 to repeat the addition process. If the variable m is equal to or greater than M (No in step S213), the process ends. By performing the above-described series of processing, a cumulative addition result in the j direction is obtained for all the pixels of each similarity image.

ところで、上記図18のフローチャートでは、変数u,vのインクリメントをおこないながら最大値を算出していた。別の計算方法として、あらかじめC(m, n-1 , u , v)に最大値フィルターをかけた最大値フィルター画像D1'(m , n-1, u , v)を作成しておき、α倍してからC(m , n , u , v)と加算することもできる。   Incidentally, in the flowchart of FIG. 18, the maximum value is calculated while incrementing the variables u and v. As another calculation method, a maximum value filter image D1 ′ (m, n−1, u, v) obtained by applying a maximum value filter to C (m, n−1, u, v) in advance is created, and α It is also possible to add C (m, n, u, v) after multiplying.

そこで、かかる最大値フィルターを用いる場合の処理手順を図19および図20を用いて説明する。図19は、図1に示した累積加算処理部17による最大値フィルターを用いたj方向の累積加算処理手順を示すフローチャートであり、図20は、最大値フィルターの処理手順を示すフローチャートである。   Therefore, a processing procedure in the case of using such a maximum value filter will be described with reference to FIGS. FIG. 19 is a flowchart showing the j-direction cumulative addition processing procedure using the maximum value filter by the cumulative addition processing unit 17 shown in FIG. 1, and FIG. 20 is a flowchart showing the maximum value filter processing procedure.

図19に示すように、変数mを0に初期化し(ステップS301)、変数nを1に初期化した後(ステップS302)、最大値フィルターD1'(m , n-1 , u , v)を算定する(ステップS303)。   As shown in FIG. 19, after the variable m is initialized to 0 (step S301) and the variable n is initialized to 1 (step S302), the maximum value filter D1 ′ (m 1, n−1, u, v) is Calculate (step S303).

具体的には、図20に示すように、変数u,vを0に初期化した後に(ステップS401〜S402)、D1'(m , n , u , v)=Max[D1(m , n , p, q)]を計算する(ステップS403)。ただし、u−1≦p≦u+1、v−1≦q≦v+1とする。そして、vをインクリメントして(ステップS404)、この変数vがVよりも小さい場合には(ステップS405肯定)、ステップS403に移行して同様に計算をおこなう。また、変数vがV以上である場合には(ステップS405否定)、変数uをインクリメントして(ステップS406)、この変数uがUよりも小さい場合には(ステップS406肯定)、ステップS402に移行して同様の処理を繰り返し、結果的に最大値を求める。   Specifically, as shown in FIG. 20, after the variables u and v are initialized to 0 (steps S401 to S402), D1 ′ (m, n, u, v) = Max [D1 (m, n, p, q)] is calculated (step S403). However, u−1 ≦ p ≦ u + 1 and v−1 ≦ q ≦ v + 1. Then, v is incremented (step S404), and when the variable v is smaller than V (Yes at step S405), the process proceeds to step S403 and the same calculation is performed. When the variable v is V or more (No at Step S405), the variable u is incremented (Step S406). When the variable u is smaller than U (Yes at Step S406), the process proceeds to Step S402. The same processing is repeated, and the maximum value is obtained as a result.

このようにして最大値フィルターを算定したならば、変数uおよびvを0に初期化した後(ステップS304〜S305)、
D1(m , n , u , v)=C(m , n , u , v)+α・Max(D1'(m , n-1 , p , q))
の算定式による計算をおこなう(ステップS306)。
If the maximum value filter is calculated in this way, after the variables u and v are initialized to 0 (steps S304 to S305),
D1 (m, n, u, v) = C (m, n, u, v) + α · Max (D1 ′ (m, n−1, p, q))
The calculation is performed according to the calculation formula (step S306).

その後、変数vをインクリメントし(ステップS307)、この変数vがVよりも小さければ(ステップS308肯定)、ステップS306に移行して加算処理を繰り返す。つまり、探索範囲をj方向にずらすのである。   Thereafter, the variable v is incremented (step S307). If the variable v is smaller than V (Yes at step S308), the process proceeds to step S306 and the addition process is repeated. That is, the search range is shifted in the j direction.

これに対して、変数vがV以上であれば(ステップS308否定)、変数uをインクリメントし(ステップS309)、この変数uがUよりも小さければ(ステップS310肯定)、ステップS305に移行して加算処理を繰り返す。つまり、探索範囲をi方向にずらすことになる。   On the other hand, if the variable v is equal to or greater than V (No at Step S308), the variable u is incremented (Step S309). If the variable u is smaller than U (Yes at Step S310), the process proceeds to Step S305. Repeat the addition process. That is, the search range is shifted in the i direction.

そして、変数uがU以上であれば(ステップS310否定)、ある画素についての計算を終了し、次の画素に移行する。具体的には、変数nをインクリメントして注目画素をj方向に移行させた後に(ステップS311)、この変数nをNと比較し(ステップS312)、この変数nがNよりも小さければ(ステップS312肯定)、ステップS303に移行して加算処理を繰り返す。   If the variable u is greater than or equal to U (No at step S310), the calculation for a certain pixel is terminated and the process proceeds to the next pixel. Specifically, after the variable n is incremented to shift the pixel of interest in the j direction (step S311), the variable n is compared with N (step S312), and if the variable n is smaller than N (step S311). (S312 Yes), it moves to step S303 and repeats an addition process.

これに対して、変数nがN以上であれば(ステップS312否定)、変数mをインクリメントして注目画素をi方向に移行させた後に(ステップS313)、この変数mがMよりも小さければ(ステップS314肯定)、ステップS302に移行して加算処理を繰り返し、変数mがM以上であれば(ステップS314否定)、処理を終了する。   On the other hand, if the variable n is greater than or equal to N (No in step S312), the variable m is incremented to shift the pixel of interest in the i direction (step S313), and if the variable m is smaller than M (step S313). If step S314 is affirmative, the process proceeds to step S302 and the addition process is repeated. If the variable m is greater than or equal to M (No in step S314), the process ends.

上述してきたように、本実施例に係る対応点探索装置によれば、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる。さらに、これに関連して、同じパターンが周期的に現れる画像間の対応付けをおこなう場合でも、精度の良い対応付け結果を取得することができる。   As described above, according to the corresponding point search device according to the present embodiment, it is possible to quickly and efficiently acquire a stable association result that does not easily fall into a local solution when performing association between images. Further, in association with this, even when matching is performed between images in which the same pattern appears periodically, a highly accurate matching result can be acquired.

なお、本実施例では、類似度画像に対して1/4最大値圧縮および1/2最大値圧縮をおこなって本発明を実施する場合について説明したが、本発明はこれに限定されるものではなく、さらに最大値圧縮を段階的に繰り返しておこなう場合についても同様に適用することができる。また、最大値圧縮の圧縮率は、任意の倍率において適用することが可能な旨を追記しておく。   In the present embodiment, the case where the present invention is implemented by performing 1/4 maximum value compression and 1/2 maximum value compression on similarity images has been described, but the present invention is not limited to this. However, the present invention can be similarly applied to the case where the maximum value compression is repeated stepwise. In addition, it is added that the compression rate of the maximum value compression can be applied at an arbitrary magnification.

また、本実施例では、「対応点探索処理」における累積加算処理手順として、各類似度画像をj方向、−j方向、i方向、−i方向の順序で再帰的に累積加算する場合を示したが、本発明は必ずしもこれに限定されるものではなく、斜め方向或いは一方向のみについて累積加算する場合に適用することもできる。一方向のみであっても、類似度が加算されることにより一定の大局情報が得られる。   Further, in this embodiment, as a cumulative addition processing procedure in the “corresponding point search process”, a case where each similarity image is recursively cumulatively added in the order of j direction, −j direction, i direction, and −i direction is shown. However, the present invention is not necessarily limited to this, and can be applied to the case where cumulative addition is performed in an oblique direction or only in one direction. Even in only one direction, constant global information can be obtained by adding similarities.

また、本実施例では、類似度として正規化相関係数を用いた場合を示したが、本発明はこれに限定されるものではなく、ユークリッド距離などの他の指標を類似度として用いることもできる。   In the present embodiment, the normalized correlation coefficient is used as the similarity. However, the present invention is not limited to this, and other indices such as the Euclidean distance may be used as the similarity. it can.

また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Each component of each illustrated device is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

以上のように、本発明に係る画像の対応点探索方法、対応点探索装置および対応点探索プログラムは、入力画像と参照画像の類似度を画素値として持つ類似度画像を作成し、該類似度画像に対して対応点探索処理をおこなって対応点を決定する画像の対応点探索方法、対応点探索装置および対応点探索プログラムに有用であり、特に、画像間の対応付けをおこなう際に、局所解に陥りにくい安定した対応付け結果を高速かつ効率良く取得することができる画像の対応点探索方法、対応点探索装置および対応点探索プログラムに適している。   As described above, the corresponding point search method, the corresponding point search apparatus, and the corresponding point search program according to the present invention create a similarity image having the similarity between the input image and the reference image as a pixel value, and the similarity This is useful for a corresponding point search method, a corresponding point search apparatus, and a corresponding point search program for determining a corresponding point by performing a corresponding point search process on an image. The present invention is suitable for a corresponding point search method, a corresponding point search apparatus, and a corresponding point search program that can acquire a stable matching result that is difficult to fall into a solution at high speed and efficiency.

本実施例に係る対応点検索装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the corresponding point search apparatus which concerns on a present Example. 本実施例で用いる参照画像の一例を示す図である。It is a figure which shows an example of the reference image used by a present Example. 本実施例で用いる入力画像の一例を示す図である。It is a figure which shows an example of the input image used by a present Example. 参照部分画像の一例を示す図である。It is a figure which shows an example of a reference partial image. 入力部分画像の一例を示す図である。It is a figure which shows an example of an input partial image. 類似度画像の作成概念を説明するための説明図である。It is explanatory drawing for demonstrating the creation concept of a similarity image. 各処理段階における類似度画像の一例を示す図である。It is a figure which shows an example of the similarity image in each process step. 最大値圧縮を説明するための概念図である。It is a conceptual diagram for demonstrating maximum value compression. 対応点候補位置特定段階を説明するための概念図である。It is a conceptual diagram for demonstrating a corresponding point candidate position identification step. 対応点候補位置特定段階を説明するための概念図である。It is a conceptual diagram for demonstrating a corresponding point candidate position identification step. 対応点決定段階を説明するための概念図である。It is a conceptual diagram for demonstrating a corresponding point determination step. 累積加算手順を説明するための説明図である。It is explanatory drawing for demonstrating a cumulative addition procedure. j方向の累積加算処理を説明するための説明図である。It is explanatory drawing for demonstrating the cumulative addition process of a j direction. −j方向の累積加算処理を説明するための説明図である。It is explanatory drawing for demonstrating the cumulative addition process of a -j direction. i方向の累積加算処理を説明するための説明図である。It is explanatory drawing for demonstrating the cumulative addition process of i direction. −i方向の累積加算処理を説明するための説明図である。It is explanatory drawing for demonstrating the cumulative addition process of a -i direction. 各累積加算結果を加算する概念図である。It is a conceptual diagram which adds each accumulation addition result. 図1に示した対応点探索装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the corresponding point search apparatus shown in FIG. 累積加算処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a cumulative addition process procedure. 最大値フィルターを用いて累積加算処理をおこなう場合の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the case of performing an accumulation addition process using a maximum value filter. 最大値フィルターの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of a maximum value filter.

符号の説明Explanation of symbols

1 対応点探索装置
10 画像入力部
11 分割処理部
12 参照部分画像一時記憶部
13 類似度画像作成部
14 類似度画像圧縮処理部
15 シフト量算出部
16 シフト補正部
17 累積加算処理部
18 類似度画像更新部
19 対応点決定部
21 参照画像
22 入力画像
51 入力部分画像
52 参照部分画像
53 類似度画像
DESCRIPTION OF SYMBOLS 1 Corresponding point search apparatus 10 Image input part 11 Division | segmentation process part 12 Reference partial image temporary storage part 13 Similarity image creation part 14 Similarity image compression process part 15 Shift amount calculation part 16 Shift correction part 17 Cumulative addition process part 18 Similarity degree Image update unit 19 Corresponding point determination unit 21 Reference image 22 Input image 51 Input partial image 52 Reference partial image 53 Similarity image

Claims (5)

入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索方法であって、
前記参照画像を複数のブロックに分割して参照部分画像を生成する参照部分画像生成工程と、
互いにその一部が重なり合う複数のブロックに前記入力画像を分割して複数の入力部分画像を生成する入力部分画像生成工程と、
前記入力部分画像と前記参照部分画像の間の類似度を算定する類似度算定工程と、
前記類似度算定工程により算定された類似度を画素値として持つ複数の類似度画像を生成する類似度画像生成工程と、
前記類似度画像の隣接した複数の画素の画素値のうち最大値を前記複数の画素を包含する1つの画素の画素値とする最大値圧縮を行うことで前記類似度画像から圧縮画像を生成し、所定の方向に並べた複数の圧縮画像の各画素の周辺画素の各画素値のうちの最大の画素値を他の圧縮画像の画素値に順次累積加算して圧縮画像を更新するとともに、累積加算された各圧縮画像の画素値が最大となる画素の画素位置に対応する前記類似度画像の領域を対応点が存在する候補領域として特定する候補領域特定工程と、
前記最大値圧縮の圧縮率を1を上限として増加するように変更して前記候補領域特定工程による前記候補領域の特定を繰り返し、前記圧縮率が1となった時点の前記候補領域を対応点として決定する対応点決定工程と
を含んだことを特徴とする対応点探索方法。
A corresponding point search method for an image for searching for a corresponding point that associates an input image with a reference image to be compared with the input image,
A reference partial image generation step of generating a reference partial image by dividing the reference image into a plurality of blocks;
An input partial image generating step of generating a plurality of input partial images by dividing the input image into a plurality of blocks that partially overlap each other;
A similarity calculation step of calculating a similarity between the input partial image and the reference partial image;
A similarity image generation step for generating a plurality of similarity images having the similarity calculated by the similarity calculation step as a pixel value;
A compressed image is generated from the similarity image by performing maximum value compression using a maximum value among pixel values of a plurality of adjacent pixels of the similarity image as a pixel value of one pixel including the plurality of pixels. , Update the compressed image by sequentially accumulating the maximum pixel value of the pixel values of the peripheral pixels of each pixel of the plurality of compressed images arranged in a predetermined direction to the pixel value of the other compressed image, and accumulating A candidate area specifying step of specifying the area of the similarity image corresponding to the pixel position of the pixel having the maximum pixel value of each of the added compressed images as a candidate area where a corresponding point exists;
Change the compression ratio of the maximum value compression to increase up to 1 and repeat the identification of the candidate area by the candidate area specifying step, with the candidate area when the compression ratio becomes 1 as the corresponding point And a corresponding point determining step for determining the corresponding point .
前記候補領域特定工程は、  The candidate area specifying step includes:
前回特定した前記候補領域が存在する場合には、当該候補領域に基づいて対応点を探索する範囲を限定することを特徴とする請求項1に記載の対応点探索方法。  The corresponding point search method according to claim 1, wherein, when the candidate area specified last time exists, a range for searching for a corresponding point is limited based on the candidate area.
前記候補領域特定工程は、  The candidate area specifying step includes:
前回特定した前記候補領域が存在する場合には、当該候補領域が画像中心となるように前記類似度画像をシフトしたうえで前記最大値圧縮を行うことを特徴とする請求項1または2に記載の対応点探索方法。  3. The maximum value compression is performed after the similarity image is shifted so that the candidate region becomes the center of the image when the candidate region specified last time exists. Corresponding point search method.
入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索装置であって、
前記参照画像を複数のブロックに分割して参照部分画像を生成する参照部分画像生成手段と、
互いにその一部が重なり合う複数のブロックに前記入力画像を分割して複数の入力部分画像を生成する入力部分画像生成手段と、
前記入力部分画像と前記参照部分画像の間の類似度を算定する類似度算定手段と、
前記類似度算定手段により算定された類似度を画素値として持つ複数の類似度画像を生成する類似度画像生成手段と、
前記類似度画像の隣接した複数の画素の画素値のうち最大値を前記複数の画素を包含する1つの画素の画素値とする最大値圧縮を行うことで前記類似度画像から圧縮画像を生成し、所定の方向に並べた複数の圧縮画像の各画素の周辺画素の各画素値のうちの最大の画素値を他の圧縮画像の画素値に順次累積加算して圧縮画像を更新するとともに、累積加算された各圧縮画像の画素値が最大となる画素の画素位置に対応する前記類似度画像の領域を対応点が存在する候補領域として特定する候補領域特定手段と、
前記最大値圧縮の圧縮率を1を上限として増加するように変更して前記候補領域特定手段による前記候補領域の特定を繰り返し、前記圧縮率が1となった時点の前記候補領域を対応点として決定する対応点決定手段と
を備えたことを特徴とする画像の対応点探索装置。
A reference image to be compared in the input image and the input image to a corresponding point search device of the image for searching the corresponding points to associate,
Reference partial image generation means for generating a reference partial image by dividing the reference image into a plurality of blocks;
An input partial image generating means for generating a plurality of input partial images by dividing the input image into a plurality of blocks partially overlapping each other;
Similarity calculation means for calculating the similarity between the input partial image and the reference partial image;
Similarity image generation means for generating a plurality of similarity images having the similarity calculated by the similarity calculation means as pixel values;
A compressed image is generated from the similarity image by performing maximum value compression using a maximum value among pixel values of a plurality of adjacent pixels of the similarity image as a pixel value of one pixel including the plurality of pixels. , Update the compressed image by sequentially accumulating the maximum pixel value of the pixel values of the peripheral pixels of each pixel of the plurality of compressed images arranged in a predetermined direction to the pixel value of the other compressed image, and accumulating Candidate area specifying means for specifying the area of the similarity image corresponding to the pixel position of the pixel having the maximum pixel value of each of the added compressed images as a candidate area where a corresponding point exists;
The maximum compression ratio is changed so as to increase up to 1 and the candidate area specifying unit repeatedly specifies the candidate area, and the candidate area at the time when the compression ratio becomes 1 is used as a corresponding point. A corresponding point search device for an image, comprising: a corresponding point determining means for determining .
入力画像と該入力画像の比較対象となる参照画像とを対応づける対応点を探索する画像の対応点探索プログラムであって、
前記参照画像を複数のブロックに分割して参照部分画像を生成する参照部分画像生成手順と、
互いにその一部が重なり合う複数のブロックに前記入力画像を分割して複数の入力部分画像を生成する入力部分画像生成手順と、
前記入力部分画像と前記参照部分画像の間の類似度を算定する類似度算定手順と、
前記類似度算定手順により算定された類似度を画素値として持つ複数の類似度画像を生成する類似度画像生成手順と、
前記類似度画像の隣接した複数の画素の画素値のうち最大値を前記複数の画素を包含する1つの画素の画素値とする最大値圧縮を行うことで前記類似度画像から圧縮画像を生成し、所定の方向に並べた複数の圧縮画像の各画素の周辺画素の各画素値のうちの最大の画素値を他の圧縮画像の画素値に順次累積加算して圧縮画像を更新するとともに、累積加算された各圧縮画像の画素値が最大となる画素の画素位置に対応する前記類似度画像の領域を対応点が存在する候補領域として特定する候補領域特定手順と、
前記最大値圧縮の圧縮率を1を上限として増加するように変更して前記候補領域特定手順による前記候補領域の特定を繰り返し、前記圧縮率が1となった時点の前記候補領域を対応点として決定する対応点決定手順と
をコンピュータに実行させることを特徴とする画像の対応点探索プログラム。
A corresponding point search program for an image for searching for a corresponding point that associates an input image with a reference image to be compared with the input image,
A reference partial image generation procedure for generating a reference partial image by dividing the reference image into a plurality of blocks;
An input partial image generation procedure for generating a plurality of input partial images by dividing the input image into a plurality of blocks partially overlapping each other;
A similarity calculation procedure for calculating a similarity between the input partial image and the reference partial image;
A similarity image generation procedure for generating a plurality of similarity images having the similarity calculated by the similarity calculation procedure as a pixel value;
A compressed image is generated from the similarity image by performing maximum value compression using a maximum value among pixel values of a plurality of adjacent pixels of the similarity image as a pixel value of one pixel including the plurality of pixels. , Update the compressed image by sequentially accumulating the maximum pixel value of the pixel values of the peripheral pixels of each pixel of the plurality of compressed images arranged in a predetermined direction to the pixel value of the other compressed image, and accumulating A candidate region specifying procedure for specifying the region of the similarity image corresponding to the pixel position of the pixel having the maximum pixel value of each of the added compressed images as a candidate region where a corresponding point exists;
Change the compression rate of the maximum value compression to increase up to 1 and repeat the specification of the candidate region by the candidate region specifying procedure, with the candidate region when the compression rate becomes 1 as the corresponding point An image corresponding point search program for causing a computer to execute a corresponding point determining procedure to be determined .
JP2003407126A 2003-12-05 2003-12-05 Corresponding point search method of image, corresponding point search device, and corresponding point search program Expired - Fee Related JP4460274B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003407126A JP4460274B2 (en) 2003-12-05 2003-12-05 Corresponding point search method of image, corresponding point search device, and corresponding point search program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003407126A JP4460274B2 (en) 2003-12-05 2003-12-05 Corresponding point search method of image, corresponding point search device, and corresponding point search program

Publications (2)

Publication Number Publication Date
JP2005165928A JP2005165928A (en) 2005-06-23
JP4460274B2 true JP4460274B2 (en) 2010-05-12

Family

ID=34729269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003407126A Expired - Fee Related JP4460274B2 (en) 2003-12-05 2003-12-05 Corresponding point search method of image, corresponding point search device, and corresponding point search program

Country Status (1)

Country Link
JP (1) JP4460274B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5164912B2 (en) * 2009-04-20 2013-03-21 グローリー株式会社 Corresponding point search method, corresponding point search device, and corresponding point search program
JP5856888B2 (en) * 2012-03-27 2016-02-10 グローリー株式会社 Corresponding point search method, corresponding point search device, and corresponding point search program
JP6321365B2 (en) * 2013-12-13 2018-05-09 株式会社Soken Corresponding point search method and distance measuring device

Also Published As

Publication number Publication date
JP2005165928A (en) 2005-06-23

Similar Documents

Publication Publication Date Title
JP4298749B2 (en) Time-series data dimension compressor
CN108961180B (en) Infrared image enhancement method and system
WO2013051619A1 (en) Similarity detection device and directional nearest neighbor method
CN110348531B (en) Deep convolution neural network construction method with resolution adaptability and application
JP4160762B2 (en) Corresponding point search device for image, corresponding point searching method, and program for causing computer to execute the method
CN115830592A (en) Overlapping cervical cell segmentation method and system
JP2003036439A (en) Device, method and program for extracting image
JP4460274B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
JP4460277B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
Kaukoranta et al. Vector quantization by lazy pairwise nearest neighbor method
KR20010026397A (en) Method for comparing similarity of two images and method and apparatus for searching images using the same
JP4286565B2 (en) Corresponding point search method, corresponding point search device, and corresponding point search program
JP3898936B2 (en) Corresponding point search device, corresponding point search processing method, and corresponding point search processing program
JP5164912B2 (en) Corresponding point search method, corresponding point search device, and corresponding point search program
CN111126135B (en) Feature self-adaptive pedestrian re-identification method based on unified division
JP4181811B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
JP2001337990A (en) Image retrieval system and image retrieval method
Sarmadian et al. Optimizing the snake model using honey-bee mating algorithm for road extraction from very high-resolution satellite images
JP4181810B2 (en) Corresponding point search method of image, corresponding point search device, and corresponding point search program
CN118096840B (en) Registration method, product, equipment and medium of space group student tissue slice image and RNA-seq heat map
CN116680435B (en) Similar image retrieval matching method based on multi-layer feature extraction
CN118397424A (en) Neural network architecture searching method of lightweight target detection model
JP2006107028A (en) Individual authentication device and individual authentication method
JP2002288676A (en) Device and method for image collation
JPH10240866A (en) Character recognition device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100212

R150 Certificate of patent or registration of utility model

Ref document number: 4460274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees