JP2008117416A - Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching - Google Patents

Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching Download PDF

Info

Publication number
JP2008117416A
JP2008117416A JP2007323866A JP2007323866A JP2008117416A JP 2008117416 A JP2008117416 A JP 2008117416A JP 2007323866 A JP2007323866 A JP 2007323866A JP 2007323866 A JP2007323866 A JP 2007323866A JP 2008117416 A JP2008117416 A JP 2008117416A
Authority
JP
Japan
Prior art keywords
dimensional
image
similarity
sub
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007323866A
Other languages
Japanese (ja)
Inventor
Masao Shimizu
雅夫 清水
Masatoshi Okutomi
正敏 奥富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2007323866A priority Critical patent/JP2008117416A/en
Publication of JP2008117416A publication Critical patent/JP2008117416A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching, which can estimate correspondence parameters between images stably, highly precisely, concurrently, at high speed with a small amount of computation. <P>SOLUTION: The multi-parameter highly-accurate simultaneous estimation method comprises: a step of determining a sub-sampling position where an N-dimensional similarity value between images obtained at discrete positions is maximum or minimum on a line in parallel with a certain parameter axis, and determining an N-dimensional hyperplane that most approximates the determined sub-sampling position; a step of determining N of the N-dimensional hyperplanes with respect to each parameter axis; a step of determining an intersection point of N of the N-dimensional hyperplanes; and a step of setting the determined intersection point as a sub-sampling grid estimation position for the correspondence parameter between images that gives a maximum value or a minimum value of N-dimensional similarity in an N-dimensional similarity space. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えば画像による位置計測、リモートセンシング、航空写真を利用した地図作製、ステレオビジョン、画像張り合わせ(モザイキング)、動画像位置合わせ、3次元モデリングなど多数の画像処理分野で使用できる、領域ベースマッチングを用いた推定方法に関し、特に、画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法に関するものである。   The present invention can be used in many image processing fields such as position measurement by image, remote sensing, cartography using aerial photography, stereo vision, image stitching (mosaicing), moving image registration, and three-dimensional modeling. More particularly, the present invention relates to a multi-parameter high-precision simultaneous estimation method in image sub-pixel matching.

ステレオ画像処理をはじめとして、トラッキング、画像計測、リモートセンシング、画像レジストレーションなどの多くの画像処理分野では、画像間変位を得るために、領域ベースマッチングが基本的な処理として採用されている。   In many image processing fields such as stereo image processing, tracking, image measurement, remote sensing, and image registration, region-based matching is adopted as a basic process to obtain inter-image displacement.

領域ベースマッチングは、注目領域のサイズや形状を任意に設定できること、注目画素に対して注目領域をオフセットできること、計算が直感的で直接的な実装が可能であることなどが特徴である。領域ベースマッチングで画像間の変位をサブピクセルで求めるときには、画素単位で離散的に得られる類似度評価値を利用してサブピクセル変位を推定する方法が一般的に利用されている。   Region-based matching is characterized in that the size and shape of the region of interest can be arbitrarily set, the region of interest can be offset with respect to the pixel of interest, and the calculation is intuitive and can be implemented directly. When the displacement between images is obtained by sub-pixel by area-based matching, a method of estimating sub-pixel displacement by using similarity evaluation values obtained discretely in units of pixels is generally used.

画像間の対応を求めるためには、類似度と呼ぶ評価値を利用する。類似度とは、画像間の相対的な位置関係を入力、その位置関係のときの画像間の類似度を出力とする関数である。類似度は、画素単位の離散的な位置で値が決まるので、類似度だけをもとに画像間の対応位置関係を求めると、画素単位の分解能に制限される。そこで、類似度値をもとに補間することによって、サブピクセル分解能の画像間の対応を求める。   In order to obtain correspondence between images, an evaluation value called similarity is used. The similarity is a function that receives the relative positional relationship between the images and outputs the similarity between the images at the positional relationship. Since the degree of similarity is determined at discrete positions in units of pixels, when the corresponding positional relationship between images is obtained based only on the degree of similarity, the resolution is limited to the unit of pixels. Therefore, the correspondence between images with subpixel resolution is obtained by interpolation based on the similarity value.

従来、位置分解能を拡大するために、類似度評価値をフィッティング内挿することでサブピクセル推定を行うことが多い。しかし、画像の平行移動量をサブピクセル分解能で求める際に、画像の水平方向と垂直方向を独立にフィッティング内挿していたため、十分な精度が得られなかったという問題点があった。   Conventionally, in order to increase the position resolution, subpixel estimation is often performed by fitting interpolation of similarity evaluation values. However, there has been a problem that sufficient accuracy could not be obtained because the horizontal direction and the vertical direction of the image were independently inserted when the amount of parallel movement of the image was determined with subpixel resolution.

要するに、従来、デジタル画像を使った領域ベースのマッチングでは、変位の推定分解能を向上させるために、画像の水平/垂直方向について独立に類似度評価値を使ったサブピクセル推定を行っていた。   In short, conventionally, in region-based matching using a digital image, sub-pixel estimation using a similarity evaluation value is performed independently in the horizontal / vertical direction of the image in order to improve the resolution of displacement estimation.

また、従来、濃度こう配法を利用して画像間の変位を求めると、はじめからサブピクセル変位量を得ることができる。濃度こう配法では、水平方向と垂直方向を合わせて扱っている。ただし、画像間変位が1画素以上のときには画像を縮小する必要がある。通常は、画像スケールの変更と同時に実装する。濃度こう配法の実装は繰り返し計算になるので、計算時間の見積もりや、ハードウェアへの実装が困難であるという欠点があった。   Conventionally, when the displacement between images is obtained using the density gradient method, the subpixel displacement can be obtained from the beginning. In the concentration gradient method, the horizontal and vertical directions are combined. However, when the inter-image displacement is 1 pixel or more, it is necessary to reduce the image. Normally, it is implemented at the same time as changing the image scale. Since the implementation of the concentration gradient method is an iterative calculation, there are drawbacks that it is difficult to estimate the calculation time and to implement it in hardware.

さらに、画像をDFTしてから複素共役積をもとめて逆DFTする従来手法では、注目領域のサイズが2でなければならず、各種テクニックが必要である。流体計測分野では多く用いられ、計算量を小さくできることが特徴である。しかし、ビジョン分野では、ほとんど利用されない。しかも、計測対象が平面であるという仮定を用いているので、凹凸がある計測対象には適用が困難であるという欠点があった。 Furthermore, in the conventional method in which an image is DFT and then a complex conjugate product is obtained and inverse DFT is performed, the size of the region of interest must be 2 n , and various techniques are required. It is often used in the field of fluid measurement, and is characterized in that the amount of calculation can be reduced. However, it is rarely used in the vision field. In addition, since the assumption that the measurement target is a flat surface is used, there is a drawback that it is difficult to apply to a measurement target with unevenness.

従来は、以下のように詳細に説明されるように、画像の水平方向と垂直方向を独立に補間推定していた。しかし、従来のこのような方法によると、図1に示すように、推定誤差が発生するという問題点があった。   Conventionally, as described in detail below, the horizontal direction and the vertical direction of an image are independently estimated by interpolation. However, according to such a conventional method, there is a problem that an estimation error occurs as shown in FIG.

ここでは、画像を水平方向と垂直方向に独立と考え、変位のサブピクセル推定も独立に行う従来方法を「1次元推定方法」と称する。   Here, a conventional method in which an image is considered to be independent in the horizontal direction and the vertical direction and subpixel estimation of displacement is also performed independently is referred to as a “one-dimensional estimation method”.

従来の1次元推定方法の問題点を説明するために、まず、画像間の水平方向変位を求める問題を考える。真の画像間変位を(d,d)、異方性を持った類似度の回転角度をθとする。1次元推定方法では、離散化類似度として、R(−1,0)、R(0,0)、R(1,0)(図1の□)を使い、下記数1によって
を推定した。なお、図1は、従来の1次元サブピクセル推定方法を説明するための図である。図中の
は、s=−1,0,1での3つの類似度の値を用いた従来の1次元サブピクセル推定方法によって推定された位置で、d≠0及びθ≠0の際に、この推定値は真のピーク位置に対して誤差を有する。

In order to explain the problems of the conventional one-dimensional estimation method, first, the problem of obtaining the horizontal displacement between images is considered. The true inter-image displacement is (d s , d t ), and the rotation angle of similarity with anisotropy is θ g . In the one-dimensional estimation method, R (-1, 0), R (0, 0), R (1, 0) (□ in FIG. 1) are used as the discretization similarity and
Estimated. FIG. 1 is a diagram for explaining a conventional one-dimensional subpixel estimation method. In the figure
Is the position estimated by the conventional one-dimensional subpixel estimation method using three similarity values at s = -1, 0, 1, and when d t ≠ 0 and θ g ≠ 0, The estimate has an error with respect to the true peak position.

仮に上記数1で直線t=0上の類似度最大位置を正しく推定できたとしても、図1から明らかなように、真の水平方向画像間変位d(図1の▲の水平成分)に対して大きな推定誤差を含んでいる。すなわち、次の条件の全てが真のときには、水平方向推定誤差が発生して、
となる。
・垂直方向変位d≠0。
・2次元類似度が異方性を持つ。
・異方性を持つ2次元類似度の回転角度θ≠0。
大部分の画像が上記条件に当てはまる。
Even if the maximum similarity position on the straight line t = 0 can be correctly estimated in the above equation 1, as shown in FIG. 1, the true horizontal image displacement d s (the horizontal component of ▲ in FIG. 1) is obtained. On the other hand, a large estimation error is included. That is, when all of the following conditions are true, a horizontal direction estimation error occurs,
It becomes.
Vertical displacement d t ≠ 0.
-Two-dimensional similarity has anisotropy.
The rotation angle θ g ≠ 0 of the two-dimensional similarity having anisotropy.
Most images meet the above conditions.

また、垂直方向に関しても同様である。例えば、図2(a)に示す画像中のコーナー領域のSSD自己類似度を求めると、図2(b)のようになっている。この自己類似度は異方性を持ち、θ≠0なので、従来の1次元推定方法では、サブピクセル推定誤差が発生する可能性があることを示している。また、図3(a)に示すテクスチャ画像を使ったサブピクセル推定においても、推定誤差が発生する可能性を示している。 The same applies to the vertical direction. For example, when the SSD self-similarity of the corner area in the image shown in FIG. 2A is obtained, it is as shown in FIG. This self-similarity has anisotropy and θ g ≠ 0, which indicates that the conventional one-dimensional estimation method may cause a subpixel estimation error. In addition, there is a possibility that an estimation error occurs in the sub-pixel estimation using the texture image shown in FIG.

また、コンピュータビジョンの分野によっては、エピポーラ拘束などの拘束条件を利用することで探索範囲を1次元に限定できるので、1次元信号の高精度なマッチングができれば十分な場合がある。しかしながら、2次元画像を使って、高精度な2次元変位を求める必要がある用途も多い。例えば、動き推定、動き推定による領域分割、ターゲットトラッキング、モザイキング、リモートセンシング、超解像などである。   In addition, depending on the field of computer vision, the search range can be limited to one dimension by using constraint conditions such as epipolar constraint, so it may be sufficient to perform high-precision matching of one-dimensional signals. However, there are many applications where it is necessary to obtain a two-dimensional displacement with high accuracy using a two-dimensional image. For example, motion estimation, area segmentation by motion estimation, target tracking, mosaicing, remote sensing, super-resolution, and the like.

画像の領域ベースマッチングにおいて、画像間変位が平行移動だけで表現できるときには、従来から多くの手法が提案され、実際に用いられてきた。たとえば、代表的な手法として、領域ベースマッチングと類似度補間手法を組み合わせた、サブピクセル推定手法は、次のようにして画像間のサブピクセル変位を推定する。   In the area-based matching of images, when the displacement between images can be expressed only by parallel movement, many methods have been proposed and used in practice. For example, as a typical method, a subpixel estimation method combining region-based matching and a similarity interpolation method estimates subpixel displacement between images as follows.

対応位置を求める画像を、f(i,j)とg(i,j)としたとき、整数単位の変位(t,t)に対する画像間のSADを、次のように計算する。
ただし、SADは輝度差の絶対値の和(Sum of Absolute Differences)を表し、Wは対応を求める注目領域を表す。SADは、画像が完全に一致したときに0になり、不一致が増えるに従って大きな値をとる。SADは類似していない評価値を表すので、非類似度である。
When the images for which the corresponding positions are to be obtained are f (i, j) and g (i, j), the SAD between the images with respect to the displacement (t x , t y ) in integer units is calculated as follows.
However, SAD represents the sum of absolute values of luminance differences (Sum of Absolute Differences), and W represents a region of interest for which correspondence is sought. SAD becomes 0 when the images completely match, and takes a larger value as the mismatch increases. Since SAD represents a dissimilar evaluation value, it is dissimilarity.

SADの代わりに、次のSSDを用いることも多い。
ただし、SSDは輝度差の絶対値の2乗和(Sum of Squared Differences)を表す。SSDも画像が完全に一致したときに0になり、不一致が増えるに従って大きな値をとる。SSDも類似していない評価値を表すので、非類似度である。
Instead of SAD, the following SSD is often used.
However, SSD represents the sum of squared differences of luminance differences. The SSD also becomes 0 when the images completely match, and takes a larger value as the mismatch increases. Since SSD also represents an evaluation value that is not similar, it is dissimilarity.

SADやSSDの代わりに、次の相関係数(ZNCC:Zero-mean Normalized Cross-Correlation)を用いることもある。ZNCCは、注目領域内の画素濃度を統計データと見なし、注目領域間の統計的な相関値を計算している。
ただし、
は、それぞれの領域内の濃度平均である。RZNCCは−1から1までの値をとり、画像が完全に一致したときに1になり、不一致が増えるに従って小さな値をとる。ZNCCの特徴は、画像間に濃度やコントラストの変化があってもほとんど同じ類似度が得られることである。
The following correlation coefficient (ZNCC: Zero-mean Normalized Cross-Correlation) may be used instead of SAD or SSD. ZNCC considers the pixel density in the attention area as statistical data and calculates a statistical correlation value between the attention areas.
However,
Is the concentration average within each region. R ZNCC takes a value from −1 to 1, and becomes 1 when the images completely match, and takes a smaller value as the mismatch increases. A feature of ZNCC is that almost the same degree of similarity can be obtained even if there is a change in density or contrast between images.

ZNCCは類似性の評価値を表すので類似度とよばれるが、SADやSSDは非類似度を表す。ここでは、説明を簡単にするために、以後はSADやSSD、ZNCCを「類似度」と統一して表記する。   ZNCC is called similarity because it represents an evaluation value of similarity, but SAD and SSD represent dissimilarity. Here, in order to simplify the description, hereinafter, SAD, SSD, and ZNCC are collectively described as “similarity”.

類似度が最小値(SADやSSDのとき)または最大値(ZNCCのとき)になる整数単位の変位
を探索することで、画像間の整数単位変位を得ることができる。整数単位の変位を得た後で、次のようにサブピクセル変位を推定する。
上記数5を用いて、最終的に得る画像間サブピクセル変位は、
となる。
Displacement in integer units where similarity is minimum (when SAD or SSD) or maximum (when ZNCC)
The integer unit displacement between images can be obtained by searching for. After obtaining the integer unit displacement, the subpixel displacement is estimated as follows.
Using Equation 5 above, the inter-image subpixel displacement that is finally obtained is
It becomes.

このような従来手法では、画像間に回転やスケール変化があるときに正しい対応を得ることができない問題があった。画像間の回転角度がわずかでも、2つの画像が異なるものと判断され、対応位置が見つからないことや、誤った位置に対応を検出する問題があった。   In such a conventional method, there is a problem that a correct response cannot be obtained when there is a rotation or a scale change between images. Even if the rotation angle between the images is small, it is determined that the two images are different from each other, and there is a problem that the corresponding position cannot be found or the correspondence is detected at an incorrect position.

一方、画像間の対応が平行移動だけでは表現できない場合、つまり、画像間に回転やスケール変化があるときには、回転やスケール変化も同時に推定する必要がある。従来、このときには、補間処理を用いて片方の画像(テンプレート画像)を平行移動と回転やスケール変化をさせてからマッチングを行い、類似度を計算しながら各パラメータを変化させ、類似度が最小値または最大値になるパラメータを探索する必要があった。次に、このパラメータ探索法を説明する。   On the other hand, when the correspondence between images cannot be expressed only by translation, that is, when there is a rotation or scale change between images, it is necessary to estimate the rotation and scale change at the same time. Conventionally, at this time, one of the images (template image) is translated, rotated, and scaled using interpolation processing, then matching is performed, and each parameter is changed while calculating the similarity. Or it was necessary to search for a parameter that would be the maximum value. Next, this parameter search method will be described.

f(i,j)をテンプレート画像、g(i,j)を入力画像とするとき、平行移動(t,t)および回転角度θとスケール変化sをパラメータとする類似度RSSDを次のように計算する。
ただし、
は、平行移動(t,t)および回転角度θとスケール変化sを与えたときの、位置(i,j)における画像g(i,j)の補間画像を表す。補間画像を作るときには、双線形補間(Bi-Linear補間)や双3次補間(Bi-Cubic補間)などを利用する。また、SSDではなく、SADやZNCCを利用してもよい。
When f (i, j) is a template image and g (i, j) is an input image, the parallelism (t x , t y ), the rotation angle θ, and the similarity R SSD with the scale change s as parameters are Calculate as follows.
However,
Represents an interpolated image of the image g (i, j) at the position (i, j) when the translation (t x , t y ), the rotation angle θ and the scale change s are given. When creating an interpolation image, bilinear interpolation (Bi-Linear interpolation), bicubic interpolation (Bi-Cubic interpolation), or the like is used. Also, SAD or ZNCC may be used instead of SSD.

何らかの方法で初期パラメータ(t,t,θ,s)<0>を求めてRSSD(t,t,θ,s)<0>を計算し、より小さなRSSDを与える更新パラメータ(t,t,θ,s)<1>を探索する。パラメータを更新しても結果に変化がなくなるまで、更新を続ける。このとき、Newton-Raphson法やSteepest (Gradent) Descent法(最急降下法)、Levenberg-Marquadt 法など数値的解法を用いる。 An update parameter that calculates the initial parameter (t x , t y , θ, s) <0> by some method, calculates R SSD (t x , t y , θ, s) <0> , and gives a smaller R SSD (t x , t y , θ, s) <1> is searched. Continue updating until the parameter is updated and the results no longer change. At this time, numerical solutions such as Newton-Raphson method, Steepest (Gradent) Descent method (steepest descent method), and Levenberg-Marquadt method are used.

初期パラメータ(t,t,θ,s)<0>は、たとえば、画像間の対応が平行移動だけで表現できると仮定して通常の領域ベースマッチングによって推定した
を用いた
などを利用する。
清水雅夫・奥富正敏,「画像のマッチングにおける高精度なサブピクセル推定手法」,電子情報通信学会論文誌D-II,2001年7月,第J84-D-II巻,第7号,p.1409-1418 清水雅夫・奥富正敏,「画像のマッチングにおける高精度なサブピクセル推定の意味と性質」,電子情報通信学会論文誌D-II,2002年12月,第J85-D-II巻,第12号,p.1791-1800 マサオ・シミズ、マサトシ・オクトミ(Masao Shimizu and Masatoshi Okutomi),「プリサイス サブピクセル エスティメイション オン エリアベイセド マッチング(Precise Sub-Pixel Estimation on Area-Based Matching)」,プロク. 8th IEEE インターナショナル コンファレンス オン コンピュータ ビジョン (ICCV2001)(Proc. 8th IEEE International Conference on Computer Vision (ICCV2001)),(カナダ,バンクーバー),2001年7月,p.90-97 マサオ・シミズ、マサトシ・オクトミ(Masao Shimizu and Masatoshi Okutomi),「アン アナリシス オフ サブピクセル エスティメイション エラー オン エリアベイセド イメージ マッチング(An Analysis of Sub-Pixel Estimation Error on Area-Based Image Matching)」,プロク. 14th インターナショナル コンファレンス オン デジタル シグナル プロセシング(DSP2002)(Proc. 14th International Conference on Digital Signal Processing (DSP2002)),(ギリシア,サントリーニ),2002年7月,第II巻,p.1239-1242(W3B.4) C.・クエンティン・デイビス、ゾハー・Z.・カル、デニス・M.・フリーマン(C. Quentin Davis, Zoher Z. Karu and Dennis M. Freeman),「イクイバレンス オフ サブピクセル モーション エスティメイタス ベイセド オン オプティカル フロー アンド ブロック マッチング(Equivalence of subpixel motion estimators based on optical flow and block matching)」,IEEE インターナショナル シンポジウム フォー コンピュータ ビジョン1995(IEEE International Symposium for Computer Vision 1995),(米国フロリダ州),1995年11月,p.7-12 サムソン・J.・ティモネー、デニス・M.・フリーマン(Samson J. Timoner and Dennis M. Freeman),「マルチイメージ グラジエントベイセド アルゴリズム フォー モーション エスティメイション(Multi-image gradient-based algorithms for motion estimation)」,オプティカル エンジニアリング(Optical Engineering),(米国),2001年9月,第40巻,第9号,p.2003-2016 ジョナサン・W.・ブラント (Jonathan W. Brandt),「インプルーブド アキュラシ イン グラジエントベイセド オプティカル フロー エスティメイション(Improved Accuracy in gradient-based Optical Flow Estimation)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),(米国),1997年,第25巻,第1号,p.5-22 Q.・テン、M.・N.・ヒューニッス(Q. Tian and M. N. Huhns),「アルゴリズム フォー サブピクセル レジストレーション(Algorithms for Subpixel Registration)」,コンピュータ ビジョン,グラフィックス アンド イメージ プロセシング(Computer Vision, Graphics and Image Processing),(米国),1986年,第35号,p.220-233 ショーン・ボーマン、 マーク・A.・ロバートソン、ロバート・L.・スティブンソン(Sean Borman, Mark A. Robertson and Robert L. Stevenson),「ブロックマッチング サブピクセル モーション エスティメイション フロム ノイジー,アンダー―サンプルド フレームス---アン エンパイリカル パフォーマンス エバリュエーション(Block-Matching Sub-Pixel Motion Estimation from Noisy, Under-Sampled Frames---An Empirical Performance Evaluation)」,SPIE ビジュアル コミューニケイションズ アンド イメージ プロセシング 1999(SPIE Visual Communications and Image Processing 1999),(米国カリフォルニア州)
The initial parameters (t x , t y , θ, s) <0> were estimated by normal region-based matching, assuming that the correspondence between images can be expressed only by translation, for example.
Used
Etc.
Masao Shimizu and Masatoshi Okutomi, "Precise Subpixel Estimation Method for Image Matching", IEICE Transactions D-II, July 2001, J84-D-II, No. 7, p.1409 -1418 Masao Shimizu and Masatoshi Okutomi, “The Meaning and Properties of Precise Subpixel Estimation in Image Matching”, IEICE Transactions D-II, December 2002, J85-D-II, Vol. 12, p.1791-1800 Masao Shimizu and Masatoshi Okutomi, “Precise Sub-Pixel Estimation on Area-Based Matching”, Proc. 8th IEEE International Conference on Computer Vision (ICCV2001) (Proc. 8th IEEE International Conference on Computer Vision (ICCV2001)), (Vancouver, Canada), July 2001, p.90-97 Masao Shimizu and Masatoshi Okutomi, “An Analysis of Sub-Pixel Estimation Error on Area-Based Image Matching”, Prok. 14th International Conference on Digital Signal Processing (DSP2002) (Proc. 14th International Conference on Digital Signal Processing (DSP2002)), (Greece, Santorini), July 2002, Volume II, p.1239-1242 (W3B.4) C. Quentin Davis, Zohar Z.・ C. Quentin Davis, Zoher Z. Karu and Dennis M. Freeman, “Equivalence of subpixel motion estimators based on Equivalence of subpixel motion estimators based on optical flow and block matching), IEEE International Symposium for Computer Vision 1995, Florida, USA, November 1995, p.7-12. Samson J. Timoner and Dennis M. Freeman, "Multi-image gradient-based algorithms for motion estimation", Optical Engineering, (USA), September 2001, Vol.40, No.9, p.2003-2016 Jonathan W. Brandt, “Improved Accuracy in Gradient-Based Optical Flow Estimation”, International Journal of Computer Vision , (USA), 1997, Vol. 25, No. 1, p. 5-22 Q. Ten, M.C.・ N.・ Q. Tian and MN Huhns, "Algorithms for Subpixel Registration", Computer Vision, Graphics and Image Processing, (USA), 1986 35, p.220-233 Sean Borman, Mark A. Robertson, Robert L. Stevenson, “Block Matching Subpixel Motion Estimation From Noisy, Under-Sampled Frame Block-Matching Sub-Pixel Motion Estimation from Noisy, Under-Sampled Frames --- An Empirical Performance Evaluation ", SPIE Visual Communications and Image Processing 1999 (SPIE Visual Communications and Image Processing 1999) Processing 1999), (California, USA)

このような多パラメータ最適化では、初期値が適切でないと正しい結果が得られない問題がある。また、画像パターンやノイズ、撮影レンズの光学歪みなどの影響で解が得られない問題もある。さらに、繰り返し計算を利用するので、計算時間を見積もることができないといった難点がある。このため、アルゴリズムを実装する上で、完成したシステムの総合応答時間を正確に見積もることができず、ハードウェア化することがきわめて困難であった。また、計算時間の面では、繰り返し計算の各段階で画像を補間する必要があるが、画像補間演算は演算量が多いため、多くの計算時間が必要になる。さらに、推定精度の面では、画像補間手法によって補間画像の性質が異なるので、採用する補間手法によって最終的なパラメータ推定精度や推定誤差の性質が異なる点も大きな問題であった。   Such multi-parameter optimization has a problem that a correct result cannot be obtained unless the initial value is appropriate. There is also a problem that a solution cannot be obtained due to the influence of image pattern, noise, optical distortion of the taking lens, and the like. In addition, since iterative calculation is used, there is a problem that the calculation time cannot be estimated. For this reason, in implementing the algorithm, the total response time of the completed system cannot be accurately estimated, and it has been extremely difficult to implement the hardware. Further, in terms of calculation time, it is necessary to interpolate an image at each stage of repeated calculation. However, since the image interpolation calculation requires a large amount of calculation, a lot of calculation time is required. Furthermore, in terms of estimation accuracy, the properties of the interpolated image differ depending on the image interpolation method, so that the final parameter estimation accuracy and the nature of the estimation error differ depending on the interpolation method employed.

本発明は上述のような事情よりなされたものであり、本発明の目的は、N次元類似度を考慮することで、上記従来手法の問題点を解決し、画像間対応パラメータを少ない計算量で安定且つ高速に高精度に同時推定できるようにした、画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法を提供することにある。   The present invention has been made under the circumstances as described above, and an object of the present invention is to solve the problems of the conventional method by considering the N-dimensional similarity and to reduce the inter-image correspondence parameter with a small amount of calculation. An object of the present invention is to provide a multi-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image, which enables simultaneous estimation at high speed with high stability.

本発明は、画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法に関し、本発明の上記目的は、N(Nは4以上の整数である)個の画像間対応パラメータを軸とするN次元類似度空間において、離散的な位置で得られた画像間のN次元類似度値を利用して、前記N個の画像間対応パラメータを高精度に同時推定する画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法であって、前記画像間のN次元類似度値が、ある1つのパラメータ軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似するN次元超平面を求めるステップと、前記N次元超平面を各パラメータ軸に対してN個求めるステップと、前記N個のN次元超平面の交点を求めるステップと、前記交点を前記N次元類似度空間におけるN次元類似度の最大値または最小値を与える前記画像間対応パラメータのサブサンプリンググリッド推定位置とするステップとを有するようにすることによって効果的に達成される。   The present invention relates to a multi-parameter high-accuracy simultaneous estimation method in image sub-pixel matching, and the object of the present invention is to provide N-dimensional similarity with N (N is an integer of 4 or more) inter-image correspondence parameters as axes. Multi-parameter high accuracy in sub-pixel matching of images that simultaneously estimate the N inter-image correspondence parameters with high accuracy using N-dimensional similarity values between images obtained at discrete positions in a degree space In the simultaneous estimation method, a sub-sampling position where an N-dimensional similarity value between the images is maximum or minimum on a straight line parallel to a certain parameter axis is obtained, and the obtained sub-sampling position is determined. Obtaining the closest N-dimensional hyperplane; obtaining N N-dimensional hyperplanes for each parameter axis; and intersecting the N N-dimensional hyperplanes. And the step of setting the intersection as the sub-sampling grid estimated position of the inter-image correspondence parameter that gives the maximum value or the minimum value of the N-dimensional similarity in the N-dimensional similarity space. Is achieved.

また、本発明は、画像のサブピクセルマッチングにおける3パラメータ高精度同時推定方法に関し、本発明の上記目的は、3個の画像間対応パラメータを軸とする3次元類似度空間において、離散的な位置で得られた画像間の3次元類似度値を利用して、前記3個の画像間対応パラメータを高精度に同時推定する画像のサブピクセルマッチングにおける3パラメータ高精度同時推定方法であって、前記画像間の3次元類似度値が、ある1つのパラメータ軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似する平面を求めるステップと、前記平面を各パラメータ軸に対して3個求めるステップと、前記3個の平面の交点を求めるステップと、前記交点を前記3次元類似度空間における3次元類似度の最大値または最小値を与える前記画像間対応パラメータのサブサンプリンググリッド推定位置とするステップとを有するようにすることによって効果的に達成される。   The present invention also relates to a three-parameter high-accuracy simultaneous estimation method in image sub-pixel matching. The object of the present invention is to provide discrete positions in a three-dimensional similarity space with three inter-image correspondence parameters as axes. A three-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image for simultaneously estimating the three inter-image correspondence parameters with high accuracy using a three-dimensional similarity value between images obtained by Obtaining a sub-sampling position at which a three-dimensional similarity value between images is maximized or minimized on a straight line parallel to a certain parameter axis, and obtaining a plane that most closely approximates the obtained sub-sampling position; Obtaining three planes for each parameter axis; obtaining intersections of the three planes; and calculating the intersection points in the three-dimensional class. Effectively be achieved as a step of a sub-sampling grid estimated position of the image between the corresponding parameter giving the maximum or minimum value of the three-dimensional similarities at degrees space.

更に、本発明は、画像のサブピクセルマッチングにおける2パラメータ高精度同時推定方法に関し、本発明の上記目的は、離散的に得られた画像間の2次元類似度値を利用して、連続領域における2次元類似度最大値または最小値の位置を高精度に推定する画像のサブピクセルマッチングにおける2パラメータ高精度同時推定方法であって、前記画像間の2次元類似度値が、水平軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似する直線(水平極値線HEL)を求めるステップと、前記画像間の2次元類似度値が、垂直軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似する直線(垂直極値線VEL)を求めるステップと、前記水平極値線HELと前記垂直極値線VELの交点を求めるステップと、前記交点を前記2次元類似度の最大値または最小値を与えるサブピクセル推定位置とするステップとを有するようにすることによって効果的に達成される。   Furthermore, the present invention relates to a two-parameter high-accuracy simultaneous estimation method in image sub-pixel matching, and the above object of the present invention is to use a two-dimensional similarity value between discretely obtained images in a continuous region. A two-parameter high-accuracy simultaneous estimation method in sub-pixel matching of images for accurately estimating the position of the maximum value or the minimum value of two-dimensional similarity, wherein the two-dimensional similarity value between the images is relative to a horizontal axis A step of obtaining a subsampling position that is maximum or minimum on a parallel straight line, obtaining a straight line (horizontal extreme value line HEL) that most closely approximates the obtained subsampling position, and a two-dimensional similarity value between the images. The subsampling position that is maximum or minimum on a straight line parallel to the vertical axis is obtained, and a straight line (vertical) that most closely approximates the obtained subsampling position An extreme value line VEL), a step of obtaining an intersection point of the horizontal extreme value line HEL and the vertical extreme value line VEL, and a sub-pixel estimated position that gives the intersection a maximum value or minimum value of the two-dimensional similarity. This step is effectively achieved.

本発明によれば、画像間の平行移動、回転、スケール変化を同時に高精度に推定することができる。即ち、本発明に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法によれば、画像間の対応に、平行移動があるときだけでなく、回転やスケール変化があるときにも、繰り返し計算を利用することなく、高精度にこれらの画像間対応パラメータを同時に推定することができる。本発明では、繰り返し計算を利用しないので、従来のように計算ごとに画像を補間する必要が全くない。   According to the present invention, translation, rotation, and scale change between images can be simultaneously estimated with high accuracy. That is, according to the multi-parameter high-accuracy simultaneous estimation method for sub-pixel matching of images according to the present invention, it is repeatedly calculated not only when there is a parallel movement but also when there is a rotation or a scale change in the correspondence between images. The inter-image correspondence parameters can be estimated simultaneously with high accuracy without using. In the present invention, since iterative calculation is not used, there is no need to interpolate an image for each calculation as in the prior art.

また、本発明によれば、テンプレート画像を用いて少ない枚数の補間画像を作成しておき、これらの補間画像を用いた画像間の類似度値を利用して、平行移動と回転やスケール変化を同時に高精度に推定することができる。本発明は、一般的に利用されているようなパラメータ最適化手法と異なり、繰り返し計算を用いないため、計算が容易でしかも計算時間が予測可能で、繰り返し計算を行うときに問題となる収束性を保証する必要もなく、初期値による不安定性も生じない。つまり、本発明によれば、従来方法において生じる収束性の問題や初期値の問題を排除することができる。   Further, according to the present invention, a small number of interpolated images are created using template images, and parallel movement, rotation, and scale change are performed using similarity values between images using these interpolated images. At the same time, it can be estimated with high accuracy. Unlike the parameter optimization methods that are generally used, the present invention does not use iterative calculations, so the calculation is easy and the calculation time can be predicted, and the convergence that becomes a problem when performing iterative calculations It is not necessary to guarantee the instability, and instability due to the initial value does not occur. That is, according to the present invention, it is possible to eliminate the convergence problem and the initial value problem that occur in the conventional method.

以下、本発明の好適な実施例を図面及び数式を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings and mathematical expressions.

実施例1:
本発明に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法の実施例1では、画像のサンプリング周期で求まっている2次元類似度を使って、その2次元類似度の最大値又は最小値を与える2次元サブピクセル変位(つまり、水平及び垂直方向の画像間変位)を高精度に同時に推定するようにしている。
Example 1:
In the first embodiment of the multi-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image according to the present invention, the maximum value or the minimum value of the two-dimensional similarity is obtained using the two-dimensional similarity determined in the image sampling period. The two-dimensional sub-pixel displacement (that is, the displacement between images in the horizontal and vertical directions) that gives the same is simultaneously estimated with high accuracy.

ここで、画像を水平方向と垂直方向に独立と考え、変位のサブピクセル推定も独立に行う従来方法を「1次元推定方法」と称するのに対して、本発明の実施例1に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法は、2次元画像から計算した離散位置における2次元類似度を使って、2次元サブピクセル推定を行なっているので、「画像のサブピクセルマッチングにおける高精度2次元推定方法」又は「2次元サブピクセル推定方法」と称し、更に、略して「2次元推定方法」と呼ぶようにしている。   Here, the conventional method in which the image is considered to be independent in the horizontal direction and the vertical direction and the subpixel estimation of the displacement is also independently called “one-dimensional estimation method”, whereas the image according to the first embodiment of the present invention is The multi-parameter high-accuracy simultaneous estimation method in sub-pixel matching performs two-dimensional sub-pixel estimation using two-dimensional similarity at discrete positions calculated from a two-dimensional image. It is referred to as “two-dimensional estimation method” or “two-dimensional subpixel estimation method”, and is further referred to as “two-dimensional estimation method” for short.

後述する本発明の実施例1に係る2次元推定方法は、領域ベースマッチングを用いた高精度同時推定方法で、従来の「1次元推定方法」と比較して計算量がわずかに増えるだけで、圧倒的に高精度な2次元サブピクセル推定が可能である。   The two-dimensional estimation method according to Example 1 of the present invention to be described later is a high-precision simultaneous estimation method using region-based matching, and the calculation amount is slightly increased as compared with the conventional “one-dimensional estimation method”. An overwhelmingly high accuracy two-dimensional sub-pixel estimation is possible.

(1)2次元画像モデルと2次元類似度モデル
ここでは、何種類かの画像モデルをとりあげ、その2次元類似度を考える。異なる画像モデルから得られる2次元類似度が、同じ2次元類似度モデルで近似できることを示す。
(1) Two-dimensional image model and two-dimensional similarity model Here, several types of image models are taken and the two-dimensional similarity is considered. It shows that the two-dimensional similarity obtained from different image models can be approximated by the same two-dimensional similarity model.

領域ベースマッチングとは、2枚の画像の類似度を評価し、その最大または最小位置を2枚の画像間の変位として求めることである。この類似度は、通常は画像のサンプリング周期と一致して、とびとびの変位位置に対して値が得られる。画素単位でのマッチングは、これらの類似度の中から、最大値または最小値を探すことに対応する。サブピクセル推定は、これらの類似度を補間して、サブピクセルでの最大値または最小値を与えるサブピクセル変位位置を推定することである。以後の説明では、「最大または最小」を単に「最大」と表現する。SADやSSD類似度を使うときには「最小」、相関類似度を使うときには「最大」を意味する。   Region-based matching is to evaluate the similarity between two images and determine the maximum or minimum position as a displacement between the two images. This similarity is usually obtained in accordance with the sampling period of the image, and a value is obtained for the discrete displacement position. Matching in pixel units corresponds to searching for the maximum value or the minimum value from these similarities. Subpixel estimation is to interpolate these similarities to estimate the subpixel displacement position that gives the maximum or minimum value at the subpixel. In the following description, “maximum or minimum” is simply expressed as “maximum”. When using SAD or SSD similarity, it means “minimum”, and when using correlation similarity, it means “maximum”.

(1―1)コーナーモデル
まず、領域ベースマッチングとサブピクセル推定が可能な2次元画像モデルとして、1次元画像モデル
を単純に拡張して、下記数8で示すコーナー画像を考える。ここで、σimageは濃度エッジのシャープさである。このコーナー画像を図4(a)に示す。
ただし、画像座標系をu−v、類似度座標系(変位座標系)をs−tとする。
(1-1) Corner model First, as a two-dimensional image model capable of region-based matching and sub-pixel estimation, a one-dimensional image model
Is simply expanded to consider a corner image represented by the following equation (8). Here, σ image is the sharpness of the density edge. This corner image is shown in FIG.
However, the image coordinate system is uv, and the similarity coordinate system (displacement coordinate system) is st.

上記数8で表す画像を参照画像として、また、全く同じ画像を入力画像として2次元マッチングを行ったときのSSD類似度(本発明では、SSD類似度を「自己類似度」と称することもある)は、下記数9で求めることができる。SSD類似度は、値が小さいほど類似していることを示すので、この場合には暗い場所ほど類似性が高いことを示している。自己類似度は全く同じ画像を使った類似度なので、変位(s,t)=(0,0)の位置の類似度が最も小さい。この類似度を図4(b)に示す。
ただし、総和範囲は、任意形状の注目範囲であるが、図4(b)では11×11の矩形領域で計算した。
SSD similarity when two-dimensional matching is performed using the image represented by Equation 8 as a reference image and the exact same image as an input image (in the present invention, SSD similarity is sometimes referred to as “self-similarity”). ) Can be obtained by the following equation (9). The SSD similarity indicates that the smaller the value, the more similar, and in this case, the darker the location, the higher the similarity. Since the self-similarity is a similarity using exactly the same image, the similarity at the position of displacement (s, t) = (0, 0) is the smallest. This similarity is shown in FIG.
However, although the total range is a range of interest of an arbitrary shape, in FIG. 4B, the calculation was performed using an 11 × 11 rectangular area.

図4(a)では、コーナーに剪断成分が含まれない、つまり水平方向の濃度変化が垂直位置に依存しないので、2次元画像の水平方向と垂直方向を独立に扱うことができる。このとき、上記数9の類似度も、水平方向と垂直方向を独立に扱うことができる。従って、サブピクセル変位位置を推定するときにも、水平方向と垂直方向を独立に扱うことができる。   In FIG. 4A, since no shear component is included in the corners, that is, the change in density in the horizontal direction does not depend on the vertical position, the horizontal direction and the vertical direction of the two-dimensional image can be handled independently. At this time, the degree of similarity of Equation 9 can also be handled independently in the horizontal direction and the vertical direction. Therefore, when the subpixel displacement position is estimated, the horizontal direction and the vertical direction can be handled independently.

しかし、実際の画像では、必ずしも90度のコーナーで構成されるわけではない。例えば、建築物を地上から撮影したステレオ画像を使って3次元情報を再構成するときには、建築物のコーナー領域を、他方の画像との対応を求めるが、コーナーが90度に撮影されることはまれである(図2(a)参照)。   However, an actual image is not necessarily composed of 90 degree corners. For example, when three-dimensional information is reconstructed using a stereo image obtained by photographing a building from the ground, the corner area of the building is requested to correspond to the other image, but the corner is photographed at 90 degrees. It is rare (see FIG. 2 (a)).

そこで、v=0に濃度エッジを持つ2枚の2次元画像
を、それぞれ左にθ、右にθだけ回転した画像を考える。
Therefore, two two-dimensional images having density edges at v = 0
Are images rotated by θ a on the left and θ b on the right, respectively.

このθ、θを画像全体の回転角度θとコーナー角度θを使って、次のように定義する。
These θ a and θ b are defined as follows using the rotation angle θ g and the corner angle θ c of the entire image.

このとき、I(u,v)とI(u,v)を使って表す2次元画像モデルI(u,v)を、下記数13で定義する。
At this time, a two-dimensional image model I c (u, v) expressed using I a (u, v) and I b (u, v) is defined by the following equation (13).

この2次元画像モデルは、図5に示すように、画像全体の回転角度θとコーナー角度θと2次元濃度エッジのシャープさσimageをパラメータに持つ。0≦θ≦π/4、0<θ≦π/2の範囲を考慮する。これ以外の範囲は、画像の左右を反転することと、濃淡を反転することで表現することができる。θ=π/4、θ=π/2のときには、上記数8の単純な画像モデルと同一である。図6(a)、(b)、(c)、(g)、(h)、(i)に、上記数13で表す画像モデルの例を示す。図6(d)、(e)、(f)、(j)、(k)、(l)に、図6(a)、(b)、(c)、(g)、(h)、(i)の2次元画像に対応した類似度を示す。 As shown in FIG. 5, this two-dimensional image model has as parameters the rotation angle θ g and corner angle θ c of the entire image and the sharpness σ image of the two-dimensional density edge. The range of 0 ≦ θ g ≦ π / 4 and 0 <θ c ≦ π / 2 is considered. The range other than this can be expressed by inverting the left and right sides of the image and inverting the shade. When θ g = π / 4 and θ c = π / 2, the image model is the same as the simple image model of the above equation (8). 6 (a), (b), (c), (g), (h), and (i) show examples of the image model represented by the above equation (13). 6 (d), (e), (f), (j), (k), (l), FIG. 6 (a), (b), (c), (g), (h), ( The similarity corresponding to the two-dimensional image of i) is shown.

(1―2)繰り返しテクスチャモデル
類似度に方向依存性がないとき、つまり類似度が等方性なら、サブピクセル推定を水平方向と垂直方向に独立に行っても誤差が発生しない。しかし、類似度に方向依存性があるとき(本発明では「異方性」と呼ぶ)、つまり、方向によって微分値が異なるときには、サブピクセル推定を水平方向と垂直方向に独立に行うと誤差が発生する可能性がある。
上記数13で示した2次元画像モデルI(u,v)では、θ≠π/2のときに自己類似度に異方性が現れた。しかし、直感的に理解できるように、これ以外にも自己類似度に異方性を生じさせるテクスチャが存在する。この例として、図3(a)に示す画像のSSD自己類似度を図3(b)に示す。テクスチャに含まれるコーナーはθ=π/2なのに、類似度に異方性が現れている。
(1-2) Repetitive Texture Model When similarity is not directional-dependent, that is, if the similarity is isotropic, no error occurs even if subpixel estimation is performed independently in the horizontal and vertical directions. However, when the degree of similarity is direction-dependent (referred to as “anisotropic” in the present invention), that is, when the differential value differs depending on the direction, an error will occur if subpixel estimation is performed independently in the horizontal and vertical directions. May occur.
In the two-dimensional image model I c (u, v) shown in the above equation 13, anisotropy appeared in the self-similarity when θ c ≠ π / 2. However, as can be understood intuitively, there are other textures that cause anisotropy in self-similarity. As an example of this, the SSD self-similarity of the image shown in FIG. 3A is shown in FIG. Although the corner included in the texture is θ c = π / 2, anisotropy appears in the similarity.

θ=π/2なのに自己類似度に異方性を生じさせる2次元画像モデルとして、下記数14を考える。
As a two-dimensional image model that causes anisotropy in self-similarity even though θ c = π / 2, the following equation 14 is considered.

上記数14の2次元画像モデルI(u,v)は、図7に示すように、u方向空間周波数f、v方向空間周波数f、画像の回転角度θをパラメータに持つ。0≦θ≦π/2の範囲を考慮する。f≠fのときには、自己類似度に異方性を生じる。自己類似度の異方性は、テクスチャにおける空間周波数の異方性に相当する。前節で導入した2次元画像モデルI(u,v)は、θ≠π/2のときに、空間周波数の異方性が発生していると考えることができる。 As shown in FIG. 7, the two-dimensional image model I t (u, v) of Equation 14 has u-direction spatial frequency f u , v-direction spatial frequency f v , and image rotation angle θ g as parameters. Consider a range of 0 ≦ θ g ≦ π / 2. When f u ≠ f v , anisotropy occurs in the self-similarity. The anisotropy of the self-similarity corresponds to the anisotropy of the spatial frequency in the texture. The two-dimensional image model I c (u, v) introduced in the previous section can be considered to have spatial frequency anisotropy when θ c ≠ π / 2.

この2次元画像モデルとSSD自己類似度を図8に示す。   FIG. 8 shows the two-dimensional image model and the SSD self-similarity.

(1―3)ガウス関数モデル
自己類似度に異方性を生じさせる2次元画像モデルとして、下記数15の2次元ガウス関数を考えることができる。
ただし、図9に示すように、σはガウス関数の標準偏差で、kは異方性係数(k>0)で、θは回転角度である。0≦θ≦π/2の範囲を考慮する。この2次元画像モデルとSSD自己類似度を図10に示す。
(1-3) Gaussian function model As a two-dimensional image model that causes anisotropy in the self-similarity, the following two-dimensional Gaussian function can be considered.
However, as shown in FIG. 9, σ is a standard deviation of a Gaussian function, k is an anisotropy coefficient (k> 0), and θ g is a rotation angle. Consider a range of 0 ≦ θ g ≦ π / 2. The two-dimensional image model and the SSD self-similarity are shown in FIG.

(1―4)2次元類似度モデル
1次元サブピクセル推定と異なり、2次元サブピクセル推定では2次元画像モデルのパラメータ数が多いので、2次元画像モデルから得られるSSD類似度を直接検討することは得策ではない。ここで取り上げた画像モデルは、画像の性質の多くを含んでいるが、実際用途で扱う画像は、ここで取り上げた画像モデルを複数組み合わせたものや、より高次の画像が存在する。
(1-4) Two-dimensional similarity model Unlike the one-dimensional subpixel estimation, the two-dimensional subpixel estimation has a large number of parameters for the two-dimensional image model, so the SSD similarity obtained from the two-dimensional image model should be examined directly. Is not a good idea. The image model picked up here includes many of the properties of the image, but images handled in actual use include a combination of a plurality of the image models picked up here and higher-order images.

そこで、以後の検討では、これまでに検討した何種類かの画像モデルを直接使わず、代わりに、これらの画像モデルから得られる2次元類似度を近似する2次元類似度モデルを検討する。2次元類似度モデルとして、下記数16で表す2次元ガウス関数を採用する。
ただし、(d,d)は画像間の真の変位で、σはガウス関数の標準偏差で、kは異方性係数(k>0)で、θは回転角度である。0≦θ≦π/2の範囲を考慮する。
Therefore, in the subsequent study, the two-dimensional similarity model that approximates the two-dimensional similarity obtained from these image models is examined instead of directly using the several types of image models studied so far. As a two-dimensional similarity model, a two-dimensional Gaussian function expressed by the following equation 16 is adopted.
However, (d s , d t ) is a true displacement between images, σ is a standard deviation of a Gaussian function, k is an anisotropy coefficient (k> 0), and θ g is a rotation angle. Consider a range of 0 ≦ θ g ≦ π / 2.

比較のため、ここで取り上げた2次元画像モデルから得られるSSD自己類似度の例と上記数16の類似度の例を図11に示す。ただし、(d,d)=(0,0)、θ=0、k=1としたときに、2次元画像モデルから計算した離散的な自己類似度を最もよく近似するように、上記数16のパラメータを数値計算で求めた。 For comparison, FIG. 11 shows an example of the SSD self-similarity obtained from the two-dimensional image model taken up here and an example of the similarity of the above equation (16). However, when (d s , d t ) = (0,0), θ g = 0, k = 1, so as to best approximate the discrete self-similarity calculated from the two-dimensional image model, The above 16 parameters were obtained by numerical calculation.

以上の説明は、連続領域で行ってきたが、実際の画像データから得られる類似度は、画素単位でのサンプリングになっている。この様子を図12に示す。本発明の実施例1に係る2次元推定方法は、このように離散化単位で得られた2次元類似度を用いて、連続領域での類似度最大値を与える2次元変位を高精度に推定するものである。   Although the above description has been performed in continuous regions, the similarity obtained from actual image data is sampled in units of pixels. This is shown in FIG. The two-dimensional estimation method according to the first embodiment of the present invention estimates the two-dimensional displacement that gives the maximum similarity value in a continuous region with high accuracy using the two-dimensional similarity obtained in discrete units as described above. To do.

(2)本発明の実施例1に係る2次元推定方法
(2―1)本発明の実施例1に係る2次元推定方法の原理<連続領域での説明>
ここでは、前述した2次元類似度モデルを使って、本発明の実施例1に係る2次元推定方法の原理を説明する。本発明は、離散化単位で得られた類似度値を使って、連続領域での類似度最大値位置を高精度に推定することを特徴としている。ここでは、本発明の実施例1の原理を連続領域で説明する。
(2) Two-dimensional estimation method according to Embodiment 1 of the present invention (2-1) Principle of the two-dimensional estimation method according to Embodiment 1 of the present invention <Description in a continuous region>
Here, the principle of the two-dimensional estimation method according to the first embodiment of the present invention will be described using the above-described two-dimensional similarity model. The present invention is characterized in that a similarity maximum value position in a continuous region is estimated with high accuracy using a similarity value obtained in a discretization unit. Here, the principle of the first embodiment of the present invention will be described in a continuous region.

図13は2次元類似度モデルを等高線で表示した図である。この2次元類似度モデルのパラメータは、(d,d)=(0.2,0.4)、σ=1.0、k=0.7、θ=π/6である。等高線は、2次元類似度モデルの最大値に対して、10%から90%までレベルを示している。2次元類似度モデルの等高線は楕円になる。この楕円の中心が、2次元類似度モデルの最大値位置である。図13(a)には、2次元類似度モデルの長軸を示してあるが、この角度が回転角度θに相当する。 FIG. 13 shows a two-dimensional similarity model displayed with contour lines. The parameters of this two-dimensional similarity model are (d s , d t ) = (0.2,0.4), σ = 1.0, k = 0.7, and θ g = π / 6. The contour lines indicate levels from 10% to 90% with respect to the maximum value of the two-dimensional similarity model. The contour line of the two-dimensional similarity model is an ellipse. The center of this ellipse is the maximum value position of the two-dimensional similarity model. The FIG. 13 (a), the is shown a major axis of the two-dimensional similarity model, this angle corresponds to the rotation angle theta g.

数16の2次元類似度モデルをsで偏微分して0とおくことで、図13(b)の直線s=at+bを表す関係を得ることができる。
When the two-dimensional similarity model of Equation 16 is partially differentiated by s and set to 0, the relationship representing the straight line s = at + b in FIG. 13B can be obtained.

考慮する条件がk>0なので、上記数17の各係数の分母≠0である。また、2次元類似度モデルが等方性のとき、つまりk=1のとき、上記数17はs=dとなり、推定誤差が発生しない。本発明の実施例1では、この直線を水平極値線HEL(Horizontal Extremal Line)と称する。HELは図13(b)の等高線を表す楕円と水平直線との接点を通る。 Since the condition to consider is k> 0, the denominator of each coefficient of the above equation 17 is not equal to 0. Further, when the two-dimensional similarity model is isotropic, that is, when k = 1, the above equation 17 becomes s = ds , and no estimation error occurs. In the first embodiment of the present invention, this straight line is referred to as a horizontal extreme value line HEL (Horizontal Extremal Line). HEL passes through a contact point between an ellipse representing a contour line in FIG. 13B and a horizontal straight line.

一方、数16の2次元類似度モデルをtで偏微分して0とおくことで、図13(b)の直線t=As+Bを表す関係を得ることができる。
On the other hand, when the two-dimensional similarity model of Equation 16 is partially differentiated with respect to t and set to 0, the relationship representing the straight line t = As + B in FIG. 13B can be obtained.

数17と同様に、各係数の分母≠0である。また、k=1のとき、数18は、t=dとなり、推定誤差が発生しない。本発明の実施例1では、この直線を垂直極値線VEL(Vertical Extremal Line)と称する。VELは図13(b)の等高線を表す楕円と垂直直線との接点を通る。 Similar to Equation 17, the denominator of each coefficient is not zero. When k = 1, Equation 18 becomes t = dt , and no estimation error occurs. In Embodiment 1 of the present invention, this straight line is referred to as a vertical extreme value line VEL (Vertical Extremal Line). VEL passes through a contact point between an ellipse representing a contour line in FIG. 13B and a vertical straight line.

HELとVELの交点は、数16の2次元類似度モデルを異なる方向に偏微分したときに、どちらの方向にも0になる点であり、これは2次元類似度モデルの類似度値を最大にする位置に他ならない。実際に、この交点を計算すると、
となり、当然のことながら2次元類似度モデルの変位(d,d)を表している。
The intersection of HEL and VEL is a point where when the two-dimensional similarity model of Equation 16 is partially differentiated in different directions, it becomes 0 in both directions. This is the maximum similarity value of the two-dimensional similarity model. It is nothing but the position to make. Actually, when calculating this intersection,
As a matter of course, the displacement (d s , d t ) of the two-dimensional similarity model is expressed.

このときの分母≠0は、HELとVELが交点を持つための条件である。分母を計算すると、次のようになる。
kの範囲はk>0なので、この分母1−aA≠0である。
In this case, the denominator ≠ 0 is a condition for the intersection of HEL and VEL. The denominator is calculated as follows.
Since the range of k is k> 0, this denominator 1−aA ≠ 0.

まとめると、2次元類似度のs方向微分とt方向微分は、HELとVELの2直線で表すことができ、この2直線の交点が2次元類似度の最大値位置になっている。従って、本発明の実施例1では、離散化単位で得られた類似度値を使ってHELとVELを求め、その交点を計算すれば、2次元サブピクセル推定を行うことができる。   In summary, the s-direction differential and the t-direction differential of the two-dimensional similarity can be expressed by two lines of HEL and VEL, and the intersection of the two lines is the maximum value position of the two-dimensional similarity. Therefore, in Embodiment 1 of the present invention, two-dimensional subpixel estimation can be performed by calculating HEL and VEL using similarity values obtained in discretization units and calculating their intersections.

(2―2)本発明の実施例1に係る2次元推定方法の実装方法<離散領域への適用>
以下では、離散的に算出された画像間の類似度値を利用して、連続領域における類似度最大値位置を推定する本発明の実施例1に係る2次元推定方法を具体的に説明する。
(2-2) Implementation Method of Two-Dimensional Estimation Method According to Embodiment 1 of the Present Invention <Application to Discrete Domain>
Hereinafter, the two-dimensional estimation method according to the first embodiment of the present invention that estimates the similarity maximum value position in the continuous region using the discretely calculated similarity values between images will be specifically described.

まず、離散的に得られている類似度値を使って、HELを求める。HELは水平方向について類似度最大値を通る直線なので、2本以上の水平ライン上でのサブピクセル類似度最大値位置が決定すれば、HELを求めることができる。この様子を図14(a)に示す。同図において、同心楕円は2次元類似度モデルの等高線を表す。同図中の□位置で離散的に得られた類似度値を使って、直線で示すHELを求める。   First, HEL is obtained using discrete similarity values. Since HEL is a straight line that passes through the maximum similarity value in the horizontal direction, HEL can be obtained by determining the subpixel similarity maximum value position on two or more horizontal lines. This is shown in FIG. In the figure, concentric ellipses represent contour lines of a two-dimensional similarity model. The HEL indicated by a straight line is obtained using the similarity values obtained discretely at the square positions in the figure.

図14(a)において、直線t=0上での最大類似度を与える位置を
変位位置(s,t)での類似度をR(s,t)とすると、
In FIG. 14A, the position giving the maximum similarity on the straight line t = 0 is
If the similarity at the displacement position (s, t) is R (s, t),

この推定結果には、前章で示したように推定誤差が含まれるが、このことについては次節で述べる。直線t=−1上と直線t=1上での最大類似度を与える位置をそれぞれ
とすると、
ただし、it=−1、it=1は、直線t=−1上と直線t=1上で最大類似度を与える整数位置オフセットである(後述する)。
This estimation result includes an estimation error as described in the previous chapter, which will be described in the next section. The position giving the maximum similarity on the straight line t = -1 and the straight line t = 1 respectively
Then,
However, i t = −1 and i t = 1 are integer position offsets that give the maximum similarity on the straight line t = −1 and the straight line t = 1 (described later).

これら3点の最大類似度位置を通る直線がHELである。実際には、画像パターンや画像に含まれるノイズや画像間の相違などのために、これら3点は完全には直線上には乗らない可能性があるので、最小二乗で近似直線を求める。この3点を最小二乗で近似する直線は、下記数24で求めることができる。
A straight line passing through the maximum similarity positions of these three points is HEL. Actually, these three points may not completely lie on a straight line due to image patterns, noise included in the image, differences between images, and the like, so an approximate straight line is obtained with the least squares. A straight line approximating these three points with the least squares can be obtained by the following equation (24).

次に、離散化単位で得られた類似度値を使って、VELを求める。VELは垂直方向について類似度最大値を通る直線なので、2本以上の垂直ライン上でのサブピクセル類似度最大値位置が決定すれば、VELを求めることができる。この様子を、図14(b)に示す。同図において、同心楕円は、2次元類似度モデルの等高線を表す。同図中の□位置で離散化単位で得られた類似度値を使って、直線で示すVELを求める。   Next, VEL is obtained using the similarity value obtained in the discretization unit. Since VEL is a straight line that passes through the maximum similarity in the vertical direction, VEL can be obtained by determining the subpixel similarity maximum value position on two or more vertical lines. This situation is shown in FIG. In the figure, concentric ellipses represent contour lines of a two-dimensional similarity model. Using the similarity value obtained in the discretization unit at the □ position in the figure, VEL indicated by a straight line is obtained.

図14(b)において、直線s=0上での最大類似度を与える位置を
とすると、
In FIG. 14B, the position giving the maximum similarity on the straight line s = 0 is
Then,

直線s=−1上と直線s=1上での最大類似度を与える位置をそれぞれ
とすると、
ただし、is=−1、is=1は、直線s=−1上と直線s=1上で最大類似度を与える整数位置オフセットである。
The position giving the maximum similarity on the straight line s = -1 and on the straight line s = 1 respectively
Then,
However, i s = −1 and i s = 1 are integer position offsets that give the maximum similarity on the straight line s = −1 and on the straight line s = 1.

これら3点の最大類似度位置を通る直線がVELである。この3点を最小二乗で近似する直線は、下記数28で求めることができる。
A straight line passing through the maximum similarity positions of these three points is VEL. A straight line approximating these three points with the least squares can be obtained by the following equation (28).

HELとVELの交点、即ち、数24と数28の交点が、連続領域における2次元類似度最大値のサブピクセル推定位置
になっている。
The intersection of HEL and VEL, that is, the intersection of Equations 24 and 28 is the subpixel estimated position of the maximum two-dimensional similarity in the continuous region.
It has become.

ところで、数26、数27における直線t=−1上と直線t=1上で最大類似度を与える整数位置オフセットit=−1、it=1は、必ずしも0になる保証はない。例えば、図15(b)に示すのは、(d,d)=(0.2,0.4)、σ=1、k=0.3、θ=π/8の2次元類似度モデルだが、このモデルに対するHELを求めるための、直線t=−1上の類似度最大値はs=−2付近にある。従って、
を計算するときには、直線t=−1上と直線t=1上で最大類似度を与える整数位置を再探索する必要がある。垂直方向についても同様で
を計算するときには、直線s=−1上と直線s=1上で最大類似度を与える整数位置を再探索する必要がある。
By the way, the integer position offsets i t = −1 and i t = 1 that give the maximum similarity on the straight line t = −1 and the straight line t = 1 in the equations 26 and 27 are not necessarily guaranteed to be zero. For example, FIG. 15B shows a two-dimensional similarity of (d s , d t ) = (0.2,0.4), σ = 1, k = 0.3, and θ g = π / 8. Although it is a degree model, the maximum similarity on the straight line t = −1 for obtaining HEL for this model is in the vicinity of s = −2. Therefore,
When calculating, it is necessary to re-search the integer position that gives the maximum similarity on the straight line t = −1 and the straight line t = 1. The same applies to the vertical direction.
When calculating, it is necessary to re-search the integer position that gives the maximum similarity on the straight line s = −1 and the straight line s = 1.

このとき、図15(b)に示す±3の範囲の類似度を使い、−2≦i≦+2を考慮している。この探索範囲は、多数の現実的な画像をもとに決定した範囲である。もしも、2次元類似度モデルのパラメータ範囲に制限がないとすると、このときの再探索範囲は無限になってしまう。その理由は、(d,d)=(0,0)のとき、数17のHELについて、下記数30のD(k,θ)を考えると、
At this time, the similarity in the range of ± 3 shown in FIG. 15B is used, and −2 ≦ i ≦ + 2 is considered. This search range is a range determined based on a large number of realistic images. If the parameter range of the two-dimensional similarity model is not limited, the re-search range at this time becomes infinite. The reason for this is that when (d s , d t ) = (0,0), considering D (k, θ g ) of the following equation 30 for the HEL of equation 17,

D(k,θ)が最大値に近づくのは、θ→0、k→0のときで、D(k,θ)→cosθ/sinθ→∞だからである。ところで、k→0のとき、2次元類似度の異方性が無限大になり、HELとVELがほとんど一致する。もしもこのような2次元類似度を作り出す画像があったとしても、そのときには、ほとんど同一になったHELとVEL上で類似度最大値を検索すればよい。たとえば、数30でD(k,θ)→∞のときには、VEL上の3点
における類似度値を求め、パラボラフィッティングを行えばよい。
The reason why D (k, θ g ) approaches the maximum value is that when θ g → 0, k → 0, because D (k, θ g ) → cos θ g / sin θ g → ∞. By the way, when k → 0, the anisotropy of the two-dimensional similarity becomes infinite, and HEL and VEL almost coincide. Even if there is an image that creates such a two-dimensional similarity, it is only necessary to search the maximum similarity on HEL and VEL that are almost identical. For example, when D (k, θ g ) → ∞ in Equation 30, 3 points on VEL
The similarity value at s is obtained and parabolic fitting is performed.

従来の1次元推定では、図15(a)に示す5個の類似度値を用いてサブピクセル位置を推定していた。このとき、直線t=0上の3点の類似度(□印)を用いてサブピクセル推定を行って水平方向サブピクセル変位(●印)とした。また、直線s=0上の3点の類似度(□印)を用いてサブピクセル推定を行って垂直方向サブピクセル変位(●印)とした。図15(a)に示す2直線の交点が従来手法で求めた2次元サブピクセル推定値だが、大きな推定誤差を含むことがわかる。   In the conventional one-dimensional estimation, the subpixel position is estimated using the five similarity values shown in FIG. At this time, subpixel estimation was performed using the similarity of three points on the straight line t = 0 (□ mark) to obtain a horizontal subpixel displacement (● mark). In addition, subpixel estimation was performed using the similarity of three points on the straight line s = 0 (marked with □) to obtain a vertical subpixel displacement (marked with ●). The intersection of the two straight lines shown in FIG. 15A is a two-dimensional subpixel estimated value obtained by the conventional method, and it can be seen that a large estimation error is included.

これに対して本発明の実施例1に係る2次元推定方法は、図15(b)に示す25個の類似度値を用いて2次元サブピクセル位置を推定する。HELとVELの交点は、正確に2次元類似度のサブピクセル最大位置を通るので、推定は極めて高精度である。さらに、本発明の実施例1に係る2次元推定方法の計算量の増加は、従来の「1次元推定方法」と比較してわずかである。領域ベースマッチングでは、大部分の計算時間は類似度値を計算しているが、本発明の実施例1に係る2次元推定方法では既に得られている類似度値を利用するので、計算時間の増加は少ない。   On the other hand, the two-dimensional estimation method according to the first embodiment of the present invention estimates the two-dimensional subpixel position using the 25 similarity values shown in FIG. Since the intersection of HEL and VEL accurately passes through the maximum subpixel position of two-dimensional similarity, the estimation is extremely accurate. Furthermore, the increase in the calculation amount of the two-dimensional estimation method according to the first embodiment of the present invention is small compared to the conventional “one-dimensional estimation method”. In region-based matching, the similarity value is calculated for most of the calculation time. However, since the two-dimensional estimation method according to the first embodiment of the present invention uses the similarity value already obtained, There is little increase.

(2―3)本発明の実施例1に係る2次元推定方法とサブピクセル推定誤差低減方法との組合せ
数21から数23、数25から数27において、3位置の類似度を使ってパラボラフィッティングによってサブピクセル位置を推定するときには、推定誤差が発生する。この推定誤差は、補間画像を利用することでキャンセルすることができる。
(2-3) Combination of the two-dimensional estimation method and the subpixel estimation error reduction method according to the first embodiment of the present invention Parabolic fitting using the similarity of three positions in Equations 21 to 23 and Equations 25 to 27 When the subpixel position is estimated by the estimation error, an estimation error occurs. This estimation error can be canceled by using an interpolation image.

数21から数23、数25から数27において求めているサブピクセル位置は、従来どおりの1次元推定にすぎないので、非特許文献1に記載された、推定誤差を低減できるサブピクセル推定方法(以下、本発明の実施例1に係る2次元推定方法と区別するために、非特許文献1に記載されたサブピクセル推定方法を「サブピクセル推定誤差低減方法」と称する)をそのまま適用することができる。ここでは簡単に適用方法を説明する。   Since the subpixel positions obtained in Equations 21 to 23 and Equations 25 to 27 are merely one-dimensional estimation as in the past, the subpixel estimation method (described in Non-Patent Document 1) that can reduce the estimation error ( Hereinafter, in order to distinguish from the two-dimensional estimation method according to the first embodiment of the present invention, the subpixel estimation method described in Non-Patent Document 1 is referred to as “subpixel estimation error reduction method” as it is. it can. Here, the application method will be briefly described.

マッチングに使う2次元画像関数をI(u,v)、I(u,v)とするとき、水平方向補間画像I1iu(u,v)は、
と表すことができる。ただし、このときの(u,v)は整数である。水平方向補間画像I1iu(u,v)は、I(u,v)に対して(0.5,0)だけ変位していると考えることができる。この補間画像を使って、次に示すSSD類似度でサブピクセル推定を行うと、推定結果も(0.5,0)だけ変位していると考えることができるので、その変位を補正した推定結果は、下記数32、数33で求めることができる。
When the two-dimensional image function used for matching is I 1 (u, v) and I 2 (u, v), the horizontally interpolated image I 1iu (u, v) is
It can be expressed as. However, (u, v) at this time is an integer. It can be considered that the horizontally interpolated image I 1iu (u, v) is displaced by ( 0.5,0 ) with respect to I 1 (u, v). When subpixel estimation is performed with the SSD similarity shown below using this interpolated image, it can be considered that the estimation result is also displaced by (0.5, 0). Can be calculated by the following equations 32 and 33.

数33も数21と同様に推定誤差を含むが、その位相が逆になっているので、下記数34によって推定誤差をキャンセルすることができる。
Equation 33 also includes an estimation error as in Equation 21, but since the phase is reversed, the estimation error can be canceled by Equation 34 below.

同様にして、水平ラインt=−1、t=1について、
Similarly, for horizontal lines t = −1 and t = 1,

ただし、it=−1、it=1は、直線t=−1上と直線t=1上でRiu(s,t)の最大類似度を与える整数位置オフセットである。これらの値は、数22、数23とは異なる可能性がある。数35と数36を使って、下記数37、数38によって推定誤差をキャンセルすることができる。
However, i t = −1 and i t = 1 are integer position offsets that give the maximum similarity of R iu (s, t) on the straight line t = −1 and on the straight line t = 1. These values may be different from Equations 22 and 23. Using the equations 35 and 36, the estimation error can be canceled by the following equations 37 and 38.

垂直方向についても同様である。垂直方向補間画像I1iv(u,v)は、
と表すことができる。ただし、このときの(u,v)は整数である。垂直方向補間画像I1iv(u,v)は、I(u,v)に対して(0,0.5)だけ変位していると考えることができる。この補間画像を使って、次に示すSSD類似度でサブピクセル推定を行うと、推定結果も(0,0.5)だけ変位していると考えることができるので、その変位を補正した推定結果は、下記数40、数41で求めることができる。
The same applies to the vertical direction. The vertically interpolated image I 1iv (u, v) is
It can be expressed as. However, (u, v) at this time is an integer. It can be considered that the vertically interpolated image I 1iv (u, v) is displaced by (0,0.5) with respect to I 1 (u, v). When subpixel estimation is performed with the SSD similarity shown below using this interpolated image, it can be considered that the estimation result is also displaced by (0, 0.5). Can be obtained by the following equations 40 and 41.

数41も数25と同様に推定誤差を含むが、その位相が逆になっているので、下記数42によって推定誤差をキャンセルすることができる。
Equation 41 also includes an estimation error as in Equation 25, but since the phase is reversed, the estimation error can be canceled by Equation 42 below.

同様にして、垂直ラインs=−1、s=1について、
Similarly, for vertical lines s = −1 and s = 1,

ただし、is=−1、is=1は、直線s=−1上と直線s=1上でRiv(s,t)の最大類似度を与える整数位置オフセットである。これらの値は、数26、数27とは異なる可能性がある。数43と数44を使って、下記数45、数46によって推定誤差をキャンセルすることができる。
However, i s = −1 and i s = 1 are integer position offsets that give the maximum similarity of R iv (s, t) on the straight line s = −1 and on the straight line s = 1. These values may be different from Equations 26 and 27. Using the equations 43 and 44, the estimation error can be canceled by the following equations 45 and 46.

数34、数37、数38、数42、数45、数46で計算した各ライン上のサブピクセル推定値は、従来の1次元推定方法によって推定されたサブピクセル推定値と比較して、推定誤差が低減されている。従って、サブピクセル推定誤差低減方法によって推定されたこれらの推定結果を使って、更に本発明の実施例1に係る2次元推定方法で2次元サブピクセル推定を行うことで、より高精度な2次元サブピクセル推定が可能になる。
補間画像は、水平方向と垂直方向にそれぞれ1回ずつ作ればよいので、計算量の増加は1次元推定と同程度である。
The subpixel estimation values on the respective lines calculated in Equations 34, 37, 38, 42, 45, and 46 are estimated by comparing with the subpixel estimation values estimated by the conventional one-dimensional estimation method. The error has been reduced. Therefore, by using these estimation results estimated by the subpixel estimation error reduction method and further performing two-dimensional subpixel estimation by the two-dimensional estimation method according to the first embodiment of the present invention, more accurate two-dimensional Sub-pixel estimation is possible.
Since the interpolation image only needs to be created once in the horizontal direction and once in the vertical direction, the increase in the amount of calculation is similar to that in the one-dimensional estimation.

(3)本発明の実施例1に係る2次元推定方法による推定誤差と従来の推定方法による推定誤差との比較
以下では、2次元画像間の変位推定で、従来一般的に使用されている各種推定方法による推定誤差を本発明の実施例1に係る2次元推定方法による推定誤差と比較する。前述した2次元画像を使用して推定誤差を比較することで、同じ画像に対する比較を行う。
(3) Comparison between the estimation error by the two-dimensional estimation method and the estimation error by the conventional estimation method according to the first embodiment of the present invention. The estimation error due to the estimation method is compared with the estimation error due to the two-dimensional estimation method according to Embodiment 1 of the present invention. By comparing the estimation errors using the above-described two-dimensional image, the same image is compared.

2次元サブピクセル推定誤差は、水平方向と垂直方向の推定誤差を考える必要がある。ところが、推定誤差に影響するのは、2次元画像が持つ3パラメータと画像間の2次元入力変位の合計5パラメータになるので、全てを網羅することは困難である。そこで、代表的な2次元画像を用いて、各方法による推定誤差を比較する。   As the two-dimensional subpixel estimation error, it is necessary to consider an estimation error in the horizontal direction and the vertical direction. However, the estimation error is affected by the total of 5 parameters including the 3 parameters of the 2D image and the 2D input displacement between the images, so it is difficult to cover all of them. Therefore, the estimation error by each method is compared using a representative two-dimensional image.

(3―1)本発明の実施例1に係る2次元推定方法
代表的な2次元画像として、前述したコーナー画像を使用し、パラメータとしてθ=0,π/8,π/4、θ=π/4、σimage=1.0を考える。0≦θ≦π/4以外の2次元画像は、画像の左右を反転することと、濃淡を反転することで表現することができるが、実際の検討は、さらに多くの2次元画像、回転角度、コーナー角度を用いて行っている。他の2次元画像でも、2次元類似度が同じような形になるときには、サブピクセル推定誤差は同じ傾向を示す。
(3-1) Two-dimensional estimation method according to Embodiment 1 of the present invention The above-described corner image is used as a representative two-dimensional image, and θ g = 0, π / 8, π / 4, θ c as parameters. = Π / 4, σ image = 1.0. Two-dimensional images other than 0 ≦ θ g ≦ π / 4 can be expressed by reversing the left and right sides of the image and by reversing the grayscale, but the actual examination is more two-dimensional images, rotation The angle and corner angle are used. In other two-dimensional images, when the two-dimensional similarity has the same shape, the subpixel estimation error shows the same tendency.

サブピクセル推定誤差低減方法を適用した本発明の実施例1に係る2次元サブピクセル推定方法における水平方向推定誤差errorと垂直方向推定誤差errorは、数47を使って、下記数48で表すことができる。
The horizontal direction estimation error error s and the vertical direction estimation error error t in the two-dimensional subpixel estimation method according to the first embodiment of the present invention to which the subpixel estimation error reduction method is applied are expressed by the following Expression 48 using Expression 47: be able to.

サブピクセル推定誤差低減方法を適用しないときの本発明の実施例1に係る2次元サブピクセル推定方法における水平方向推定誤差errorと垂直方向推定誤差errorは、数29を使って、下記数49で表すことができる。
The horizontal direction estimation error error s and the vertical direction estimation error error t in the two-dimensional subpixel estimation method according to the first embodiment of the present invention when the subpixel estimation error reduction method is not applied, Can be expressed as

θ=0,π/8,π/4の3画像に対する数48、数49の2次元サブピクセル推定誤差を、それぞれ図16、図17、図18の(c)(d)、(e)(f)に示す。(c)と(d)は、それぞれサブピクセル推定誤差低減方法を適用した本発明の実施例1に係る2次元サブピクセル推定方法における水平方向推定誤差errorと垂直方向推定誤差errorを示す。(e)と(f)は、それぞれサブピクセル推定誤差低減方法を適用しないときの本発明の実施例1に係る2次元サブピクセル推定方法における水平方向推定誤差errorと垂直方向推定誤差errorを示す。 The two-dimensional subpixel estimation errors of Equations 48 and 49 for three images of θ g = 0, π / 8, π / 4 are respectively shown in FIGS. 16, 17, and 18 (c), (d), and (e). Shown in (f). (c) and (d) respectively show the horizontal direction estimation error error s and the vertical direction estimation error error t in the two-dimensional subpixel estimation method according to the first embodiment of the present invention to which the subpixel estimation error reduction method is applied. (e) and (f) are respectively the horizontal direction estimation error error s and the vertical direction estimation error error t in the two-dimensional subpixel estimation method according to the first embodiment of the present invention when the subpixel estimation error reduction method is not applied. Show.

図16は、θ=0の画像を使った結果を示すが、このときには2次元類似度に異方性が生じない。図17と図18は、それぞれθ=π/8とπ/4の画像を使った結果を示し、このときには2次元類似度に異方性が生じているにもかかわらず、サブピクセル推定誤差は極めて小さい。 FIG. 16 shows the result using an image of θ g = 0, but no anisotropy occurs in the two-dimensional similarity at this time. FIG. 17 and FIG. 18 show the results using images of θ g = π / 8 and π / 4, respectively, and in this case, the subpixel estimation error despite the occurrence of anisotropy in the two-dimensional similarity. Is extremely small.

(3―2)従来の1次元サブピクセル推定方法
従来の1次元推定方法は、数21と数25で求めることができる。また、非特許文献1に記載されたサブピクセル推定誤差低減方法を適用した推定値は、数34と数42で求めることができる。ここでは、数21と数25を使ったときの推定誤差を比較検討する。
(3-2) Conventional One-Dimensional Subpixel Estimation Method The conventional one-dimensional estimation method can be obtained by Equation 21 and Equation 25. In addition, an estimated value to which the subpixel estimation error reduction method described in Non-Patent Document 1 is applied can be obtained by Equations 34 and 42. Here, the estimation error when using Equations 21 and 25 is compared.

θ=0,π/8,π/4の3画像に対する上記数50のサブピクセル推定誤差を、それぞれ図16、図17、図18の(g)、(h)に示す。(g)と(h)は、それぞれ従来の1次元推定方法における水平方向推定誤差errorと垂直方向推定誤差errorを示す。 The above-mentioned subpixel estimation errors of the number 50 for the three images θ g = 0, π / 8, and π / 4 are shown in FIGS. 16, 17, and 18 (g) and (h), respectively. (g) and (h) show a horizontal direction estimation error error s and a vertical direction estimation error error t , respectively, in the conventional one-dimensional estimation method.

図16は、θ=0の画像を使った結果を示すが、このときには2次元類似度に異方性が生じない。このときには、従来の1次元推定方法でも推定誤差が生じない。図17と図18は、それぞれθ=π/8とπ/4の画像を使った結果を示し、このときには2次元類似度に異方性が生じるが、このときには大きな推定誤差が生じる。推定誤差の大きさは、異方性を持つ2次元類似度の回転角度と真の画像間変位に依存する。 FIG. 16 shows the result using an image of θ g = 0, but no anisotropy occurs in the two-dimensional similarity at this time. At this time, an estimation error does not occur even with the conventional one-dimensional estimation method. FIGS. 17 and 18 show results using images of θ g = π / 8 and π / 4, respectively. At this time, anisotropy occurs in the two-dimensional similarity, but at this time, a large estimation error occurs. The magnitude of the estimation error depends on the rotation angle of the two-dimensional similarity having anisotropy and the true inter-image displacement.

(3―3)従来の濃度こう配法によるサブピクセル推定
濃度こう配法では、画像間における対応位置に濃度変化がないことを仮定して、水平方向移動量と垂直方向移動量の2つの未知数を含む拘束条件を画素ごとに得る。したがって、この2つの未知数はこのままでは求めることができないため、注目領域を設定し、注目領域中での拘束条件の2乗和を最小にするように、繰り返し計算によって未知数を求める。このようにして得られる変位量には画素単位という制約がなく、サブピクセル単位を得ることができる。
(3-3) Subpixel estimation by the conventional density gradient method The density gradient method includes two unknowns, a horizontal movement amount and a vertical movement amount, assuming that there is no density change at the corresponding position between images. A constraint condition is obtained for each pixel. Therefore, since these two unknowns cannot be obtained as they are, the attention area is set, and the unknown quantity is obtained by iterative calculation so as to minimize the square sum of the constraint conditions in the attention area. The amount of displacement obtained in this way is not limited in pixel units, and can be obtained in sub-pixel units.

一方、画像補間手法では、注目領域と周囲の探索領域を離散化単位よりも密に補間する。密に補間した単位で、類似度最大値を探索する。このときには、濃度こう配法と異なり、画像間の移動量に対する制限はない。   On the other hand, in the image interpolation method, the region of interest and the surrounding search region are interpolated more densely than the discretization unit. The maximum similarity value is searched in a closely interpolated unit. At this time, unlike the density gradient method, there is no restriction on the amount of movement between images.

この2種類のサブピクセル変位推定方法は、全く異なる実装に見え、異なる手法として扱われていたが、本質的に同一のものであることが示されている(非特許文献5を参照)。ここでは、補間画像を作るときに用いる補間関数の次数によってサブピクセル変位推定誤差が変化する様子を確認する。そこで、1次補間を利用した補間画像によるサブピクセル推定結果を、濃度こう配法による結果と見なす。さらに、高次の補間関数を利用した補間画像によるサブピクセル推定結果も検討する。   These two types of subpixel displacement estimation methods seem to be completely different implementations and treated as different methods, but are shown to be essentially the same (see Non-Patent Document 5). Here, it is confirmed that the subpixel displacement estimation error changes depending on the order of the interpolation function used when creating the interpolation image. Therefore, the subpixel estimation result by the interpolation image using the primary interpolation is regarded as the result by the density gradient method. Furthermore, the results of subpixel estimation using an interpolated image using a higher-order interpolation function are also examined.

(3―4)従来のバイリニア画像補間によるサブピクセル推定
サブピクセル変位を求める2枚の画像をI(u,v)、I(u,v)とする。これらの画像は離散化サンプリングされているとする。すなわち、u,vは整数である。また、画像間の変位を(d,d)としたときに、0≦d≦1、0≦d≦1とする。画像間の真の変位がこの範囲にないときには、画素単位のマッチングによって画像全体を移動する。
(3-4) Subpixel Estimation by Conventional Bilinear Image Interpolation Assume that two images for obtaining subpixel displacement are I 1 (u, v) and I 2 (u, v). Assume that these images are discretized and sampled. That is, u and v are integers. Further, when the displacement between the images is (d s , d t ), 0 ≦ d s ≦ 1 and 0 ≦ d t ≦ 1. When the true displacement between images is not within this range, the entire image is moved by pixel-by-pixel matching.

バイリニア補間(2方向1次補間)を利用したサブピクセル推定値
は、下記数51で表すことができる。
ただし、総和範囲は任意形状の注目領域、argminは値を最小にするような
の組を求める演算を表す。
Sub-pixel estimation value using bilinear interpolation (bidirectional primary interpolation)
Can be expressed by the following equation (51).
However, the total range is an arbitrary-shaped attention area, and argmin is the smallest value.
Represents an operation for obtaining a set of

θ=0,π/8,π/4の3画像に対する上記数51のサブピクセル推定誤差を、それぞれ図16、図17、図18の(i)、(j)に示す。(i)と(j)は、それぞれ水平方向推定誤差errorと垂直方向推定誤差errorを示す。 The subpixel estimation errors of Formula 51 for the three images of θ g = 0, π / 8, and π / 4 are shown in FIGS. 16, 17, and 18 (i) and (j), respectively. (i) and (j) show the horizontal direction estimation error error s and the vertical direction estimation error error t , respectively.

図16は、θ=0の画像を使った結果を示すが、このときには2次元類似度に異方性が生じない。このときには、推定誤差が生じない。図17と図18は、それぞれθ=π/8とπ/4の画像を使った結果を示し、このときには2次元類似度に異方性が生じるが、このとき推定誤差が生じる。推定誤差の大きさは、異方性を持つ2次元類似度の回転角度と真の画像間変位に依存する。 FIG. 16 shows the result using an image of θ g = 0, but no anisotropy occurs in the two-dimensional similarity at this time. At this time, no estimation error occurs. FIGS. 17 and 18 show results using images of θ g = π / 8 and π / 4, respectively. At this time, anisotropy occurs in the two-dimensional similarity, but an estimation error occurs at this time. The magnitude of the estimation error depends on the rotation angle of the two-dimensional similarity having anisotropy and the true inter-image displacement.

この推定誤差は、図16、図17、図18の(c)、(d)の結果よりも大きい。すなわち、本発明の実施例1に係る2次元推定方法は、従来のバイリニア補間によるサブピクセル推定方法よりも高精度に変位を推定することができる。バイリニア補間によるサブピクセル推定方法は濃度こう配法と等価なので、本発明の実施例1に係る2次元推定方法は、従来の濃度こう配法よりも高精度にサブピクセル変位を推定することができるとも言える。   This estimation error is larger than the results of (c) and (d) of FIGS. That is, the two-dimensional estimation method according to the first embodiment of the present invention can estimate the displacement with higher accuracy than the conventional subpixel estimation method based on bilinear interpolation. Since the subpixel estimation method by bilinear interpolation is equivalent to the density gradient method, it can be said that the two-dimensional estimation method according to the first embodiment of the present invention can estimate the subpixel displacement with higher accuracy than the conventional density gradient method. .

また、濃度こう配法に相当する推定誤差は、図16、図17、図18の(g)、(h)の1次元推定方法の結果よりもはるかに小さい。すなわち、従来広く利用されてきた、領域ベースマッチングを画素単位で行い、サブピクセル変位は類似度を利用して1次元推定する手法より、濃度こう配法ははるかに高精度に2次元サブピクセル変位を推定することができる。このため、領域ベースマッチングよりも濃度こう配法の方が高精度という認識があったが、本発明の実施例1に係る2次元推定方法を用いることで、濃度こう配法よりもさらに高精度にサブピクセル変位を推定することができる。   Further, the estimation error corresponding to the density gradient method is much smaller than the results of the one-dimensional estimation methods shown in FIGS. 16, 17 and 18 (g) and (h). In other words, the density gradient method performs two-dimensional sub-pixel displacement with much higher accuracy than the conventional method of performing region-based matching on a pixel-by-pixel basis and sub-pixel displacement using one-dimensional estimation using similarity. Can be estimated. For this reason, it has been recognized that the density gradient method is more accurate than the region-based matching. However, by using the two-dimensional estimation method according to the first embodiment of the present invention, the sub-gradation method can be performed with higher accuracy than the density gradient method. Pixel displacement can be estimated.

(3―5)従来のバイキュービック画像補間によるサブピクセル推定
補間画像を作るときに、より高次の項まで考慮することで、高精度な補間画像を作ることができる。バイキュービック補間(2方向3次補間)は、補間したいサブピクセル画素位置の周囲4×4の画素値を使う補間方法である。バイキュービック補間を利用したサブピクセル推定値
は、下記数52で表すことができる。
(3-5) Subpixel estimation by conventional bicubic image interpolation When an interpolated image is created, a higher-order interpolated image can be created by considering even higher-order terms. Bicubic interpolation (bidirectional cubic interpolation) is an interpolation method that uses 4 × 4 pixel values around the subpixel pixel position to be interpolated. Sub-pixel estimation using bicubic interpolation
Can be expressed by the following formula 52.

ただし、総和範囲は任意形状の注目領域、argminは値を最小にするような
の組を求める演算を表す。このとき、重み関数h(x)は、sinc関数をもとに各種提案されていて、下記数53が多く用いられている。
However, the total range is an arbitrary-shaped attention area, and argmin is the smallest value.
Represents an operation for obtaining a set of At this time, various weighting functions h (x) have been proposed based on the sinc function, and the following equation 53 is often used.

ただし、aは調整パラメータで、a=−1やa=−0.5がよく用いられる。 However, a is an adjustment parameter, and a = −1 and a = −0.5 are often used.

また、下記数54も多く用いられる。
B、Cは調整パラメータで、B=1、C=0のときにはキュービックBスプラインを近似し、B=0、C=0.5のときにはCatmull−Romキュービック特性になる。このように、重み係数の選び方によって補間特性が異なる。ここでは、数53の重み関数において、パラメータa=−0.55を採用した。ただし、画像処理の教科書等に最も多く紹介されているのはa=−1である。両者の特性の差については後述するが、a=−0.55はサブピクセル推定誤差を小さくするように数値的に決定した。
Also, the following number 54 is often used.
B and C are adjustment parameters. When B = 1 and C = 0, a cubic B-spline is approximated. When B = 0 and C = 0.5, a Catmull-Rom cubic characteristic is obtained. As described above, the interpolation characteristics differ depending on how the weighting factor is selected. Here, the parameter a = −0.55 is adopted in the weighting function of Formula 53. However, a = -1 is most frequently introduced in textbooks for image processing. The difference between the two characteristics will be described later, but a = −0.55 was determined numerically so as to reduce the subpixel estimation error.

θ=0,π/8,π/4の3画像に対する数52のサブピクセル推定誤差を、それぞれ図16、図17、図18の(k)、(l)に示す。(k)と(l)は、それぞれ水平方向推定誤差errorと垂直方向推定誤差errorを示す。 The subpixel estimation errors of Formula 52 for three images of θ g = 0, π / 8, and π / 4 are shown in FIGS. 16, 17, and 18 (k) and (l), respectively. (k) and (l) show the horizontal direction estimation error error s and the vertical direction estimation error error t , respectively.

図16は、θ=0の画像を使った結果を示すが、このときには2次元類似度に異方性が生じない。このときには、推定誤差が生じない。図17と図18は、それぞれθ=π/8とπ/4の画像を使った結果を示し、このときには2次元類似度に異方性が生じるが、このとき推定誤差が生じる。推定誤差の大きさは、異方性を持つ2次元類似度の回転角度と真の画像間変位に依存する。 FIG. 16 shows the result using an image of θ g = 0, but no anisotropy occurs in the two-dimensional similarity at this time. At this time, no estimation error occurs. FIGS. 17 and 18 show results using images of θ g = π / 8 and π / 4, respectively. At this time, anisotropy occurs in the two-dimensional similarity, but an estimation error occurs at this time. The magnitude of the estimation error depends on the rotation angle of the two-dimensional similarity having anisotropy and the true inter-image displacement.

この推定誤差は、図16、図17、図18の2次元推定(c)、(d)の結果と同程度である。すなわち、本発明の実施例1に係る2次元サブピクセル推定方法は、最適なパラメータを選択したときの高次補間画像を使ったサブピクセル推定と同程度の高精度であるということができる。   This estimation error is comparable to the results of the two-dimensional estimations (c) and (d) in FIGS. That is, it can be said that the two-dimensional sub-pixel estimation method according to the first embodiment of the present invention is as accurate as sub-pixel estimation using a higher-order interpolated image when an optimal parameter is selected.

ところで、数53におけるパラメータaについて、具体的な計算例を示して説明する。数53は、sinc関数を有限範囲で近似した重み係数と考えることができる。パラメータaは、その近似特性を調節するものである。図19(a)、(b)に、a=−0.55のときのh(x)と、整数位置に値を持つ1次元関数f(i)の補間結果を示す。f(i)は、数7でσimage=0.7としたものである。また、図19(c)、(d)に、a=−1.0のときのh(x)と、整数位置に値を持つ1次元関数f(i)の補間結果を示す。 By the way, the parameter a in Formula 53 will be described with a specific calculation example. Equation 53 can be considered as a weighting coefficient obtained by approximating the sinc function within a finite range. The parameter a is for adjusting the approximate characteristic. FIGS. 19A and 19B show the interpolation results of h (x) when a = −0.55 and a one-dimensional function f (i) having a value at an integer position. f (i) is expressed by Equation 7 with σ image = 0.7. FIGS. 19C and 19D show interpolation results of h (x) when a = −1.0 and a one-dimensional function f (i) having a value at an integer position.

a=−1.0は、多くの画像処理の教科書などでバイキュービック補間として紹介されるパラメータである。sinc関数を良く近似しているが、少なくともここで検討した関数f(i)を良好に補間しているとは言い難い。a=−0.55は、sinc関数の近似としてはそれほど良くないが、関数f(i)を良好に補間している。   a = -1.0 is a parameter introduced as bicubic interpolation in many image processing textbooks. Although the sinc function is well approximated, it is difficult to say that at least the function f (i) examined here is well interpolated. Although a = −0.55 is not so good as an approximation of the sinc function, the function f (i) is well interpolated.

図16から図18では、パラメータa=−0.55を用いたが、この値はサブピクセル推定誤差を小さくするように数値的に求めた結果である。a=−0.5を用いるとバイリニア補間の結果と同程度、a=−1.0を用いるとバイリニア補間を用いたサブピクセル推定結果よりも誤差が大きくなる。   In FIG. 16 to FIG. 18, the parameter a = −0.55 is used, but this value is a result obtained numerically so as to reduce the subpixel estimation error. When a = −0.5 is used, the error is about the same as the result of bilinear interpolation, and when a = −1.0 is used, the error is larger than the subpixel estimation result using bilinear interpolation.

(3―6)各方法による推定誤差の総合比較
以下では、2次元画像のパラメータをより広範囲に変更して、各手法のサブピクセル推定誤差を比較検討する。2次元画像は、前述したコーナー画像を使用する。考慮するパラメータとして、回転角度をθ=0,π/16,2π/16,3π/16,4π/16、コーナー角度をθ=π/4,π/3を考える。合計10種類の2次元画像に対する推定誤差を検討する。また、σimage=1.0を考える。
(3-6) Comprehensive comparison of estimation errors by each method In the following, the parameters of the two-dimensional image are changed over a wider range, and the subpixel estimation errors of each method are compared and examined. The two-dimensional image uses the aforementioned corner image. As parameters to be considered, consider a rotation angle θ g = 0, π / 16, 2π / 16, 3π / 16, 4π / 16, and a corner angle θ c = π / 4, π / 3. Consider estimation errors for a total of 10 types of two-dimensional images. Also consider σ image = 1.0.

画像間変位は、−0.5≦d≦+0.5、−0.5≦d≦+0.5の範囲で、0.1[画素]ごとに与える。このとき、2次元推定誤差の大きさ、
のRMS誤差を評価した。
The inter-image displacement is given for each 0.1 [pixel] in the range of −0.5 ≦ d s ≦ + 0.5 and −0.5 ≦ d t ≦ + 0.5. At this time, the magnitude of the two-dimensional estimation error,
RMS error was evaluated.

評価したサブピクセル推定方法は、前述した各方法の他に、従来の1次元推定方法に対するサブピクセル推定誤差低減方法を適用した推定結果も評価した。したがって、
・サブピクセル推定誤差低減方法を用いた本発明の実施例1に係る2次元推定(2D−EEC)
・サブピクセル推定誤差低減方法を用いない本発明の実施例1に係る2次元推定(2D)
・サブピクセル推定誤差低減方法を用いた1次元推定(1D−EEC)
・サブピクセル推定誤差低減方法を用いない1次元推定(1D)
・バイリニア補間を用いた2次元推定(Bi−Linear)
・バイキュービック補間を用いた2次元推定(a=−0.55)(Bi−Cubic)
の6種類の推定方法の推定誤差を評価した。評価した結果を表1に示す。
The evaluated subpixel estimation method evaluated the estimation result which applied the subpixel estimation error reduction method with respect to the conventional one-dimensional estimation method other than each method mentioned above. Therefore,
Two-dimensional estimation (2D-EEC) according to Embodiment 1 of the present invention using the subpixel estimation error reduction method
Two-dimensional estimation (2D) according to Embodiment 1 of the present invention that does not use the subpixel estimation error reduction method
-One-dimensional estimation using subpixel estimation error reduction method (1D-EEC)
-One-dimensional estimation without subpixel estimation error reduction method (1D)
-Two-dimensional estimation using bilinear interpolation (Bi-Linear)
Two-dimensional estimation using bicubic interpolation (a = -0.55) (Bi-Cubic)
The estimation errors of the six estimation methods were evaluated. The evaluation results are shown in Table 1.

表1から次のことが分かった。
まず、サブピクセル推定誤差低減方法を用いた1次元推定(1D−EEC)は、回転角度θ=0のときには、従来の1次元推定(1D)に対して推定誤差を低減できる。しかし、回転角度θ≠0のときには差が現れない。回転角度θは、異方性がある類似度の回転角度に対応する。
Table 1 shows the following.
First, the one-dimensional estimation (1D-EEC) using the subpixel estimation error reduction method can reduce the estimation error with respect to the conventional one-dimensional estimation (1D) when the rotation angle θ g = 0. However, no difference appears when the rotation angle θ g ≠ 0. The rotation angle θ g corresponds to a rotation angle of similarity having anisotropy.

次に、バイリニア補間(Bi−Linear)やバイキュービック補間(Bi−Cubic)を用いた2次元推定は、1次元推定(1D)に対して推定誤差が2桁程度小さい。この差は歴然である。バイリニア補間(Bi−Linear)を用いた2次元推定は、濃度こう配法に対応する。濃度こう配法が高精度にサブピクセル推定ができると考えられてきた理由はここにある。   Next, in the two-dimensional estimation using bilinear interpolation (Bi-Linear) or bicubic interpolation (Bi-Cubic), the estimation error is smaller by about two digits than the one-dimensional estimation (1D). This difference is obvious. Two-dimensional estimation using bilinear interpolation (Bi-Linear) corresponds to the density gradient method. This is why the density gradient method has been considered to be able to estimate subpixels with high accuracy.

それから、バイキュービック補間(Bi−Cubic)を用いた2次元推定は、バイリニア補間(Bi−Linear)を用いた2次元推定よりも高精度である。しかし、重み関数のパラメータによって結果は異なる。重み関数のパラメータを調整するということは、補間フィルタの特性を調整することに対応する。すなわち、画像に対して適切な補間フィルタを選択することで、画像補間を用いたサブピクセル推定手法では精度を向上させることができる。   Then, the two-dimensional estimation using bicubic interpolation (Bi-Cubic) is more accurate than the two-dimensional estimation using bilinear interpolation (Bi-Linear). However, the results vary depending on the parameters of the weight function. Adjusting the parameters of the weight function corresponds to adjusting the characteristics of the interpolation filter. That is, by selecting an appropriate interpolation filter for an image, the accuracy of the subpixel estimation method using image interpolation can be improved.

最後に、サブピクセル推定誤差低減方法を用いた本発明の実施例1に係る2次元推定(2D−EEC)は、バイキュービック補間(Bi−Cubic)を用いた2次元推定よりも推定誤差が小さく、しかも、パラメータ調整の必要がない。サブピクセル推定誤差低減方法を用いた本発明の実施例1に係る2次元推定(2D−EEC)は、サブピクセル推定誤差低減方法を用いない本発明の実施例1に係る2次元推定(2D)よりも計算コストが大きい。そこで、計算コストを重視して推定結果は濃度こう配法と同程度でよいときにはサブピクセル推定誤差低減方法を用いない本発明の実施例1に係る2次元推定(2D)を利用し、さらに高精度な推定結果を得たいときにはサブピクセル推定誤差低減方法を用いた本発明の実施例1に係る2次元推定(2D−EEC)を利用する、という使い分けも可能である。   Finally, the two-dimensional estimation (2D-EEC) according to the first embodiment of the present invention using the subpixel estimation error reduction method has a smaller estimation error than the two-dimensional estimation using bicubic interpolation (Bi-Cubic). Moreover, there is no need for parameter adjustment. The two-dimensional estimation (2D-EEC) according to the first embodiment of the present invention using the subpixel estimation error reduction method is the two-dimensional estimation (2D) according to the first embodiment of the present invention that does not use the subpixel estimation error reduction method. The calculation cost is greater than. In view of this, when the calculation result is emphasized with a focus on the calculation cost, the two-dimensional estimation (2D) according to the first embodiment of the present invention which does not use the subpixel estimation error reduction method is used when the estimation result is similar to the density gradient method. When it is desired to obtain an accurate estimation result, it is possible to selectively use the two-dimensional estimation (2D-EEC) according to the first embodiment of the present invention using the subpixel estimation error reduction method.

(4)本発明の実施例1に係る2次元推定方法を実装したコンピュータ・プログラムによる推定実験
本発明の実施例1に係る2次元推定方法を実装したコンピュータ・プログラムを、CPUを備えた情報処理端末(例えば、パソコン、ワークステーション等のコンピュータ)に実行させることによって、合成画像及び実画像を用いて、2次元サブピクセル推定実験を行った。なお、本発明でいうコンピュータ・プログラムは、便宜上プログラムと略して称することもある。
(4) An estimation experiment by a computer program that implements the two-dimensional estimation method according to the first embodiment of the present invention. A two-dimensional subpixel estimation experiment was performed using a composite image and a real image by executing the program on a terminal (for example, a computer such as a personal computer or a workstation). The computer program referred to in the present invention may be abbreviated as a program for convenience.

(4―1)合成画像を使った推定実験
前述したコーナー画像を作り、2次元サブピクセル推定実験を行った。作成した合成画像は、8bitモノクロ画像で、画像サイズが64×64[画素]で、注目範囲が11×11[画素]である。画像にノイズは含まれない。画像のパラメータは、σimage=1.0、コーナー角度θ=π/4、回転角度θ=0,π/8,π/4である。画像間変位は、−0.5≦d≦+0.5、−0.5≦d≦+0.5の範囲で、0.1[画素]ごとに与えた。
(4-1) Estimation experiment using composite image The above-mentioned corner image was created and a two-dimensional subpixel estimation experiment was conducted. The created composite image is an 8-bit monochrome image with an image size of 64 × 64 [pixels] and an attention range of 11 × 11 [pixels]. Noise is not included in the image. The image parameters are σ image = 1.0, corner angle θ c = π / 4, and rotation angle θ g = 0, π / 8, π / 4. The inter-image displacement was given for each 0.1 [pixel] in the range of −0.5 ≦ d s ≦ + 0.5 and −0.5 ≦ d t ≦ + 0.5.

図20に従来の1次元推定と、サブピクセル推定誤差低減方法を適用した本発明の実施例1に係る2次元推定についての結果を示す。図20において、計算結果をメッシュで、実験結果を●で表す。実験結果と計算結果との相違の原因は、画像が8bit量子化階調(256階調)であることが考えられる。また、大きく段差がある部分は、整数での最大類似度を探索した結果が隣の画素位置に移動してしまったためと考えることができる。このように隣の位置に移動してしまうことは、従来の1次元推定方法の根本的な欠点である。   FIG. 20 shows the results of the conventional one-dimensional estimation and the two-dimensional estimation according to the first embodiment of the present invention to which the subpixel estimation error reduction method is applied. In FIG. 20, the calculation result is represented by a mesh, and the experiment result is represented by ●. The cause of the difference between the experimental result and the calculation result can be considered that the image has 8-bit quantization gradation (256 gradations). In addition, it can be considered that the part having a large step is that the result of searching for the maximum similarity in the integer has moved to the adjacent pixel position. Such movement to the adjacent position is a fundamental drawback of the conventional one-dimensional estimation method.

(4―2)実画像を使った推定実験
マッチングに利用する画像から得られる2次元類似度の回転角度θ≒0のときには、従来の1次元推定方法でも推定誤差は発生しないが、θ≠0のときには、大きな推定誤差が生じる可能性がある。そこで、マッチングパターンとして2種類のパターンを用いたターゲットトラッキング実験を行った。
(4-2) Estimation Experiment Using Real Image When the rotation angle θ g ≈0 of the two-dimensional similarity obtained from the image used for matching, an estimation error does not occur even with the conventional one-dimensional estimation method, but θ g When ≠ 0, a large estimation error may occur. Therefore, a target tracking experiment using two types of patterns as matching patterns was performed.

使用したマッチングパターンは、円形パターンと傾いたエッジパターンである。これらのパターンを図21(a)、(e)に示す。円形パターンの大きさは、直径が約41[画素]である。また、これらのパターンのSSD自己類似度を図21(b)、(f)に示す。   The matching pattern used is a circular pattern and an inclined edge pattern. These patterns are shown in FIGS. 21 (a) and 21 (e). The size of the circular pattern is about 41 [pixel] in diameter. In addition, the SSD self-similarity of these patterns is shown in FIGS.

円形パターンの自己類似度は等方性なので、従来の1次元推定方法と本発明の実施例1に係る2次元推定方法のどちらでも、推定誤差が小さいことが予想できる。一方、傾いたエッジパターンに対応する自己類似度は異方性でかつ傾いているので、従来の1次元推定方法では推定誤差が大きく、本発明の実施例1に係る2次元推定方法では推定誤差が小さいことが予想できる。   Since the self-similarity of the circular pattern is isotropic, it can be expected that the estimation error is small in both the conventional one-dimensional estimation method and the two-dimensional estimation method according to the first embodiment of the present invention. On the other hand, since the self-similarity corresponding to the inclined edge pattern is anisotropic and inclined, the estimation error is large in the conventional one-dimensional estimation method, and the estimation error is in the two-dimensional estimation method according to the first embodiment of the present invention. Can be expected to be small.

マッチングパターンを厚紙に印刷して、トラッキングターゲットとした。ターゲットは、ネジ送り式リニアステージ上を直線的に移動する。ターゲットの移動を約250枚の時系列画像で撮影し、最初の画像を参照パターンとして使い、以後の画像中からターゲットをトラッキングした。注目領域サイズは60×60[画素](図21(a)、(e)中の黒い矩形領域)で、探索領域は移動予測位置に対して±8(17×17)である。ターゲットは画像上で右下方向にゆっくり移動する。マッチングが正しくでき、サブピクセル推定に誤差がなければ、計測軌跡は直線になる。従来の1次元推定方法と本発明の実施例1に係る2次元推定方法のどちらにもSSD自己類似度を使用し、サブピクセル推定誤差低減方法を適用したパラボラフィッティングによるサブピクセル推定を行った。   The matching pattern was printed on cardboard to make a tracking target. The target moves linearly on the screw feed linear stage. The movement of the target was photographed with about 250 time-series images, the first image was used as a reference pattern, and the target was tracked from the subsequent images. The attention area size is 60 × 60 [pixels] (black rectangular areas in FIGS. 21A and 21E), and the search area is ± 8 (17 × 17) with respect to the movement predicted position. The target moves slowly in the lower right direction on the image. If matching is correct and there is no error in subpixel estimation, the measurement trajectory is a straight line. Both the conventional one-dimensional estimation method and the two-dimensional estimation method according to the first embodiment of the present invention use SSD self-similarity and perform subpixel estimation by parabolic fitting to which the subpixel estimation error reduction method is applied.

図21(c)、(d)に、トラッキングパターンとして円形パターン使ったときの計測結果を示す。図21(c)は従来の1次元推定方法、図21(d)は本発明の実施例1に係る2次元推定方法を使った結果である。どちらの場合も、サブピクセル推定誤差が小さく、軌跡は良好な直線になっている。   FIGS. 21C and 21D show measurement results when a circular pattern is used as the tracking pattern. FIG. 21C shows the result of using the conventional one-dimensional estimation method, and FIG. 21D shows the result of using the two-dimensional estimation method according to Example 1 of the present invention. In both cases, the subpixel estimation error is small and the locus is a good straight line.

図21(g)、(h)に、トラッキングパターンとして傾いたエッジパターン使ったときの計測結果を示す。図21(g)は従来の1次元推定方法、(h)は本発明の実施例1に係る2次元推定方法を使った結果である。従来の1次元推定方法では、非常に大きなサブピクセル推定誤差が発生していることが明らかである。   FIGS. 21G and 21H show the measurement results when using an inclined edge pattern as the tracking pattern. FIG. 21G shows the result of using the conventional one-dimensional estimation method, and FIG. 21H shows the result of using the two-dimensional estimation method according to Example 1 of the present invention. In the conventional one-dimensional estimation method, it is clear that a very large subpixel estimation error occurs.

本発明の実施例1に係る2次元推定方法では、トラッキングパターンによらず推定誤差が小さいが、円形パターンのときよりも計測軌跡が直線から外れている。この理由は、2次元類似度が2次元ガウスモデルと異なるため、HELとVELを直線近似するときに誤差が含まれることが原因と考えられる。   In the two-dimensional estimation method according to the first embodiment of the present invention, the estimation error is small regardless of the tracking pattern, but the measurement trajectory deviates from the straight line as compared with the circular pattern. This is because the two-dimensional similarity is different from that of the two-dimensional Gaussian model, and therefore it is considered that an error is included when HEL and VEL are approximated by a straight line.

現実的には、このようなトラッキングパターンを利用することはまれである。しかし、この実験は、従来の1次元推定方法を使うと、マッチングパターンによっては、予想外に大きなサブピクセル推定誤差が発生する可能性があることを示している。この実験では、対象が直線上を移動していることがわかっているので、サブピクセル推定誤差を確認することができた。しかし、たとえば、異なる方向から撮影した複数の画像を使って、建築物の3次元情報を再構築するときなどには、傾いたエッジパターンの領域をマッチング領域として利用することもある。従来の1次元推定方法では、このようなときに大きな推定誤差が発生するという問題点があった。   In reality, it is rare to use such a tracking pattern. However, this experiment shows that an unexpectedly large subpixel estimation error may occur depending on the matching pattern when the conventional one-dimensional estimation method is used. In this experiment, it was found that the object was moving on a straight line, so the subpixel estimation error could be confirmed. However, for example, when reconstructing three-dimensional information of a building using a plurality of images taken from different directions, an inclined edge pattern region may be used as a matching region. The conventional one-dimensional estimation method has a problem that a large estimation error occurs in such a case.

なお、本発明の実施例1では、水平極値線HELと垂直極値線VELを求める際、3点を最小二乗で近似する直線を求める代わりに、3点を通る2次曲線として求めることにより、直線近似による誤差を低減するように本発明の実施例1に係る2次元推定方法を拡張することもできる。   In Example 1 of the present invention, when obtaining the horizontal extreme value line HEL and the vertical extreme value line VEL, instead of obtaining a straight line approximating the three points with the least squares, it is obtained as a quadratic curve passing through the three points. Further, the two-dimensional estimation method according to the first embodiment of the present invention can be extended so as to reduce errors due to linear approximation.

実施例2及び実施例3:
本発明に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法の実施例2及び実施例3を次のように説明する。本発明の実施例2及び実施例3の着眼点は以下の通りである。
Example 2 and Example 3:
Embodiments 2 and 3 of the multi-parameter high-accuracy simultaneous estimation method in image sub-pixel matching according to the present invention will be described as follows. The focus points of Example 2 and Example 3 of the present invention are as follows.

(A)平行移動と回転、または、平行移動と回転とスケール変化を画像間対応パラメータ(本発明では、略してパラメータとも呼んでいる)にして、これらのパラメータを軸とする多次元空間(本発明では、パラメータ空間或いは多次元類似度空間とも称する)において離散的な位置で得られた類似度を利用する。類似度は離散的な位置で計算しておけばよいので、繰り返し計算の必要がない。 (A) Parallel movement and rotation, or parallel movement, rotation, and scale change are parameters corresponding to the image (in the present invention, they are also called parameters for short), and a multidimensional space (this book) with these parameters as axes. In the invention, similarity obtained at discrete positions in the parameter space or multidimensional similarity space) is used. Since the similarity may be calculated at discrete positions, there is no need for repeated calculation.

(B)離散的な位置で得られた類似度は、多次元空間(つまり、パラメータ空間)における連続関数である類似度をサンプリングしたものであると考える。 (B) The similarity obtained at discrete positions is considered to be a sampling of the similarity that is a continuous function in a multidimensional space (ie, parameter space).

(C)現実的な仮定の下に類似度をモデル化したとき、多次元空間における各軸(つまり、パラメータ空間における各パラメータ軸)で類似度を偏微分して0とおくことで得られる超平面は、類似度の最大値または最小値を通る。例えば、類似性評価関数にSADやSSDが採用された場合に、超平面は類似度の最小値を通る。また、類似度評価関数にZNCCが採用された場合に、超平面は類似度の最大値を通る。 (C) When the similarity is modeled under realistic assumptions, the degree of similarity obtained by partially differentiating the similarity with each axis in the multidimensional space (that is, each parameter axis in the parameter space) is set to zero. The plane passes through the maximum or minimum similarity. For example, when SAD or SSD is adopted as the similarity evaluation function, the hyperplane passes through the minimum value of similarity. When ZNCC is adopted as the similarity evaluation function, the hyperplane passes through the maximum value of similarity.

(D)このような超平面は、多次元空間の軸の数(つまり、パラメータ数)だけ求めることができる。これらの超平面の交点座標は、多次元空間における類似度の最大値または最小値を与えるパラメータと一致するため、これらの超平面の交点座標を求めることで、多次元空間における類似度の最大値または最小値を与えるパラメータを同時に求めることができる。 (D) Such hyperplanes can be obtained by the number of axes in the multidimensional space (that is, the number of parameters). Since the intersection coordinates of these hyperplanes coincide with the parameters that give the maximum or minimum similarity in multidimensional space, the maximum value of similarity in multidimensional space can be obtained by obtaining the intersection coordinates of these hyperplanes. Alternatively, the parameter that gives the minimum value can be obtained simultaneously.

本発明に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法は、サンプリンググリッドで離散的に得られた評価値を使って、高精度なサブサンプリンググリッド精度の評価値最大位置または最小位置を推定する方法と考えることができる。   The multi-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image according to the present invention uses the evaluation values obtained discretely by the sampling grid to determine the evaluation value maximum position or minimum position of the high-precision sub-sampling grid accuracy. It can be considered as an estimation method.

画像間の対応を平行移動のみに限定して考えるとき(つまり、本発明の実施例1の場合)には、このサンプリンググリッドは画像を構成する画素に相当する。このため、画素単位以上に高精度な平行移動量の表現として、サブピクセルという表現が適切だった。従って、前述したように、本発明の実施例1に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法を「2次元サブピクセル推定方法」とも呼んでいる。   When the correspondence between images is limited to translation only (that is, in the case of Embodiment 1 of the present invention), this sampling grid corresponds to the pixels constituting the image. For this reason, the expression “sub-pixel” was appropriate as an expression of the amount of parallel movement with higher accuracy than the pixel unit. Therefore, as described above, the multi-parameter high-accuracy simultaneous estimation method in image sub-pixel matching according to the first embodiment of the present invention is also called a “two-dimensional sub-pixel estimation method”.

しかし、平行移動と回転、または、平行移動と回転とスケール変化を画像間対応パラメータにする場合の本発明、つまり、本発明の実施例2及び実施例3に係る多パラメータ高精度同時推定方法では、画素やサブピクセルといった表現は一般性を欠いているので、以後ではそれぞれサンプリンググリッド、サブサンプリンググリッドという表現を採用する。   However, in the present invention in which parallel movement and rotation, or parallel movement, rotation, and scale change are used as inter-image correspondence parameters, that is, the multi-parameter high-accuracy simultaneous estimation method according to the second and third embodiments of the present invention. Since expressions such as pixels and sub-pixels lack generality, the expressions “sampling grid” and “sub-sampling grid” will be used hereinafter.

<1>実施例2に係る3パラメータ同時推定方法
<1−1>3パラメータ同時推定方法の原理
ここでは、本発明の実施例2に係る3パラメータ同時推定方法の原理を説明する。本発明では、画像間の対応を探索するときには、何らかの類似度評価関数を利用して、類似度評価関数の最小または最大を探索する。このとき得られる類似度は、用いる類似度評価関数によっても異なるが、それ以上に入力として扱う画像によって異なる。
<1> Three Parameter Simultaneous Estimation Method According to Second Embodiment <1-1> Principle of Three Parameter Simultaneous Estimation Method Here, the principle of the three parameter simultaneous estimation method according to the second embodiment of the present invention will be described. In the present invention, when searching for correspondence between images, a minimum or maximum similarity evaluation function is searched using some similarity evaluation function. The similarity obtained at this time varies depending on the similarity evaluation function to be used, but further varies depending on the image treated as an input.

ここでは、具体的な入力画像や類似度評価関数には触れず、画像間の類似度を次の3次元ガウス関数で近似して、これを3次元類似度モデルとする。
ただし、(s,s,s)は探索パラメータ(つまり、画像間対応パラメータ)で、σはガウス関数の標準偏差で、(k,k)は異方性係数(k,k>0)である。また、(t,t,t)は、次のように(s,s,s)に対して回転と平行移動を行った結果である。
Here, a specific input image and similarity evaluation function are not touched, and the similarity between images is approximated by the following three-dimensional Gaussian function, and this is used as a three-dimensional similarity model.
Where (s 1 , s 2 , s 3 ) is a search parameter (that is, an inter-image correspondence parameter), σ is a standard deviation of a Gaussian function, and (k 2 , k 3 ) is an anisotropy coefficient (k 2 , k 3 > 0). Further, (t 1 , t 2 , t 3 ) is a result of rotating and translating (s 1 , s 2 , s 3 ) as follows.

ただし、(d,d,d)は探索パラメータ(s,s,s)の正解値で、(θ)はそれぞれ(s,s,s)の各軸回りの回転角度で、0≦θ≦π/2の範囲を考慮する。 However, (d 1 , d 2 , d 3 ) is the correct value of the search parameter (s 1 , s 2 , s 3 ), and (θ 1 , θ 2 , θ 3 ) is (s 1 , s 2 , s), respectively. 3 ) Consider the range of 0 ≦ θ 1 , θ 2 , θ 3 ≦ π / 2 at the rotation angle around each axis.

この3次元類似度モデルをs,s,sで偏微分して0とおくと、次の3平面を得ることができる。
If this three-dimensional similarity model is partially differentiated by s 1 , s 2 , s 3 and set to 0, the following three planes can be obtained.

Πは、3次元空間内(つまり、s,s,sを軸とするパラメータ空間)の3平面を構成している。この3平面の交点は、明らかに(d,d,d)であり、正解パラメータと一致する。3平面の交点が求まらない条件は、3次元類似度モデルが3次元未満に縮退した場合である。このような条件では、k,k=0または∞となり、3次元類似度モデルの条件と一致しない。 Π 1 , Π 2 , and 構成3 constitute three planes in a three-dimensional space (that is, a parameter space with s 1 , s 2 , and s 3 as axes). The intersection of these three planes is clearly (d 1 , d 2 , d 3 ) and coincides with the correct parameter. The condition that the intersection of the three planes cannot be obtained is when the three-dimensional similarity model is degenerated to less than three dimensions. Under such conditions, k 2 , k 3 = 0 or ∞, which does not match the conditions of the three-dimensional similarity model.

<1−2>3パラメータ同時推定方法の実装
以下では、3パラメータ同時推定方法において、サブサンプリンググリッド推定値を求める具体的な方法を説明する。例えば、この3パラメータは、平行移動量(d,d)と回転角度θと考えることができる。
<1-2> Implementation of 3-parameter Simultaneous Estimation Method A specific method for obtaining a sub-sampling grid estimated value in the 3-parameter simultaneous estimation method will be described below. For example, these three parameters can be considered as a parallel movement amount (d s , d t ) and a rotation angle θ.

前節『3パラメータ同時推定方法の原理』で示したように、パラメータ空間における類似度値を各パラメータ軸に関して微分して0とおくことで、各パラメータの最大値位置または最小値位置を通る3平面を作ることができる。従って、サンプリンググリッドにおいて得られた類似度値を用いて、この3平面を推定することができれば、各パラメータの類似度値の最大位置または最小位置をサブサンプリンググリッドにおいて求めることができる。   As shown in the previous section “Principle of the 3-parameter simultaneous estimation method”, the similarity value in the parameter space is differentiated with respect to each parameter axis and set to 0, so that the three planes that pass through the maximum value position or the minimum value position of each parameter. Can be made. Therefore, if the three planes can be estimated using the similarity values obtained in the sampling grid, the maximum position or the minimum position of the similarity values of each parameter can be obtained in the sub-sampling grid.

まず、平面Πの求め方を説明する。平面Π上の点は、s軸に沿って類似度を微分した結果が0になる点だから、s軸に平行な直線上の類似度値を使ってサブサンプリング位置を推定することで、平面Π上の点をいくつか求めることができる。図22はパラメータ軸sに関する最大値を通る平面Πを説明するための模式図である。図22では、類似度値が得られているサンプリング位置を正方形で、s軸に平行な直線上で求めたサブサンプリング推定位置を黒丸で示している。類似度値のグリッド単位最大値位置は、(r,r,r)である。 First, how to obtain the plane plane 1 will be described. The point on the plane 1 1 is the point where the result of differentiating the similarity along the s 1 axis is 0, so the subsampling position is estimated by using the similarity value on the straight line parallel to the s 1 axis. it can be obtained several points on a plane [pi 1. FIG. 22 is a schematic diagram for explaining the plane 1 1 that passes through the maximum value with respect to the parameter axis s 1 . FIG. 22 shows a sampling position similarity value is obtained in a square, sub-sampling the estimated position calculated on a straight line parallel to s 1 axis by a black circle. The grid unit maximum value position of the similarity value is (r 1 , r 2 , r 3 ).

(s,s,s)における類似度値をR(s,s,s)とすると、R(r+i,r+i,r+i)(i,i,i=−1,0,1)の27点の類似度値を使って、平面Π上の9個の点(p1(r2+i2,r3+i3),r+i,r+i)を推定することができる。推定には、次のパラボラフィッティングを用いることができる。
(s 1, s 2, s 3) If the similarity value of the R (s 1, s 2, s 3), R (r 1 + i 1, r 2 + i 2, r 3 + i 3) (i 1, Nine points (p 1 (r2 + i2, r3 + i3) , r 2 + i 2 , r 3 + i on the plane 1 1 using the similarity value of 27 points of i 2 , i 3 = -1,0,1) 3 ) can be estimated. The following parabolic fitting can be used for the estimation.

また、後述するように、パラボラフィッティングによる推定誤差を低減する手法を適用することもできる。   Further, as will be described later, it is possible to apply a technique for reducing an estimation error due to parabolic fitting.

数60のパラボラフィッティングを行うときには、R(r,r+i,r+i)の類似度値が最大であることを前提としているが、画像パターンによってはこの前提が成立しない場合もある。たとえば、画像に含まれるテクスチャのせん断変形が極端なときには、i=i=±1の位置でR(r,r+i,r+i)が最大値にならないことがある。このときにも(r+i,r+i)を通りパラメータ軸sに平行な直線上でサブサンプリンググリッド推定位置を求める必要がある。この場合には、この直線上のサンプリンググリッド上に求まっている類似度値の最大値位置を探索し、修正最大値位置r’に関して数60のパラボラフィッティングを行えばよい。 When performing parabolic fitting of Formula 60, it is assumed that the similarity value of R (r 1 , r 2 + i 2 , r 3 + i 3 ) is maximum, but this assumption may not be satisfied depending on the image pattern. is there. For example, when the shear deformation of the texture included in the image is extreme, R (r 1 , r 2 + i 2 , r 3 + i 3 ) may not reach the maximum value at a position of i 2 = i 3 = ± 1. Also in this case, it is necessary to obtain the sub-sampling grid estimated position on a straight line that passes through (r 2 + i 2 , r 3 + i 3 ) and is parallel to the parameter axis s 1 . In this case, the maximum value position of similarity values obtained on the sampling grid on this straight line is searched, and parabolic fitting of Equation 60 may be performed with respect to the corrected maximum value position r 1 ′.

以後の説明では、数式表記を簡略化するために、s−r→s,s−r→s,s−r→sのように各パラメータ軸に沿って(r,r,r)だけ平行移動して(r,r,r)をパラメータ軸の原点位置と考える。このような平行移動は、グリッド単位での類似度最大位置を原点に移動することと等しく、本発明に関する一般性を失うものではない。本発明に係る多パラメータ高精度同時推定方法によって求めたサブサンプリンググリッド位置を最終的に(r,r,r)と加算することで、平行移動する前のサブサンプリンググリッド位置を簡単に計算することができる。 In the following description, in order to simplify the mathematical expression notation, along each parameter axis as s 1 −r 1 → s 1 , s 2 −r 2 → s 2 , s 3 −r 3 → s 3 ( (r 1 , r 2 , r 3 ) is translated and (r 1 , r 2 , r 3 ) is considered as the origin position of the parameter axis. Such parallel movement is equivalent to moving the maximum similarity position in grid units to the origin, and does not lose the generality of the present invention. The sub-sampling grid position obtained by the multi-parameter high-accuracy simultaneous estimation method according to the present invention is finally added to (r 1 , r 2 , r 3 ), so that the sub-sampling grid position before the parallel movement can be easily obtained. Can be calculated.

平面Π上にあると期待される9点のサブサンプリンググリッド位置は、実際の画像ではノイズや画像間の変形の影響で、完全には平面上にない可能性がある。このため、これらの9点を最小二乗法によって平面Πにあてはめる。具体的には、9点と平面Πとのs軸の沿った距離の2乗和を最小にするように係数を決めればよい。平面Πは、次のように求めることができる。 Subsampling grid position of the nine points that are expected to be on the plane [pi 1 is a real image by the influence of variations between noise and image completely is likely not on the plane. For this reason, these nine points are applied to the plane 1 by the least square method. Specifically, the sum of squares of distances along the s 1 axis with nine points and the plane [pi 1 may be determined the coefficient to minimize. The plane Π 1 can be obtained as follows.

となる。同様にして、平面Πは、次のように求めることができる。 It becomes. Similarly, the planes Π 2 and Π 3 can be obtained as follows.

平面Πの交点
が、サブサンプリング推定位置で、次のように求めることができる。
Intersection of planes 1 1 , Π 2 , Π 3
However, at the sub-sampling estimated position, it can be obtained as follows.

<2>実施例3に係るNパラメータ同時推定方法
<2−1>Nパラメータ同時推定方法の原理
ここでは、本発明の実施例3に係るNパラメータ同時推定方法の原理を説明する。パラメータ数が3より多いときにも、本発明では同様の考え方でサブサンプリンググリッド高精度同時推定をすることができる。sからsまでのN個のパラメータによって類似度値が決定するときに、類似度値を次のようにガウス関数のn個の乗算として表現する。
<2> N Parameter Simultaneous Estimation Method According to Third Embodiment <2-1> Principle of N Parameter Simultaneous Estimation Method Here, the principle of the N parameter simultaneous estimation method according to the third embodiment of the present invention will be described. Even when the number of parameters is greater than 3, the present invention can perform sub-sampling grid high-precision simultaneous estimation based on the same concept. When the similarity value is determined by N parameters from s 1 to s N , the similarity value is expressed as n multiplications of a Gaussian function as follows.

ただし、
はN次元類似度空間における座標を表すN次元ベクトルで、
はN次元空間での回転と平行移動を表す行列で、
はガウス関数の異方性係数ベクトル(N−1次元)である。
However,
Is an N-dimensional vector representing coordinates in the N-dimensional similarity space,
Is a matrix representing rotation and translation in N-dimensional space,
Is an anisotropy coefficient vector (N-1 dimension) of a Gaussian function.

このとき、数66で表されるN次元類似度モデルをs(i=1,2,…,N)で偏微分して0とおくことで、次のようなN個のN次元関係式を得ることができる。
At this time, the N-dimensional similarity model expressed by Equation 66 is partially differentiated by s i (i = 1, 2,..., N) and set to 0, so that the following N N-dimensional relational expressions are obtained. Can be obtained.

これらの関係式を連立させて解くことで、N次元類似度のサブサンプリンググリッド推定値を得ることができる。つまり、それらの関係式の解は、N次元類似度のサブサンプリンググリッド推定値になるわけである。なお、N次元類似度モデルが数66のガウス関数乗算モデル近似からずれると、数67は完全な超平面にはならないが、このときには、最小二乗法などで超平面に近似すればよい。   By solving these relational expressions simultaneously, a sub-sampling grid estimated value of N-dimensional similarity can be obtained. That is, the solution of these relational expressions is an N-dimensional similarity sub-sampling grid estimated value. If the N-dimensional similarity model deviates from approximation of the Gaussian function multiplication model of Equation 66, Equation 67 does not become a complete hyperplane, but at this time, it may be approximated to the hyperplane by the least square method or the like.

<2−2>Nパラメータ同時推定方法の実装
以下では、Nパラメータのサブサンプリンググリッド同時推定を実際に行う具体的な方法を説明する。まず、サブサンプリンググリッド同時推定を行うときに、前提としてサンプリンググリッドでの類似度最大位置はわかっており、その(変位)位置を
とする。
<2-2> Implementation of N Parameter Simultaneous Estimation Method Hereinafter, a specific method for actually performing N parameter sub-sampling grid simultaneous estimation will be described. First, when performing sub-sampling grid simultaneous estimation, the maximum position of similarity in the sampling grid is known as a precondition, and its (displacement) position is
And

類似度値Rをパラメータ軸s(i=1,2,…,N)について偏微分した結果が0になるN次元超平面Π上には、sパラメータ軸と平行な直線上の類似度値
の3つの値をパラボラフィッティングによってサブサンプリンググリッド推定した3N−1個の位置、
が存在する。ただし、
である。
On the N-dimensional hyperplane Π i where the result of partial differentiation of the similarity value R with respect to the parameter axis s i (i = 1, 2,..., N) is 0, the similarity on the straight line parallel to the s i parameter axis Degree value
3 N−1 positions where the subsampling grid is estimated by parabolic fitting
Exists. However,
It is.

ここで、
は、i番目の要素だけが値k(k=−1,0,+1)であり、他の要素は全て値0であるようなN次元ベクトルである。たとえば、
である。また、
は、i番目の要素が0で、他の各要素は、−1,0,1のいずれかの値をとるようなj番目(j=1,2,…,3N−1)のN次元ベクトルである。たとえば、
である。
here,
Is an N-dimensional vector in which only the i-th element has the value k (k = -1, 0, +1) and all other elements have the value 0. For example,
It is. Also,
Is the j-th (j = 1, 2,..., 3 N-1 ) N-dimension in which the i-th element is 0 and each of the other elements takes a value of -1, 0, 1 Is a vector. For example,
It is.

これらの3N−1個の位置、
は、N次元超平面Π上に存在するか、少なくとも最小二乗の意味でN次元超平面Πにフィットする。従って、N次元超平面Π
と表すと、3N−1個の位置、
に対して、
の関係が得られる。これを、次のように書き換える。
These 3 N-1 positions,
Exists on the N-dimensional hyperplane i i or fits to the N-dimensional hyperplane Π i in the least-square sense. Therefore, the N-dimensional hyperplane Π i
3 N-1 positions,
Against
The relationship is obtained. This is rewritten as follows.

ただし、
は、3N−1行N列の行列で、
は要素数Nのベクトルである。N次元超平面Πを表す係数
は、一般化逆行列を用いた最小二乗法によって、次のように求めることができる。
However,
Is a 3 N-1 row N matrix,
Is a vector with N elements. Coefficient representing the N-dimensional hyperplane Π i
Can be obtained by the least square method using a generalized inverse matrix as follows.

このようにして求めたN個のN次元超平面Π(i=1,2,…,N)の交点として、Nパラメータのサブサンプリンググリッド推定値を得ることができる。この交点は、次のように求めることができる。 As an intersection of N N-dimensional hyperplanes i (i = 1, 2,..., N) obtained in this way, N parameter sub-sampling grid estimated values can be obtained. This intersection can be determined as follows.

以上の方法でNパラメータの同時推定を行うことができるが、実際にはN次元超平面Πの式を、同じN個の未知数を含む次のような形式に表現してもよい。
Although it is possible to perform the simultaneous estimation of N parameter in the above way, actually the formula N-dimensional hyperplane [pi i may be expressed in the following format including the same N unknowns.

その理由は、N次元類似度関数がN次元対称になっても安定に超平面の交点が存在するようにするためである。   The reason is that the intersection of the hyperplanes can exist stably even if the N-dimensional similarity function is N-dimensionally symmetric.

また、N次元超平面Π上の3N−1個の位置を求めることでN次元超平面の係数を求めたが、この個数を減らすこともできる。たとえば、N=3のときには3N−1=9だが、たとえばj=3のときには、具体的に次のようになっている。
(−1,−1,0) (0,−1,0) (+1,−1,0)
(−1,0,0) (0,0,0) (+1,0,0)
(−1,+1,0) (0,+1,0) (+1,+1,0)
Moreover, although the coefficient of the N-dimensional hyperplane was obtained by obtaining 3 N-1 positions on the N- dimensional hyperplane i i , this number can be reduced. For example, 3 N−1 = 9 when N = 3, but specifically when j = 3, for example.
(-1, -1,0) (0, -1,0) (+ 1, -1,0)
(-1, 0, 0) (0, 0, 0) (+1, 0, 0)
(-1, + 1,0) (0, + 1,0) (+ 1, + 1,0)

この中から、次のような組を採用することで、個数を2(N−1)+1個にすることができる。
(0,−1,0)
(−1,0,0) (0,0,0) (+1,0,0)
(0,+1,0)
By adopting the following set from these, the number can be made 2 (N−1) +1.
(0, -1,0)
(-1, 0, 0) (0, 0, 0) (+1, 0, 0)
(0, + 1,0)

<3>本発明による実験結果と従来手法による実験結果との比較
図23に示す時系列画像を人工的に作成した。この時系列画像は、濃淡で表現した2次元ガウス関数で構成されている。この実験で用いた2次元ガウス関数には方向性(異方性) があり、しかもその方向性が0または90度以外の方向になるように設定されている。このため、この画像から計算する類似度にも異方性があり、かつ回転角度が0または90度以外になる。
<3> Comparison between the experimental results of the present invention and the experimental results of the conventional method A time series image shown in FIG. 23 was artificially created. This time-series image is composed of a two-dimensional Gaussian function expressed by shading. The two-dimensional Gaussian function used in this experiment has directionality (anisotropy), and the directionality is set to be a direction other than 0 or 90 degrees. For this reason, the similarity calculated from this image is also anisotropic, and the rotation angle is other than 0 or 90 degrees.

図23に示す画像は時系列画像の最初のフレームで、以後のフレームは最初のフレームに対して位置が変化せず回転角度だけがフレームごとに0.1度ずつ変化する。時系列画像は全部で31フレームあり、最終フレームは先頭フレームに対して3度回転した画像になっている。これに対して画像の位置は回転中心に対して移動しない。   The image shown in FIG. 23 is the first frame of the time-series image, and the position of the subsequent frames does not change with respect to the first frame, and only the rotation angle changes by 0.1 degree for each frame. There are 31 time-series images in total, and the last frame is an image rotated three times with respect to the first frame. On the other hand, the position of the image does not move with respect to the rotation center.

図24に、最初のフレームに対する以後のフレームの回転角度を計測した結果を示す。+印で示す従来方法は、画像を6×6=36個の領域に分割し、各小領域ごとに平行移動量をマッチングによって計測し、得られた平行移動量を使って回転角度を推定した結果である。○印で示す本発明による方法は、従来方法で計測した回転角度を初期推定値として本発明を適用し、さらに高精度に回転角度を計測した結果である。フレームごとに0.1度ずつ回転角度が変化する状況が正確に計測できている。   FIG. 24 shows the result of measuring the rotation angle of the subsequent frames with respect to the first frame. In the conventional method indicated by +, the image is divided into 6 × 6 = 36 regions, the parallel movement amount is measured for each small region by matching, and the rotation angle is estimated using the obtained parallel movement amount. It is a result. The method according to the present invention indicated by ◯ is the result of applying the present invention with the rotational angle measured by the conventional method as an initial estimated value and measuring the rotational angle with higher accuracy. The situation in which the rotation angle changes by 0.1 degree for each frame can be accurately measured.

図25に、最初のフレームに対する以後のフレームの位置を計測した結果を示す。+印で示す従来方法は、画像を6×6=36個の領域に分割し、各小領域ごとに平行移動量をマッチングによって計測し、得られた平行移動量の平均として位置を推定した結果である。○印で示す本発明による方法は、従来方法で計測した位置を初期推定値として本発明を適用し、さらに高精度に位置を計測した結果である。位置が変化しない状況が正確に計測できている。   FIG. 25 shows the result of measuring the positions of subsequent frames with respect to the first frame. In the conventional method indicated by +, the image is divided into 6 × 6 = 36 regions, the parallel movement amount is measured for each small region by matching, and the position is estimated as an average of the obtained parallel movement amounts. It is. The method according to the present invention indicated by ◯ is the result of applying the present invention with the position measured by the conventional method as an initial estimated value and measuring the position with higher accuracy. The situation where the position does not change can be measured accurately.

<4>本発明の他の実施例
本発明に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法の他の実施例を以下のように説明する。
<4> Other Embodiments of the Present Invention Another embodiment of the multi-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image according to the present invention will be described as follows.

<4−1>サブピクセル推定誤差低減方法との組み合わせ
数60でサブサンプリンググリッド推定位置を求めるときに、3位置の類似度を使ってパラボラフィッティングを用いているので、この推定値には固有の推定誤差を含んでいる。この推定誤差は、補間画像を利用することでキャンセルすることができる。ここでは、2パラメータのときに画像間の水平方向変位に関するサブピクセル位置を推定するときを例に説明する。
<4-1> Combination with Subpixel Estimation Error Reduction Method Since parabolic fitting is performed using the similarity of three positions when the subsampling grid estimated position is obtained by Equation 60, the estimated value is unique to this estimated value. Includes estimation error. This estimation error can be canceled by using an interpolation image. Here, an example will be described in which the sub-pixel position relating to the horizontal displacement between images is estimated with two parameters.

マッチングに使う2次元画像関数をI(u,v),I(u,v)とするとき、SSDとパラボラフィッティングによって推定する水平方向サブピクセル位置は、次のように表すことができる。
When the two-dimensional image function used for matching is I 1 (u, v), I 2 (u, v), the horizontal subpixel position estimated by SSD and parabolic fitting can be expressed as follows.

一方、画像I(u,v)の水平方向補間画像I1iu(u,v)は、
と表すことができる。ただし、このときの(u,v)は整数である。
On the other hand, the horizontal direction interpolation image I 1iu (u, v) of the image I 1 (u, v) is
It can be expressed as. However, (u, v) at this time is an integer.

水平方向補間画像I1iu(u,v)は、I(u,v)に対して(0.5,0)だけ変位していると考えることができる。この補間画像を使って、次に示すSSD類似度でサブピクセル推定を行うと、推定結果も(0.5,0)だけ変位していると考えることができるので、その変位を補正した推定結果は、次式で求めることができる。
It can be considered that the horizontally interpolated image I 1iu (u, v) is displaced by ( 0.5,0 ) with respect to I 1 (u, v). When subpixel estimation is performed with the SSD similarity shown below using this interpolated image, it can be considered that the estimation result is also displaced by (0.5, 0). Can be obtained by the following equation.

数78も数60と同様に推定誤差を含むが、その位相が逆になっているので、次式によって推定誤差をキャンセルすることができる。
Equation 78 also includes an estimation error as in Equation 60, but since the phase is reversed, the estimation error can be canceled by the following equation.

<4−2>アフィンパラメータ推定
画像間の対応がアフィン変換で表現できるとき、下記数82の変形モデル中の6個のパラメータを決定する必要がある。
<4-2> Affine parameter estimation When the correspondence between images can be expressed by affine transformation, it is necessary to determine six parameters in the following deformation model of 82.

ただし、(u1,v1),(u2,v2)は、それぞれ画像I1,I2を表す座標で、画像I2を変形して画像I1に合わせている。 However, (u1, v1) and (u2, v2) are coordinates representing the images I1 and I2, respectively, and the image I2 is deformed to match the image I1.

離散的な位置で得られた類似度値を用いて、この6つのパラメータを同時に高精度に推定することができる。   Using the similarity values obtained at discrete positions, these six parameters can be simultaneously estimated with high accuracy.

<4−3>射影パラメータ推定
画像間の対応が射影変換で表現できるとき、下記数83の変形モデル中の8個のパラメータを決定する必要がある。
<4-3> Projection Parameter Estimation When the correspondence between images can be expressed by projective transformation, it is necessary to determine eight parameters in the following deformation model of 83.

ただし、(u1,v1),(u2,v2)は、それぞれ画像I1,I2を表す座標で、画像I2を変形して画像I1に合わせている。 However, (u1, v1) and (u2, v2) are coordinates representing the images I1 and I2, respectively, and the image I2 is deformed to match the image I1.

離散的な位置で得られた類似度値を用いて、この8つのパラメータを同時に高精度に推定することができる。   Using the similarity values obtained at discrete positions, these eight parameters can be estimated simultaneously with high accuracy.

<4−4>高速探索手法との組み合わせ
本発明によるサブサンプリンググリッド推定方法は、サンプリンググリッド単位での対応が正しく得られた後の高精度化処理と考えることもできる。したがって、サンプリンググリッド単位での探索には、すでに提案されている各種の高速化手法を用いることができる。
<4-4> Combination with High-Speed Search Method The sub-sampling grid estimation method according to the present invention can be considered as a high-precision processing after the correspondence in the sampling grid unit is correctly obtained. Therefore, the various speed-up methods already proposed can be used for the search in the sampling grid unit.

例えば、画像の濃度情報を利用した高速探索手法としては、画像ピラミッドを用いた階層構造探索法、SSDやSADに上限値を設けて以後の積算を打ち切る手法などがある。また、画像の特徴を利用する高速探索方法としては、注目領域の濃度ヒストグラムを利用する方法などがある。   For example, as a high-speed search method using image density information, there are a hierarchical structure search method using an image pyramid, a method of setting an upper limit value for SSD or SAD, and stopping subsequent integration. Further, as a high-speed search method using image features, there is a method using a density histogram of a region of interest.

なお、本発明に係る画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法を実装したコンピュータ・プログラムを、CPUを備えた情報処理端末(例えば、パソコン、ワークステーション等のコンピュータ)に実行させることによって、合成画像或いは実画像を用いて、多パラメータを同時に高精度に推定することができる。   By causing a computer program that implements the multi-parameter high-accuracy simultaneous estimation method in image sub-pixel matching according to the present invention to be executed by an information processing terminal equipped with a CPU (for example, a computer such as a personal computer or a workstation). The multi-parameters can be simultaneously estimated with high accuracy using the composite image or the real image.

以下のように、本発明を色々な画像処理分野に適用することができる。例えば、リモートセンシングや航空写真を使った地図作製では、複数の画像をつなぎ合わせること、つまりモザイキングを行うことが多い。このとき、画像間の対応位置を求めるために、領域ベースのマッチングを行う。このときには、対応が正しいことはもちろん、対応が画素単位より細かな分解能で求まることが重要になう。さらに、多数の画像を利用して対応を求めるので、計算の高速性も重要である。領域ベースマッチングを使って画素分解能以上の対応を求めるときには、画素単位のとびとびの位置で求まる類似度評価値を使って、フィッティング関数によるサブピクセル推定を行っているが、このときに本発明を適用することで、計算時間の増加がわずかで、はるかに高精度な対応位置を求めることができる。   As described below, the present invention can be applied to various image processing fields. For example, in remote sensing and map creation using aerial photographs, multiple images are often connected, that is, mosaiced. At this time, region-based matching is performed to obtain corresponding positions between images. At this time, it is important not only that the correspondence is correct, but also that the correspondence is obtained with a resolution finer than the pixel unit. Furthermore, since the correspondence is obtained using a large number of images, the high speed of calculation is also important. When using region-based matching to obtain a response that exceeds the pixel resolution, sub-pixel estimation is performed using the fitting function using the similarity evaluation value obtained at discrete positions in units of pixels. At this time, the present invention is applied. By doing so, the increase in calculation time is slight, and it is possible to obtain a corresponding position with much higher accuracy.

特に、画像パターンに斜め成分が含まれるとき、つまり、地図作製などで道路交差点などのパターンが画像座標系に対して傾いて撮影されているときに、本発明の効果が一層発揮される。   In particular, when the image pattern includes an oblique component, that is, when a pattern such as a road intersection is photographed while being tilted with respect to the image coordinate system in making a map or the like, the effect of the present invention is further exhibited.

また、ステレオビジョンでは、複数枚の画像間の対応位置を求めることが基本的な処理であり、このときの対応位置精度が最終的な結果精度に大きく影響を及ぼす。画像間の対応位置を求めるときには、エピポーラ拘束などの拘束条件を利用するが、エピポーラ拘束条件自体を求めるときにも画像間の対応を調べる必要があり、このときにはエピポーラ拘束を利用できない。従って、本発明を適用することによって、高精度にエピポーラ拘束条件を求めることが可能になるため、結果として高精度なステレオ処理を行うことができるようになる。   Further, in stereo vision, obtaining a corresponding position between a plurality of images is a basic process, and the corresponding position accuracy at this time greatly affects the final result accuracy. When obtaining the corresponding position between images, a constraint condition such as epipolar constraint is used. However, it is necessary to examine the correspondence between images when obtaining the epipolar constraint condition itself, and at this time, the epipolar constraint cannot be used. Therefore, by applying the present invention, it is possible to obtain the epipolar constraint condition with high accuracy, and as a result, high-accuracy stereo processing can be performed.

さらに、MPEG圧縮を行うときには、隣接フレーム間の対応位置を正確に求めることが、高品質で高圧縮率を達成するために必要である。隣接フレーム間の対応位置は、通常は1/2画素単位で求めるが、このときにはSADやSSD類似度評価値を利用した1次元の簡易手法を利用しているため、大きな誤差が含まれている可能性が在る。ところが、本発明は、従来の1次元推定方法に対してわずかな計算量の増加で、より確実で高精度な画像間の対応を求めることができるため、MPEG画像生成の圧縮率を向上することが可能になる。   Furthermore, when performing MPEG compression, it is necessary to accurately obtain the corresponding position between adjacent frames in order to achieve a high compression rate with high quality. Corresponding positions between adjacent frames are usually obtained in units of ½ pixel. At this time, a large error is included because a one-dimensional simple method using SAD or SSD similarity evaluation values is used. There is a possibility. However, the present invention can obtain a more reliable and highly accurate correspondence between images with a slight increase in the amount of calculation compared to the conventional one-dimensional estimation method, and therefore improves the compression rate of MPEG image generation. Is possible.

図1は、従来の1次元サブピクセル推定方法を説明するための図である。FIG. 1 is a diagram for explaining a conventional one-dimensional subpixel estimation method. 図2は、3次元再構成アプリケーション用に一般的に使用される画像例(a)とその自己類似度(b)を示す図である。自己類似度マップは、自己類似度マップがk≠1及びθg≠0の性質を有しているので、従来の1次元推定方法を用いることでサブピクセル推定誤差が生じることを示している。FIG. 2 is a diagram showing an image example (a) generally used for a three-dimensional reconstruction application and its self-similarity (b). The self-similarity map indicates that the sub-pixel estimation error is generated by using the conventional one-dimensional estimation method because the self-similarity map has the properties of k ≠ 1 and θg ≠ 0. 図3は、θ=π/2を有するテクスチャ画像例とその自己類似度を示す図である。FIG. 3 is a diagram illustrating an example of a texture image having θ c = π / 2 and its self-similarity. 図4は、2次元画像モデルとその2次元類似度を示す図である。(a)はσimage=0.7の画像モデルを示し、画像のサイズは11×11[画素]である。(b)は画像モデルの自己類似度を示し、類似度の範囲は11×11である。(s,t)の暗い位置は高い類似度を有する2枚の画像の変位に対応する。最も暗い位置の(s,t)は、自己類似度の性質で(0,0)になる。FIG. 4 is a diagram showing a two-dimensional image model and its two-dimensional similarity. (A) shows an image model of σ image = 0.7, and the size of the image is 11 × 11 [pixel]. (B) shows the self-similarity of the image model, and the range of the similarity is 11 × 11. The dark position of (s, t) corresponds to the displacement of two images having high similarity. The darkest position (s, t) is (0, 0) due to the nature of self-similarity. 図5は、画像全体の回転角度θとコーナー角度θを有する2次元コーナー画像モデルを示す図である。FIG. 5 is a diagram illustrating a two-dimensional corner image model having a rotation angle θ g and a corner angle θ c of the entire image. 図6は、2次元コーナー画像モデルとその2次元自己類似度を示す図である。(a)、(b)、(c)は、θ=π/2、σimage=1の画像モデルで、それぞれθ=0,π/8,π/4である。(d)、(e)、(f)は、それぞれ(a)、(b)、(c)に対応する類似度である。(g)、(h)、(i)は、θ=π/4、σimage=1の画像モデルで、それぞれθ=0,π/8,π/4である。(j)、(k)、(l)は、それぞれ(g)、(h)、(i)に対応する類似度である。FIG. 6 is a diagram showing a two-dimensional corner image model and its two-dimensional self-similarity. (a), (b), and (c) are image models of θ c = π / 2 and σ image = 1, and θ g = 0, π / 8, and π / 4, respectively. (d), (e), and (f) are similarities corresponding to (a), (b), and (c), respectively. (g), (h), and (i) are image models of θ c = π / 4 and σ image = 1, and θ g = 0, π / 8, and π / 4, respectively. (j), (k), and (l) are similarities corresponding to (g), (h), and (i), respectively. 図7は、画像全体の回転角度θと水平方向空間周波数fと垂直方向空間周波数fを有する2次元繰り返しテクスチャ画像モデルを示す図である。FIG. 7 is a diagram illustrating a two-dimensional repetitive texture image model having a rotation angle θ g of the entire image, a horizontal spatial frequency f u, and a vertical spatial frequency f v . 図8は、2次元繰り返しテクスチャ画像モデルとその2次元自己類似度を示す図である。(a)、(b)、(c)は、f=0.1、f=0.1の画像モデルで、それぞれθ=0,π/8,π/4である。(d)、(e)、(f)は、それぞれ(a)、(b)、(c)に対応する類似度である。(g)、(h)、(i)は、f=0.05、f=0.1の画像モデルで、それぞれθ=0,π/8,π/4である。(j)、(k)、(l)は、それぞれ(g)、(h)、(i)に対応する類似度である。自己類似度は一定の変位を有する2枚同様な画像から得られる。画像のサイズは11×11[画素]で、類似度の範囲は−5から5までである。FIG. 8 is a diagram showing a two-dimensional repetitive texture image model and its two-dimensional self-similarity. (a), (b), and (c) are image models of f u = 0.1 and f v = 0.1, and θ g = 0, π / 8, and π / 4, respectively. (d), (e), and (f) are similarities corresponding to (a), (b), and (c), respectively. (g), (h), and (i) are image models of f u = 0.05 and f v = 0.1, and θ g = 0, π / 8, and π / 4, respectively. (j), (k), and (l) are similarities corresponding to (g), (h), and (i), respectively. The self-similarity is obtained from two similar images having a certain displacement. The size of the image is 11 × 11 [pixel], and the range of similarity is from −5 to 5. 図9は、画像全体の回転角度θと水平標準偏差σと垂直標準偏差kσを有する2次元ガウス画像モデルを示す図である。Figure 9 is a diagram showing a two-dimensional Gaussian image model having the rotation angle theta g and the horizontal standard deviation σ and the vertical standard deviation kσ of the entire image. 図10は、2次元ガウス画像モデルとその2次元自己類似度を示す図である。(a)、(b)、(c)は、σ=2、k=1の画像モデルで、それぞれθ=0,π/8,π/4である。(d)、(e)、(f)は、それぞれ(a)、(b)、(c)に対応する類似度である。(g)、(h)、(i)は、σ=2、k=0.5の画像モデルで、それぞれθ=0,π/8,π/4である。(j)、(k)、(l)は、それぞれ(g)、(h)、(i)に対応する類似度である。自己類似度は一定の変位を有する2枚同様な画像から得られる。画像のサイズは11×11[画素]で、類似度の範囲は−5から5までである。FIG. 10 is a diagram showing a two-dimensional Gaussian image model and its two-dimensional self-similarity. (a), (b), and (c) are image models with σ = 2 and k = 1, and θ g = 0, π / 8, and π / 4, respectively. (d), (e), and (f) are similarities corresponding to (a), (b), and (c), respectively. (g), (h), and (i) are image models of σ = 2 and k = 0.5, and θ g = 0, π / 8, and π / 4, respectively. (j), (k), and (l) are similarities corresponding to (g), (h), and (i), respectively. The self-similarity is obtained from two similar images having a certain displacement. The size of the image is 11 × 11 [pixel], and the range of similarity is from −5 to 5. 図11は、3種類異なった2次元画像モデルと、それらの2次元自己類似度と、2次元類似度モデルに比較して2次元自己類似度の部分図を示す図である。(a)はθ=π/4、σimage=1、θ=0を有する2次元コーナー画像モデルを示す。(b)はf=0.051、f=0.1、θ=0を有する2次元繰り返しテクスチャ画像モデルを示す。(c)はσ=2、k=0.5、θ=0を有する2次元ガウス画像モデルを示す。(d)、(e)、(f)は、それぞれ(a)、(b)、(c)に対応する類似度である。(g)、(h)、(i)は、整数位置(〇で表す)でサンプリングされた(d)、(e)、(f)のt=0の水平部分図と、2次元類似度モデル(点線で表す)を示す。FIG. 11 is a diagram showing three types of two-dimensional image models, their two-dimensional self-similarity, and a partial diagram of two-dimensional self-similarity compared to the two-dimensional similarity model. (a) shows a two-dimensional corner image model having θ c = π / 4, σ image = 1, and θ g = 0. (b) shows a two-dimensional repetitive texture image model having f u = 0.051, f v = 0.1, and θ g = 0. (c) shows a two-dimensional Gaussian image model having σ = 2, k = 0.5, and θ g = 0. (d), (e), and (f) are similarities corresponding to (a), (b), and (c), respectively. (g), (h), (i) are (d), (e), (f) horizontal partial diagrams sampled at integer positions (represented by ◯), and t = 0 horizontal sub-views, and two-dimensional similarity models (Represented by a dotted line). 図12は、2次元連続的に類似度計算と離散的に類似度計算の例を示す図である。FIG. 12 is a diagram illustrating an example of two-dimensional continuous similarity calculation and discrete similarity calculation. 図13は、(d,d)=(0.2,0.4)、σ=1、k=0.7、θ=π/6を有する2次元類似度モデルを示す図である。等高線は関数値の10%から90%までに対応している。(a)において、2次元類似度モデルの長軸がθ=π/6を示す。(b)において、HEL(水平極値線)とVEL(垂直極値線)の両方が2次元類似度モデル(d,d)のピーク値位置を通るが、2次元類似度モデルの長軸或いは短軸と異なる。FIG. 13 is a diagram showing a two-dimensional similarity model having (d s , d t ) = (0.2,0.4), σ = 1, k = 0.7, and θ g = π / 6. . The contour lines correspond to 10% to 90% of the function value. In (a), the long axis of the two-dimensional similarity model indicates θ g = π / 6. In (b), both HEL (horizontal extreme value line) and VEL (vertical extreme value line) pass through the peak value position of the two-dimensional similarity model (d s , d t ). Different from axis or short axis. 図14は、HELとVELの推定プロセスを説明するための図である。(a)において、●は3本の水平線t=−1、t=0、t=1上の類似度値(□)から得られた推定サブピクセル位置を示し、HELは最小二乗で3つ●の位置から推定されることが可能である。(b)において、VELは同様なプロセスで推定されることが可能である。FIG. 14 is a diagram for explaining an estimation process of HEL and VEL. In (a), ● indicates the estimated sub-pixel position obtained from the similarity values (□) on the three horizontal lines t = −1, t = 0, t = 1, and HEL is three in the least squares. Can be estimated from the position of. In (b), VEL can be estimated in a similar process. 図15は、従来の1次元推定方法及び本発明の実施例1に係る2次元推定方法にそれぞれ必要な類似度値の位置を示す図である。2次元類似度モデルは(d,d)=(0.2,0.4)、σ=1、k=0.3、θ=π/8を有する。FIG. 15 is a diagram illustrating positions of similarity values necessary for the conventional one-dimensional estimation method and the two-dimensional estimation method according to Embodiment 1 of the present invention. The two-dimensional similarity model has (d s , d t ) = (0.2,0.4), σ = 1, k = 0.3, and θ g = π / 8. 図16は、推定誤差を比較するための図である。(a)は比較用に使用される画像モデルで、即ち、θ=0、θ=π/4、σimage=1.0の2次元コーナーモデルである。(b)は(a)の画像モデルの自己類似度を示す。FIG. 16 is a diagram for comparing estimation errors. (a) is an image model used for comparison, that is, a two-dimensional corner model of θ g = 0, θ c = π / 4, and σ image = 1.0. (b) shows the self-similarity of the image model of (a). 図17は、推定誤差を比較するための図である。(a)は比較用に使用される画像モデルで、即ち、θ=π/8、θ=π/4、σimage=1.0の2次元コーナーモデルである。(b)は(a)の画像モデルの自己類似度を示す。FIG. 17 is a diagram for comparing estimation errors. (a) is an image model used for comparison, that is, a two-dimensional corner model of θ g = π / 8, θ c = π / 4, and σ image = 1.0. (b) shows the self-similarity of the image model of (a). 図18は、推定誤差を比較するための図である。(a)は比較用に使用される画像モデルで、即ち、θ=π/4、θ=π/4、σimage=1.0の2次元コーナーモデルである。(b)は(a)の画像モデルの自己類似度を示す。FIG. 18 is a diagram for comparing estimation errors. (a) is an image model used for comparison, that is, a two-dimensional corner model of θ g = π / 4, θ c = π / 4, and σ image = 1.0. (b) shows the self-similarity of the image model of (a). 図19は、重み関数とパラメータに依存する補間特性を説明するための図である。FIG. 19 is a diagram for explaining an interpolation characteristic depending on a weight function and a parameter. 図20は、合成画像を使った実験結果を示す図である。FIG. 20 is a diagram illustrating an experimental result using a composite image. 図21は、実画像を使ったターゲットトラッキング実験結果を示す図である。FIG. 21 is a diagram illustrating a result of target tracking experiment using an actual image. 図22は、本発明の実施例2に係る3パラメータ同時推定方法において、パラメータsに関する最大値を通る平面Πを説明するための模式図である。FIG. 22 is a schematic diagram for explaining the plane 1 1 that passes through the maximum value for the parameter s 1 in the three-parameter simultaneous estimation method according to the second embodiment of the present invention. 図23は、実験に用いた合成画像である。FIG. 23 is a composite image used in the experiment. 図24は、画像の回転計測結果を示す図である。FIG. 24 is a diagram showing the result of image rotation measurement. 図25は、画像の位置計測結果を示す図である。FIG. 25 is a diagram illustrating a result of image position measurement.

Claims (3)

N(Nは4以上の整数である)個の画像間対応パラメータを軸とするN次元類似度空間において、離散的な位置で得られた画像間のN次元類似度値を利用して、前記N個の画像間対応パラメータを高精度に同時推定する画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法であって、
前記画像間のN次元類似度値が、ある1つのパラメータ軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似するN次元超平面を求めるステップと、
前記N次元超平面を各パラメータ軸に対してN個求めるステップと、
前記N個のN次元超平面の交点を求めるステップと、
前記交点を前記N次元類似度空間におけるN次元類似度の最大値または最小値を与える前記画像間対応パラメータのサブサンプリンググリッド推定位置とするステップと、
を有することを特徴とする画像のサブピクセルマッチングにおける多パラメータ高精度同時推定方法。
In an N-dimensional similarity space with N (N is an integer of 4 or more) image correspondence parameters as axes, using the N-dimensional similarity values between images obtained at discrete positions, A multi-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image for simultaneously estimating N inter-image correspondence parameters with high accuracy,
An N-dimensional hyperplane that obtains a sub-sampling position where an N-dimensional similarity value between the images is maximum or minimum on a straight line parallel to a certain parameter axis, and that most closely approximates the obtained sub-sampling position. A step of seeking
Obtaining N N-dimensional hyperplanes for each parameter axis;
Obtaining an intersection of the N N-dimensional hyperplanes;
Setting the intersection as a sub-sampling grid estimated position of the inter-image correspondence parameter that gives the maximum or minimum value of the N-dimensional similarity in the N-dimensional similarity space;
A multi-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image characterized by comprising:
3個の画像間対応パラメータを軸とする3次元類似度空間において、離散的な位置で得られた画像間の3次元類似度値を利用して、前記3個の画像間対応パラメータを高精度に同時推定する画像のサブピクセルマッチングにおける3パラメータ高精度同時推定方法であって、
前記画像間の3次元類似度値が、ある1つのパラメータ軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似する平面を求めるステップと、
前記平面を各パラメータ軸に対して3個求めるステップと、
前記3個の平面の交点を求めるステップと、
前記交点を前記3次元類似度空間における3次元類似度の最大値または最小値を与える前記画像間対応パラメータのサブサンプリンググリッド推定位置とするステップと、
を有することを特徴とする画像のサブピクセルマッチングにおける3パラメータ高精度同時推定方法。
In the three-dimensional similarity space around the three image correspondence parameters, the three image correspondence parameters are obtained with high accuracy by using the three-dimensional similarity values between images obtained at discrete positions. A three-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image to be simultaneously estimated,
Obtaining a sub-sampling position at which a three-dimensional similarity value between the images becomes maximum or minimum on a straight line parallel to a certain parameter axis, and obtaining a plane that most closely approximates the obtained sub-sampling position When,
Obtaining three planes for each parameter axis;
Obtaining an intersection of the three planes;
Setting the intersection as a sub-sampling grid estimated position of the inter-image correspondence parameter that gives a maximum value or a minimum value of the three-dimensional similarity in the three-dimensional similarity space;
A three-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image characterized by comprising:
離散的に得られた画像間の2次元類似度値を利用して、連続領域における2次元類似度最大値または最小値の位置を高精度に推定する画像のサブピクセルマッチングにおける2パラメータ高精度同時推定方法であって、
前記画像間の2次元類似度値が、水平軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似する直線(水平極値線HEL)を求めるステップと、
前記画像間の2次元類似度値が、垂直軸に対して平行な直線上で最大または最小となるサブサンプリング位置を求め、求められた前記サブサンプリング位置を最も近似する直線(垂直極値線VEL)を求めるステップと、
前記水平極値線HELと前記垂直極値線VELの交点を求めるステップと、
前記交点を前記2次元類似度の最大値または最小値を与えるサブピクセル推定位置とするステップと、
を有することを特徴とする画像のサブピクセルマッチングにおける2パラメータ高精度同時推定方法。
Two-parameter high-precision simultaneous in sub-pixel matching of images that accurately estimate the position of the maximum or minimum two-dimensional similarity in a continuous region using two-dimensional similarity values between discrete images An estimation method,
A sub-sampling position where the two-dimensional similarity value between the images is maximum or minimum on a straight line parallel to a horizontal axis is obtained, and a straight line (horizontal extreme value line HEL that most closely approximates the obtained sub-sampling position is obtained. )
A sub-sampling position where the two-dimensional similarity value between the images is maximum or minimum on a straight line parallel to the vertical axis is obtained, and a straight line (vertical extreme value line VEL that most closely approximates the obtained sub-sampling position is obtained. )
Obtaining an intersection of the horizontal extreme value line HEL and the vertical extreme value line VEL;
Making the intersection point a sub-pixel estimation position that gives the maximum or minimum value of the two-dimensional similarity;
A two-parameter high-accuracy simultaneous estimation method in sub-pixel matching of an image characterized by comprising:
JP2007323866A 2003-01-14 2007-12-14 Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching Pending JP2008117416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007323866A JP2008117416A (en) 2003-01-14 2007-12-14 Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003005557 2003-01-14
JP2007323866A JP2008117416A (en) 2003-01-14 2007-12-14 Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004525640A Division JP4135945B2 (en) 2003-01-14 2003-10-29 Multi-parameter high-precision simultaneous estimation processing method and multi-parameter high-precision simultaneous estimation processing program in image sub-pixel matching

Publications (1)

Publication Number Publication Date
JP2008117416A true JP2008117416A (en) 2008-05-22

Family

ID=39503222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007323866A Pending JP2008117416A (en) 2003-01-14 2007-12-14 Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching

Country Status (1)

Country Link
JP (1) JP2008117416A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609181B2 (en) 2010-12-27 2017-03-28 Panasonic Intellectual Property Management Co., Ltd. Image signal processor and method for synthesizing super-resolution images from non-linear distorted images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999062024A1 (en) * 1998-05-28 1999-12-02 Acuity Imaging, Llc Method of accurately locating the fractional position of a template match point
JP2000149017A (en) * 1998-11-17 2000-05-30 Sony Corp Image processing device, method and supply medium thereof
JP4135945B2 (en) * 2003-01-14 2008-08-20 国立大学法人東京工業大学 Multi-parameter high-precision simultaneous estimation processing method and multi-parameter high-precision simultaneous estimation processing program in image sub-pixel matching

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999062024A1 (en) * 1998-05-28 1999-12-02 Acuity Imaging, Llc Method of accurately locating the fractional position of a template match point
JP2002517045A (en) * 1998-05-28 2002-06-11 アキュイティー イメージング エルエルシー How to determine the exact position of the template match point
JP2000149017A (en) * 1998-11-17 2000-05-30 Sony Corp Image processing device, method and supply medium thereof
JP4135945B2 (en) * 2003-01-14 2008-08-20 国立大学法人東京工業大学 Multi-parameter high-precision simultaneous estimation processing method and multi-parameter high-precision simultaneous estimation processing program in image sub-pixel matching

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609181B2 (en) 2010-12-27 2017-03-28 Panasonic Intellectual Property Management Co., Ltd. Image signal processor and method for synthesizing super-resolution images from non-linear distorted images

Similar Documents

Publication Publication Date Title
JP4135945B2 (en) Multi-parameter high-precision simultaneous estimation processing method and multi-parameter high-precision simultaneous estimation processing program in image sub-pixel matching
Zhou et al. Canny-vo: Visual odometry with rgb-d cameras based on geometric 3-d–2-d edge alignment
Zokai et al. Image registration using log-polar mappings for recovery of large-scale similarity and projective transformations
Barron et al. Tutorial: Computing 2D and 3D optical flow
Xia et al. Image registration by" Super-curves"
CN106447601B (en) Unmanned aerial vehicle remote sensing image splicing method based on projection-similarity transformation
Han et al. Parameter optimization for the extraction of matching points between high-resolution multisensor images in urban areas
Robinson et al. Fast local and global projection-based methods for affine motion estimation
Ito et al. Accurate and robust planar tracking based on a model of image sampling and reconstruction process
Tsai et al. Polygon‐based texture mapping for cyber city 3D building models
CN113642397A (en) Object length measuring method based on mobile phone video
Shimizu et al. Multi-parameter simultaneous estimation on area-based matching
JP2008117416A (en) Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching
Xiong et al. Linearly estimating all parameters of affine motion using radon transform
Gedkhaw et al. Superresolution Reconstruction in Automatic Thai Sign Language Feature Extraction Using Adaptive Triangulation Interpolation.
Hauenstein et al. Curvature determination in range images: new methods and comparison study
Goshtasby et al. Transformation functions
Benseddik et al. Direct method for rotation estimation from spherical images using 3D mesh surfaces with SPHARM representation
JP2004151106A (en) Error analysis method of trifocal transfer
Jackson et al. Adaptive registration of very large images
Shylaja et al. A systematic investigation on Geometric Transformation
Wang et al. Projective invariants of D-moments of 2D grayscale images
Morales et al. Non-rigid motion estimation based on fuzzy models
Li et al. The mapping-adaptive convolution: A fundamental theory for homography or perspective invariant matching methods
Julià et al. The Orthographic Projection Model for Pose Calibration of Long Focal Images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110315