JPH05290172A - Pattern matching method for image - Google Patents

Pattern matching method for image

Info

Publication number
JPH05290172A
JPH05290172A JP4118084A JP11808492A JPH05290172A JP H05290172 A JPH05290172 A JP H05290172A JP 4118084 A JP4118084 A JP 4118084A JP 11808492 A JP11808492 A JP 11808492A JP H05290172 A JPH05290172 A JP H05290172A
Authority
JP
Japan
Prior art keywords
image
equation
conversion
parameters
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4118084A
Other languages
Japanese (ja)
Other versions
JP2703454B2 (en
Inventor
Yoshihiko Nomura
由司彦 野村
Tomohiro Murakami
知広 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suntech Co
Original Assignee
Suntech Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suntech Co filed Critical Suntech Co
Priority to JP4118084A priority Critical patent/JP2703454B2/en
Publication of JPH05290172A publication Critical patent/JPH05290172A/en
Application granted granted Critical
Publication of JP2703454B2 publication Critical patent/JP2703454B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To eliminate the need to extract a feature quantity and to estimate conversion parameters in a short time by converting a reference image by density gradation conversion and geometric conversion and then estimating an image so that the reference image matching with an input image. CONSTITUTION:The image conversion is represented with an unknown pattern vectors (x) consisting of conversion parameters x1-x6 Then an area wherein variation in the density of the estimated image exceeds a specific value is selected. In the area, intermediate parameters by the partial differentiation of the estimated image as to the respective parameters are calculated and a normal equation is found from residual to calculate the corrected vector DELTAx' of the unknown parameter vector x<(k)>. Then it is decided whether or not the image is converged by using the degree of coincidence between the estimated image based upon the unknown parameter vector and the input image. When not, similar processing is repeated to approximate the reference image to the input image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はある画像を変換したとき
に他の画像と似ているような2枚の画像について、その
パターンをマッチングさせるためのパターンマッチング
方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern matching method for matching patterns of two images which are similar to each other when one image is converted.

【0002】[0002]

【従来の技術】従来2枚の類似する画像が与えられたと
きに、一方の画像を変換して他方の画像に一致させるパ
ターンマッチング方法には、以下の方法が知られてい
る。第1の方法は、画像のコーナ等の特徴点を前処理に
より検出し、特徴点についての対応付けを求め、その後
最小二乗法や弛緩法,グラフ理論等によって変換パラメ
ータを推定するものである。この方法は特徴点の抽出が
保証されないことがあり、対応付け自体が難しい問題と
なっていた。
2. Description of the Related Art Conventionally, the following method is known as a pattern matching method for converting one image and matching the other image when two similar images are given. The first method is to detect feature points such as corners of an image by preprocessing, find correspondences between the feature points, and then estimate conversion parameters by the least square method, relaxation method, graph theory, or the like. In this method, the extraction of the feature points may not be guaranteed, and the association itself has been a problem.

【0003】又他の方法として2枚の画像を直接比較す
る直接比較方法が考えられる。これは実際に基準画像に
ついて画像変換を行い、入力画像との間の相関係数等を
計算して最もよく一致する変換パラメータを求めるもの
である。
As another method, a direct comparison method of directly comparing two images can be considered. In this method, image conversion is actually performed on the reference image, and the correlation coefficient with the input image and the like are calculated to find the conversion parameter that most matches.

【0004】[0004]

【発明が解決しようとする課題】しかるに直接比較方法
では、パラメータの変化についての指針が与えられない
ので、最悪の場合は全てのパラメータの組合せについて
一致度を計算しなければならない。そのためパラメータ
数の増加に伴い、膨大な計算量が必要であることがある
という欠点があった。
However, since the direct comparison method does not give a guideline for the change of parameters, in the worst case, the degree of coincidence must be calculated for all combinations of parameters. Therefore, there is a drawback that a huge amount of calculation may be required as the number of parameters increases.

【0005】本発明はこのような従来の問題点に鑑みて
なされたものであって、特徴量抽出を不要とし、パラメ
ータの変化についての指針を統計的に求めることによっ
て計算量を減少させ、短時間で変換パラメータを推定で
きるようにすることを技術的課題とする。
The present invention has been made in view of such conventional problems, and does not require extraction of a feature amount, and statistically obtains a guideline for a change in a parameter, thereby reducing the calculation amount and shortening the calculation. The technical task is to be able to estimate the conversion parameter in time.

【0006】[0006]

【課題を解決するための手段】本発明は第1の画像yM
(u′,v′)(≡A)、及び第2の画像y(u,v)
(≡C)をピクセル単位のデータとして保持し、明るさ
の比をx1 、原点を中心とした回転角度(rad)をx2
水平,垂直方向への平行移動量(ピクセル)をx3 ,x
4 、水平,垂直方向への拡大縮小の比を夫々x5 ,x6
とする変換パラメータに基づいて、第1の画像を変換す
ることによって第2の画像と一致させるパターンマッチ
ングを行う画像のパターンマッチング方法であって、第
1の画像のx方向の偏微分画像D(u′,v′)、及び
第1の画像のy方向の偏微分画像E(u′,v′)を算
出し、x=[x1 ,x2 ,x3 ,x4 ,x5 ,x6 T
を変換パラメータx1 〜x6 を要素とする未知パラメー
タベクトルとし、推定画像y′(u,v)の未知パラメ
ータベクトルの各要素についての偏微分を式(1)とし
て第2の画像に対応する各画素(u,v)について夫々
中間パラメータG,H,K,L及びF,M,N,O,
P,Q,Rを式(2)〜(8)によって算出し、これら
の中間パラメータF〜Qにより正規方程式(式(9))
をなす係数行列B,列ベクトルbを式(10)〜(1
3)によって算出し、式(14)を満たす推定画像の濃
度変化が大きい領域を選択し、正規方程式(9)を解く
ことによって、推定回数をkとして未知パラメータベク
トルxの修正ベクトルΔx′(k) を算出する6元一次方
程式を解き、k次の未知パラメータベクトルx′(k)
その修正ベクトルΔx′(k) を加算することによってk
+1次の未知パラメータベクトルを算出し、未知パラメ
ータベクトルによって第1の画像を変換して得られる推
定画像と第2の画像との収束を判別し、収束していれば
この変換パラメータを出力パラメータとし、収束してい
なければ再び中間画像パラメータを算出することにより
変換パラメータを算出して画像パターンのマッチングを
行うことを特徴とするものである。
The present invention provides a first image y M.
(U ′, v ′) (≡A), and the second image y (u, v)
Hold (≡C) as pixel unit data, the brightness ratio is x 1 , the rotation angle (rad) about the origin is x 2 ,
The translation amount (pixel) in the horizontal and vertical directions is x 3 , x
4 , the scaling ratios in the horizontal and vertical directions are x 5 and x 6, respectively.
A pattern matching method of an image for performing pattern matching to match the second image by converting the first image based on a conversion parameter that is u ′, v ′) and the partial differential image E (u ′, v ′) of the first image in the y direction are calculated, and x = [x 1 , x 2 , x 3 , x 4 , x 5 , x 6 ] T
Is an unknown parameter vector having conversion parameters x 1 to x 6 as elements, and the partial differential for each element of the unknown parameter vector of the estimated image y ′ (u, v) is represented by Expression (1) and corresponds to the second image. Intermediate parameters G, H, K, L and F, M, N, O, respectively for each pixel (u, v)
P, Q, and R are calculated by the equations (2) to (8), and the normal equations (the equation (9)) are calculated from these intermediate parameters F to Q.
The coefficient matrix B and the column vector b that form
3), select a region in which the density change of the estimated image that satisfies the equation (14) is large, and solve the normal equation (9), so that the estimated number of times is k and the correction vector Δx ′ (k ′ of the unknown parameter vector x is ) Is solved, and the correction vector Δx ′ (k) is added to the kth unknown parameter vector x ′ (k) to obtain k
The + 1st-order unknown parameter vector is calculated, the convergence of the estimated image obtained by converting the first image by the unknown parameter vector and the second image are determined, and if they are converged, this conversion parameter is used as the output parameter. If not converged, the intermediate image parameter is calculated again to calculate the conversion parameter to perform the image pattern matching.

【0007】[0007]

【作用】このような特徴を有する本発明によれば、画像
変換を変換パラメータx1 〜x6 からなる未知パラメー
タベクトルxによって表す。そして推定画像の濃度変化
が所定値を越える領域を選択する。そしてその領域にお
いて、各パラメータについての推定画像の偏微分による
中間パラメータを算出し、残差から正規方程式を求めて
未知パラメータベクトルx(k) の修正ベクトルΔx′
(k) を算出して、未知パラメータベクトルxを算出して
いる。そしてこの未知パラメータベクトルによる推定画
像と入力画像との一致度によって画像が収束しているか
どうかを判別し、収束していなければ同様の処理を繰り
返すことによって基準画像を入力画像に近づけるように
している。
According to the present invention having such characteristics, the image conversion is represented by the unknown parameter vector x consisting of the conversion parameters x 1 to x 6 . Then, an area in which the density change of the estimated image exceeds a predetermined value is selected. Then, in that region, an intermediate parameter by partial differentiation of the estimated image for each parameter is calculated, a normal equation is obtained from the residual, and a correction vector Δx ′ of the unknown parameter vector x (k) is calculated.
(k) is calculated to calculate the unknown parameter vector x. Then, it is determined whether or not the image is converged based on the degree of coincidence between the estimated image based on the unknown parameter vector and the input image, and if not converged, the same process is repeated to bring the reference image closer to the input image. ..

【0008】[0008]

【実施例】本発明の原理について説明する。まず基準と
なる画像、即ち基準画像を考える。図2(a)は基準画
像の一例であり、これに対して図2(b)は入力画像で
ある。いずれもテレビカメラ等により撮影した後に計算
機に入力された画像である。ここで基準画像に回転,平
行移動等の何らかの画像変換操作を加えて入力画像に一
致させるように画像を推定し、図2(c)に示すように
入力画像に近づけるものとする。ここでは画像変換とし
て濃度階調変換と幾何学的変換を扱う。濃度階調変換は
1 を未知パラメータとする線形変換を考え、幾何学的
変換については次のx2 〜x6 を未知パラメータとする
アフィン変換を考える。ここでx1 〜x6 を以下のよう
に定める。 x1 ・・・明るさの比 x2 ・・・原点を中心とした回転角度(rad) x3 ,x4 ・・・水平,垂直方向の平行移動量(ピクセ
ル) x5 ,x6 ・・・水平,垂直方向の拡大縮小の比 これらの変換パラメータx1 〜x6 を用いて基準画像を
変換したときに、それが入力画像と最もよく一致するよ
うな値、x1 ′〜x6 ′を推定することを目的とする。
EXAMPLES The principle of the present invention will be described. First, consider a reference image, that is, a reference image. 2A is an example of the reference image, while FIG. 2B is an input image. Both are images input to the computer after being photographed by a television camera or the like. Here, it is assumed that the image is estimated so as to match the input image by performing some image conversion operation such as rotation or parallel movement on the reference image, and is approximated to the input image as shown in FIG. Here, density gradation conversion and geometric conversion are handled as image conversion. The density gradation conversion considers a linear conversion with x 1 as an unknown parameter, and the geometrical conversion considers an affine conversion with the following x 2 to x 6 as an unknown parameter. Here, x 1 to x 6 are defined as follows. x 1・ ・ ・ Brightness ratio x 2・ ・ ・ Rotation angle around the origin (rad) x 3 , x 4・ ・ ・ Horizontal and vertical translation amount (pixel) x 5 , x 6 ... A ratio of scaling in the horizontal and vertical directions When the reference image is converted using these conversion parameters x 1 to x 6 , values that best match the input image, x 1 ′ to x 6 ′ The purpose is to estimate.

【0009】次に以下のような座標変換を用いて非線形
回帰方程式を導く。ここで図2(b)に示すように実際
の入力画像の座標を(u,v)とし、点(u,v)の入
力パターンの濃度をy(u,v)とする。又(u,v)
は同時に推定値による変換後の画像、即ち推定画像y′
(u,v)の座標をも表す。又(u′,v′)を画像
(u,v)に対する変換前の座標、即ち基準画像y
M (u′,v′)の座標とする。
Next, a nonlinear regression equation is derived using the following coordinate transformation. Here, as shown in FIG. 2B, the coordinates of the actual input image are (u, v), and the density of the input pattern at the point (u, v) is y (u, v). Also (u, v)
Is the image after conversion by the estimated value, that is, the estimated image y ′.
It also represents the coordinates of (u, v). Further, (u ′, v ′) is the coordinates before conversion with respect to the image (u, v), that is, the reference image y.
Let it be the coordinates of M (u ', v').

【0010】まず基準画像を拡大する。図3(a)は
この基準画像、(b)はその基準画像を水平方向及び垂
直方向に拡大した状態を示している。基準画像を水平方
向及び垂直方向に夫々1/x5 ,1/x6 倍に拡大した
ときには、次式(17),(18)が成り立つ。
First, the reference image is enlarged. FIG. 3A shows the reference image, and FIG. 3B shows the reference image enlarged in the horizontal and vertical directions. When the reference image is enlarged 1 / x 5 and 1 / x 6 times in the horizontal direction and the vertical direction, respectively, the following equations (17) and (18) are established.

【数16】 [Equation 16]

【0011】次に基準画像を水平方向,垂直方向に夫
々−x3 ,−x4 (ピクセル) だけ、図3(b)から
(c)に示すように平行移動したときには、次式(1
9),(20)が成り立つ。
Next, when the reference image is translated in the horizontal and vertical directions by -x 3 and -x 4 (pixels) respectively as shown in FIGS. 3B to 3C, the following equation (1)
9) and (20) are established.

【数17】 [Equation 17]

【0012】次にこの基準画像を原点を中心に右回り
にx2 (rad) 回転させる。図3(d)はこの基準画像を
回転させた状態を示している。基準画像を原点回りにx
2(rad)回転させたときには、次式(21),(22)が
成り立つ。
Next, this reference image is rotated clockwise about the origin by x 2 (rad). FIG. 3D shows a state in which the reference image is rotated. X around the origin of the reference image
When rotated by 2 (rad), the following equations (21) and (22) hold.

【数18】 [Equation 18]

【0013】又基準画像の明るさを図3(e)に示す
ようにx1 倍したときには、、yM(u′,v′)と
y′(u,v)の関係は次式(23)で示される。
When the brightness of the reference image is multiplied by x 1 as shown in FIG. 3 (e), the relationship between y M (u ', v') and y '(u, v) is given by the following equation (23) ).

【数19】 [Formula 19]

【0014】このように、基準画像を水平,垂直方向に
夫々1/x5 ,1/x6 倍拡大し、水平, 垂直方向に夫
々−x3 ,−x4 (ピクセル) 平行移動し、原点回りに
2(rad) 回転し、明るさをx1 倍したときには、次式
(24)が成り立つ。
In this way, the reference image is enlarged 1 / x 5 and 1 / x 6 times in the horizontal and vertical directions, respectively, and translated in the horizontal and vertical directions by -x 3 and -x 4 (pixels), respectively, and the origin is obtained. When rotating around x 2 (rad) and multiplying the brightness by x 1 , the following equation (24) is established.

【数20】 [Equation 20]

【0015】従ってyM (u′,v′)とy′(u,
v)の関係は次式(25)で示される。
Therefore, y M (u ', v') and y '(u,
The relationship of v) is shown by the following expression (25).

【数21】 この式より与えられるy′(u,v)が入力画像y
(u,v)に最もよく一致するときのパラメータx1
〜x6 ′を推定していくこととなる。
[Equation 21] Y ′ (u, v) given by this equation is the input image y
Parameter x 1 ′ when it best matches (u, v)
And thus we continue to estimate the ~x 6 '.

【0016】式(25)の回帰方程式は非線形であり、
この非線形モデルに対する最小二乗法として線形近似反
復改良法であるガウス−ニュートン法を用いる。k回目
の反復完了によって得られた未知パラメータベクトル
x′(k) (推定値)
The regression equation of equation (25) is non-linear,
The Gauss-Newton method, which is a linear approximation iterative improvement method, is used as the least squares method for this nonlinear model. Unknown parameter vector x ' (k) obtained by the completion of the k-th iteration (estimated value)

【数22】 のまわりの微小量Δx′(k) [Equation 22] A small amount around x Δ (k)

【数23】 について式(25)をテーラー展開すると、一次近似で
式(28)のように表すことができる。但し式(29)
〜(31)とする。
[Equation 23] When the equation (25) is expanded by Taylor, it can be expressed as the equation (28) by a first-order approximation. However, formula (29)
~ (31).

【数24】 [Equation 24]

【数25】 [Equation 25]

【0017】これにより入力画像をy(u,v)とする
と、線形近似回帰方程式は次の式(32)で示される。
As a result, assuming that the input image is y (u, v), the linear approximation regression equation is expressed by the following equation (32).

【数26】 そして基準画像と比較する入力画像上の全ての画素につ
いて、即ち全ての(u,v)の組合せについて式(3
2)の観測方程式を生成する。そして正規方程式を立て
て修正ベクトルΔx′(k) を求め、更に次式(33)に
より(k+1)次の推定値を求める。
[Equation 26] Then, for all the pixels on the input image to be compared with the reference image, that is, for all combinations of (u, v), equation (3
Generate the observation equation of 2). Then, a normal equation is set up to obtain a correction vector Δx ′ (k) , and further, an estimated value of the (k + 1) th order is obtained by the following equation (33).

【数27】 [Equation 27]

【0018】次に推定処理を行う領域の選択について説
明する。ここで画像の特定の行についての濃度分布を図
4に示すものとする。本図では入力画像を実線、推定画
像を破線で示している。領域W1,W3,W5は入力画
像と推定画像のいずれもu方向に変化がない状態を示し
ており、W2は入力画像、W4は推定画像のみ濃度勾配
を有している。さてこのような一次元の画像について考
察すると、W1,W5の範囲の画素については入力画像
と推定画像とは一致しているため、Δy(k) はほぼ0で
ある。又Δy′(k) (u,v)が一定であることからそ
の偏微分によって表されるa2 (k) 〜a6 (k) もほぼ0
となる。従ってW1,W5の範囲内の画素は式(32)
からΔx′(k) に制約を与えず、パラメータ推定には無
関係となる。又W2,W3の範囲内の画素についてはa
2 (k) 〜a6 (k) はほぼ0であるが、Δy(k) が大きな
値となっている。しかしa2 (k) 〜a6 (k) が微小で正
負にばらつき、その平均が0となっていれば、Δx(k)
が何であってもよい。即ち確率的にはパラメータ推定に
は無関係となる。しかしばらつきに偏りがある場合はむ
しろパラメータ推定に悪影響を及ぼす。従って推定パラ
メータはW4の範囲、即ち推定画像の濃度変化が大きい
領域のみで定めることが望ましい。
Next, selection of a region for which the estimation process is performed will be described. Here, the density distribution for a specific row of the image is shown in FIG. In this figure, the input image is shown by a solid line and the estimated image is shown by a broken line. Regions W1, W3, and W5 show a state in which neither the input image nor the estimated image changes in the u direction, W2 has the input image, and W4 has the density gradient only in the estimated image. Considering such a one-dimensional image, Δy (k) is almost 0 because the input image and the estimated image match for the pixels in the range of W1 and W5. Further, since Δy ′ (k) (u, v) is constant, a 2 (k) to a 6 (k) represented by partial differentiation thereof are almost 0.
Becomes Therefore, the pixels within the range of W1 and W5 are expressed by the formula (32)
To Δx ′ (k) , there is no relation to parameter estimation. For pixels within the range of W2 and W3,
2 (k) ~a 6 (k ) is substantially 0 but, [Delta] y (k) has become a large value. However, if a 2 (k) to a 6 (k) are minute and vary positively and negatively, and the average is 0, then Δx (k)
Can be anything. That is, it is irrelevant to parameter estimation stochastically. However, if the variations are biased, the parameter estimation will be adversely affected. Therefore, it is desirable that the estimation parameter is determined only in the range of W4, that is, in the area where the density change of the estimated image is large.

【0019】以上の領域選択は一次元の画像について説
明したが、実際には入力画像,推定画像は二次元の画像
であるので、式(14)を満たす推定画像の濃度変化が
大きい領域の画素のみをデータとして採用する。ここで
g は例えば画像の濃度のばらつきから式(14)の期
待値を求め、その2倍程度の所定値とする。この処理は
推定画像の濃度変化が大きい領域の画像を抽出すること
にあるので、式(14)に限らず、例えば式(14)の
第1項と第2項の二乗和、二乗和の平方根を所定閾値と
比較するようにしてもよい。又推定画像y′(u,v)
を用いず、基準画像yM (u′,v′)のu′及びv′
方向の偏微分値を用いてもよい。こうすればパラメータ
推定時のデータ数を大幅に削減し、推定を高速化するこ
とができる。
Although the above area selection has been described for a one-dimensional image, since the input image and the estimated image are actually two-dimensional images, the pixels in the area where the density change of the estimated image satisfying the equation (14) is large. Only adopt as data. Here, t g is, for example, the expected value of Expression (14) obtained from the variation in the image density, and is set to a predetermined value that is about twice the expected value. Since this processing is to extract an image of an area in which the density change of the estimated image is large, the square sum of the first term and the second term of the equation (14) or the square root of the square sum is not limited to the equation (14). May be compared with a predetermined threshold. Also, the estimated image y '(u, v)
, And u ′ and v ′ of the reference image y M (u ′, v ′)
You may use the partial differential value of a direction. In this way, the number of data at the time of parameter estimation can be significantly reduced, and the estimation can be speeded up.

【0020】次に本発明の具体的な実施例の構成につい
て説明する。図5は本発明のパラメータ推定を実現する
ための電気的構成を示すブロック図である。本図におい
て、例えばCCDカメラ等の撮像装置100は基準画像
及び被写体を撮影するための装置であって、その出力は
A/D変換器101に与えられる。A/D変換器101
は各画素の濃度データをデジタル値に変換するものであ
り、その出力は切換回路102を介して画像メモリ群1
03〜104に与えられる。画像メモリ103は基準画
像用メモリ、画像メモリ104は入力画像用メモリ、画
像メモリ105は推定画像用メモリ、画像メモリ106
は中間パラメータの計算用メモリとする。これらの画像
メモリ103〜106には演算処理のための演算処理装
置(CPU)が接続されている。演算処理装置107に
はその動作プログラムを保持するプログラムメモリ10
8が設けられ、又出力となる変換パラメータは出力イン
ターフェース109を介して表示器110に与えられ
る。
Next, the structure of a specific embodiment of the present invention will be described. FIG. 5 is a block diagram showing an electrical configuration for realizing the parameter estimation of the present invention. In the figure, an image pickup device 100 such as a CCD camera is a device for photographing a reference image and a subject, and its output is given to an A / D converter 101. A / D converter 101
Is for converting the density data of each pixel into a digital value, the output of which is output via the switching circuit 102 to the image memory group 1
03-104. The image memory 103 is a reference image memory, the image memory 104 is an input image memory, the image memory 105 is an estimated image memory, and the image memory 106.
Is a memory for calculating intermediate parameters. An arithmetic processing unit (CPU) for arithmetic processing is connected to these image memories 103 to 106. The arithmetic processing unit 107 has a program memory 10 for holding its operation program.
8 is provided, and the conversion parameter which is an output is given to the display 110 through the output interface 109.

【0021】次に本実施例の動作についてフローチャー
トを参照しつつ説明する。図1は本実施例の動作を示す
メインフローチャートである。本図において動作を開始
すると、まず前処理ルーチン121 を実行する。前処理ル
ーチン121 は図6に詳細なフローチャートを示すよう
に、まずステップ131 において基準画像の入力を行う。
これは撮像素子100によって基準画像を撮像し、A/
D変換器101によってデジタル信号に変換する。そし
て切換回路102を介して画像メモリ103に記録する
ことによって行う。ここで画像メモリ103の全領域の
データをyM (u′ ,v′)をAとする。Aは
(u′,v′)の各点についての配列を示している。
Next, the operation of this embodiment will be described with reference to the flow chart. FIG. 1 is a main flowchart showing the operation of this embodiment. When the operation is started in this figure, the preprocessing routine 121 is first executed. As shown in the detailed flowchart of FIG. 6, the preprocessing routine 121 first inputs a reference image in step 131.
This is because the reference image is picked up by the image sensor 100, and A /
The D converter 101 converts the digital signal. Then, it is recorded in the image memory 103 via the switching circuit 102. Here, y M (u ′, v ′) is the data of the entire area of the image memory 103 and is A. A indicates the array for each point of (u ', v').

【0022】次にステップ132 において基準画像の比較
ウインドウW1′〜W3′を選定する。比較ウインドウ
の選定は、同一の位置にある入力画像の比較ウインドウ
W1〜W3と基準画像の比較ウインドウW1′〜W3′
に共通のポイントが出現する領域を含むように範囲を設
定する。例えば図7(a),(b)に示すように、全領
域の中でコーナとなる点を含むように選択する。このよ
うな比較ウインドウを選定せず、基準画像及び入力画像
の全てを対象として演算することもできる。しかし比較
ウインドウを選定しその範囲内でのみ以下の演算を実行
することによって、パターンマッチングの計算量が削減
され、速度を大幅に改善することができる。
Next, at step 132, comparison windows W1 'to W3' of the reference image are selected. The comparison windows are selected by comparing the comparison windows W1 to W3 of the input images and the comparison windows W1 'to W3' of the reference image at the same position.
Set the range to include the area where the common points appear in. For example, as shown in FIGS. 7A and 7B, the selection is made so as to include the corner points in the entire area. It is also possible to perform calculations on all of the reference image and the input image without selecting such a comparison window. However, by selecting the comparison window and executing the following calculation only within the range, the calculation amount of the pattern matching can be reduced and the speed can be greatly improved.

【0023】そしてステップ133 に進んで複数の比較ウ
インドウ内の全ての画素(u′,v′)について、x方
向の偏微分画像を次式(34)又は(35)のいずれか
によって生成する。
Then, the operation proceeds to step 133, and a partial differential image in the x direction is generated by all of the following equations (34) or (35) for all the pixels (u ', v') in the plurality of comparison windows.

【数28】 こうして生成された偏微分画像をDとする。[Equation 28] The partial differential image thus generated is D.

【0024】更にステップ134 に進み、この基準内比較
ウインドウの各画素(u′,v′)について、y方向の
偏微分画像を次式(36)又は(37)によって生成す
る。
Further proceeding to step 134, a partial differential image in the y direction is generated by the following equation (36) or (37) for each pixel (u ', v') in this in-reference comparison window.

【数29】 こうして生成された偏微分画像をEとする。これらの偏
微分画像D,Eはx方向及びy方向にずれた画像の差を
とることによって算出している。尚このように偏微分を
算出するため、比較ウインドウW1′〜W3′はW1〜
W3よりわずかに大きく選択しておく。
[Equation 29] Let E be the partial differential image generated in this way. These partial differential images D and E are calculated by taking the difference between the images deviated in the x direction and the y direction. Since the partial differentiation is calculated in this way, the comparison windows W1 'to W3' are
Select slightly larger than W3.

【0025】こうして前処理を終えると、図1のステッ
プ122 に進んで入力画像の取込みを行う。撮像素子10
0によって基準画像に対応する所定の画像を撮像し、A
/D変換器101を介してデジタル信号に変換する。そ
して切換回路102を介して画像メモリ104に取込む
ことによって入力画像の取込みを行う。この入力画像y
(u,v)を入力画像Cとする。
When the preprocessing is completed in this way, the process proceeds to step 122 in FIG. 1 to capture the input image. Image sensor 10
A predetermined image corresponding to the reference image is captured by 0, A
It is converted into a digital signal via the / D converter 101. Then, the input image is captured by capturing it in the image memory 104 via the switching circuit 102. This input image y
Let (u, v) be the input image C.

【0026】そしてステップ123 において、この基準画
像そのものを最初(即ちk=0)の推定画像とする。こ
れは変換パラメータx1 〜x6 の未知パラメータベクト
ルx′(0) を「100011」T とすることに相当す
る。ここで未知パラメータベクトルx′(k) において、
ダッシュは推定値、(k)は推定回数を表している。そ
してステップ124 に進んで領域選択を行う。この領域選
択は前述したように推定画像の濃度が式(14)を満た
す範囲を選択する。そしてステップ125 に進んで最小二
乗法による未知パラメータ推定のための観測方程式を立
てる。この処理を入力画像内比較ウインドウW1〜W3
の領域選択された画素(u,v)について行う。即ちま
ずこの観測方程式では、推定画像y′(u,v)の未知
パラメータx1 〜x6 に関する偏微分を式(1)、具体
的には式(4),(5),(6)により行う。そしてそ
の入力画像Cの推定画像y′(u,v)からの残差を、
式(8)により計算する。前者の偏微分はいわゆるヤコ
ビアン行列となり、後者の残差は残差ベクトルとなる。
以下このルーチンの処理について更に詳細に説明する。
Then, in step 123, this reference image itself is set as the first (that is, k = 0) estimated image. This corresponds to setting the unknown parameter vector x ′ (0) of the conversion parameters x 1 to x 6 to “100011” T. Here, in the unknown parameter vector x ' (k) ,
The dash represents the estimated value and (k) represents the estimated number of times. Then, the process proceeds to step 124 to select the area. In this area selection, as described above, the range in which the density of the estimated image satisfies the expression (14) is selected. Then, in step 125, an observation equation for estimating unknown parameters by the method of least squares is set up. This processing is performed in the input image comparison windows W1 to W3.
This is performed for the pixel (u, v) selected in the area. That is, first, in this observation equation, the partial differentiation of the estimated image y ′ (u, v) with respect to the unknown parameters x 1 to x 6 is given by the equation (1), specifically, the equations (4), (5), and (6). To do. Then, the residual of the input image C from the estimated image y ′ (u, v) is
It is calculated by the equation (8). The former partial derivative is a so-called Jacobian matrix, and the latter residual is a residual vector.
The processing of this routine will be described in more detail below.

【0027】予備的な値の計算 まず予備的な値G(u,v),H(u,v)を式(2)
により算出する。 次に入力画像y(u,v)の座標(u,v)に対応す
る基準画像の座標(u′,v′)を、式(3)によって
算出する。
Calculation of Preliminary Values First, the preliminary values G (u, v) and H (u, v) are calculated by the equation (2).
Calculate by Next, the coordinates (u ′, v ′) of the reference image corresponding to the coordinates (u, v) of the input image y (u, v) are calculated by the equation (3).

【0028】次に偏微分ベクトルを各要素について順
次算出する。まず変換パラメータx1 についての偏微分
の中間パラメータF(u,v)を式(4)で算出する。
ここでAは前処理で求めた基準画像である。又前処理に
よるx方向の偏微分画像D、y方向の偏微分画像Eに式
(3)で求めたK(u,v),L(u,v)を代入し
て、式(5)によって次の中間パラメータI(u,
v),J(u,v)を得る。
Next, the partial differential vector is sequentially calculated for each element. First, the partial differential intermediate parameter F (u, v) for the conversion parameter x 1 is calculated by the equation (4).
Here, A is a reference image obtained in the preprocessing. Further, by substituting K (u, v) and L (u, v) obtained by the equation (3) into the partial differential image D in the x direction and the partial differential image E in the y direction by preprocessing, the following equation (5) is used. The next intermediate parameter I (u,
v), J (u, v).

【0029】又推定画像の変換パラメータx2 〜x6
による偏微分の中間パラメータM〜Qを式(6),
(7)によって求める。
Further, the conversion parameters x 2 to x 6 of the estimated image
The intermediate parameters M to Q of partial differentiation by
Obtained by (7).

【0030】次に残差Δy(u,v)(k) ≡R(u,
v)を次の式(8)によって算出する。こうしてルーチ
ン125 において偏微分ベクトルの各要素及び残差を算出
する。
Next, the residual Δy (u, v) (k) ≡R (u,
v) is calculated by the following equation (8). In this way, the routine 125 calculates each element of the partial differential vector and the residual.

【0031】次いでルーチン126 に進んで、これらの要
素より正規方程式をなす係数行列Bと列ベクトルbを求
める。ここで正規方程式は式(9)で示される。
Next, the routine 126 is proceeded to, from these elements, a coefficient matrix B and a column vector b forming a normal equation are obtained. Here, the normal equation is expressed by equation (9).

【0032】この正規方程式をなす係数行列は式(1
0)で示される。ここで行列Bの各要素は式(11)で
示される。又列ベクトルbは式(12)で示され、その
要素は式(13)のようになる。
The coefficient matrix forming this normal equation is expressed by the equation (1
0). Here, each element of the matrix B is represented by Expression (11). Further, the column vector b is expressed by Expression (12), and its elements are as shown in Expression (13).

【0033】そして図1に示すステップ127 に進み、こ
うして得られた正規方程式(式(9))より、修正ベク
トルΔx′の各要素を求めるための6元一次方程式を解
く。そしてステップ128 に進んで新たな変換パラメータ
を要素とする未知パラメータベクトルx′(k+1) を算出
する。そしてステップ129 に進んでこれが所定の収束条
件を達成するかどうかを判別し、収束しなければステッ
プ124 に戻って同様の処理を繰り返す。
Then, the routine proceeds to step 127 shown in FIG. 1 to solve a six-element linear equation for obtaining each element of the correction vector Δx 'from the normal equation (Equation (9)) thus obtained. Then, in step 128, an unknown parameter vector x ' (k + 1) having a new conversion parameter as an element is calculated. Then, the process proceeds to step 129, and it is determined whether or not this satisfies a predetermined convergence condition. If it does not converge, the process returns to step 124 and the same processing is repeated.

【0034】ここで収束条件は、例えば式(8)に示し
たΔy(K) (u,v)を用いて、全ての比較ウインドウ
W1〜W3内の選択された領域の全ての画素数をnとし
て式(15)に基づいて残差の分散vyyを算出する。そ
してこの残差の分散の差と現在の分散との比が所定値以
下となる条件、式(16)が成立したときに収束したも
のと判定する。こうして収束が判定された場合には、ス
テップ130 に進んで未知パラメータベクトルx′(k+1)
の各要素を推定パラメータとする。そしてx1〜x6
り前述した式(24)に基づいて推定画像を算出する。
この推定画像は表示器110によって表示される。
Here, the convergence condition is, for example, Δy (K) (u, v) shown in the equation (8) is used, and n is the number of all pixels in the selected regions in all the comparison windows W1 to W3. Then, the residual variance v yy is calculated based on the equation (15). Then, when the condition that the ratio of the difference between the residual differences and the current variance is equal to or less than a predetermined value, that is, the expression (16) is satisfied, it is determined that the convergence has occurred. When the convergence is thus determined, the process proceeds to step 130 and the unknown parameter vector x ' (k + 1)
Each element of is used as an estimation parameter. Then, the estimated image is calculated from x 1 to x 6 based on the above-mentioned formula (24).
This estimated image is displayed by the display device 110.

【0035】こうして逐次推定毎に得られたパラメータ
を用いて基準画像を変換し、逐次表示しておくことによ
って基準画像を徐々に入力画像に近づけていくことがで
きる。
Thus, the reference image can be gradually brought closer to the input image by converting the reference image using the parameters obtained for each successive estimation and displaying it sequentially.

【0036】図8(a)〜(d)は基準画像と入力画像
との濃度断面図であり、(b)〜(d)は推定が進むに
つれて変化する基準画像と入力画像を示し、それらが一
致していく様子を示している。ここでは説明を簡略化す
るため一次元で示している。この例では4回の推定で推
定画像が入力画像に相当程度近づいていることが示され
ている。
FIGS. 8A to 8D are density sectional views of the reference image and the input image, and FIGS. 8B to 8D show the reference image and the input image changing as the estimation progresses. It shows how they match. Here, in order to simplify the description, it is shown in one dimension. In this example, it is shown that the estimated image is considerably close to the input image in four estimations.

【0037】次に本発明の第2実施例について説明す
る。前述した実施例では基準画像,入力画像をそのまま
処理しているが、基準画像と入力画像に適当な大きさの
平滑化フィルタをかけ、平滑化を施した画像同士で推定
を繰り返してパラメータマッチングを行うようにしても
よい。この場合には画像の濃度勾配がゆるやかとなり、
最適推定値に速く到達することができる。このような平
滑化処理は例えば図6の前処理ルーチンにおいて基準画
像の入力後及びステップ122 の入力画像の取込み後に行
う。以後の処理は前述した第1実施例と同様である。
Next, a second embodiment of the present invention will be described. In the above-described embodiment, the reference image and the input image are processed as they are. However, a smoothing filter having an appropriate size is applied to the reference image and the input image, and the smoothed images are repeatedly estimated to perform parameter matching. You may do it. In this case, the density gradient of the image becomes gentle,
The optimal estimate can be reached quickly. Such smoothing processing is performed, for example, in the preprocessing routine of FIG. 6 after the reference image is input and after the input image is captured in step 122. Subsequent processing is the same as in the first embodiment described above.

【0038】この平滑化処理を行わない場合(曲線S
0)、一辺が3ピクセル,5ピクセル,7ピクセルの大
きさの平滑化フィルタを用いて平滑化処理を行った場合
を夫々曲線S3,S5,S7として、繰り返し数と分散
の二乗値との関係を図9(a),図9(b)に示す。図
9(a)は単純なパターンでの残差の二乗和、(b)は
複雑なパターンでの残差二乗和の収束状態を示してい
る。このグラフから明らかなようにいずれの画像も平滑
化処理を行うことによってより速く収束できることを示
している。
When this smoothing process is not performed (curve S
0), the case where smoothing processing is performed using a smoothing filter having a size of 3 pixels, 5 pixels, and 7 pixels on one side is defined as curves S3, S5, and S7, respectively, and the relationship between the number of iterations and the squared value of the variance is shown. Are shown in FIGS. 9 (a) and 9 (b). FIG. 9A shows the residual sum of squares of the residual in a simple pattern, and FIG. 9B shows the convergence state of the residual sum of squares in a complicated pattern. As is clear from this graph, it is shown that any image can be converged faster by performing the smoothing process.

【0039】尚前述した実施例では基準画像を入力画像
に近づけるように推定を繰り返しているが、入力画像を
基準画像に近づけるように推定を繰り返し、2つの画像
のパターンをマッチングさせるようにしてもよいことは
いうまでもない。この場合には、前述した全ての数式の
基準画像と入力画像とを入れ換えることによって同様の
処理を行うことができる。
In the above embodiment, the estimation is repeated so that the reference image approaches the input image. However, the estimation is repeated so that the input image approaches the reference image, and the patterns of the two images may be matched. It goes without saying that it is good. In this case, similar processing can be performed by exchanging the reference image and the input image of all the mathematical expressions described above.

【0040】又前述した実施例では基準画像,入力画像
に夫々比較ウインドウを設定し、その範囲内で中間パラ
メータの算出や正規方程式の解析処理を行っているが、
全ての領域に対してこれを行ってもよい。又共通するコ
ーナ等の領域が基準画像と入力画像とで同一位置になく
ても、あらかじめ画像の変換の概略値が既知であれば、
異なった位置にある領域を比較ウインドウとすることも
できる。この場合には図1のステップ123 で示した変換
パラメータの初期値を、比較ウインドウの変化に対応さ
せて設定しておく必要がある。
In the above-described embodiment, the comparison windows are set for the reference image and the input image, and the intermediate parameters are calculated and the normal equations are analyzed within the range.
This may be done for all areas. Even if common areas such as corners are not located at the same position in the reference image and the input image, if the approximate value of image conversion is known in advance,
Areas at different positions can be used as comparison windows. In this case, it is necessary to set the initial values of the conversion parameters shown in step 123 of FIG. 1 in correspondence with changes in the comparison window.

【0041】[0041]

【発明の効果】以上詳細に説明したように本願の請求項
1〜4の発明によれば、特徴量抽出の必要がなくパラメ
ータの変化を推定毎に順次入力画像に近づけていくこと
ができる。又あらかじめ濃度勾配に基づき6元1次方程
式を立て中間パラメータを求める領域を推定画像の濃度
変化が所定値を越える領域に限定しているため、短時間
で変換パラメータを推定することができるという効果が
得られる。
As described in detail above, according to the inventions of claims 1 to 4 of the present application, it is possible to sequentially bring the change of the parameter closer to the input image for each estimation without the need to extract the feature quantity. In addition, since the area in which the six-dimensional linear equation is established based on the density gradient to obtain the intermediate parameter is limited to the area where the density change of the estimated image exceeds the predetermined value, the conversion parameter can be estimated in a short time. Is obtained.

【0042】又本願の請求項3の発明では、基準画像と
入力画像の全てについて演算処理を行う必要がないの
で、変換パラメータを高速で算出することができる。更
に本願の請求項4の発明では、入力画像及び基準画像の
平滑化処理を行うため、変換パラメータの推測回数を少
なくし、速く推定を収束させることができるという効果
が得られる。
Further, according to the third aspect of the present invention, since it is not necessary to perform the arithmetic processing on all of the reference image and the input image, the conversion parameter can be calculated at high speed. Further, according to the invention of claim 4 of the present application, since the smoothing process of the input image and the reference image is performed, it is possible to obtain the effect that the number of times of estimating the conversion parameter is reduced and the estimation can be converged quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明によるパラメータ推定方法の一実施例に
よる推定処理を示すフローチャートである。
FIG. 1 is a flowchart showing an estimation process according to an embodiment of a parameter estimation method according to the present invention.

【図2】(a)は基準画像、(b)は入力画像、(c)
は基準画像を画像変換操作によって入力画像に近づける
ようにした状態を示す図である。
2A is a reference image, FIG. 2B is an input image, and FIG.
FIG. 4 is a diagram showing a state in which a reference image is brought closer to an input image by an image conversion operation.

【図3】(a)〜(e)は基準画像の画像変換時の変化
を示す図である。
FIG. 3A to FIG. 3E are diagrams showing changes in a reference image during image conversion.

【図4】本発明による濃度変化に基づく領域選択を説明
するための図である。
FIG. 4 is a diagram for explaining region selection based on density change according to the present invention.

【図5】本発明を実現するための装置の概略を示すブロ
ック図である。
FIG. 5 is a block diagram showing an outline of an apparatus for realizing the present invention.

【図6】本実施例の前処理ルーチンを示すフローチャー
トである。
FIG. 6 is a flowchart showing a pre-processing routine of the present embodiment.

【図7】入力画像と基準画像との一致する比較ウインド
ウの領域を説明するための図である。
FIG. 7 is a diagram illustrating an area of a comparison window in which an input image and a reference image match each other.

【図8】本実施例において一次元での基準画像が入力画
像に順次推定によって近づいている状態を示す図であ
る。
FIG. 8 is a diagram showing a state in which a one-dimensional reference image is approaching an input image sequentially by estimation in the present embodiment.

【図9】(a)は単純な図形、(b)は複雑な図形での
平滑処理を行ったときの推定回数の変化を示すグラフで
ある。
FIG. 9A is a graph showing a change in the number of times of estimation when smoothing processing is performed on a simple graphic and a complicated graphic.

【符号の説明】[Explanation of symbols]

100 撮像素子 101 A/D変換器 102 切換回路 103 画像メモリ(基準画像用) 104 画像メモリ(入力画像用) 105 画像メモリ(推定画像用) 106 画像メモリ(中間パラメータ計算用) 107 演算処理装置 108 プログラムメモリ 109 出力インターフェース 110 表示器 100 image sensor 101 A / D converter 102 switching circuit 103 image memory (for reference image) 104 image memory (for input image) 105 image memory (for estimated image) 106 image memory (for intermediate parameter calculation) 107 arithmetic processing unit 108 Program memory 109 Output interface 110 Display

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 第1の画像yM (u′,v′)(≡
A)、及び第2の画像y(u,v)(≡C)をピクセル
単位のデータとして保持し、明るさの比をx1 、原点を
中心とした回転角度(rad)をx2 、水平,垂直方向への
平行移動量(ピクセル)をx3 ,x4 、水平,垂直方向
への拡大縮小の比を夫々x5 ,x6 とする変換パラメー
タに基づいて、第1の画像を変換することによって第2
の画像と一致させるパターンマッチングを行う画像のパ
ターンマッチング方法であって、 第1の画像のx方向の偏微分画像D(u′,v′)、及
び第1の画像のy方向の偏微分画像E(u′,v′)を
算出し、 x=[x1 ,x2 ,x3 ,x4 ,x5 ,x6 T を変換
パラメータx1 〜x6を要素とする未知パラメータベク
トルとし、推定画像y′(u,v)の未知パラメータベ
クトルの各要素についての偏微分を次式(1) 【数1】 として第2の画像に対応する各画素(u,v)について
夫々中間パラメータG,H,K,L及びF,M,N,
O,P,Q,Rを次式(2)〜(8)によって算出し、 【数2】 【数3】 【数4】 【数5】 【数6】 【数7】 【数8】 これらの中間パラメータF〜Qにより正規方程式(式
(9)) 【数9】 をなす係数行列B,列ベクトルbを次式(10)〜(1
3)によって算出し、 【数10】 【数11】 【数12】 次式(14)を満たす推定画像の濃度変化が大きい領域
を選択し、 【数13】 正規方程式(9)を解くことによって、推定回数をkと
して未知パラメータベクトルxの修正ベクトルΔx′
(k) を算出する6元一次方程式を解き、 k次の未知パラメータベクトルx′(k) にその修正ベク
トルΔx′(k) を加算することによってk+1次の未知
パラメータベクトルを算出し、 未知パラメータベクトルによって第1の画像を変換して
得られる推定画像と第2の画像との収束を判別し、収束
していればこの変換パラメータを出力パラメータとし、
収束していなければ再び中間画像パラメータを算出する
ことにより変換パラメータを算出して画像パターンのマ
ッチングを行うことを特徴とする画像のパターンマッチ
ング方法。
1. A first image y M (u ′, v ′) (≡
A) and the second image y (u, v) (≡C) are held as pixel unit data, the brightness ratio is x 1 , the rotation angle (rad) about the origin is x 2 , and the horizontal , The first image is converted based on the conversion parameters in which the vertical translation amounts (pixels) are x 3 and x 4 , and the horizontal and vertical scaling ratios are x 5 and x 6 , respectively. Second by
Pattern matching method for performing pattern matching to match the first image, the partial differential image D (u ′, v ′) in the x direction of the first image, and the partial differential image in the y direction of the first image. E (u ′, v ′) is calculated, and x = [x 1 , x 2 , x 3 , x 4 , x 5 , x 6 ] T is an unknown parameter vector having conversion parameters x 1 to x 6 as elements. , The partial differential for each element of the unknown parameter vector of the estimated image y ′ (u, v) is expressed by the following equation (1) As intermediate parameters G, H, K, L and F, M, N, for each pixel (u, v) corresponding to the second image, respectively.
O, P, Q and R are calculated by the following equations (2) to (8), and [Equation 3] [Equation 4] [Equation 5] [Equation 6] [Equation 7] [Equation 8] With these intermediate parameters F to Q, the normal equation (Equation (9)) The coefficient matrix B and the column vector b that form
Calculated according to 3), [Equation 11] [Equation 12] An area where the density change of the estimated image that satisfies the following equation (14) is large is selected, and By solving the normal equation (9), the correction vector Δx ′ of the unknown parameter vector x is set with the estimated number of times k.
(k) solved 6-way linear equations for calculating a calculates the k + 1-order unknown parameter vector by adding the k-th order of the unknown parameter vector x '(k) to the correction vector [Delta] x' (k), the unknown parameters The convergence of the estimated image obtained by converting the first image and the second image is determined by the vector, and if they are converged, this conversion parameter is used as the output parameter,
An image pattern matching method characterized in that if the image parameters do not converge, the intermediate image parameter is calculated again to calculate the conversion parameter to perform image pattern matching.
【請求項2】 前記収束判定は、次式(15)で示され
る残差の分散 【数14】 と前回の推定との間に次式(16) 【数15】 を満足したときに収束したものと判定するものであるこ
とを特徴とする請求項1記載の画像のパターンマッチン
グ方法。
2. The convergence judgment is made by the residual variance expressed by the following equation (15): Between the previous estimation and the previous equation (16) 2. The pattern matching method for an image according to claim 1, wherein it is determined that the image has converged when the above condition is satisfied.
【請求項3】 前記第1,第2の画像内の対応する領域
内に同一点が出現する可能性のある領域を夫々比較ウイ
ンドウとし、この範囲内でのみ中間パラメータF〜Qの
算出を行い正規方程式の解析処理を行うことを特徴とす
る請求項1又は2記載の画像のパターンマッチング方
法。
3. The comparison windows are areas in which the same points may appear in the corresponding areas in the first and second images, and the intermediate parameters F to Q are calculated only within this range. 3. The image pattern matching method according to claim 1, wherein the normal equation analysis process is performed.
【請求項4】 前記第1の画像及び第2の画像は、その
入力時に所定範囲の平滑化処理を行うことを特徴とする
請求項1,2又は3記載の画像のパターンマッチング方
法。
4. The pattern matching method for an image according to claim 1, wherein the first image and the second image are subjected to smoothing processing in a predetermined range at the time of input.
JP4118084A 1992-04-10 1992-04-10 Image pattern matching method Expired - Fee Related JP2703454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4118084A JP2703454B2 (en) 1992-04-10 1992-04-10 Image pattern matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4118084A JP2703454B2 (en) 1992-04-10 1992-04-10 Image pattern matching method

Publications (2)

Publication Number Publication Date
JPH05290172A true JPH05290172A (en) 1993-11-05
JP2703454B2 JP2703454B2 (en) 1998-01-26

Family

ID=14727603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4118084A Expired - Fee Related JP2703454B2 (en) 1992-04-10 1992-04-10 Image pattern matching method

Country Status (1)

Country Link
JP (1) JP2703454B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119927A (en) * 2004-10-21 2006-05-11 Toshiba Corp Pattern matching method and program
JP2006139782A (en) * 2004-11-10 2006-06-01 Agfa Gevaert Nv Method of superimposing images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0199181A (en) * 1987-10-12 1989-04-18 Agency Of Ind Science & Technol Method for measuring posture angle and position of graphic pattern by inverse affine transformation
JPH01180075A (en) * 1988-01-11 1989-07-18 Agency Of Ind Science & Technol Position measuring method for feature point corner for pattern recognition
JPH04336677A (en) * 1991-05-14 1992-11-24 Canon Inc Picture processing method and system using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0199181A (en) * 1987-10-12 1989-04-18 Agency Of Ind Science & Technol Method for measuring posture angle and position of graphic pattern by inverse affine transformation
JPH01180075A (en) * 1988-01-11 1989-07-18 Agency Of Ind Science & Technol Position measuring method for feature point corner for pattern recognition
JPH04336677A (en) * 1991-05-14 1992-11-24 Canon Inc Picture processing method and system using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119927A (en) * 2004-10-21 2006-05-11 Toshiba Corp Pattern matching method and program
JP2006139782A (en) * 2004-11-10 2006-06-01 Agfa Gevaert Nv Method of superimposing images

Also Published As

Publication number Publication date
JP2703454B2 (en) 1998-01-26

Similar Documents

Publication Publication Date Title
Paglieroni Distance transforms: Properties and machine vision applications
CN107578392B (en) Convolution neural network demosaicing method based on residual interpolation
US6690842B1 (en) Apparatus and method for detection and sub-pixel location of edges in a digital image
EP1901228B1 (en) Apparatus, method and program for image matching
WO2016192494A1 (en) Image processing method and device
CN107749987B (en) Digital video image stabilization method based on block motion estimation
JP5238220B2 (en) Resolution conversion apparatus, method and program
WO2022105415A1 (en) Method, apparatus and system for acquiring key frame image, and three-dimensional reconstruction method
CN106169173B (en) Image interpolation method
CN108305268B (en) Image segmentation method and device
JP3886471B2 (en) Image processing device
JP2001274973A (en) Device and method for synthesizing microscopic image and computer-readable recording medium with microscopic image synthesizing processing program recorded thereon
Lee et al. Fast 3D video stabilization using ROI-based warping
CN106875360A (en) It is a kind of to eliminate the fuzzy method and device of image motion
Panfilova et al. Correlation-based quality measure for blind deconvolution restoration of blurred images based on Lucy-Richardson method
JP2703454B2 (en) Image pattern matching method
JP3826412B2 (en) Edge detection method and edge detection apparatus
JPH05242250A (en) Pattern matching method for image
CN108280815B (en) Geometric correction method for monitoring scene structure
Sun et al. An affine motion model for removing rolling shutter distortions
WO1999060523A1 (en) Method and apparatus for image processing, and medium
Wang et al. Digital video stabilization based on block motion estimation
JP2009064193A (en) Resolution converter and method
JP3074292B2 (en) Template matching processing method
CN114049404B (en) Method and device for calibrating internal phase and external phase of vehicle

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees