JPH0245886A - Method for measuring edge position - Google Patents

Method for measuring edge position

Info

Publication number
JPH0245886A
JPH0245886A JP63196007A JP19600788A JPH0245886A JP H0245886 A JPH0245886 A JP H0245886A JP 63196007 A JP63196007 A JP 63196007A JP 19600788 A JP19600788 A JP 19600788A JP H0245886 A JPH0245886 A JP H0245886A
Authority
JP
Japan
Prior art keywords
edge
order
pixels
density
edge position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63196007A
Other languages
Japanese (ja)
Inventor
Yoshihiko Nomura
野村 由司彦
Michihiro Sagara
相良 道弘
Hiroshi Naruse
央 成瀬
Atsushi Ide
井手 敦志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63196007A priority Critical patent/JPH0245886A/en
Publication of JPH0245886A publication Critical patent/JPH0245886A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To make a measurement error smaller, and simultaneously, to reduce a calculating quantity by making coordinates to give an extreme value in a regression curve obtained in causing the primary differentiation of a density to regress to a normal distribution into an edge position. CONSTITUTION:The primary differentiation of an edge vicinity is made to regress to a normal distribution curve. Namely, f' is made to regress to f'(u)=f'peXp{-(u-un)<2>/(2sigma<2>)}. Here, f'p is the extreme value of the regression curve, sigmais a standard deviation of an expansion, and un is a position to give the extreme value, namely, the edge position. When a minimum square method is applied, the edge position un by the normal distribution can be obtained. Namely, an image (f) is inputted from a TV camera. The primary differentiation f' is calculated from a density (f). The f' is made to regress to the normal distribution curve.

Description

【発明の詳細な説明】 (産業上の利用分野〕 この発明は、TVカメラが出力したアナログ画像信号を
A/D変換器により複数の画素に標本化し、かつ複数階
調のうちのある階調に量子化して計算機のメモリに入力
して得たディジタル画像におけるエツジの位置を高精度
に計測する方法に関するものである。
[Detailed Description of the Invention] (Industrial Application Field) This invention samples an analog image signal output from a TV camera into a plurality of pixels using an A/D converter, and The present invention relates to a method of highly accurately measuring the position of an edge in a digital image obtained by quantizing the image and inputting it into a computer's memory.

〔従来の技術〕[Conventional technology]

画像内のエツジの検出は、主要な特徴抽出の1つであり
、(画像処理ハンドブック編集委員会:“画像処理ハン
ドブック”、 +1p、277〜308.昭晃堂、1(
187)  (参考文献1)、検出したエツジの重要な
用途に、単眼による間接的なステレオ視(白井良明: 
″コンピュータビジョン”、 pp、83〜65、昭晃
堂、1980 )(参考文献2)、両眼ステレオ視(Y
、5eki:”5tereo matchingbas
ed on edgesegmants”、Trans
、IEC:E Japan Vol、E69.No、5
. pp。
Edge detection in an image is one of the main feature extraction methods (Image Processing Handbook Editorial Committee: “Image Processing Handbook”, +1p, 277-308. Shokodo, 1
187) (Reference 1), an important application of detected edges is indirect stereo viewing using a monocular (Yoshiaki Shirai:
"Computer Vision", pp. 83-65, Shokodo, 1980) (Reference 2), Binocular Stereo Vision (Y
,5eki:”5tereo matchingbas
ed on edgesegmants”, Trans.
, IEC:E Japan Vol, E69. No, 5
.. pp.

666〜674.1986)  (参考文献3)、ある
いは穆勤ステレオ視(徐、浅田、辻; “階層的制御に
よる移動ステレオ”、信学論、 Vol、J69−D、
No、11.pp。
666-674.1986) (Reference 3), or Muqin stereo vision (Xu, Asada, Tsuji; “Moving stereo by hierarchical control”, IEICE Theory, Vol. J69-D,
No, 11. pp.

1765〜1733.1986 )  (参考文献4)
などの位置計測がある。通常、これらの計測を行う画像
処理システムでは、256あるいは512平方程度の画
素(ビクセル)に標本化された画像を用いており、その
精度は1ピクセル相当であった。
1765-1733.1986) (Reference 4)
There are position measurements such as Normally, image processing systems that perform these measurements use images sampled into pixels (vixels) of about 256 or 512 square pixels, and the accuracy is equivalent to one pixel.

計測技術では適用範囲を拡大する上で高精度化の課題は
必然的なものであり、これまでも穆動物体の追跡システ
ム(P、Machuca and A、L、G11be
rt:Finding edges  in nois
y  5cenes”、IEEE  Trans。
In measurement technology, the issue of high precision is inevitable in expanding the range of application, and up until now, the tracking system for small animals (P, Machuca and A, L,
rt:Finding edges in noise
y 5cenes”, IEEE Trans.

PAMI、Vol、3.No、1.pp、103〜11
1.1981)  (参考文献5)、航空機からの地表
の物体の位置計測(A、J。
PAMI, Vol. 3. No, 1. pp, 103-11
1.1981) (Reference 5), Position measurement of objects on the earth's surface from an aircraft (A, J.

Tabatabai and O,R,Mitchel
l:”Edge 1ocation t。
Tabatabai and O, R, Mitchell
l:”Edge 1 location.

5ubpixel values in digita
l imagery”、IEEE Tr−ans、PA
Ml、Vol、6.No、2.pp、188〜201.
1984)  (参考文献6)、ICの位置決め(鈴木
、泰、藤井、中村、: “サーフェイスマウンタ用高精
度視覚アルゴリズム”、昭61精密工学会春季大会論文
集。
5ubpixel values in digita
l imagery”, IEEE Tr-ans, PA
Ml, Vol, 6. No, 2. pp, 188-201.
1984) (Reference 6), IC positioning (Suzuki, Yasushi, Fujii, Nakamura: “High-precision visual algorithm for surface mounters”, Proceedings of the 1986 Society for Precision Engineering Spring Conference).

pp、109〜110.1986)  (参考文献7)
、ロボットの手先などの剛体の穆勤パラメータ計測(J
、Fangand T、S、Huang:”Some 
experiments on estimati−n
g the 3−D motion paramete
rs of a rigid bodyfrom tw
o consecutive image frame
s”、IEEE Tra−ns、PAMI、Vol、6
.No、5.pp、545〜554.1984)  (
参考文献8)、滑走路上の飛行機の解析(P、J、Ma
cVicar−Whelan and T、0.Bin
ford:”Intensity discon−ti
nuity  1ocation  to  5ubp
ixel  precision  、  Pr−oc
、7th Int、Joint Conf、Artif
、Intell、、pp、 752〜754(1981
) )  (参考文献9)など、さまざまな目的でエツ
ジ位置計測の精度をサブピクセル化する研究が行なわれ
ている。それらの手法は、濃度による方法、その1次微
分による方法、2次微分による方法に大別される。
pp, 109-110.1986) (Reference 7)
, Measuring parameters of rigid bodies such as robot hands (J
, Fangand, T., S., Huang: “Some
experiments on estimation
g the 3-D motion parameters
rs of a rigid body from tw
o Consecutive image frame
s”, IEEE Trans-ns, PAMI, Vol. 6
.. No, 5. pp, 545-554.1984) (
Reference 8), Analysis of airplanes on runways (P, J, Ma
cVicar-Whelan and T, 0. Bin
ford:”Intensity discon-ti
nullity 1 location to 5ubp
ixel precision, Pr-oc
, 7th Int, Joint Conf, Artif
, Intel, pp. 752-754 (1981
) ) (Reference 9), research is being conducted to improve the accuracy of edge position measurement to subpixel levels for various purposes. These methods are broadly classified into methods using concentration, methods using first-order differentiation, and methods using second-order differentiation.

濃度による方法は、1次から3次までの濃度の積率につ
いて、原画像に最適光てはめできる仮想エツジパターン
を求めている。1次微分による方法は、エツジを成すす
べての画素の1次微分の重心をエツジ位置とするものと
、ピーク近傍の連続する3ピクセルの1次微分を放物線
に当てはめて得られる回帰曲線のピークをエツジ位置と
するものがある。また、特殊なフィルタを用いて一種の
2次微分を求め、正負が反転する隣り合う2画素の2次
微分を直線に内挿したときのゼロクロッシングをエツジ
位置としている。
The method based on density determines a virtual edge pattern that can be optimally fitted to the original image for the product moments of densities from 1st to 3rd order. The first-order differential method uses the edge position as the center of gravity of the first-order differentials of all pixels forming the edge, and the other uses the peak of the regression curve obtained by fitting the first-order differentials of three consecutive pixels near the peak to a parabola. There are some edge positions. Furthermore, a kind of second-order differential is obtained using a special filter, and the edge position is defined as the zero crossing when the second-order differentials of two adjacent pixels whose polarities are reversed are interpolated into a straight line.

以下に、これらの従来法について説明する。These conventional methods will be explained below.

[濃度の積率による方法] (参考文献 (5)、  
(6)参照) エツジを横切る経路にある画素の濃度を実験により調べ
てみると、第3図の白丸のようなデータが得られる。一
方、座標u1において、濃度がflからf2へとステッ
プ状に遷移する仮想エツジを考える。座標Uにある画素
の濃度をf (u) とし、エツジを含むn画素につい
て1次から3次までのf (u)に関する積率mlを、 と定義する。一方、仮想エツジにおいては上記のn画素
で濃度f、、f2の占める割合をP8゜P2とすると、
m五は、 m+−7f% + P2 f2’ 、   i−1,2
,3”・・(2)となる。第 (1)式と第 (2)式
を連立させてPlを解き、 Pl=0.5 + o、ss「7n亙n−・−(3)と
なる。ただし、Sは、 S= (m3”21n+3−3m1l112)/ (m
2−1nl’) ’°5  …・−(4)である。した
がって、積率による仮想エツジの遷移位置u、Ilは uIIls u、 + PIn           
””  (5)によりサブピクセル精度で与えられる。
[Method using product moment of concentration] (References (5),
(See (6)) When we experimentally investigate the density of pixels on a path that crosses edges, we obtain data like the white circles in Figure 3. On the other hand, consider a virtual edge whose density changes stepwise from fl to f2 at the coordinate u1. Let the density of a pixel at coordinate U be f (u), and for n pixels including an edge, the product moment ml with respect to f (u) from the first order to the third order is defined as follows. On the other hand, in the virtual edge, if the ratio occupied by the density f, , f2 in the above n pixels is P8°P2,
m5 is m+-7f% + P2 f2', i-1,2
, 3"...(2). Solve Pl by combining equations (1) and (2), and get Pl=0.5 + o, ss"7n亙n-・-(3). However, S is S= (m3”21n+3-3m1l112)/(m
2-1nl')'°5...-(4). Therefore, the transition position u, Il of the virtual edge due to the product moments is uIIls u, + PIn
``'' (5) gives sub-pixel precision.

[1次微分の重心による方法] 第3図の破線パターンについて1次微分、つまり濃度の
変化する割合をとると、第4図の破線のようにエツジの
前・後で上昇・下降が生じる。エツジの位置が1次微分
の重み中心にあるとすれば、その荷重平均を計算するこ
とにより求められる。すなわち、座標Uにある画素の1
次微分をf ’ (u)とすると、重心によるエツジ位
置uqは、uq−Σuf’ (u)/Σf’(u)  
      −−−−−−(6)となる。ただし、エツ
ジ以外におけるノイズ分を除外するため、エツジ近傍で
f ’ (u)がしきい値f1、以上となる画素につい
て加算する必要がある。f′、はfoの最大値の1/1
0とし、f ’ (u)−f′、を改めて、f ’ (
u)に置き換える。なお、foとしては、5obelオ
ペレーター(R,0,Dudaand P、E、Har
t:”Pattern  classificatio
n andscene analysis”、Wile
y、New York、pp、271.1973)(参
考文献10)の他に f’(ul、5) −f(u+1)−f(u)    
  ””  (7)とする方法(参考文献7)や、 f’(u)  = 0.5  (f(u+1)−f(u
−1))      ・・・・=  (8)とする方法
(参考文献8)がある。
[Method based on center of gravity of first-order differential] If we take the first-order differential, that is, the rate of change in density, for the broken line pattern in FIG. 3, rises and falls occur before and after the edge, as shown by the broken line in FIG. 4. If the edge position is at the center of the weight of the first-order differential, it can be found by calculating the weighted average. That is, 1 of the pixel at coordinate U
If the derivative is f' (u), the edge position uq due to the center of gravity is uq - Σuf'(u)/Σf' (u)
--------(6). However, in order to exclude noise at areas other than edges, it is necessary to add pixels for which f'(u) is equal to or greater than threshold value f1 near edges. f' is 1/1 of the maximum value of fo
0, f' (u) - f', and f' (
Replace with u). Note that fo is a 5obel operator (R, 0, Duda and P, E, Har
t:”Pattern classificatio
"n andscene analysis", Wile
y, New York, pp, 271.1973) (Reference 10) as well as f'(ul, 5) -f(u+1)-f(u)
"" (7) (Reference 7), f'(u) = 0.5 (f(u+1)-f(u
-1)) ... = (8) There is a method (Reference 8).

[1次微分の放物線回帰による方法] (参考文献(8
)参照) 1次微分を見たとき、ピーク近傍の数画素が第4図の実
線のような放物線に近似できることに着目し、エツジ位
置が回帰放物線のピーク位置にあるとするものである。
[Method using parabolic regression of first-order differential] (References (8)
) When looking at the first derivative, we note that several pixels near the peak can be approximated to a parabola like the solid line in Figure 4, and assume that the edge position is at the peak position of the regression parabola.

なお、第4図の1次微分は第(7)式を用いているので
、0.5画素ずれている。サンプルデータの中で1次微
分が最大の画素座標をUcとすると、放物線回帰による
エツジ位置u9は ・・・・・・ (9) と与えられる。
Note that since the first-order differential in FIG. 4 uses equation (7), it is shifted by 0.5 pixel. If the pixel coordinate with the largest first-order differential in the sample data is Uc, the edge position u9 obtained by parabolic regression is given as follows (9).

[2次数分の直線内挿による方法] (参考文献(9)
参照) 第4図の破線のパターンについて2次数分をとると、第
5図の破線のように、エツジを通過するときの正の極大
、ゼロ・クロッシング、負の極大が生じる。この方法は
、エツジが2次数分のゼロ・クロッシングにあることに
基づき、正負が反転する2画素の2次数分を直線に内挿
してゼロ・クロッシングの位置を求めるものである。
[Method using linear interpolation for two orders] (Reference (9)
(See) If we take the quadratic component of the broken line pattern in FIG. 4, a positive maximum, a zero crossing, and a negative maximum occur when passing an edge, as shown by the broken line in FIG. This method is based on the fact that the edge is at the zero crossing of a second order number, and the position of the zero crossing is determined by interpolating the second order number of two pixels whose polarity is reversed into a straight line.

2次数分について正負が反転する2画素の座標をud+
 ud”とし、それぞれの2次数分をf”(Ua) 、
  f ” (ud+1)とすると、直線内挿によるエ
ツジ位置utは、 ut = ud+lf”(ua)l/(If”(ud)
DI f”(ud+1)l)・・・・・・ (lO) と与えられる。
The coordinates of two pixels whose sign is reversed for the second order are ud+
ud”, and each second-order number is f”(Ua),
f'' (ud+1), the edge position ut by linear interpolation is ut = ud+lf''(ua)l/(If''(ud)
DI f”(ud+1)l)...(lO) is given.

Whelan & Binfordは、f”として、次
のオペレータを用いている。2h◆1を正方形状のオペ
レータの一辺の長さとすると、中心の画素(u6゜ve
)の2次数分子”として、 ここで、 ulmu、−h、u、−h+1.・畢−・・−、u、+
hV(−V@−h*v、−h+1+・・’”’+V@”
hである。この他に、f”として多用されている2Gオ
ペレータ(W、L、Grimson:”Computa
tionalexperiments with a 
feature based 5tereo alg−
orithm”、IEEE Trans、PAMI、v
ol、7.No、1.pp、17〜34(1985) 
)  (参考文献11)についても、代表的なフィルタ
サイズw=4を用いて検討する。
Whelan & Binford use the following operator as f''.If 2h◆1 is the length of one side of the square operator, then the center pixel (u6゜ve
), where ulmu, −h, u, −h+1.・畢−・・−, u, +
hV(-V@-h*v,-h+1+...'”'+V@”
It is h. In addition, 2G operators (W, L, Grimson: “Computer
tionalexperiments with a
feature based 5tereo alg-
orithm”, IEEE Trans, PAMI, v
ol, 7. No, 1. pp. 17-34 (1985)
) (Reference document 11) will also be considered using a typical filter size w=4.

この方法は、数学的には1次微分の放物線回帰と同じで
あるが、オペレータのパターンの違いが異なった結果を
もたらす。
This method is mathematically the same as parabolic regression of the first derivative, but different operator patterns yield different results.

[エツジ部における濃度とその1次微分]上記従来の方
法においては、ステップエツジのような濃度が急変する
対象を撮影したとしても、その画素は焦点ぼけや水平走
査方向固有の応答遅れなどの要因により、濃度の変化は
なだらかになる。そこで、代表的なエツジ、すなわち、
垂直走査方向で濃度が減小する水平エツジについて濃度
の変化パターンを調べる。使用したTVカメラはCCD
型固体撮影素子を用いており、TVカメラからの画像信
号はA/D変換器により横256゜縦240の画素に標
本化され、かつ各画素の濃度は0,1.・・・・・・、
127のレベルに量子化されて画像メモリに記憶される
[Density at edge portion and its first derivative] In the conventional method described above, even if an object where the density suddenly changes, such as a step edge, is photographed, the pixel is affected by factors such as defocus and response delay specific to the horizontal scanning direction. As a result, the concentration changes gradually. Therefore, typical edges, namely,
Examine the density change pattern for horizontal edges where the density decreases in the vertical scanning direction. The TV camera used is CCD
The image signal from the TV camera is sampled into pixels of 256 degrees horizontally and 240 vertically by an A/D converter, and the density of each pixel is 0, 1, .・・・・・・、
The image is quantized to 127 levels and stored in the image memory.

TVカメラの位置をエツジに垂直な方向へ0゜25画素
相当分ずつ8動させて、特定の画素の濃度変化を見るこ
とにより0.25画画素値でのエツジ像を知ることがで
きる。このようにして、上記のエツジについて実験した
結果を、第6図に示す。■印はピントを合わせ、かつ適
度に絞り込んだ場合である。一方、○印はピントは合っ
ているが、絞りは全開となっているので焦点ぼけが大き
い場合である。濃度はエツジのサブビクセル位置に応じ
て連続的に変化していることから、焦点ぼけが反映され
ているものと考えられる。濃度変化をよりわかりやすく
するため、第6図について第(7)式により1次微分を
計算し、その結果を第7図に示す。この図から、水平エ
ツジは、対称な正規分布状の形状を示し、■印の場合に
は広がりの幅は2画素径度で著しく狭いことがわかる。
By moving the TV camera in a direction perpendicular to the edge 8 times by 0° and 25 pixels, and observing the change in density of a specific pixel, the edge image at a 0.25 pixel value can be determined. FIG. 6 shows the results of experiments conducted on the above edges in this manner. ■ indicates when the image is in focus and stopped down appropriately. On the other hand, the circle mark indicates that the subject is in focus, but the aperture is fully open and the focus is largely out of focus. Since the density continuously changes depending on the sub-vixel position of the edge, it is thought that defocus is reflected. In order to make the concentration change more understandable, the first derivative of FIG. 6 was calculated using equation (7), and the results are shown in FIG. From this figure, it can be seen that the horizontal edge has a symmetrical normal distribution shape, and in the case of the black mark, the width of the spread is extremely narrow at 2 pixel diameter.

[各種のエツジ位置の計測方法の比較]各種のステップ
状エツジについて、その位置を約0.1画素ずつ6動さ
せ、その都度上述した各種計測方法によりエツジ位置を
求め、設定値との間で生じる系統誤差を調べる。垂直走
査方向で反射率がステップ的に減小する水平エツジに関
する実験結果を第8図に示す。なお、垂直走査方向で増
大する水平エツジについても全く同じ特性であった。第
8図(a)〜(e)は、それぞれ、濃度の積率による方
法、1次数分の重心による方法。
[Comparison of various edge position measurement methods] For each type of step edge, move the position 6 times by approximately 0.1 pixel, determine the edge position each time using the various measurement methods described above, and compare it with the set value. Examine the systematic errors that occur. FIG. 8 shows experimental results regarding horizontal edges where the reflectance decreases stepwise in the vertical scanning direction. Note that the characteristics were exactly the same for horizontal edges that increase in the vertical scanning direction. FIGS. 8(a) to 8(e) show the method using the product moment of concentration and the method using the center of gravity for the first order, respectively.

1次数分の放物線回帰による方法、そしてWhelan
& Binfordのオペレータおよび2Gオペレータ
による2次数分の直線回帰による方法である。第8図の
1印で示される急峻なエツジ像では3角関数的に変化す
る系統誤差が目立ち、放物線回帰法では最大0.2画素
、積率法とWhelan& Binfordのオペレー
タによる直線回帰法では最大0.15画素にもなる。残
る重心法、2Gオペレータによる直線回帰法は最大0.
1画素、標準偏差0゜06画素であり、比較的小さく優
れている。
Method by parabolic regression of first order, and Whelan
This is a method using a linear regression of two orders using the &Binford operator and the 2G operator. In the steep edge image shown by the mark 1 in Fig. 8, systematic errors that change trigonometrically are noticeable, with a maximum of 0.2 pixels for the parabolic regression method and a maximum of 0.2 pixels for the moment method and the linear regression method using the Whelan & Binford operator. It becomes 0.15 pixels. The remaining centroid method and linear regression method using the 2G operator have a maximum of 0.
1 pixel and standard deviation of 0°06 pixels, which is relatively small and excellent.

方、焦点ぼけの大きい○印では、いずれの方法でも系統
誤差は半分程度に減小している。
On the other hand, for the circle marked with large defocus, the systematic error is reduced by about half in both methods.

次に計算量の観点から、各方法の性能を比較する。Next, we compare the performance of each method from the viewpoint of computational complexity.

積率法は、エツジ像を十分含む画素範囲について、すな
わち、上記の実験の場合を考慮すると15画素もの範囲
について、1次、2次、3次の積率を計算する必要があ
る。その上に、無理関数の計算、すなわち、平方根を求
める計算を2回行う必要があり、計算量が多い。
In the product moment method, it is necessary to calculate first-order, second-order, and third-order product moments for a pixel range that sufficiently includes the edge image, that is, for a range of 15 pixels in the case of the above experiment. In addition, it is necessary to calculate the irrational function, that is, calculate the square root, twice, resulting in a large amount of calculation.

重心法は、積率法と同様にエツジ像を十分含む広い範囲
の画素の1次数分について、しきい値による減算と、重
心計算への採用の可否判断をする必要があり、計算量が
多い。
Similar to the product-moment method, the centroid method requires subtraction using a threshold value for the first order of pixels in a wide range that includes enough edge images, and it is necessary to judge whether or not to use it in the centroid calculation, which requires a large amount of calculation. .

放物線回帰法は、3画素について求めた1次数分を1つ
の有理関数に代入するだけであり、最も計算量は少ない
The parabolic regression method requires only the least amount of calculation, as it simply substitutes the first order obtained for three pixels into one rational function.

Whelan & Binfordのオペレータによる
2次数分の直線回帰法では、オペレータの一辺の長さを
15画素程度に大きくしないと、1次数分の放物線回帰
法と同じ処理となってしまう。15画素のオペレータ演
算では1画素当り255(=15X15)回もの膨大な
量の積和演算を行う必要がある。
In the linear regression method for the second order using Whelan &Binford's operator, unless the length of one side of the operator is increased to about 15 pixels, the process will be the same as the parabolic regression method for the first order. In operator calculation for 15 pixels, it is necessary to perform a huge amount of product-sum calculations as many as 255 (=15×15) times per pixel.

2Gオペレータによる2次数分の直線回帰法も、Whe
lan & Binfordのオペレータと同様に、膨
大な量の積和演算を必要とする。
The linear regression method for the second order using the 2G operator is also
Similar to the lan & Binford operator, it requires a huge amount of product-sum operations.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

以上に述べたように、従来法にはいずれも次の欠点があ
る。すなわち、積率法はエツジ位置計測値の系統誤差が
大きい上に計算量が多い。重心法は、計算量が多い。放
物線回帰法は、系統誤差が大きい。Whelan & 
Binfordのオペレータによる方法は、系統誤差が
大きい上に、計算量が多い。
As mentioned above, all conventional methods have the following drawbacks. That is, the product-moment method has a large systematic error in edge position measurement values and requires a large amount of calculation. The center of gravity method requires a large amount of calculation. The parabolic regression method has large systematic errors. Whelan &amp;
The method using Binford's operator has a large systematic error and requires a large amount of calculation.

2Gオペレータによる方法は計算量が多い。The method using 2G operators requires a large amount of calculation.

この発明の目的は、以上の欠点を除去し、計測誤差が小
さく、かつ計算量が少ないエツジ位置の計測方法を提供
することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an edge position measurement method that eliminates the above-mentioned drawbacks, has small measurement errors, and requires a small amount of calculation.

〔課題を解決するための手段〕[Means to solve the problem]

この発明にかかるエツジ位置の計測方法は、ディジタル
画像について、特定方向の座標Uにある画素の濃度f 
(u)から、濃度の1次数分子 ’ (u)を計算する
微分工程と、該1次数分子’(u)の分布を、f ’P
+ u n +  Oを定数とするなる正規分布関数に
回帰させる計算を行って、定数unを求める回帰工程か
ら成るものである。
The edge position measuring method according to the present invention is based on the density f of a pixel at a coordinate U in a specific direction with respect to a digital image.
From (u), the differential step of calculating the first-order molecule '(u) of the concentration and the distribution of the first-order molecule '(u) are calculated by f'P
This process consists of a regression step in which a constant un is determined by calculating regression to a normal distribution function with + un + O as a constant.

〔作用〕[Effect]

この発明においては、濃度の1次数分を正規分布に回帰
し、得られた回帰曲線において極値を与える座標をエツ
ジ位置とする。
In this invention, the first-order density is regressed to a normal distribution, and the coordinates that give the extreme value in the obtained regression curve are defined as edge positions.

〔実施例〕〔Example〕

この発明は、1次数分がエツジ近傍において正規分布形
をなしていることに着目し、エツジ近傍の1次数分を正
規分布曲線に回帰するものである。すなわち、foを f’(u) = f’pexp (−(u−un)2/
(2Q2))・・・・・・(12) に回帰する。ここで、f′、は回帰曲線の極大値、σは
広がりの標準偏差、unは極大値を与える位置つまりエ
ツジ位置である。第 (12)式の自然対数をとり、最
小2乗法を適用すると、正規分布によるエツジ位置un
は、 un ・・・・・・ (13) と求められる。ここで、 八、 ■Σu2Σu3− ΣU Σu’、A2−rΣu
4−(Σu2)2A3−ΣUΣu2−rΣu3. B、
−ΣUΣu3−(Σu2)2B2−ΣUΣu2−rΣu
3.B、、−rΣu2−(Σu)2である。rは回帰計
算を行う画素の数であり、任意に選べる。Σは1次数分
が最大の画素ucの前後のr画素について計算する。特
に、r==3とすれば、第 (13)式のunは簡単に un−UC ・・・・・・ (14) となる。
This invention focuses on the fact that the first-order portion forms a normal distribution near the edge, and regresses the first-order portion near the edge to a normal distribution curve. In other words, fo is f'(u) = f'pexp (-(u-un)2/
(2Q2))...Return to (12). Here, f' is the maximum value of the regression curve, σ is the standard deviation of the spread, and un is the position giving the maximum value, that is, the edge position. If we take the natural logarithm of equation (12) and apply the least squares method, we can find the edge position un according to the normal distribution.
is calculated as un... (13). Here, 8, ■Σu2Σu3- ΣU Σu', A2-rΣu
4-(Σu2)2A3-ΣUΣu2-rΣu3. B,
−ΣUΣu3−(Σu2)2B2−ΣUΣu2−rΣu
3. B, , -rΣu2-(Σu)2. r is the number of pixels on which regression calculation is performed, and can be arbitrarily selected. Σ is calculated for r pixels before and after the pixel uc with the largest first-order component. In particular, if r==3, un in equation (13) simply becomes un-UC (14).

この方法ではあらかじめfoとして与えられる可能性の
ある値について対数計算値をテーブル化しておけば、対
数計算の処理時間は無視でき、1次数分が最大の画素の
前後の適当な数の画素について加減乗除算のみでよく、
高速に処理ができる。
In this method, if the logarithm calculation values are tabulated in advance for the values that may be given as fo, the processing time of the logarithm calculation can be ignored, and the first-order component is added or subtracted for an appropriate number of pixels before and after the maximum pixel. All you need is multiplication and division,
Can be processed at high speed.

この方法を処理の工程に従って整理したものが第1図に
示すこの発明の実施例である。1〜4をそれぞれ第1〜
第4工程と呼ぶ。
An embodiment of the present invention shown in FIG. 1 is an arrangement of this method according to processing steps. 1 to 4 respectively from 1st to 4th
This is called the fourth step.

予備工程として、第1工程により、1次数分として与え
られる可能性のある値Xについて対数計算を行い、その
計算値の名称を、例えばLNとして配列化する。配列L
Nの番号は、Xが自然数1.2.・・・・・・、127
ならXそのものを用いればよい。また、Xが0.1きざ
みで与えられるならば、10xを用いればよい。この処
理は、対数計算が加減乗除算に比べて著しく多くの計算
時間を要するという問題を回避するためのものである。
As a preliminary step, in the first step, a logarithmic calculation is performed on a value X that may be given as a first order number, and the name of the calculated value is arranged as, for example, LN. Array L
For the number N, X is a natural number 1.2. ......, 127
In that case, just use X itself. Furthermore, if X is given in steps of 0.1, 10x may be used. This processing is to avoid the problem that logarithmic calculations require significantly more calculation time than addition, subtraction, multiplication, and division.

次に、エツジ位置を求める実際の工程を実行する。Next, the actual process of determining the edge position is performed.

第2工程により、TV左カメラら画像fを入力する。本
来、画像は2次元の配列で人力されるが、エツジ位置を
求めようとする特定方向の座標Uにある画素の濃度とい
う意味でf (u) と記述する。
In the second step, the image f from the TV left camera is input. Originally, an image is created manually in a two-dimensional array, but it is written as f (u) to mean the density of a pixel at coordinates U in a specific direction in which the edge position is to be determined.

第3工程(特許請求範囲の微分工程)により、濃度fか
ら1次数分子°を計算する。この例では、第 (7)式
の1次数分計算式を用いている。この場合には、1次数
分を与える座標U°は原画像の標本化座標Uとは0.5
画素ずれている。
In the third step (differentiation step in the claims), the first-order molecule ° is calculated from the concentration f. In this example, the first order calculation formula of equation (7) is used. In this case, the coordinate U° giving the first order is 0.5 different from the sampling coordinate U of the original image.
Pixels are misaligned.

第4工程(回帰工程)によりfoを正規分布曲線に回帰
する。この例は、回帰計算の対象となる画素の数rが3
画素の場合に対応する第(14)式%式% この計測方法について、従来方法と同様の実験を行った
。その結果を第2図に示す。この図から、この方法の系
統誤差は従来方法の中で誤差が最も小さい重心法と同程
度であることがわかる。
In the fourth step (regression step), fo is regressed to the normal distribution curve. In this example, the number r of pixels targeted for regression calculation is 3.
Equation (14) corresponding to the case of pixels Equation % Regarding this measurement method, experiments similar to those of the conventional method were conducted. The results are shown in FIG. From this figure, it can be seen that the systematic error of this method is comparable to that of the centroid method, which has the smallest error among the conventional methods.

また、実際の工程におけるこの方法の計算量は、従来方
法の中で最も少なかった放物線回帰法と同程度であり、
この方法は、計測精度と計算量の両点においてイ憂れて
いる。
In addition, the amount of calculation of this method in the actual process is comparable to that of the parabolic regression method, which was the least of the conventional methods.
This method suffers from both measurement accuracy and computational complexity.

なお、系統誤差は3角関数的に変化し、その最大値はエ
ツジ像の濃度変化領域の幅に反して減小する。そして、
エツジ位置が各画素の中心、隣接する2画素の境界にあ
るとぎに;となる。これらの特性を考慮すれば、系統誤
差を補正できる。第2図に示した正規分布回帰法の■印
についてこの補正を行うと、系統誤差の最大値は0.0
5画素程度に減小する。
Note that the systematic error changes trigonometrically, and its maximum value decreases in proportion to the width of the density change region of the edge image. and,
When the edge position is at the center of each pixel or at the boundary between two adjacent pixels; By taking these characteristics into consideration, systematic errors can be corrected. When this correction is made for the normal distribution regression method shown in Figure 2, the maximum value of the systematic error is 0.0.
The number of pixels decreases to about 5 pixels.

(発明の効果〕 この発明は以上詳細に説明したように、ディジタル画像
について、特定方向の座標Uにある画素の濃度f (u
)から、濃度の1次数分子 ’ (u)を計算する微分
工程と、該1次数分子 ’ (u)の分布を、f ’ 
p + u n、σを定数とするなる正規分布関数に回
帰させる計算を行って、定数unを求める回帰工程から
成るので、ディジタル画像におけるエツジ位置を高精度
に計測でき、これにより該当するエツジの実空間におけ
る3次元位置を高精度に求めることができる。
(Effects of the Invention) As explained in detail above, the present invention provides a digital image with the density f (u
) to calculate the first-order molecule '(u) of the concentration, and the distribution of the first-order molecule '(u) as f'
Since the regression process consists of calculating the regression to a normal distribution function with p + u n and σ as constants to obtain the constant un, the edge position in the digital image can be measured with high precision, and the corresponding edge can be calculated with high accuracy. A three-dimensional position in real space can be determined with high precision.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の詳細な説明するための流れ図、第2
図はこの発明方法におけるエツジ位置計測結果を示す図
、第3図はエツジ部における濃度の変化を示す模式図、
第4図は濃度の1次数分を示す図、第5図は濃度の2次
数分を示す図、第6図は実際の水平エツジにおける濃度
変化の実験結果を示す図、第7図は、第6図について1
次数分を計算した結果を示す図、第8図は従来法におけ
るエツジ位置計測結果を示す図である。 図において、1〜4はそれぞれ第1〜第4工程座譚(画
素) 第 図 第 図 座標(画素) 第 図 (a) 移動距始 (mm) (b) 第 図 第 図 垂直座標(画素) 第 図 (CI) 移動距離(mm) (e) 移動距離 (Tm)
Figure 1 is a flowchart for explaining the invention in detail;
The figure is a diagram showing the edge position measurement results in the method of this invention, FIG. 3 is a schematic diagram showing the change in concentration at the edge part,
Figure 4 is a diagram showing the first-order density, Figure 5 is a diagram showing the second-order density, Figure 6 is a diagram showing experimental results of density changes at actual horizontal edges, and Figure 7 is a diagram showing the density changes in the horizontal edge. 6 About Figure 1
FIG. 8 is a diagram showing the result of calculating the order, and FIG. 8 is a diagram showing the edge position measurement result in the conventional method. In the figures, 1 to 4 are the first to fourth process stories (pixels), respectively. Figure (CI) Travel distance (mm) (e) Travel distance (Tm)

Claims (1)

【特許請求の範囲】 ディジタル画像について、特定方向の座標uにある画素
の濃度f(u)から、濃度の1次微分f’(u)を計算
する微分工程と、該1次微分f’(u)の分布を、f’
_p、U_n、σを定数とする(u−u_n)^2 f’(u)=f’_pexp[−(u−u_n)^2/
2σ^2]なる正規分布関数に回帰させる計算を行って
、定数u_nを求める回帰工程から成ることを特徴とす
るエッジ位置の計測方法。
[Scope of Claims] Regarding a digital image, a differentiation step of calculating a first-order differential of density f'(u) from the density f(u) of a pixel at a coordinate u in a specific direction; u) distribution, f'
Let _p, U_n, σ be constants (u-u_n)^2 f'(u)=f'_pexp[-(u-u_n)^2/
2σ^2] A method for measuring an edge position comprising a regression step of calculating a regression to a normal distribution function of [2σ^2] to obtain a constant u_n.
JP63196007A 1988-08-08 1988-08-08 Method for measuring edge position Pending JPH0245886A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63196007A JPH0245886A (en) 1988-08-08 1988-08-08 Method for measuring edge position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63196007A JPH0245886A (en) 1988-08-08 1988-08-08 Method for measuring edge position

Publications (1)

Publication Number Publication Date
JPH0245886A true JPH0245886A (en) 1990-02-15

Family

ID=16350679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63196007A Pending JPH0245886A (en) 1988-08-08 1988-08-08 Method for measuring edge position

Country Status (1)

Country Link
JP (1) JPH0245886A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06294621A (en) * 1993-04-07 1994-10-21 Kobe Steel Ltd Optical profile measuring equipment
JP2012187913A (en) * 2011-02-24 2012-10-04 Ricoh Co Ltd Image forming apparatus, pattern position detecting method, and image forming system
US9868463B2 (en) 2009-07-27 2018-01-16 Magna Electronics Inc. Parking assist system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06294621A (en) * 1993-04-07 1994-10-21 Kobe Steel Ltd Optical profile measuring equipment
US9868463B2 (en) 2009-07-27 2018-01-16 Magna Electronics Inc. Parking assist system
US10569804B2 (en) 2009-07-27 2020-02-25 Magna Electronics Inc. Parking assist system
JP2012187913A (en) * 2011-02-24 2012-10-04 Ricoh Co Ltd Image forming apparatus, pattern position detecting method, and image forming system

Similar Documents

Publication Publication Date Title
Dang et al. Continuous stereo self-calibration by camera parameter tracking
Okutomi et al. A multiple-baseline stereo
Psarakis et al. An enhanced correlation-based method for stereo correspondence with subpixel accuracy
CN110009674B (en) Monocular image depth of field real-time calculation method based on unsupervised depth learning
Sun et al. A subpixel edge detection method based on an arctangent edge model
CN112819962A (en) Non-uniform grid division and local grid density method in digital image correlation
CN106780568A (en) A kind of video target tracking method based on the irregular piecemeal LBP of compression
Ding et al. A robust registration algorithm of point clouds based on adaptive distance function for surface inspection
Kent et al. Ridge curves and shape analysis.
Do Application of neural networks for stereo-camera calibration
JPH0245886A (en) Method for measuring edge position
Zhang et al. SDF-Loc: Signed distance field based 2D relocalization and map update in dynamic environments
Chen et al. A novel hand-eye calibration method using double-layer optimization and outlier sample screening for monocular vision robots
Ray Computation of fluid and particle motion from a time-sequenced image pair: A global outlier identification approach
Kim et al. An accurate and robust stereo matching algorithm with variable windows for 3D measurements
CN113284232B (en) Optical flow tracking method based on quadtree
Matsuo et al. Depth interpolation via smooth surface segmentation using tangent planes based on the superpixels of a color image
Kang et al. A parallel feature tracker for extended image sequences
Zhu et al. Distortion correction method of a zoom lens based on the vanishing point geometric constraint
Piedad Jr et al. Displacement and illumination levels effect on short-distance measurement errors of using a camera
Muktadir et al. RCP Method: An Autonomous Volume Calculation Method Using Image Processing and Machine Vision
Beaubier et al. CAD-based Calibration of a 3D DIC System
Margaliot et al. Piecewise-linear surface approximation from noisy scattered samples
Liu et al. A visual SLAM method assisted by IMU and deep learning in indoor dynamic blurred scenes
Wei et al. Global depth from defocus with fixed camera parameters