JPS62102376A - Edge position detecting method for pattern - Google Patents

Edge position detecting method for pattern

Info

Publication number
JPS62102376A
JPS62102376A JP60242330A JP24233085A JPS62102376A JP S62102376 A JPS62102376 A JP S62102376A JP 60242330 A JP60242330 A JP 60242330A JP 24233085 A JP24233085 A JP 24233085A JP S62102376 A JPS62102376 A JP S62102376A
Authority
JP
Japan
Prior art keywords
edge position
gravity
center
edge
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60242330A
Other languages
Japanese (ja)
Other versions
JPH0426511B2 (en
Inventor
Shigeru Kuroe
黒江 茂
Kengo Nakajima
中嶋 憲吾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP60242330A priority Critical patent/JPS62102376A/en
Publication of JPS62102376A publication Critical patent/JPS62102376A/en
Publication of JPH0426511B2 publication Critical patent/JPH0426511B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To find an edge position stably by subtracting a predetermined threshold value from plural density difference values nearby the edge and finding different values, finding the position of the center of gravity from positive values among those difference values, and using it as the edge position. CONSTITUTION:Light information on an image pattern is converted by an image pickup device 31 into an image signal, which is digitized by an A/D converting circuit 33 and stored temporarily in an image memory 35, and then differentiated by a differentiating circuit 39 and supplied to an edge position detecting circuit 14. This edge position detecting circuit 41 subtracts the predetermined threshold value from plural density differential values nearby the edge to find difference values, finds the position of the center of gravity from positive difference values among those found difference values, and uses the position of the center of gravity as the edge position of the image pattern.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は濃淡画像の位と検出方法に関し、特にパター
ンのエツジ位置検出方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to the position and detection method of grayscale images, and particularly to a method for detecting edge positions of patterns.

(従来の技術) 従来から、濃淡画像のパターンのエツジ位置を高精度に
検出するための種々の画像パターンのエツジ位置検出方
法が提案されている。
(Prior Art) Various image pattern edge position detection methods have been proposed for detecting edge positions of patterns in grayscale images with high precision.

このような画像パターンのエツジ位置検出方法としては
例えば文献(電f−通信学会論文誌0.85[2] (
1982) P、274〜281)に開示されている方
法がある。
As an edge position detection method of such an image pattern, for example, the literature (Transactions of the Telecommunications Society 0.85 [2] (
1982) P, 274-281).

この方法は、撮像装置により入力された濃淡画像中で濃
度が変化している位置をパターンのエツジ位置とし、こ
のパターンのエツジ位置を複数個所検出して、これらエ
ツジ位との中点をパターンの中心位置と推疋する方法で
あり、具体的には眼球運動の計Al!1方法として報告
されている。以ド。
In this method, the position where the density changes in the grayscale image input by the imaging device is taken as the edge position of the pattern, multiple edge positions of this pattern are detected, and the midpoint between these edge positions is determined as the edge position of the pattern. It is a method of estimating the center position, and specifically, it is a method of measuring the eye movement. It has been reported as one method. Here it is.

この方法につき筒中に説明する。This method will be explained in detail below.

眼球運動のように高速で連動をする被検物体の運動計+
1111に際しては、画像のサンプリングを高速で行う
必要がある。従って、画素数の少ない低分解能撮像票子
を用いて画像のサンプリング周期を早めることが必要と
なる。さらに、この低分解能の眼−球画像から瞳孔の動
き(移動量)を−・画素の何分の一°かの分解能で検出
するためには、瞳孔輪郭部の位と検出の分解能を出来る
だけ高める必要がある。
A kinematic meter for a test object that moves at high speeds like eye movements+
1111, it is necessary to sample images at high speed. Therefore, it is necessary to speed up the image sampling period by using a low-resolution imaging element with a small number of pixels. Furthermore, in order to detect pupil movement (movement amount) from this low-resolution eyeball image with a resolution of a fraction of a pixel, the position of the pupil outline and the detection resolution must be adjusted as much as possible. It is necessary to increase it.

この文献では、瞳孔輪郭部のエツジ位置を知るため、輪
郭部の濃度(i6図(A)参照)の空間的な微分を求め
、その微分波形(第6図1)参照)の重心位置を計算か
ら求めて、その重心位置をエツジ位差としている。
In this document, in order to know the edge position of the pupil contour, the spatial differentiation of the density of the contour (see Figure 6 (A)) is obtained, and the centroid position of the differential waveform (see Figure 6 (1)) is calculated. The position of the center of gravity is taken as the edge position difference.

交って、瞳孔等の被検物体の移動量はある時刻t1にお
ける重心G1 と、被検物体が移動した後の時刻t2に
おける重心G2とから求めることが出来る。尚、重心G
l及びG2は下記の(1〕及び(2)式からそれぞれ求
めることが出来る。
On the other hand, the amount of movement of a test object such as a pupil can be determined from the center of gravity G1 at a certain time t1 and the center of gravity G2 at time t2 after the test object has moved. Furthermore, center of gravity G
l and G2 can be determined from the following equations (1) and (2), respectively.

G+=(f″x  f’ (x)dx l/(Jニー 
f ’ (x)di)・・・(1)G2=(f  ! 
r’ (x−Δx)dx)/(f   f’  (X−
Δx)dXl=Gl +ΔX・・・・・・・・・・・・
(2)但し、第6図(A)、(B)及び式(1)、(2
)において、f(りは画像の濃度を示し、f’(x)は
f(りの一回微分を示す。
G+=(f″x f' (x)dx l/(J knee
f'(x)di)...(1)G2=(f!
r' (x-Δx)dx)/(f f' (X-
Δx) dXl=Gl +ΔX・・・・・・・・・・・・
(2) However, Fig. 6 (A), (B) and formulas (1), (2
), f(ri indicates the density of the image, and f'(x) indicates the one-time differential of f(ri).

上述した重心G1及びG2から被検物体の移動量を正確
に求めるためには1時刻tl、t2の何れの状態での画
像においても、各画像のエツジ位置を正確に検出するこ
とが重要である。
In order to accurately determine the amount of movement of the object under test from the centers of gravity G1 and G2 mentioned above, it is important to accurately detect the edge position of each image in both the images at time tl and t2. .

以丁、エツジ位置を検出する方法につき説明する。Next, a method for detecting edge positions will be explained.

上述した(1)及び(2)式においては1画像の濃度は
連続関数で表わされているが、ディジタル画像において
は微分は差分となる。先ず1画像中の(X、Y)点の濃
度値をg(X、Y)とし、この点での差分値cl(X、
Y)を下記の(3)式から求める。
In the above-mentioned equations (1) and (2), the density of one image is expressed by a continuous function, but in a digital image, the differential is a difference. First, let the density value of point (X, Y) in one image be g(X, Y), and the difference value cl(X, Y) at this point is
Y) is determined from the following equation (3).

a (X、Y)−1,g (X+t、Y) −g (X
−1,Y)  ! ・・−(3)画像のエツジの両側の
領域では通常は濃度変化は少なく(差分値が小さな値)
なるが、必ずしも濃度分布が平坦(差分値が零)となる
とは限らない、そこで、重心を求めるための計算を行う
範囲をエツジ部分の近傍に限定するため以丁の操作を行
う。
a (X, Y)-1, g (X+t, Y) -g (X
-1,Y)! ...-(3) There is usually little change in density in the areas on both sides of the edge of the image (the difference value is small)
However, the density distribution is not necessarily flat (the difference value is zero). Therefore, the following operation is performed to limit the range in which calculations for determining the center of gravity are performed to the vicinity of the edge portion.

この文献の方法では、差分値d (X、Y)があるしき
い(fi T nをEまわった時エツジ部分であると判
足し、このエツジ部分に該当する画素を中心として左右
に連続して差分イ[d(X、Y) >Tt  (但り。
In the method of this document, when the difference value d (X, Y) goes around a certain threshold (fi T Difference I[d(X,Y) >Tt (However.

TL <TH)となる画素の範囲を求め、この範囲を重
心計算の対象領域とし、下記の(4)式から重心を求め
ている。
A range of pixels where TL <TH) is determined, this range is set as a target area for calculating the center of gravity, and the center of gravity is determined from the following equation (4).

但し、G」は濃淡画像をマトリクス状に分割して計測し
た際のj行目のエツジ位とを示す。この方法によればパ
ターンのエツジ位置を一画素の何分の−・かの分解能で
読取ることが出来る。
However, "G" indicates the edge position of the j-th row when the grayscale image is divided into a matrix and measured. According to this method, the edge position of a pattern can be read with a resolution of a fraction of one pixel.

この操作を各行(X方向)に対して行い、さらに、同様
な操作を垂直力向(Y方向)に対して行って、瞳孔のエ
ツジ位置を検出している。
This operation is performed for each row (X direction), and a similar operation is performed for the vertical force direction (Y direction) to detect the edge position of the pupil.

第7図はこのエツジ位置検出方法を説明するための線図
であり、横軸にj行目の画素位置をとり、縦軸に差分値
をとり、各画素に対する差分値をプロットして示しであ
る。図中、TL がしきい値であり、このTI より大
きな値の差分値領域11(図中、黒線で示す部分)と、
、それら差分値に対応する画素位置x1とを用いて(4
)式から重心Gノを求めることが出来るや しかし、全く同一のC淡画像のパターンを入力手段で読
取ったとしても、ノイズやA/D変換回路の量子化誤差
等の#響で、読取った濃度が毎回同じ値になるという保
証はない、従って、この濃度に基づき(3)式で計算し
て得られる差分値も少しではあるが変動する場合かあ・
る、倒えば、第8図(A)及びCB)に示すように、全
く回−・の濃淡画像のパターンを読取って得た差分値の
分布が画素位置Xpでの差分値のみで異なる場合が生じ
、例えばこの画素Xpに対応する差分値d (Xp)が
−万は重心計算を行う範囲を規定するしきい値Ttより
小さい値(758図(A))となり、他方はd (Xp
)がTLよりも大きい値(第8図(B))となる“よう
な場合が生ずる。
FIG. 7 is a diagram for explaining this edge position detection method. The horizontal axis represents the j-th pixel position, the vertical axis represents the difference value, and the difference value for each pixel is plotted and shown. be. In the figure, TL is a threshold value, and a difference value region 11 (indicated by a black line in the figure) with a value larger than this TI,
, and the pixel position x1 corresponding to these difference values (4
) It is possible to find the center of gravity G from the formula. However, even if the pattern of the same C light image is read by the input means, it may be difficult to read due to noise or quantization errors in the A/D conversion circuit. There is no guarantee that the concentration will be the same value every time, so the difference value obtained by calculating with formula (3) based on this concentration may also vary, albeit slightly.
In some cases, as shown in Figure 8 (A) and CB), the distribution of difference values obtained by reading the pattern of grayscale images at exactly the same time may differ only by the difference value at the pixel position Xp. For example, the difference value d (Xp) corresponding to this pixel Xp is smaller than the threshold value Tt that defines the range for calculating the center of gravity (Fig. 758 (A)), and the other value is d (Xp
) becomes a larger value than TL (FIG. 8(B)).

ところで、従来のエツジ位置検出方法では、第8図(A
)に示すような差分値分布の場合は、しきい伯Tt よ
り大きな値の差分値ψbIi13(図中。
By the way, in the conventional edge position detection method, as shown in FIG.
), the difference value ψbIi13 (in the figure) is larger than the threshold ratio Tt.

左下がり斜線で示す部分)を重心計算の対象領域として
(4)式から重心を求めていた・又・第8図(B)に示
すような差分値分布の場合は領域13と、領域15(図
中、右下がり斜線で示す部分)とを重心計算の対象領域
として(4)式から重心を求めていた。
The center of gravity was determined from equation (4) using the area indicated by the diagonal line downward to the left) as the target area for the center of gravity calculation.Also, in the case of the difference value distribution as shown in Figure 8(B), the area 13 and the area 15 ( The center of gravity was determined from equation (4) using the area indicated by the downward diagonal line in the figure as the target area for calculating the center of gravity.

(発明が解決しようとする問題点) しかしながら1重心計算の対象領域の画素位置方向の、
特に両端の部分は重心位置から離れているから1重心位
置を決定する際に影響力が大きい、従って、対象領域の
端部の画素1例えば前述した画素XP、を重心計算の対
象とするか否かで重心の位置が大きく変動するかう、パ
ターンのエツジ位置を正確に求めることが出来ないとい
う問題点があった。
(Problem to be solved by the invention) However, in the pixel position direction of the target area for single center of gravity calculation,
Particularly, since the parts at both ends are far from the center of gravity, they have a large influence when determining the center of gravity.Therefore, whether pixel 1 at the end of the target area, for example, the aforementioned pixel There is a problem in that the position of the center of gravity fluctuates greatly and the edge position of the pattern cannot be accurately determined.

この問題点は濃淡画像を読取る再現性の良否により生じ
るばかりでなく、当然のことながら、しきい(fi T
 Lの設定により重心計算の対象領域が変化することに
よっても生ずる。従って、従来のエツジ位置検出方法で
は、しきい(Ei T L を少し変化させただけでも
エツジ位置が大きく変動するため、しきい値の設定が難
しいという問題点があった。
This problem arises not only from the quality of reproducibility in reading grayscale images, but also from the threshold (fi T
This also occurs because the target area for gravity center calculation changes depending on the setting of L. Therefore, in the conventional edge position detection method, even a small change in the threshold (Ei T L ) causes a large change in the edge position, so there is a problem in that it is difficult to set the threshold.

この発明の目的は、J:、述した問題点を解決し。The purpose of this invention is to solve the problems mentioned above.

しきい値T1を変化させても濃淡画像パターンのエツジ
位置を安定に求めることが出来る。パターンのエツジ位
置検出方法を提供することにある。
Even if the threshold value T1 is changed, the edge position of the grayscale image pattern can be stably determined. An object of the present invention is to provide a method for detecting edge positions of a pattern.

(問題点を解決するための手段) この目的の達成を図るため、この発明によれば、撮像装
置により入力された濃淡画像のパターンのエツジ位置を
検出するに当り、 注目した複数の画素の濃度差分値を求め。
(Means for Solving the Problem) In order to achieve this object, according to the present invention, when detecting the edge position of a pattern of a grayscale image input by an imaging device, the density of a plurality of pixels of interest is detected. Find the difference value.

エツジ付近の複数の濃度差分値から予め定めたしきい値
を差し引いて差値を求め。
A predetermined threshold value is subtracted from a plurality of density difference values near the edge to obtain a difference value.

これら差値のうちの正の差値から重心位置を求め。The center of gravity position is determined from the positive difference values among these difference values.

この重心位置を前述したパターンのエツジ位置とするこ
とを特徴とする。
The feature is that this center of gravity position is taken as the edge position of the pattern described above.

(作用) このような方法によれば、重心を求める計算に用いる差
分値を、この差分値の値から予め定められたしきい値を
差し引いて求めた差値(d (Xi)−TL)としてい
る。
(Function) According to this method, the difference value used in the calculation for determining the center of gravity is calculated as the difference value (d (Xi) - TL) obtained by subtracting a predetermined threshold value from this difference value. There is.

従って、第8図(A)に対応して示す第1図(A)のよ
うな差分値分布の場合は1重心計算の対象領域は図中2
1で示す部分となる。又、前述した第8図(B)に対応
して示す第1図(B)のような差分値分布の場合は、重
心計算の対象領域は図中21と23とで示す部分となる
Therefore, in the case of a difference value distribution as shown in FIG. 1 (A) corresponding to FIG. 8 (A), the target area for 1 center of gravity calculation is 2 in the figure
This is the part indicated by 1. In addition, in the case of a difference value distribution as shown in FIG. 1(B) corresponding to FIG. 8(B) described above, the target area for gravity center calculation is the portions indicated by 21 and 23 in the figure.

これがため、対象領域の端部に位置する画素、例えば前
述した画素Xp、を重心計算の対象とする場合でも又は
対象としない場合でも、画素Xpの差分値は本来の差分
値より小さな値の差([(d(Xp)−T[)に差換さ
れているから、この差分値が重心計算の結果に及ぼす影
響を低減することが出来る。
Therefore, whether or not a pixel located at the edge of the target area, such as the aforementioned pixel Xp, is targeted for centroid calculation, the difference value of pixel Xp is a difference smaller than the original difference value. (Since it is converted into [(d(Xp)-T[), the influence of this difference value on the result of center of gravity calculation can be reduced.

(実施例) 以ド1図面を参照してこの発明の実施例にっき説明する
。尚、これらの図はこの発明が理解出来る程度に41W
PI的に示しであるにすぎず、実施例に述べるアルゴリ
ズムやこのアルゴリズムを実現するための手段は図示例
に限定されるものではない、又、これら図において同一
・の構成成分については同一・の符号を付して示しであ
る。
(Example) An example of the present invention will now be described with reference to the drawings. In addition, these figures are 41W to the extent that this invention can be understood.
This is only an illustration in terms of PI, and the algorithm described in the example and the means for realizing this algorithm are not limited to the illustrated example, and the same components in these figures are the same. It is shown with a code.

第−実施例 第2図はこの発明の画像パターンのエツジ位置検出方法
に用いて好適な検出装置の一例をハードウェアで構成し
た場合につき示す構成図である。
Embodiment 2 FIG. 2 is a block diagram showing a hardware configuration of an example of a detection device suitable for use in the image pattern edge position detection method of the present invention.

第2図において、31は画像パターンの光情報を画像信
号(濃度)に変換するための例えばCCD等で構成され
た撮像装置である。33はA/D変換器を示し、アナロ
グの画像信号をディジタル信号例えば一画素を8ビット
程度に、11−化する。35は画像メモリを示し、A/
D変換器33で変換した画像信号を記憶する。37は制
御回路を示し1画像メモリ35から注目した複数の画素
に該尚する例えばj行目−ライン分の画像信号を読み出
して、微分回路39に出力する。微分回路39は前述し
た(3)式d(X、Y)−1g(X+1.Y) −g(
X−1,Y)  I ニ従ってj行目の操作方向(X方
向)の画素x1の差分値d(Xi、Y」)を順次に算出
して、この値をエツジ位置検出回路41に出力する。こ
のエツジ位置検出回路41は、予め設定されたエツジ位
置付近の最大差分値より小さいしきい値と、複数の画素
の差分値との差値を求め、この差値が正の値となる画素
について下記の(5)式からj行目の重心位置H」を算
出する。
In FIG. 2, reference numeral 31 denotes an imaging device composed of, for example, a CCD or the like for converting optical information of an image pattern into an image signal (density). Reference numeral 33 denotes an A/D converter, which converts an analog image signal into a digital signal, for example, 8 bits per pixel. 35 indicates an image memory, A/
The image signal converted by the D converter 33 is stored. Reference numeral 37 denotes a control circuit which reads image signals corresponding to a plurality of pixels of interest from the one-image memory 35, for example, the j-th line, and outputs them to the differentiation circuit 39. The differentiating circuit 39 uses the above-mentioned equation (3) d(X,Y)-1g(X+1.Y)-g(
X-1, Y) I Therefore, the difference value d(Xi, Y'') of the pixel x1 in the j-th row operation direction (X direction) is sequentially calculated and this value is output to the edge position detection circuit 41. . This edge position detection circuit 41 calculates the difference value between a threshold value smaller than a preset maximum difference value near the edge position and the difference values of a plurality of pixels, and for pixels for which this difference value is a positive value. The center of gravity position H of the j-th row is calculated from the following equation (5).

H」=[翠Xi (d(Xt、Yj) −Tt)]/ 
[Σ (d (Xi 、Yj) −Ttll ・・’ 
(5)この重心位置Hj をエツジ位置とすることによ
り、エツジ位置を一画素の何分の−かの分解能で検出す
ることが出来る。
H” = [Green Xi (d(Xt, Yj) −Tt)]/
[Σ (d (Xi, Yj) -Ttll...'
(5) By setting this centroid position Hj as the edge position, the edge position can be detected with a resolution of a fraction of one pixel.

尚、差値を求める際は、予め定められたしきい値よりも
大きい値を示す差分値からこのしきい値を差し引いて差
([を求めても良い。
Note that when calculating the difference value, the difference ([ may be calculated by subtracting this threshold value from the difference value indicating a value larger than a predetermined threshold value).

以下、第3図を参照して、エツジ位置検出回路41の動
作について計則に説明する。
The operation of the edge position detection circuit 41 will be explained in detail below with reference to FIG.

先ず、制御回路51を介して、75−レジスタ53番こ
しきい仙T[を、カウンタ55にエツジ位置検出を行う
開始画素位置xSを、第二レジスタ57にエツジ位置検
出を終rする終γ画素位置Xeをそれぞれ設定する。又
、制御回路51から第三レジスタ58及び第四レジスタ
61にクリア信号を供給して1両レジスタ58及び61
の初期化を行う。
First, through the control circuit 51, the 75-register No. 53 is sent to the counter 55, the start pixel position xS for which edge position detection is to be performed, and the end γ pixel for which edge position detection is to be completed to the second register 57. Each position Xe is set. In addition, a clear signal is supplied from the control circuit 51 to the third register 58 and the fourth register 61 to clear the first register 58 and 61.
Perform initialization.

微分回路39〔第2図参照〕において、前述した(3)
式に従って算出された差分値d (Xi、Y」)を減算
器63に入力する。この減算器63により、差分([d
 (xl、Y」)から第一レジスタに格納されているL
jい(aTLを減算シテ差値 (d (Xt、Yi) 
 TL)を求める。さらに、この差値の符号65を制御
回路51に出力する。この符号65が正の場合は、この
時の画素位置及びその画素の差値は重心計算を行う対象
となるから、第一加算器67を用いてこの時の差値と第
三レジスタ53に格納されている差値との和を求め、そ
の偵Σ(d (Xi、Y」) −Tuを制御回■ 路51の指示(クロック信号)により第三レジスタ59
に格納する。
In the differential circuit 39 [see Figure 2], the above-mentioned (3)
The difference value d (Xi, Y'') calculated according to the formula is input to the subtracter 63. This subtracter 63 calculates the difference ([d
(xl, Y") stored in the first register
j (subtract aTL) difference value (d (Xt, Yi)
TL). Furthermore, the sign 65 of this difference value is output to the control circuit 51. If this sign 65 is positive, the pixel position at this time and the difference value of that pixel are the subject of gravity center calculation, so the first adder 67 is used to store the difference value at this time and the third register 53. The sum of the calculated difference values is calculated, and the sum of the calculated difference Σ(d (Xi, Y'') -Tu is sent to the third register 59 according to the instruction (clock signal) of the control circuit 51.
Store in.

−・方、乗算器B9において、減算器63の出力値と、
カウンタ55から出力された画素位置x1との乗算を行
い、Xi (d (Xi、Yj) −Tt)ナル(i’
iヲ?Gル。
- On the other hand, in the multiplier B9, the output value of the subtracter 63 and
Multiplication is performed by the pixel position x1 output from the counter 55, and Xi (d (Xi, Yj) - Tt) null (i'
iwo? G le.

続いて、第二加算器71を用いて、この乗算器69の乗
箕値と、第四レジスタ61に格納されている値との和ヲ
求メ、 ソc7)(if X Xi (d (xl、Y
j) −Ttlを第四レジスタ61に格納する。
Next, using the second adder 71, calculate the sum of the multiplier value of this multiplier 69 and the value stored in the fourth register 61. ,Y
j) Store -Ttl in the fourth register 61.

尚、減算器63から制御回路51に出力された符号65
が零及び負の場合は重心計算の対象ではないから上述し
た計算は行わない。
Note that the code 65 output from the subtracter 63 to the control circuit 51
If is zero or negative, the above calculation is not performed because the center of gravity is not subject to calculation.

次にカウンタ55を一つ進めることにより、走査方向に
一つ進んだ画素の差分値を微分回路39から減算器63
に入力すると共に、 ・つ進んだ画素位置を乗算器69
に出力する。さらに、減算器83の減算結果の符号65
に従って前述したような操作を行う。
Next, by incrementing the counter 55 by one, the difference value of the pixel advanced by one in the scanning direction is transferred from the differentiating circuit 39 to the subtracter 63.
At the same time, the pixel position advanced by one is input to the multiplier 69.
Output to. Furthermore, the sign 65 of the subtraction result of the subtractor 83
Accordingly, perform the operations described above.

丘述した一連の操作を、カウンタ55から出力される画
素位置Xiが終r画素位置Xeとなるまでサイクリック
に行う。比較器73はカウンタ55から出力される画素
位HXiと、第二レジスタに格納されている経rI!I
lj素位置Xeとを随時比較していて、XH=Xeとな
った時に一致信号S1を制御回路51に出力する。
The series of operations described above are performed cyclically until the pixel position Xi output from the counter 55 reaches the final r pixel position Xe. The comparator 73 uses the pixel position HXi output from the counter 55 and the value rI! stored in the second register. I
lj elementary position Xe is compared at any time, and when XH=Xe, a coincidence signal S1 is output to the control circuit 51.

第三レジスタ59に格納されているΣi d (Xi 
Σi d (Xi
.

Yi) −Telの計算結果と、第四レジスタ81に格
納されているΣXi (d (Xi、Yj) −Ttl
(7)計ff結果、!=は除算器75に出力される。除
算器75において(5)式に従い計算を行い重心位置H
」を求めて、この重心位置Hj をパターンのエツジ位
置とする。
Yi) -Tel calculation result and ΣXi (d (Xi, Yj) -Ttl stored in the fourth register 81
(7) Total ff results! = is output to the divider 75. The divider 75 calculates the center of gravity position H according to equation (5).
'' is determined, and this center of gravity position Hj is determined as the edge position of the pattern.

肛二n湾 第4図はこの発明の画像パターンのエツジ位置検出方法
をマイクロプロセッサ(以f、マイコンと称することも
ある)で実現する7段を示す構成図である。又、第5図
はマイコンの機能を説明するための動作流れ図である。
FIG. 4 is a block diagram showing seven stages for realizing the image pattern edge position detection method of the present invention using a microprocessor (hereinafter sometimes referred to as a microcomputer). Further, FIG. 5 is an operation flowchart for explaining the functions of the microcomputer.

第4図に示した撮像装′f!!31、A/D変換器33
及び画像メモリ35は第一実施例で説明した各構成成分
と同一であるからその説明は省略する。
The imaging device 'f!' shown in FIG. ! 31, A/D converter 33
The components of the image memory 35 and the image memory 35 are the same as those described in the first embodiment, so the explanation thereof will be omitted.

81はマイコンを示し、その内部にはROM(REME
MORY)85とを有している。このROM83には前
述した(3)及び(5)式の計算を実行するためのプロ
グラムが格納されている。又、RAM85は演算結果(
3)及び(5)式の演算結果を格納するメモリである。
81 indicates a microcomputer, inside which is a ROM (REME).
MORY) 85. This ROM 83 stores a program for executing the calculations of equations (3) and (5) described above. In addition, the RAM 85 stores the calculation result (
This is a memory that stores the calculation results of equations 3) and (5).

次に、第5図に従ってマイコン81によるエツジ位置検
出手順を説明する。
Next, the edge position detection procedure by the microcomputer 81 will be explained with reference to FIG.

尚1画像−行分例えばj行目の画像信号(S度)は、画
像メモリの配列Mに格納されているとし、この配列Mの
大!IざをKとする。
It is assumed that the image signal (S degrees) for one image-row, for example, the j-th row, is stored in the array M of the image memory. Let I be K.

又、(5) 式に示を分子Σ(d (xl、Yj) −
Tt)の計算結果を格納するレジスタをR1と定義し。
Also, as shown in equation (5), the molecule Σ(d (xl, Yj) −
A register that stores the calculation result of Tt) is defined as R1.

(5) 式に示を分母寥Xt(d(Xt、Y+) −T
t)+7)計算結果を格納するレジスタをR2と定義す
る。
(5) The denominator Xt(d(Xt, Y+) −T
t)+7) Define the register that stores the calculation result as R2.

尚、R1及びR2レジスタはRAM85を用いれば良い
Note that the RAM 85 may be used for the R1 and R2 registers.

先ず、R1及びR2レジスタの内容A及びBを初期化す
る処理を行う(ステップ91)0次に画像のj行目の走
査方向の画素位置を示すパラメータを工とし、先ずI=
2を設定してj行目の走査方向の二画素目を注目画素と
する(ステップ93)。
First, the contents A and B of the R1 and R2 registers are initialized (step 91).Next, using the parameter indicating the pixel position in the scanning direction of the j-th row of the image, first, I=
2, and the second pixel in the j-th row in the scanning direction is set as the pixel of interest (step 93).

次に前述した(3)式に従ってこの注目画素の差分(f
iDを求める(ステップ95)0次に、エツジ位置付近
の最大差分値より小ざい予め設定されているしきい値T
I と、差分(gi Dとを比較する(ステップ87)
Next, the difference (f
Calculate iD (step 95) Next, a threshold value T that is preset smaller than the maximum difference value near the edge position is determined.
Compare I and the difference (gi D) (step 87)
.

ここで、D>Tt の場合はこの画素位置及び差分値は
重心計算に寄テする値であるから、差分値りからしきい
偵T1を差し引いて差値D″を求め、さらにこの差値D
′を用いて(5)式の分子に対応するA=A+IXD’
の計算及び分母に対応するB=B+D ’の計算をそれ
ぞれ行う(ステップ99)0次に走査方向の次の画素の
処理を行う(ステップ101)。
Here, in the case of D>Tt, this pixel position and the difference value are values that interfere with the calculation of the center of gravity, so the threshold value T1 is subtracted from the difference value to obtain the difference value D'', and this difference value D
A=A+IXD' corresponding to the numerator of formula (5) using '
and B=B+D' corresponding to the denominator (step 99). Next, the next pixel in the scanning direction is processed (step 101).

尚、D≦TEの場合は、L述した重心を求めるための計
算は行わず、走査方向の次の画素の処理を行う(ステッ
プ101)。
If D≦TE, the calculation for determining the center of gravity described in L is not performed, and the next pixel in the scanning direction is processed (step 101).

次に、ステップ103において、j行目の画像信号の処
理が全て終rしたか否かを判定する。処理が終rしてい
ない場合(INK)はステップ85に戻り順次処理を行
う。
Next, in step 103, it is determined whether all processing of the image signal in the j-th row has been completed. If the processing has not been completed (INK), the process returns to step 85 and the processing is performed sequentially.

又、工≧にの場合は(5)式に従って重心位置Hを算出
する(ステップ105 ) 。
In addition, if the distance is ≧, the center of gravity position H is calculated according to equation (5) (step 105).

L述したように、この発明の画像パター7の位置検出方
法はマイコンを用いて実現することも出来る。
As described above, the method for detecting the position of the image putter 7 of the present invention can also be implemented using a microcomputer.

尚、丘述した各実施例では読取りf段で読取って得た濃
淡画像の一行分の画像信号の処理について説明したが1
画像を構成する残りの行の画像信号の処理をE述した手
順により順次行うことにより、画像全体のパターンのエ
ツジ位置の検出を行うことが出来る。
Incidentally, in each of the embodiments described above, processing of an image signal for one line of a gray scale image obtained by reading at the f reading stage was explained.
By sequentially processing the image signals of the remaining rows constituting the image according to the procedure described above, it is possible to detect the edge position of the pattern of the entire image.

(発明の効果) 丘述した説明からも明らかなように、この発明の画像パ
ターンのエツジ位置検出方法によれば、予め定められた
しきい値より大きいイ1を示す濃度の差分値を用いて重
心位置を求め、この重心位置をエツジ位ごとするに当り
1重心を求める計算に用いる差分値を、この差分値から
予め定められたしきいイ1を差し引いて求めた差値と置
換している。
(Effects of the Invention) As is clear from the above explanation, according to the method for detecting the edge position of an image pattern according to the present invention, the edge position detection method of the image pattern uses the difference value of the density indicating A1 which is larger than a predetermined threshold value. The position of the center of gravity is determined, and the difference value used to calculate the center of gravity for each edge position is replaced with the difference value obtained by subtracting a predetermined threshold 1 from this difference value. .

従って1重心を求める計算の対象領域画素位置方向の端
部に位置する画素1例えば前述した画素×Pを重心計算
の対象とする場合でも又は対象としない場合でも、画素
Xpの差分値は、本来の差分値より小さな値の差値(d
(Xp)−Tt)に置換されるから、重心計算の結果に
及ぼす影響が低減される。
Therefore, regardless of whether or not the pixel 1 located at the end of the target area in the pixel position direction of the target area for calculation of the centroid 1, for example, the above-mentioned pixel The difference value (d
(Xp)-Tt), the influence on the result of center of gravity calculation is reduced.

これがため、しきい4rl T L を変化させてもC
淡画像パターンのエツジ位置を安定に求めることが出来
るパターンのエツジ位置検出方法を提供することが出来
る。
Therefore, even if the threshold 4rl T L is changed, C
It is possible to provide a pattern edge position detection method that can stably determine the edge position of a light image pattern.

【図面の簡単な説明】[Brief explanation of drawings]

第1図(A、)及び(B)はこの発明の画像パターンの
エツジ位置検出方法の説明に供する線図、第2図は第一
実施例の説明に供する線図で、この発明に用いて好適な
エツジ位置検出装置の−・例を示す構成図。 第3図は第2図に示した装置に内蔵されたエツジ位置検
出回路を示すブロック図。 第4図はこの発明の第二実施例を説明する線図で、この
発明をマイコンで実現する場合の実現手段を示す構成図
。 第5図はこの発明の第二実施例の説明に供する動作流れ
図、 第6図(A)及びCB)と、第7図とは従来及びこの発
明の説明に供する線図。 第8図(A)及びCB)は従来のエツジ位置検出方法の
説明図である。 21.23・・・差イ1(差分値からしきい値を差し引
いた値) 31・・・読取り手段(撮像装置) 33・・・A/D変換器、35・・・画像メモリ37・
・・制御部、     39・・・微分回路41・・・
エツジ位置検出回路 51・・・制御回路、    53・・・第一レジスタ
55…カウンタ、     57・・・第一ニレジメタ
59・・・第三レジスタ、   61・・・第四レジス
タ63・・・減算器、65・・・減算結果の符号87・
・・第一・加算器、   69・・・乗算器71・・・
第二/Ill算器、   73・・・比較器75・・・
除算器、     81・・・マイクロプロセッサ83
・・・ROM、     85・・・RAM。 特許出願人    沖電気玉業株式会社21.23:差
値 画素イfL! 画素位! この発明の説明にイ井する線図 第1図 二の発明の第−尖施例の構成図 第2図 この発明の第二実流例の構成図 第4図 に    率 この発明の第二笑洸砂11の説8月図 第5図 従来11Lひ゛この発明の説明に砥Tろ跣回第6図 画素位! 従来乱び“この発明の詮明にイズする縁図第7図 面素イ立! 従来のエツジ゛イ霞置硬出方ヅ犬の説明図第S図
1 (A,) and (B) are diagrams for explaining the edge position detection method of an image pattern according to the present invention, and FIG. 2 is a diagram for explaining the first embodiment, which is used in the present invention. FIG. 2 is a configuration diagram showing an example of a suitable edge position detection device. FIG. 3 is a block diagram showing an edge position detection circuit built into the device shown in FIG. 2. FIG. 4 is a diagram illustrating a second embodiment of the present invention, and is a configuration diagram showing means for realizing the present invention using a microcomputer. FIG. 5 is an operation flowchart for explaining the second embodiment of the present invention, and FIG. 6 (A) and CB) and FIG. 7 are diagrams for explaining the conventional method and the present invention. FIGS. 8(A) and 8(CB) are explanatory diagrams of a conventional edge position detection method. 21.23... Difference A1 (value obtained by subtracting the threshold value from the difference value) 31... Reading means (imaging device) 33... A/D converter, 35... Image memory 37.
...control section, 39...differentiation circuit 41...
Edge position detection circuit 51...control circuit, 53...first register 55...counter, 57...first register 59...third register, 61...fourth register 63...subtractor , 65... Sign of the subtraction result 87.
...first adder, 69...multiplier 71...
Second/Ill calculator, 73... Comparator 75...
Divider, 81... microprocessor 83
...ROM, 85...RAM. Patent applicant Oki Denki Gyokugyo Co., Ltd. 21.23: Difference pixel i fL! Pixel level! Diagrams suitable for explaining this invention: Fig. 1: A block diagram of the second embodiment of the invention; Fig. 2: a block diagram of the second practical example of the invention; The theory of Kousa 11 August Figure 5 Conventional 11L hi To explain this invention, the polishing wheel is turned around Figure 6 Pixel level! Conventional disorder ``Drawing 7 of this invention will make it clearer!Explanatory diagram of the way the conventional edge is placed and hardened.Figure S''

Claims (1)

【特許請求の範囲】[Claims] (1)撮像装置により入力された濃淡画像のパターンの
エッジ位置を検出するに当り、 注目した複数の画素の濃度差分値を求め、 エッジ付近の複数の濃度差分値から予め定めたしきい値
を差し引いて差値を求め、 これら差値のうちの正の差値から重心位置を求め、 該重心位置を前記パターンのエッジ位置とすることを特
徴とするパターンのエッジ位置検出方法。
(1) When detecting the edge position of the pattern of the grayscale image input by the imaging device, the density difference values of the multiple pixels of interest are determined, and a predetermined threshold value is determined from the multiple density difference values near the edge. A method for detecting an edge position of a pattern, comprising: calculating a difference value by subtracting the difference value, determining a center of gravity position from a positive difference value among these difference values, and setting the position of the center of gravity as an edge position of the pattern.
JP60242330A 1985-10-29 1985-10-29 Edge position detecting method for pattern Granted JPS62102376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60242330A JPS62102376A (en) 1985-10-29 1985-10-29 Edge position detecting method for pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60242330A JPS62102376A (en) 1985-10-29 1985-10-29 Edge position detecting method for pattern

Publications (2)

Publication Number Publication Date
JPS62102376A true JPS62102376A (en) 1987-05-12
JPH0426511B2 JPH0426511B2 (en) 1992-05-07

Family

ID=17087587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60242330A Granted JPS62102376A (en) 1985-10-29 1985-10-29 Edge position detecting method for pattern

Country Status (1)

Country Link
JP (1) JPS62102376A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344778A (en) * 1989-07-12 1991-02-26 Hamamatsu Photonics Kk Image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344778A (en) * 1989-07-12 1991-02-26 Hamamatsu Photonics Kk Image processor

Also Published As

Publication number Publication date
JPH0426511B2 (en) 1992-05-07

Similar Documents

Publication Publication Date Title
US6768509B1 (en) Method and apparatus for determining points of interest on an image of a camera calibration object
US6295374B1 (en) Method and system for detecting a flaw in a sample image
US6711284B1 (en) Image processor for a digital image of an object having a crack
JPS5963725A (en) Pattern inspector
CN111488874A (en) Method and system for correcting inclination of pointer instrument
US7158690B2 (en) Enhancing the resolution of measurement systems employing image capturing systems to measure lengths
Sladoje et al. High-precision boundary length estimation by utilizing gray-level information
Avrahami et al. Sub-pixel edge detection in character digitization
CN112264992A (en) Industrial robot coordinate system calibration method, system, device and storage medium
JP3924796B2 (en) Pattern position measuring method and measuring apparatus
CN111462246A (en) Equipment calibration method of structured light measurement system
EP0586708A1 (en) Image processor, method therefor and apparatus using the image processor
JP3243894B2 (en) Shading image processing device
CN113989384A (en) Camera calibration method, cropping data generation method, device, equipment and medium
JPS62102376A (en) Edge position detecting method for pattern
CN115727784A (en) High-reflectivity workpiece three-dimensional point cloud obtaining method based on self-adaptive stripes
JPH0339603A (en) Contour detecting method for pattern and length measuring instrument using same method
JPS62106589A (en) Method for detecting edge position of pattern
Safaee-Rad et al. Accurate estimation of elliptical shape parameters from a grey-level image
JP2000207557A (en) Method for measuring quantity of positional deviation
CN117473286B (en) Vibration time-course signal identification method, system, device, equipment and storage medium
JPH01128170A (en) Image smoothing method
Suhadolnik et al. An anchored discrete convolution algorithm for measuring length in digital images
Wood et al. Edge detection performance in super-resolution image reconstruction from camera arrays
Filio-Aguilar et al. Simultaneous intensity projection for projector response computation with application to an active radiometric calibration

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term