JPH0661105B2 - Straight line calculation method - Google Patents

Straight line calculation method

Info

Publication number
JPH0661105B2
JPH0661105B2 JP61043962A JP4396286A JPH0661105B2 JP H0661105 B2 JPH0661105 B2 JP H0661105B2 JP 61043962 A JP61043962 A JP 61043962A JP 4396286 A JP4396286 A JP 4396286A JP H0661105 B2 JPH0661105 B2 JP H0661105B2
Authority
JP
Japan
Prior art keywords
brightness
scanning line
image
pixels
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61043962A
Other languages
Japanese (ja)
Other versions
JPS62202290A (en
Inventor
良枝 西田
清治 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61043962A priority Critical patent/JPH0661105B2/en
Publication of JPS62202290A publication Critical patent/JPS62202290A/en
Publication of JPH0661105B2 publication Critical patent/JPH0661105B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、画像処理の部分的な画像の組合せを用いた位
置補正方法に係り、特に視覚付ロボット等の位置補正に
好適な直線算出方法に関する。
The present invention relates to a position correction method using a combination of partial images in image processing, and particularly to a straight line calculation method suitable for position correction of a visual robot and the like. Regarding

〔従来の技術〕[Conventional technology]

従来の装置は、特開昭59−154578号公報に記載のよう
に、2値画像からの線分列を抽出するものであった。し
かし、照明等による全体の明るさの変化による抽出する
線分列の移動等は配慮されていなかった。
The conventional device extracts a line segment sequence from a binary image as described in JP-A-59-154578. However, no consideration was given to the movement of the line segment sequence to be extracted due to the change in the overall brightness due to the illumination or the like.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

上記従来技術は、認識対象の直線的部分形状を認識する
ために、画像内に設けた処理領域を定義したウィンドウ
の中に、上記認識対象の直線的部分形状が入るように、
認識対象と画像を位置決めし、ウィンドウ内の部分画像
を固定しきい値により2値化して、上記認識対象の直線
的部分形状の輪郭によって白領域と黒領域とに分かれる
ようになし、上記白領域と黒領域との境界として上記認
識対象の直線的部分形状の輪郭を抽出し、その境界に位
置する一連の画素列を一定の近似幅によって直線近似を
し、近似をした線分の頂点位置にある画素のみをその座
標値によって表わす直線算出について、配慮がされてお
らず、照明等の変化で全体の明るさが変わり固定しきい
値での2値化時のバラツキ量子化誤差等の問題があっ
た。
In the above-mentioned conventional technique, in order to recognize the linear partial shape of the recognition target, in the window defining the processing area provided in the image, the linear partial shape of the recognition target is entered,
The recognition target and the image are positioned, the partial image in the window is binarized by a fixed threshold, and the contour of the linear partial shape of the recognition target is divided into a white region and a black region. The outline of the linear partial shape of the recognition target is extracted as the boundary between the black area and the black area, and a series of pixel rows located at the boundary are linearly approximated by a constant approximate width, and the approximated line segment vertex position is set. No consideration has been given to the calculation of a straight line that represents only a certain pixel by its coordinate value, and the overall brightness changes due to changes in lighting and the like, and there are problems such as variation in quantization when binarizing with a fixed threshold value. there were.

本発明の目的は、照明等による全体の明るさの変化によ
る固定しきい値での2値化によるバラツキを防ぎ、ディ
ジタル画像からの直線近似における量子化誤差を防ぎ、
高速、高精度な直線算出方法を提供することにある。
An object of the present invention is to prevent a variation due to binarization with a fixed threshold value due to a change in overall brightness due to illumination or the like, prevent a quantization error in a linear approximation from a digital image,
It is to provide a high-speed and highly accurate straight line calculation method.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的は、直線部が存在する2次元画像の画像処理に
おける直線算出方法において、前記2次元画像の特徴部
分のみを取り込むようウィンドウを設定し、該ウィンド
ウから該特徴部分の直線部を含む範囲の画像を抽出し、
該抽出された特徴部分を線分化して多角形近似し、該多
角形近似された多角形の頂点を含む一走査線上の隣り画
素との明るさの差をとり、明るさの差が最大になる点を
前記明るさの差による重み付けをした荷重平均により求
め、前記多角形近似された多角形の各頂点について抽出
した点を各点からの誤差が最小となるような直線を最小
二乗法を用いて求めることにより、最適な直線に近似す
ることができる。
In the straight line calculating method in the image processing of a two-dimensional image having a straight line portion, a window is set so as to capture only the characteristic portion of the two-dimensional image, and a range including the straight line portion of the characteristic portion from the window is set. Extract the image,
The extracted characteristic portion is line-segmented to approximate a polygon, and the difference in brightness between adjacent pixels on one scanning line including the vertex of the polygon approximated is taken to maximize the difference in brightness. Point is obtained by weighted averaging weighted by the difference in brightness, and the point extracted for each vertex of the polygon approximated to the polygon is a straight line that minimizes the error from each point by the least squares method. The optimum straight line can be approximated by obtaining it.

〔作用〕[Action]

多値画像において、一走査線上の明るさの変化が最大と
なる点を見つけることにより、照明などの変化によって
全体の明るさが変わっても、明るさの変化が最大となる
点は変わらないため、常に同じ位置の点を抽出すること
ができる。さらに、最小二乗法によって、求めた点から
の誤差が最小となるような直線を統計的に求めることが
でき、最適な直線に近似することができる。
In a multi-valued image, by finding the point where the change in brightness on one scanning line is the maximum, the point where the change in brightness is the maximum does not change even if the overall brightness changes due to changes such as lighting. , It is possible to always extract points at the same position. Further, a straight line that minimizes the error from the obtained points can be statistically obtained by the least squares method, and can be approximated to an optimum straight line.

〔実施例〕 以下、本発明の一実施例を第2図により説明する。[Embodiment] An embodiment of the present invention will be described below with reference to FIG.

先ず、本発明が適用可とされた、ロボットによる自動組
立システムについて説明する。第2図はその一例でのシ
ステム構成を示したものである。図示の如くベルトコン
ベア1上をランダムに流れてくるシャーシ2はTVカメ
ラ3でとらえられ、シャーシ2全体の画像あるいはその
一部画像は画像処理装置4に転送されるようになってい
る。画像処理装置4でその入力画像からシャーシ2の位
置姿勢を計算したうえこれを組立ロボット5に転送する
ものとなっている。組立ロボット5は部品供給用マガジ
ン6から取り出した部品をシャーシ2に組付けするが、
その際画像処理装置4からの情報をもとに基準としての
位置姿勢データを補正した上シャーシ2に対し部品の組
付けを行うようになっている。一般にシャーシ2はベル
トコンベア1上では2次元的に任意の位置姿勢にある
が、組立ロボット5が部品シャーシ2に対し正しく組付
けるためには入力画像からシャーシ2のずれ分を求め、
これによって基準位置姿勢データを補正すればよいもの
である。
First, an automatic robot assembly system to which the present invention is applicable will be described. FIG. 2 shows a system configuration as an example. As shown in the figure, the chassis 2 that randomly flows on the belt conveyor 1 is captured by the TV camera 3, and an image of the entire chassis 2 or a partial image thereof is transferred to the image processing device 4. The image processing device 4 calculates the position and orientation of the chassis 2 from the input image and transfers the calculated position and orientation to the assembly robot 5. The assembly robot 5 assembles the parts taken out from the parts supply magazine 6 into the chassis 2,
At this time, the position and orientation data as a reference is corrected based on the information from the image processing device 4, and the parts are assembled to the upper chassis 2. Generally, the chassis 2 is in a two-dimensional arbitrary position and posture on the belt conveyor 1, but in order for the assembly robot 5 to assemble the component chassis 2 correctly, the shift amount of the chassis 2 is calculated from the input image.
With this, the reference position / orientation data may be corrected.

第3図は特徴形状部分の各種例を示したものである。図
示の如くTVカメラ3より得られる画像7中にはシャー
シ2に取付けされている基板の一部が像8として検出さ
れており、像8中にはまたコネクタ像9や穴像10、基板
縁像11,12などが存在するが、これらを特徴形状部分と
して抽出したうえ処理しようというものである。シャー
シはこの場合その位置姿勢がアトランダムであるといっ
ても基準の位置姿勢よりそれ程ずれていないとすれば、
ウインドウ13〜16を予め適当に設定しておく場合はそれ
ら特徴形状部分として抽出され得るものである。したが
って、抽出された特徴形状部分としては穴像10のように
特徴全体のものと、コネクタ像9は基板縁等11,12のよ
うに特徴全体の一部として得られるものとに分けられ
る。
FIG. 3 shows various examples of the characteristic shape portion. As shown in the figure, in the image 7 obtained from the TV camera 3, a part of the substrate attached to the chassis 2 is detected as an image 8, and in the image 8, the connector image 9, the hole image 10 and the substrate edge are also detected. There are images 11 and 12, etc., which are to be extracted and processed as characteristic shape parts. In this case, if the chassis is at random, even if the position and orientation are not random,
When the windows 13 to 16 are properly set in advance, they can be extracted as those characteristic shape portions. Therefore, the extracted feature shape portion is divided into a whole feature such as the hole image 10 and a connector image 9 obtained as a part of the whole feature such as the board edges 11 and 12.

第4図(a),(b)は抽出された特徴形状部分の例をそれぞ
れ示したものである。このうち第4図(a)に示すものは
穴像10、つまり特徴全体の線分化方式により多角形近似
した例であり、データとして点(丸印)列の座標が保存
されるものとなっている。また、第4図(b)に示すもの
は基板縁像11、つまり特徴の一部とウインドウ枠15を線
分化方式により多角形近似し、そのウインドウ15枠を除
く内側部分には更に他のウインドウ18を設定することに
よって抽出すべき特徴部分だけを線分列に近似した例で
あり、データとしては点(丸印)列の座標が保存される
ようになっている。
FIGS. 4 (a) and 4 (b) show examples of the extracted characteristic shape portions, respectively. Of these, the one shown in FIG. 4 (a) is a hole image 10, that is, an example in which a polygon is approximated by the line segmentation method of the entire feature, and the coordinates of the point (circle) column are stored as data. There is. In addition, as shown in FIG. 4 (b), the board edge image 11, that is, a part of the feature and the window frame 15 are polygonally approximated by the line segmentation method, and another window is further provided inside the window 15 frame. This is an example in which only the characteristic portion to be extracted is approximated to a line segment sequence by setting 18, and the coordinates of the point (circle mark) sequence are saved as data.

第5図,第6図は第4図(a),(b)で求めた線分化図形よ
り特徴量を抽出するための方法を示したものである。第
4図(a)のような特徴形状全体を抽出し得るものに対し
ては、重心(図心)Gが求められるようになっている。
重心Gのx座標xg、y座標ygは第5図に示す台形Tx
P,P,TyP,P2を単位とし、しかも点列PをP=
{P(x1,y1),P(x2,y2),……,P(x7
y7)}(但し、P8(x8,y8)=P(x1,y1))として
求めた多角形全体の1次モーメントMx,Myと面積Sとか
ら以下のように求められるようになっている。
FIGS. 5 and 6 show a method for extracting a feature amount from the line-differentiated figure obtained in FIGS. 4 (a) and 4 (b). The center of gravity (centroid) G is required for the one that can extract the entire characteristic shape as shown in FIG. 4 (a).
The x coordinate xg and the y coordinate yg of the center of gravity G are the trapezoid Tx shown in FIG.
P 1 , P 2 , TyP 1 , P 2 as a unit, and the point sequence P is P =
{P 1 (x 1 , y 1 ), P 2 (x 2 , y 2 ), ..., P 7 (x 7 ,
y 7 )} (where P 8 (x 8 , y 8 ) = P 1 (x 1 , y 1 )) is calculated from the first moments Mx, My of the entire polygon and the area S as follows. It is designed to be used.

但し、Mx,Myはそれぞれx軸,y軸に対するものであ
る。
However, Mx and My are for the x-axis and the y-axis, respectively.

また、第4図(b)においてウインドウ18枠の部分を除い
た線分列である第6図に示すような特徴形状の一部を抽
出したものに対しては、第1図に示す処理に従って最適
な直線への近似を行う。
In addition, according to the process shown in FIG. 1, for a part of the characteristic shape as shown in FIG. 6 which is a line segment sequence excluding the window 18 frame part in FIG. 4 (b), Approximate to the best straight line.

まず、第6図に示すように点列抽出(S1)を行う。N
(S2)は点列数をカウントしている。次に第7図(a)に
示すように多値画像19上の点列を含む走査線20の明るさ
の変化をとる(S3)。この結果を、第7図(b)に示す。
fは明るさ、xiは画面上のx座標である。明るさの変化
21を見ると特徴値付近で明るさが最も変化していること
がわかる。そこで明るさが最も変化している点22を求め
るため、隣画素との明るさの差をとる(S4)。この結果
を第7図(c)に示す。fxi−fxi-1は隣画素との明るさの
差であり、xiは画面上のx座標である。このように、特
徴値付近の明るさの差はほぼ正規分布をなすと見なして
以下に示す明るさの差によって重み付けした荷重平均に
よって、第7図(c)に示す明るさの変化が最大となる点2
3を抽出する。(S5)。
First, point sequence extraction (S1) is performed as shown in FIG. N
(S2) is counting the number of points. Next, as shown in FIG. 7A, the brightness of the scanning line 20 including the dot sequence on the multi-valued image 19 is changed (S3). The results are shown in FIG. 7 (b).
f is the brightness, and xi is the x coordinate on the screen. Change in brightness
Looking at 21, it can be seen that the brightness changes most near the feature value. Therefore, in order to obtain the point 22 where the brightness changes most, the difference in brightness with the adjacent pixel is calculated (S 4 ). The results are shown in FIG. 7 (c). fxi−fxi− 1 is the difference in brightness from the adjacent pixel, and xi is the x coordinate on the screen. In this way, it is considered that the difference in brightness near the feature value forms a nearly normal distribution, and the weighted average weighted by the difference in brightness shown below indicates that the change in brightness shown in FIG. 7 (c) is the maximum. Point 2
Extract 3. (S5).

荷重平均 以上S3〜S5の処理をすべての点について行う(S)。
第8図にS3〜S6の処理によって求めた各点列を含む走査
線上の明るさの変化が最大となる点P1〜P4を示す。ここ
で求めたP1〜P4からの誤差が最小となる直線に近似する
(S8)。
Weighted average Performed for all the points the processing of S3~S5 more (S 6).
FIG. 8 shows points P1 to P4 at which the change in brightness on the scanning line including each point sequence obtained by the processing of S3 to S6 is maximum. It is approximated to the straight line that minimizes the error from P 1 to P 4 obtained here (S 8 ).

近似方法は第8図に示すP1〜P4との誤差l〜lが最
小となるような直線を以下に示す最小二乗法により求め
る。
As an approximation method, a straight line that minimizes the errors l 1 to l 4 with P 1 to P 4 shown in FIG. 8 is obtained by the least squares method shown below.

求める直線はy=ax+b(又はx=a″y+b″)であ
る。この場合係数a,bは点列P1〜P4を、P1=(x1
y1),P2=(x2,y2),P3=(x3,y3),P4=
(x4,y4)として、 但し、 であり、 はそれぞれxの逆行列、転置行列である。
The straight line to be obtained is y = ax + b (or x = a ″ y + b ″). In this case, the coefficients a and b are the point sequences P1 to P4, and P1 = (x 1 ,
y 1 ), P2 = (x 2 , y 2 ), P3 = (x 3 , y 3 ), P4 =
As (x 4 , y 4 ), However, And Are the inverse matrix and the transposed matrix of x, respectively.

次に以上のようにして求めた特徴量にもとづき位置姿勢
を判定する方法を第9図(a)〜(c)により説明すれば求め
られた特徴量は重心と直線であることから、したがっ
て、これらの組合せとしては、重心と重心、重心と
直線、直線と直線の場合がある。以下それぞれの組合
せについて、位置姿勢の判定方法を説明するが、一般に
位置姿勢の基準のそれからのずれにはx方向,y方向、
のずれの他、xy平面上での回転のずれがある。
Next, a method of determining the position and orientation based on the feature amount obtained as described above will be described with reference to FIGS. 9A to 9C. Since the obtained feature amount is a center of gravity and a straight line, These combinations may be a center of gravity and a center of gravity, a center of gravity and a straight line, and a straight line and a straight line. The method of determining the position and orientation will be described below for each combination. Generally, the deviation from the reference of the position and orientation is the x direction, the y direction,
In addition to the deviation of the rotation, there is the deviation of the rotation on the xy plane.

の場合:ある1つの特徴形状部分対応の重心G1(x1
g,x1g)よりその特徴形状部分の位置、したがって、
x,y方向の位置ずれが求められるが、回転方向のずれ
角度θはG1(x1y,x1g),G2(x2g,y2g)から以下
のように求められるものである。
Case: The center of gravity G1 (x 1
g, x 1 g), the position of the characteristic shape part, and
The displacement in the x and y directions is obtained, and the displacement angle θ in the rotation direction is obtained from G1 (x 1 y, x 1 g) and G2 (x 2 g, y 2 g) as follows. .

θ=tan-1(y1−y2/x1−x2) …………(8) 但し、G2は他の特徴形状部分対応の重心を示す。θ = tan −1 (y 1 −y 2 / x 1 −x 2 ) ... (8) However, G2 indicates the center of gravity corresponding to another feature shape part.

の場合:の場合と同様にして重心G3(x3g,y3g)
より位置ずれが求められるが、次に重心G3と重心G3
から直線(y=ax+b)に下した重線との交点J1
(x′,y′)とにもとづき、回転方向のずれ角度θを
以下のように求めるものである。
Case: Center of gravity G3 (x 3 g, y 3 g) as in
The positional shift can be obtained more, but next, the center of gravity G3 and the center of gravity G3
Intersection J1 with the heavy line drawn from the above to a straight line (y = ax + b)
Based on (x ′, y ′), the shift angle θ in the rotation direction is obtained as follows.

θ=tan-1(y′−y3g/x′−x3g) ……(9) の場合:直線(x=a″y+b″)と直線(y=ax+
b)との交点J(x″,y″)より位置を求め、更に
直線の傾きa(またはa″)より回転方向のずれ角θを
求めるものである。
θ = tan −1 (y′−y 3 g / x′−x 3 g) (9): straight line (x = a ″ y + b ″) and straight line (y = ax +
The position is obtained from the intersection point J 2 (x ″, y ″) with b), and the shift angle θ in the rotation direction is obtained from the inclination a (or a ″) of the straight line.

θ=tan-1a or tan-1 a″……(10) 第10図は第9図(a)〜(c)に示す方法による位置姿勢判定
処理全体の一例でのフローを示したものである。これに
従って処理を説明すれば、TVカメラから入力された対
象の画像に対しては、適当な特徴形状部分が抽出される
べくウインドウが設定され処理範囲が決定されるように
なっている(S11,12)。この後ウインドウ内の特徴の
輪郭が抽出されたうえ線分化方式により多角形近似され
るが、この後は更に線分化データから特徴形状が把握さ
れ抽出し得る特徴量種別毎に分類されるようになってい
る(S13,14)。分類された特徴形状毎に、指定された
重心や直線方程式等の特徴量の抽出が行なわれ、求めら
れた2つの特徴量の組合せにより姿勢判定を行なうよう
になっているものである(S15,16)。
θ = tan -1 a or tan -1 a ″ (10) FIG. 10 shows a flow of an example of the whole position / orientation determination processing by the method shown in FIGS. 9 (a) to 9 (c). According to this, the process is explained by setting a window for the target image input from the TV camera so that an appropriate characteristic shape portion can be extracted (the processing range is determined). After that, the contours of the features in the window are extracted and then polygonal approximation is performed by the line segmentation method. After that, the feature shapes are further grasped from the line segmentation data and extracted for each feature amount type that can be extracted. Classification is performed (S13, 14). A feature amount such as a designated center of gravity or a linear equation is extracted for each of the classified feature shapes, and the posture is determined by a combination of the obtained two feature amounts. The judgment is made (S15, 16).

〔発明の効果〕〔The invention's effect〕

従来2値画像から特徴形状である直線を抽出する場合
は、照明等の変化によって画面全体の明るさが変わった
場合、明るさが最も変化する点でなく、少しずれて直線
を抽出してしまう。本発明によれば多値画像を用い、明
るさが最も変化する点を荷重平均により算出し、さらに
最小二乗法により各点からの誤差が最も少ない直線に近
似することができる。
Conventionally, when a straight line that is a characteristic shape is extracted from a binary image, when the brightness of the entire screen changes due to a change in lighting or the like, the straight line is extracted with a slight shift, not at the point where the brightness changes most. . According to the present invention, it is possible to use a multi-valued image, calculate the point where the brightness changes the most by weighted averaging, and further use the least squares method to approximate a straight line with the smallest error from each point.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明による直線算出方法の1実施例を示す処
理フローチャート、第2図は本発明の1実施例による装
置構成を示す図、第3図は本発明に係る特徴形状部分に
対するウインドウ設定方法を示す図、第4図(a),(b)は
ウインドウにもとずき抽出された特徴形状部分を多角形
近似したものとして示す図、第5図,第6図は本発明に
係る特徴量抽出方法を説明するための図、第7図(a)は
多値画像の特徴形状部分の走査線の例、(b)は特徴形状
部分の一走査線上の明るさの変化グラフ、(c)は特徴形
状部分の隣画素との明るさの差のグラフを示す図、第8
図は特徴形状部分の直線近似方法を説明するための図、
第9図(a)〜(c)は本発明に係る位置姿勢判定方法を概略
的に説明する図、第10図は本発明に係る位置姿勢判定処
理の一例でのフローを示す図である。 1……ベルトコンベア、2……シャーシ、3……TVカ
メラ、4……画像処理装置、5……組立ロボット、6…
…部品供給用マガジン。
FIG. 1 is a processing flowchart showing one embodiment of a straight line calculating method according to the present invention, FIG. 2 is a diagram showing an apparatus configuration according to one embodiment of the present invention, and FIG. 3 is a window setting for a characteristic shape portion according to the present invention. FIGS. 4 (a) and 4 (b) show the method as a polygonal approximation of the feature shape portion extracted based on the window, and FIGS. 5 and 6 relate to the present invention. FIG. 7A is a diagram for explaining a feature amount extraction method, FIG. 7A is an example of scanning lines of a characteristic shape portion of a multivalued image, and FIG. 7B is a graph of change in brightness on one scanning line of the characteristic shape portion. FIG. 8C is a diagram showing a graph of the difference in brightness between the neighboring pixels of the characteristic shape part and FIG.
The figure is a figure for explaining the linear approximation method of the characteristic shape part,
9 (a) to 9 (c) are diagrams for schematically explaining the position / orientation determination method according to the present invention, and FIG. 10 is a diagram showing a flow of an example of the position / orientation determination process according to the present invention. 1 ... Belt conveyor, 2 ... Chassis, 3 ... TV camera, 4 ... Image processing device, 5 ... Assembly robot, 6 ...
… Magazine for parts supply.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】認識対象の直線的部分形状を認識するため
に、画像内に設けた処理領域を定義したウィンドウの中
に、上記認識対象の直線的部分形状が入るように、認識
対象と画像を位置決めし、ウィンドウ内の部分画像を固
定しきい値により2値化して、上記認識対象の直線的部
分形状の輪郭によって白領域と黒領域とに分かれるよう
になし、上記白領域と黒領域との境界として上記認識対
象の直線的部分形状の輪郭を抽出し、その境界に位置す
る一連の画素列を一定の近似幅によって直線近似をし、
近似をした線分の頂点位置にある画素のみをその座標値
によって表わす直線算出方法において、 上記認識対象の直線的部分形状の輪郭を直線近似した上
記線分の頂点位置にある画素を求め、 上記各画素に対して、多値画像上で以下の処理を実行
し、該画素を通る走査線上の一連の画素の明るさを取り
出し、 上記走査線上の一連の画素のそれぞれ隣合う画素の明る
さの差を求め、 上記走査線上の一連の画素の走査線方向の座標値に、上
記隣の画素の明るさとの差を重み付けとして、走査線方
向に荷重平均をとって、明るさの変化が最大となる走査
線上の点を求め、 上記一連の処理の繰り返しにより、上記線分の頂点位置
にある各画素上を通る走査線上の明るさの変化が最大と
なる点を求め、 上記各走査線上の明るさの変化が最大となる点との誤差
が最小となる直線を、最小二乗法を用いて算出すること
を特徴とする直線算出方法。
1. In order to recognize a linear partial shape of a recognition target, the recognition target and the image are arranged so that the linear partial shape of the recognition target is included in a window defining a processing area provided in the image. Is positioned, and the partial image in the window is binarized by a fixed threshold value so as to be divided into a white region and a black region according to the contour of the linear partial shape of the recognition target. The contour of the linear partial shape of the recognition target is extracted as a boundary of, and a series of pixel rows located at the boundary are linearly approximated by a constant approximation width,
In a straight line calculation method in which only the pixels at the apex positions of the approximated line segments are represented by their coordinate values, the pixels at the apex positions of the line segments obtained by linearly approximating the contour of the linear partial shape of the recognition target are obtained. For each pixel, the following processing is performed on the multi-valued image, the brightness of a series of pixels on the scanning line passing through the pixel is extracted, and the brightness of the adjacent pixels of the series of pixels on the scanning line is calculated. The difference is obtained, and the coordinate value of the series of pixels on the scanning line in the scanning line direction is weighted with the difference from the brightness of the adjacent pixel, and the weighted average is taken in the scanning line direction to find the maximum change in brightness. Then, a point on the scanning line that maximizes the change in brightness on the scanning line passing through each pixel at the vertex position of the line segment is obtained by repeating the above series of processing, and the brightness on each scanning line is calculated. Is the maximum change in Linear calculation method, wherein a line error is minimized, is calculated using the least squares method.
JP61043962A 1986-03-03 1986-03-03 Straight line calculation method Expired - Fee Related JPH0661105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61043962A JPH0661105B2 (en) 1986-03-03 1986-03-03 Straight line calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61043962A JPH0661105B2 (en) 1986-03-03 1986-03-03 Straight line calculation method

Publications (2)

Publication Number Publication Date
JPS62202290A JPS62202290A (en) 1987-09-05
JPH0661105B2 true JPH0661105B2 (en) 1994-08-10

Family

ID=12678333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61043962A Expired - Fee Related JPH0661105B2 (en) 1986-03-03 1986-03-03 Straight line calculation method

Country Status (1)

Country Link
JP (1) JPH0661105B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2573972B2 (en) * 1987-12-17 1997-01-22 ジューキ株式会社 Pattern matching device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59140589A (en) * 1983-01-31 1984-08-11 Fujitsu Ltd Outline extracting device

Also Published As

Publication number Publication date
JPS62202290A (en) 1987-09-05

Similar Documents

Publication Publication Date Title
CN109784344B (en) Image non-target filtering method for ground plane identification recognition
US11227405B2 (en) Determining positions and orientations of objects
CN108010036B (en) Object symmetry axis detection method based on RGB-D camera
CN105069799B (en) Angular point positioning method and apparatus
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
CN104794421B (en) A kind of positioning of QR codes and recognition methods
CN109886896A (en) A kind of blue License Plate Segmentation and antidote
WO2018086233A1 (en) Character segmentation method and device, and element detection method and device
CN108985305B (en) Laser etching industrial detonator coded image positioning and correcting method
JPH0679325B2 (en) Position and orientation determination method
CN103761534A (en) Method for detecting vision localization of QFP element
CN109523583B (en) Infrared and visible light image registration method for power equipment based on feedback mechanism
CN115170669A (en) Identification and positioning method and system based on edge feature point set registration and storage medium
JP4062987B2 (en) Image area dividing method, image area dividing apparatus, and image area dividing program
CN110502948B (en) Restoration method and device for folding two-dimensional code image and code scanning equipment
CN110288619B (en) Vision-based sunflower module surface screw hole position detection method
CN107545259A (en) A kind of Quick Response Code reconstructing method based on Da-Jin algorithm
US11354794B2 (en) Deposit detection device and deposit detection method
US20210090260A1 (en) Deposit detection device and deposit detection method
CN110440792B (en) Navigation information extraction method based on small celestial body irregularity
JPH0661105B2 (en) Straight line calculation method
CN111462250A (en) Correction system and correction method
CN110717890B (en) Butt joint ring identification method and medium
JP2000182181A (en) Vehicle license plate recognition device
CN112288372B (en) Express bill identification method capable of simultaneously identifying one-dimensional bar code and three-segment code characters

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees