JP2505941B2 - Parts status detection method - Google Patents

Parts status detection method

Info

Publication number
JP2505941B2
JP2505941B2 JP3305144A JP30514491A JP2505941B2 JP 2505941 B2 JP2505941 B2 JP 2505941B2 JP 3305144 A JP3305144 A JP 3305144A JP 30514491 A JP30514491 A JP 30514491A JP 2505941 B2 JP2505941 B2 JP 2505941B2
Authority
JP
Japan
Prior art keywords
component
image
detected
angle
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3305144A
Other languages
Japanese (ja)
Other versions
JPH05141920A (en
Inventor
洋紀 山本
弘 秦野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP3305144A priority Critical patent/JP2505941B2/en
Publication of JPH05141920A publication Critical patent/JPH05141920A/en
Application granted granted Critical
Publication of JP2505941B2 publication Critical patent/JP2505941B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、回路基板上の予め定め
た位置に回路素子等の部品を実装する際、当該回路基板
上に設置した部品の状態(位置、傾きなどの姿勢)を検
出する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects the state (position, posture, etc.) of a component installed on a circuit board when mounting a component such as a circuit element at a predetermined position on the circuit board. On how to do.

【0002】[0002]

【従来の技術】従来、上記の部品のような物体の状態を
検出するのに有用な方法として、物体の輪郭(エッジ)
を抽出する画像処理技術が知られている。この画像処理
方法では、エッジは明るさが急激に変化している場所で
あるという考えから、画像の明るさの変化の微分値を求
め、これを利用して物体の画像からエッジ要素を抽出す
ることを基本としている。ここでの微分とは、x及びy
座標によって画像の濃淡変化を微分する空間1次微分
(gradient:グラジエント)のことであり、グラジエン
トの大きさはエッジの強度に相当する量となる。
2. Description of the Related Art Conventionally, as a method useful for detecting the state of an object such as the above-mentioned component, the contour (edge) of the object is used.
There is known an image processing technique for extracting the. In this image processing method, the edge is a place where the brightness changes abruptly, so the differential value of the change in the brightness of the image is obtained, and this is used to extract the edge element from the image of the object. It is based on that. The differentiation here is x and y
This is a spatial first-order differentiation (gradient) for differentiating the grayscale change of an image according to coordinates, and the magnitude of the gradient is an amount corresponding to the edge strength.

【0003】この方法を上記の部品実装に適用するなら
ば、次の点が問題となる。 (1) 基板と部品の濃淡(コントラスト)が弱い場合に
は、エッジの抽出が不可能になる。
If this method is applied to the above-described component mounting, the following points become problems. (1) If the contrast between the board and the component is weak, edge extraction becomes impossible.

【0004】(2) 部品と基板或は基板上の実装位置との
組み合わせ毎に微分値の閾値を決める必要がある。
(2) It is necessary to determine a threshold value of a differential value for each combination of a component and a board or a mounting position on the board.

【0005】(3) 電気抵抗その他の回路素子のように複
数の色に着色された部品の場合には、1つの閾値ではエ
ッジの一部しか抽出できない。
(3) In the case of parts colored in a plurality of colors such as electric resistance and other circuit elements, only one edge can be extracted with one threshold value.

【0006】(4) 部品の状態(位置、姿勢)が変化する
と、基板との相対関係も変化するので、エッジ部の微分
値が変化し、事前に設定した閾値が不適切なものとな
る。
(4) When the state (position, posture) of the component changes, the relative relationship with the substrate also changes, so that the differential value of the edge changes, and the threshold value set in advance becomes inappropriate.

【0007】そこで、回路基板上の部品のエッジ部の3
点(位置)で、微分値だけでなく微分値のプロフィール
(微分値をグラフにプロットしたときの形状)をも使用
してエッジを抽出することが提案されている。
Therefore, the edge 3 of the component on the circuit board is
It has been proposed to extract an edge at a point (position) using not only the differential value but also a profile of the differential value (shape when the differential value is plotted on a graph).

【0008】しかしながら、この手法によると、次の点
が問題となる。 (1) 部品と基板上の位置との全ての組み合わせについて
プロフィールを設定する必要がある。
However, according to this method, the following points become problems. (1) It is necessary to set profiles for all combinations of parts and positions on the board.

【0009】(2) 部品の状態が変化すると、検出すべき
点のプロフィールも事前に登録した同型部品についての
プロフィールと異なるものになる。
(2) When the state of the part changes, the profile of the point to be detected becomes different from the profile of the same type part registered in advance.

【0010】(3) 水平方向と垂直方向のプロフィールが
登録されるため、基板部分の濃淡が一様で上記(2) の状
況にならなくても、部品が傾斜すると、プロフィールが
変化する。
(3) Since the profiles in the horizontal direction and the vertical direction are registered, even if the density of the board portion is uniform and the situation of the above (2) is not achieved, the profile changes when the component tilts.

【0011】上記のように、回路基板上に実装された部
品の輪郭画像によって部品の位置や姿勢を検出する場
合、部品の輪郭を安定して求めることは難しく、また回
路基板のエッジなども含まれるので、ノイズの多い画像
が対象となる。
As described above, when detecting the position and orientation of a component from the contour image of the component mounted on the circuit board, it is difficult to stably obtain the contour of the component, and the edge of the circuit board is also included. Therefore, an image with a lot of noise is targeted.

【0012】このようなノイズの多い画像から解析的図
形(パラメータを含む方程式で形状を記述できる図形)
を検出する代表的な手法として、ハフ(Hough )変換が
知られている(米国特許第 3,069,654号)。これを長方
形の検出に適用すると、次のようになる。
Analytical figures (figures whose shapes can be described by equations including parameters) from such noisy images
The Hough transform is known as a typical method for detecting the noise (US Pat. No. 3,069,654). Applying this to rectangle detection results in:

【0013】図15に示すように、xy座標平面にある
長方形の大きさ(既知)をpxl(長辺の長さ)及びpyl
(短辺の長さ)、x座標軸に対する長方形の傾きをΘ、
長方形の中心座標を(X,Y)とし、長方形の四辺A,
B,C,D上の点(x,y)が各辺上のどの位置にある
かを示すパラメータs,tの範囲を次のように定める。
As shown in FIG. 15, the size (known) of a rectangle on the xy coordinate plane is represented by p xl (long side length) and p yl.
(The length of the short side), the inclination of the rectangle with respect to the x coordinate axis is Θ,
The center coordinates of the rectangle are (X, Y), and the four sides A of the rectangle are
The range of the parameters s and t indicating the position on each side of the point (x, y) on B, C and D is determined as follows.

【0014】A:0≦s≦pxl,t=0 B:0≦s≦pxl,t=pyl C:s=0, 0≦t≦pyl D:s=pxl,0≦t≦pyl このとき、長方形上の点(x,y)は次式で表わされ
る。
A: 0 ≤ s ≤ p xl , t = 0 B: 0 ≤ s ≤ p xl , t = pyl C: s = 0, 0 ≤ t ≤ p yl D: s = p xl , 0 ≤ t ≤ pyl At this time, the point (x, y) on the rectangle is represented by the following equation.

【0015】[0015]

【数1】 [Equation 1]

【0016】上式において、画像の各画素の座標(x,
y)を代入し、パラメータs,t,Θを変えてそれらの
各値に対応する(X,Y)を計算し、得られた点(X,
Y,Θ)をX,Y,Θの3次元空間に投票する。その結
果、3次元空間で最も集積度の高い点(X,Y,Θ)が
長方形の中心と傾きを示すものと考えられる。
In the above equation, the coordinates (x,
y) is substituted, parameters (s, t, Θ) are changed to calculate (X, Y) corresponding to the respective values, and the obtained point (X, Y
Y, Θ) is voted in the three-dimensional space of X, Y, Θ. As a result, it is considered that the point (X, Y, Θ) with the highest degree of integration in the three-dimensional space shows the center and inclination of the rectangle.

【0017】[0017]

【発明が解決しようとする課題】しかしながら、この手
法をそのまま回路基板上の部品位置検出に応用すると、
誤認識が生ずることがある。これは、図3に示すような
回路基板と実装部品の画像において、回路基板1上の導
電部に部品2の端子部を電気的に接続するハンダ付着部
分3がハンダの付く形によって変形する場合が多く、こ
の輪郭部分(画素)から上記3次元空間への投票値が減
少すること、及び、回路基板上の導電部や部品輪郭内部
のエッジ等で形成される長方形のパターンが存在し、こ
れら部品以外の長方形パターンの集積値も大きくなるこ
とから、部品の中心位置と傾きが各々の正しい値からず
れてしまうためである。
However, if this method is directly applied to the detection of the component position on the circuit board,
False recognition may occur. This is because in the image of the circuit board and the mounted components as shown in FIG. 3, when the solder attachment portion 3 for electrically connecting the terminal portion of the component 2 to the conductive portion on the circuit board 1 is deformed due to the soldered shape. The number of voting values from the contour portion (pixel) to the three-dimensional space decreases, and there is a rectangular pattern formed by the conductive portion on the circuit board or the edge inside the component contour. This is because the integrated value of the rectangular pattern other than the component also becomes large, and the center position and inclination of the component deviate from their correct values.

【0018】従って、本発明の目的は、ハフ変換を利用
して回路基板上の部品の位置、姿勢などの状態を誤認識
することなく検出できる方法を提供することにある。
Therefore, an object of the present invention is to provide a method capable of detecting the position, posture, etc. of a component on a circuit board without erroneous recognition by utilizing the Hough transform.

【0019】[0019]

【課題を解決するための手段】本発明は、図3のような
画像において部品の輪郭を示す辺のうち、ハンダが接合
した辺においてはグラジエントの方向が部品の内部に向
いて不安定であり、他方、ハンダが接合しない辺におい
ては安定であるという性質に鑑み、前述のハフ変換を部
品の状態検出に適用するに際して、部品の輪郭の特性を
利用する(例えば、ハンダが接合しない辺には重みを付
けて投票し、ハンダが接合した辺との差異を設ける)よ
うにしたものである。
According to the present invention, the gradient direction is unstable toward the inside of the component on the side where the solder is joined among the sides showing the contour of the component in the image as shown in FIG. On the other hand, in view of the property that the solder is stable on the side where the solder does not join, when applying the above-mentioned Hough transform to the state detection of the part, the characteristics of the contour of the part are used (for example, on the side where the solder does not join, Voted with a weight, to make a difference with the side where the solder is joined).

【0020】そのための構成として、本発明は、回路基
板上に設置した部品の位置や姿勢を検出する方法におい
て、前記部品の像を含む画像の明るさを微分することで
得られる各画素のグラジエントに基づいて前記画像中の
部品の輪郭を抽出し、前記グラジエントの方向によって
各画素が前記部品の輪郭上のどの辺にあるかを判定し、
その結果に応じて各画素に重みを付けてハフ変換を行う
ことにより、前記部品の状態を検出することを特徴とす
る。
As a configuration for that purpose, the present invention is a method for detecting the position and orientation of a component installed on a circuit board, and the gradient of each pixel obtained by differentiating the brightness of an image including the image of the component. Based on the extracted contour of the part in the image, the direction of the gradient to determine which side each pixel is on the contour of the part,
The state of the component is detected by weighting each pixel according to the result and performing Hough transform.

【0021】また、本発明の付加的な構成として、前記
画像を構成する画素のグラジエントの方向の分布から部
品傾斜角度を検出し、その検出した角度及び該角度との
所定の角度差を有する大小2つの角度をそれぞれ前記部
品の傾斜角度として、前記ハフ変換を集積値が減少する
まで繰り返し実行し、後の2つの角度の場合のハフ変換
の集積値が減少した時その直前の部品検出位置及び傾斜
角度を前記部品の位置及び傾きとするとよい。更に、こ
の場合、2回目以降のハフ変換では、投票するパラメー
タ平面を限定し、その限定した平面上の領域に投票する
画素及びパラメータの範囲を事前に計算するとよい。
As an additional configuration of the present invention, the component inclination angle is detected from the distribution of the pixels forming the image in the gradient direction, and the detected angle and a predetermined angle difference from the angle are detected. The Hough transform is repeatedly executed with the two angles as the inclination angle of the component until the integrated value decreases, and when the integrated value of the Hough transform for the latter two angles decreases, the component detection position immediately before that and The tilt angle may be the position and tilt of the component. Further, in this case, in the second and subsequent Hough transforms, it is preferable to limit the parameter plane for voting and to calculate in advance the range of pixels and parameters for voting in the area on the limited plane.

【0022】[0022]

【作用】本発明によれば、CCDカメラ等の撮像装置に
より得られた部品の像を含む画像の明るさを微分するこ
とで、前記画像を構成する画素のグラジエントの大きさ
と方向が求められる。グラジエントの大きさを用いるこ
とで画像中の部品の輪郭が抽出される一方、グラジエン
トの方向を用いて各画素が前記部品の輪郭上のどの辺に
あるかが判定される。そして、その判定結果により各画
素に重みを付け、前述のようなハフ変換を行うことによ
り、部品の位置や姿勢がより正確に検出される。
According to the present invention, the magnitude and direction of the gradient of the pixels forming the image are obtained by differentiating the brightness of the image including the image of the part obtained by the image pickup device such as the CCD camera. While the size of the gradient is used to extract the outline of the part in the image, the direction of the gradient is used to determine which side of the outline of the part each pixel is. Then, by weighting each pixel based on the determination result and performing the Hough transform as described above, the position and orientation of the component can be detected more accurately.

【0023】また、画像を構成する画素のグラジエント
の方向の分布から部品傾斜角度を検出し、ハフ変換を集
積値が減少するまで繰り返し実行して部品の位置や傾き
を検出することにより、それらの検出精度が向上する。
Further, the component inclination angle is detected from the gradient direction distribution of the pixels forming the image, and the Hough transform is repeatedly executed until the integrated value decreases to detect the position and inclination of the component. The detection accuracy is improved.

【0024】更に2回目以降のハフ変換で、限定した平
面上の領域に投票する画素及びパラメータの範囲を事前
に計算することにより、全体の計算量が減少し、検出が
高速化される。
Further, in the second and subsequent Hough transforms, by pre-calculating the range of pixels and parameters to vote in the limited area on the plane, the overall calculation amount is reduced and the detection speed is increased.

【0025】[0025]

【実施例】図1は、本発明の方法を実施するシステム構
成を示す。このシステムは、回路基板1上に実装された
部品2を含む図3のような濃淡画像を得るための撮像装
置として、CCDカメラ11を備えると共に、このカメ
ラ11から送られる画像信号について後述の画像処理操
作を行う処理手段として、パーソナルコンピュータ12
と、その処理動作や画像データ等を表示するモニタ用C
RT13とを備えている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT FIG. 1 shows a system configuration for implementing the method of the present invention. This system is provided with a CCD camera 11 as an image pickup device for obtaining a grayscale image as shown in FIG. 3 including a component 2 mounted on a circuit board 1, and an image signal to be sent from the camera 11 will be described later. A personal computer 12 is used as processing means for performing processing operations.
And a monitor C for displaying its processing operation and image data
And RT13.

【0026】図2は、上記パソコン12で実行される本
発明方法の処理手順を示すフローチャートである。この
手順の概略は、次のとおりである。
FIG. 2 is a flow chart showing the processing procedure of the method of the present invention executed by the personal computer 12. The outline of this procedure is as follows.

【0027】初めに、CCDカメラ11により得られた
濃淡画像において、部品の輪郭抽出を行うことにより、
図4に示すように輪郭が強調された画像が得られる。そ
の際、後述の「エッジの連続性」に基づいて部品の輪郭
上の画素の重み付けを行う(ステップST1)。次に、
上記画像を構成する画素のグラジエントの方向の分布か
ら部品傾斜角度を検出し(ステップST2)、その検出
した傾斜角度によって各画素の重み付けを行う(ステッ
プST3)。この結果、部品の輪郭について重み付けを
した画像(図14)と部品の傾斜角度が得られるので、
これに対して傾斜角度を固定した長方形ハフ変換を行
い、部品の中心位置を検出する(ステップST4)。以
下、各ステップについて説明する。
First, in the grayscale image obtained by the CCD camera 11, the contour of the component is extracted,
As shown in FIG. 4, an image with an enhanced contour is obtained. At that time, the pixels on the contour of the component are weighted based on the "continuity of edges" described later (step ST1). next,
The component inclination angle is detected from the gradient direction distribution of the pixels forming the image (step ST2), and each pixel is weighted by the detected inclination angle (step ST3). As a result, an image in which the contour of the component is weighted (FIG. 14) and the inclination angle of the component are obtained.
On the other hand, a rectangular Hough transform with a fixed inclination angle is performed to detect the center position of the component (step ST4). Each step will be described below.

【0028】初めに、部品の輪郭抽出の原理を説明す
る。
First, the principle of component contour extraction will be described.

【0029】まず、画像の濃淡(明るさ)を微分するこ
とで得られるグラジエントの大きさと方向を求める。図
5に示すx−y平面上で画像の明るさをf(x,y)とする
と、グラジエント∇fは、x方向の微分値ベクトルdx
y方向の微分値ベクトルdyとの和で表わされ、グラジエ
ントの大きさ(エッジの強度)は次式で表わされる。
First, the magnitude and direction of the gradient obtained by differentiating the light and shade (brightness) of the image are obtained. Assuming that the brightness of the image is f (x, y) on the xy plane shown in FIG. 5, the gradient ∇f is represented by the sum of the differential value vector dx in the x direction and the differential value vector dy in the y direction. The gradient magnitude (edge strength) is expressed by the following equation.

【0030】[0030]

【数2】 [Equation 2]

【0031】また、グラジエントの方向は、画像の明と
暗の境界線(検出対象の輪郭)に垂直で、暗から明に向
かうベクトルの角度θである。
Further, the gradient direction is the angle θ of the vector from the dark to the light, which is perpendicular to the boundary line (the contour of the detection target) between the light and the dark of the image.

【0032】再び図3の画像において、部品2のエッジ
は直線若しくは緩やかな曲線状である一方、基板1(画
像の地の部分)のエッジはランダムに分布していること
から、「エッジの連続性」という考えを用いて部品の輪
郭を抽出する。この「エッジの連続性」とは、注目して
いるエッジ点(エッジの強度が閾値以上の値を持つ点)
のエッジの方向とそれに隣接するエッジ点のエッジの方
向が同じであることを意味する。この「エッジの連続
性」という考えそれ自体は、画像認識技術において公知
の概念である。
In the image of FIG. 3 again, the edges of the component 2 are straight or gently curved, while the edges of the substrate 1 (ground portion of the image) are randomly distributed. The contour of the part is extracted using the idea of "sex". This "edge continuity" refers to the edge point of interest (the point where the edge strength has a value equal to or greater than a threshold value).
It means that the direction of the edge of is the same as the direction of the edge of the edge point adjacent thereto. This idea of “continuity of edges” is a concept known in the art of image recognition.

【0033】上記のエッジ点を求めるための閾値の決め
方は、次の通りである。すなわち、画像を構成する画素
中の点(i, j)でのエッジの強度をeijとし、強度eij
の最大値emax の所定割合(R %)を閾値TH とする
と、eij≧TH を満足する点(i, j)がエッジ点であ
る。
The method of determining the threshold value for obtaining the above-mentioned edge point is as follows. That is, the edge strength at the point (i, j) in the pixels forming the image is e ij , and the strength e ij
Assuming that a predetermined ratio (R%) of the maximum value e max of the above is a threshold T H , a point (i, j) satisfying e ij ≧ T H is an edge point.

【0034】ここで、注目点(i, j)から見た8つの近
傍点(画素)の方向を、図6に示すように整数kで表わ
す。また、図7に示すように、注目点(i, j)のエッジ
の方向をdとし、dから反時計回りにπ/2だけ回転した
方向をd+π/2とする。この方向にある隣接点は、注目
点に立ってそのエッジの方向を向いた時エッジに沿って
左側に位置するので、注目点の左隣接点と呼ぶ。
Here, the directions of the eight neighboring points (pixels) viewed from the point of interest (i, j) are represented by an integer k as shown in FIG. Further, as shown in FIG. 7, the direction of the edge of the point of interest (i, j) is d, and the direction rotated counterclockwise by π / 2 is d + π / 2. An adjacent point in this direction is referred to as a left adjacent point of the point of interest because it is located on the left side along the edge when standing at the point of interest and facing the direction of the edge.

【0035】方向kの隣接点と注目点とが共にエッジ点
であるとき、エッジの連続性をみるためには、両方の点
がエッジに沿って並んでいるかどうかということと、エ
ッジの方向がそろっているかどうかということが、評価
されなければならない。
When both the adjacent point in the direction k and the point of interest are edge points, in order to see the continuity of the edge, whether or not both points are lined up along the edge and the direction of the edge are Whether or not they are complete must be evaluated.

【0036】いま、方向kのエッジ点が注目点の左隣接
点であるかどうか、エッジの方向がそろっているかどう
かをみる左側の評価関数をL(k) 、同様に右側の評価関
数をR(k) とすると、各評価関数は次式で与えられる。
Now, it is checked whether the edge point in the direction k is the left adjacent point to the point of interest and whether the edge directions are aligned. The evaluation function on the left side is L (k), and the evaluation function on the right side is R as well. Assuming (k), each evaluation function is given by the following equation.

【0037】[0037]

【数3】 (Equation 3)

【0038】ここで、関数aはHere, the function a is

【0039】[0039]

【数4】 [Equation 4]

【0040】であり、|α−β|は角度αとβの差の絶
対値である。
Where | α-β | is the absolute value of the difference between the angles α and β.

【0041】a( α,β )はαとβの値が近いほど大き
い値をとり、α=βのとき最大で、a( α,β )=1、
αとβが反対のとき最小でa( α,β )=0となる。す
なわち、0≦a( α,β)≦1である。
A (α, β) takes a larger value as the values of α and β are closer to each other. When α = β, the maximum value is a (α, β) = 1,
When α and β are opposite, the minimum is a (α, β) = 0. That is, 0 ≦ a (α, β) ≦ 1.

【0042】従って、式(3) のa(d, dk) は、注目点と
方向kの隣接点のエッジの方向がどの程度そろっている
かを評価する因子であり、a( πk/4, d+π/2 )は、方
向kの隣接点が左隣接点かどうかを評価する因子であ
る。例えば、注目点のエッジの方向d=0の場合の左隣
接点はk=2であるが、このとき d+π/2=πk/4 、故
にa( πk/4, d+π/2 )=0となる。更に、d=dk
あればa(d, dk) =1、故にL(2) =1と最大値にな
る。右側についても同様である。このようにエッジの連
続性が高いほどL(k) とR(k) の値が大きくなるので、
これらを連続性評価関数と称される。このような評価関
数を用いることで各画素のエッジの連続性が評価される
ので、それに基づいて部品の輪郭上の画素の重み付けを
行うことができる。
Therefore, a (d, d k ) in the equation (3) is a factor for evaluating how well the edges of the point of interest and the adjacent points of the direction k are aligned, and a (πk / 4, d + π / 2) is a factor for evaluating whether or not the adjacent point in the direction k is the left adjacent point. For example, when the edge direction of the point of interest is d = 0, the left adjacent point is k = 2, but at this time, d + π / 2 = πk / 4, and thus a (πk / 4, d + π / 2) = 0. . Further, if d = d k , a (d, d k ) = 1, and therefore L (2) = 1, which is the maximum value. The same applies to the right side. As described above, the higher the continuity of the edge, the larger the values of L (k) and R (k).
These are called continuity evaluation functions. Since the edge continuity of each pixel is evaluated by using such an evaluation function, the pixels on the contour of the component can be weighted based on the evaluation.

【0043】なお、エッジの連続性評価以外の方法で部
品の輪郭を抽出してもよい。
The contour of the component may be extracted by a method other than the edge continuity evaluation.

【0044】図2に戻ると、ステップST1で部品輪郭
上の画素の重み付けを行った後、部品の傾き(傾斜角
度)を検出する(ステップST2)。これは次のように
行われる。
Returning to FIG. 2, after weighting the pixels on the component outline in step ST1, the inclination (inclination angle) of the component is detected (step ST2). This is done as follows.

【0045】まず、前述のグラジエントの方向(角度
θ)を画像の全画素について求め、角度を横軸とし画素
数を縦軸とする平面上にプロットする。例えば、角度が
90°の位置ではグラジエントが90°となった画素の数を
プロットする。その結果、図8に示すような±180 °の
角度範囲のヒストグラムが得られる。
First, the gradient direction (angle θ) is obtained for all pixels of the image and plotted on a plane with the horizontal axis representing the angle and the vertical axis representing the number of pixels. For example, if the angle is
At the 90 ° position, the number of pixels with a gradient of 90 ° is plotted. As a result, a histogram in the range of ± 180 ° as shown in FIG. 8 is obtained.

【0046】ここで対象とする画像には、部品の輪郭を
示す水平成分と垂直成分の多いパターンが多く含まれて
いるので、上記のヒストグラムは、ほぼ90°周期の分布
となる。そこで、±45°及び±135 °の折り返し点でヒ
ストグラムを重ね合わせると、図9に示すような角度範
囲±45°のヒストグラムが作成される。これにより、90
°おきに分布していた部品の微分方向が、よりはっきり
する。
Since the target image contains many patterns having many horizontal and vertical components indicating the contour of the part, the above histogram has a distribution of about 90 ° period. Therefore, by superimposing the histograms at the turning points of ± 45 ° and ± 135 °, a histogram with an angle range of ± 45 ° as shown in FIG. 9 is created. This makes 90
The differential direction of the parts distributed every ° becomes clearer.

【0047】次に、図10に示すようなガウス関数フィ
ルタをかけること(フィルタリング)により、図11に
示すようにピーク(極大値)が明らかになるヒストグラ
ムを作成する。そして、このヒストグラムでノイズレベ
ルより上の部分の極大値の数が2以下になるまで、上記
フィルタリングを繰り返す。極大値の数が2以下になっ
たとき、極大値が1つであればその極大値をとる角度を
部品の傾きとし、極大値が2つであれば絶対値の大きい
方の角度を部品の傾きとする。図12に示した例では、
0°に近いピークはパターンの水平又は垂直の成分であ
るので、絶対値の大きい方の角度16°を部品の傾きとす
る。
Next, a Gaussian function filter as shown in FIG. 10 is applied (filtering) to create a histogram in which the peak (maximum value) becomes clear as shown in FIG. Then, the above filtering is repeated until the number of local maximums above the noise level in this histogram becomes 2 or less. When the number of maximum values is 2 or less, if there is one maximum value, the angle that takes the maximum value is the inclination of the component, and if there are two maximum values, the angle with the larger absolute value is the component angle. Slope In the example shown in FIG.
Since the peak near 0 ° is the horizontal or vertical component of the pattern, the angle of 16 ° having the larger absolute value is the inclination of the component.

【0048】図2のステップST2では、上記の手順に
より全画像のグラジエントの方向の分布から部品傾斜角
度が検出されるので、この検出結果に基づき部品位置の
修正等を行うことができる。
In step ST2 of FIG. 2, the component inclination angle is detected from the distribution of the gradient directions of all the images by the above procedure, so that the component position can be corrected based on the detection result.

【0049】次に、ステップST3では、上記のように
検出した傾斜角度により各画素の重み付けを行う。これ
は、例えば図13に示すような重み係数fを各画素の重
みwに掛けて新しい重みとする。すなわち、検出した部
品傾斜角度をΘ、グラジエントの方向をθ、両者の差の
絶対値|Θ−θ|をΔθとしたとき、 新しい重み=w・f(Δθ) …(6) 重み係数fは、 Δθ<aのとき f=1 a≦Δθ≦bのとき f=(b−Δθ)/(b−a) b<Δθのとき f=0 となる。これにより、部品の輪郭の方向(傾斜角度)に
よる画素の重み付けをした、図14に示すような画像
と、部品の傾斜角度が得られる。
Next, in step ST3, each pixel is weighted by the tilt angle detected as described above. For example, a new weight is obtained by multiplying the weight w of each pixel by a weight coefficient f as shown in FIG. That is, when the detected component inclination angle is Θ, the gradient direction is θ, and the absolute value | Θ−θ | of the difference between them is Δθ, new weight = w · f (Δθ) (6) The weight coefficient f is When Δθ <a, f = 1 When a ≦ Δθ ≦ b f = (b−Δθ) / (b−a) When b <Δθ, f = 0. As a result, an image in which pixels are weighted according to the direction (tilt angle) of the contour of the component and the tilt angle of the component are obtained as shown in FIG.

【0050】次に、図2のステップST4では、部品の
傾斜角度を固定して前述のハフ変換(図15)による部
品中心位置の検出を行う。
Next, in step ST4 of FIG. 2, the inclination angle of the component is fixed and the center position of the component is detected by the Hough transform (FIG. 15) described above.

【0051】この時、まず、各画素のグラジエントの方
向により、各画素が図15の長方形のどの辺上にある可
能性があるかを調べる。例として、図15の長方形の辺
C、Dを実装部品のハンダと接続している辺とし、辺
A、Bをハンダと接続していない辺とする。画像におい
て、ハンダ部分は暗く表われ、部品の輪郭内部のハンダ
との接続辺の付近は予備ハンダが施されていて明るく表
われる。このため、辺C、D上の各画素のグラジエント
は、部品の輪郭内部に向かって対向する。一方、辺A、
B上の各画素のグラジエントは、部品と基板の明るさの
相対関係により、部品輪郭の内部か外部かが一意には決
まらない。それ故、部品の傾斜角度と各画素のグラジエ
ントの方向から、図16により、各画素がどの辺上にあ
る可能性があるかを判断することができる。
At this time, first, it is checked which side of the rectangle in FIG. 15 each pixel may be on, depending on the gradient direction of each pixel. As an example, it is assumed that the sides C and D of the rectangle in FIG. 15 are the sides connected to the solder of the mounting component and the sides A and B are the sides not connected to the solder. In the image, the solder portion appears dark, and the vicinity of the connection side with the solder inside the outline of the part appears bright because the preliminary solder has been applied. Therefore, the gradients of the pixels on the sides C and D face each other toward the inside of the contour of the component. On the other hand, side A,
The gradient of each pixel on B cannot be uniquely determined whether it is inside or outside the contour of the component due to the relative relationship between the brightness of the component and the brightness of the substrate. Therefore, it is possible to determine which side each pixel may be on from FIG. 16 from the inclination angle of the component and the gradient direction of each pixel.

【0052】次に、図17に示すように、上辺A又は下
辺B上と考えられる点については、上辺A、下辺Bと考
えた場合にそれぞれ部品の中心となる点にパラメータ
s,tを決めて順次投票する。左辺C上と考えられる点
については、左辺Cと考えた場合に部品の中心となる点
にプラス(+)を付けて投票し、右辺Dと考えた場合に
部品の中心となる点にはマイナス(−)を付けて投票す
る。一方、右辺D上と考えられる点については、左辺C
の場合とは逆の+,−を付けて投票する。また、これら
の投票を行う時、上辺A又は下辺B上と考えられる点に
ついては、左辺C又は右辺D上と考えられる点よりも大
きい重みを付けて投票する。なお、+,−を付けること
は、+1,−1の重みを付けることと同等である。
Next, as shown in FIG. 17, regarding the points considered to be on the upper side A or the lower side B, the parameters s and t are determined at the points which are the centers of the parts when the upper side A and the lower side B are considered. Vote sequentially. For points that are considered to be on the left side C, vote with a plus (+) attached to the point that is the center of the part when you think of the left side C, and minus if you think of the right side D. Vote with (-). On the other hand, regarding the point that is considered to be on the right side D, the left side C
Vote with + and – opposite to the case of. Further, when these votes are cast, the points considered to be on the upper side A or the lower side B are weighted more heavily than the points considered to be on the left side C or the right side D. Note that adding + and-is equivalent to adding weights of +1 and -1.

【0053】かくして、長方形又はそれに近い形状の部
品に対する従来のハフ変換法によると誤認識し易い位置
で+、−の投票が行われるので、集積値がキャンセルさ
れると共に、重みの大きい上辺及び下辺からの投票値が
大きくなるので、前述の誤認識がなくなる。
In this way, since the + and-votes are performed at the position where the conventional Hough transform method is likely to erroneously recognize a rectangle or a part having a shape close to that, the accumulated value is canceled and the upper side and the lower side with large weights are cancelled. Since the voting value from is large, the above-mentioned erroneous recognition is eliminated.

【0054】上記の方法では、部品の傾斜角度は、ハフ
変換前のステップST2で検出される。こうすると、ハ
フ変換の際に角度パラメータΘを変える必要がなく、演
算を高速化することができる。その反面、各画素の位置
情報(中心位置等)を使用しないで角度を検出している
ので、傾斜角度が0°に近いところでは誤差の生ずる場
合がある。そこで、このような誤差の発生を防止し、よ
り高精度の検出を可能にするために、図18に示す方法
を用いることができる。
In the above method, the inclination angle of the component is detected in step ST2 before Hough conversion. By doing so, it is not necessary to change the angle parameter Θ at the time of Hough transform, and the calculation speed can be increased. On the other hand, since the angle is detected without using the position information (center position etc.) of each pixel, an error may occur when the tilt angle is close to 0 °. Therefore, the method shown in FIG. 18 can be used in order to prevent the occurrence of such an error and enable more accurate detection.

【0055】図18について説明すると、初めに、図2
のステップST2で検出した傾斜角度Θを部品傾斜角度
θの初期値としてハフ変換を行い、部品の中心位置P0
を検出する。このときの集積値をm0 とする(ステップ
ST5)。
Referring to FIG. 18, first, referring to FIG.
In step ST2, the Hough transform is performed using the inclination angle Θ detected as the initial value of the component inclination angle θ, and the center position P 0 of the component is calculated.
To detect. The integrated value at this time is set to m 0 (step ST5).

【0056】次に、適当な角度の刻み(角度差) dθを
設定し、初期値Θを基準とする大小2つの角度Θ− dθ
及びΘ+ dθについて、それぞれハフ変換を実行する
(ステップST6及びST7)。各場合の部品中心位置
をP1 ,P-1、集積値をm1 ,m-1とする。そして、こ
れら2つの角度の場合の集積値が初期値Θの場合よりも
大きければ角度誤差が生じたものとし、これらの場合の
集積値が大きい方向に角度を dθずつ変化させたハフ変
換を、集積値が小さくなるまで繰り返し実行する。その
結果、n回目で集積値が減少した場合、その前の(n−
1)回目の検出位置及び角度を部品の中心位置及び姿勢
とする。
Next, a proper angle step (angle difference) dθ is set, and two angles of large and small Θ−dθ based on the initial value Θ are set.
And Θ + dθ are subjected to Hough transform (steps ST6 and ST7). In each case, the component center position is P 1 , P -1 , and the integrated value is m 1 , m -1 . If the integrated value in the case of these two angles is larger than the initial value Θ, it is assumed that an angle error has occurred, and the Hough transform in which the angle is changed by dθ in the direction of the integrated value in these cases is Repeat until the accumulated value becomes smaller. As a result, when the accumulated value decreases at the nth time, (n-
1) The detected position and angle for the second time are the center position and posture of the component.

【0057】詳細には、ステップST8において集積値
0 >m1 かつm0 >m-1かどうかを判定し、YESで
あれば終了する。このとき、部品の中心位置及び姿勢は
それぞれP0 及びΘとする。
Specifically, in step ST8, it is determined whether or not the integrated values m 0 > m 1 and m 0 > m −1 . If YES, the process ends. At this time, the center position and orientation of the component are P 0 and Θ, respectively.

【0058】一方、ステップST8の判定がNOであれ
ば、次のステップST9において、m1 >m-1かどうか
を判定する。その結果、YESであれば、ハフ変換の回
数nを1に設定し(ステップST10)、その後1を加
算し(ステップST11)、部品傾斜角度θ=Θ+ dθ
×nとしてハフ変換を行い(ステップST12:このと
きの部品中心位置Pn ,集積値mn )、mn >mn-1
どうかを判定し(ステップST13)、NOであれば終
了する。このとき、部品の中心位置及び姿勢はそれぞれ
n-1 及びΘ+ dθ×(n−1)とする。YESであれ
ば、ステップST11に戻ってこれ以降の動作を繰返
す。
On the other hand, if the determination in step ST8 is NO, in the next step ST9, it is determined whether or not m 1 > m −1 . As a result, if YES, the number n of Hough transforms is set to 1 (step ST10), 1 is added thereafter (step ST11), and the component inclination angle θ = Θ + dθ.
Hough transformation is performed as × n (step ST12: component center position P n at this time, integrated value m n ), and it is determined whether m n > m n-1 (step ST13). If NO, the process ends. At this time, the center position and orientation of the component are P n-1 and Θ + dθ × (n-1), respectively. If YES, the process returns to step ST11 and the subsequent operations are repeated.

【0059】ステップST9において、m1 >m-1でな
ければ、ハフ変換の回数nを−1に設定し(ステップS
T14)、その後1を減算し(ステップST15)、部
品傾斜角度θ=Θ+ dθ×nとしてハフ変換を行い(ス
テップST16:このときの部品中心位置Pn ,集積値
n )、mn >mn-1 かどうかを判定し(ステップST
17)、NOであれば終了。YESであれば、ステップ
ST15に戻ってこれ以降の動作を繰返す。
In step ST9, if m 1 > m -1 is not set, the number of Hough transforms n is set to -1 (step S 9
T14), after which 1 is subtracted (step ST15), Hough transformation is performed with the component inclination angle θ = Θ + dθ × n (step ST16: component center position P n at this time, integrated value m n ), and m n > m It is determined whether it is n-1 (step ST
17), if NO, end. If YES, the process returns to step ST15 and the subsequent operations are repeated.

【0060】この方法によれば、ハフ変換の集積値が小
さくなり、部品の中心位置及び姿勢の検出精度が向上す
る。すなわち、ハフ変換の集積値の傾向を使用して効率
的に検出精度を向上させることができる。
According to this method, the integrated value of the Hough transform becomes small, and the accuracy of detecting the center position and posture of the component is improved. That is, it is possible to efficiently improve the detection accuracy by using the tendency of the integrated value of the Hough transform.

【0061】しかしながら、この方法では、ハフ変換の
繰り返しにより計算量が大幅に増大するという問題が生
じる。そこで、第2回目以降のハフ変換では、投票する
パラメータ平面(XY座標面)を制限し、この領域に投
票する画素(x,y)及びパラメータs,tの範囲を事
前に計算することにより、計算量を減少させることがで
きる。
However, this method has a problem that the amount of calculation is significantly increased by repeating Hough transform. Therefore, in the second and subsequent Hough transforms, the parameter plane (XY coordinate plane) for voting is restricted, and the range of pixels (x, y) and parameters s, t for voting in this area is calculated in advance, The amount of calculation can be reduced.

【0062】詳細には、実際の傾斜角度をΘとした時、
検出角度の誤差がθであったとすると、長方形の各辺上
にある点からの集積の様子は図19に示すようになり、
本来重なるべきものがずれてしまう。各辺の長さを図1
5のpxl(長辺)及びpyl(短辺)で表わすと、それぞ
れpxl sinθ,pyl sinθを最大幅として、検出位置座
標(X,Y)がずれる可能性がある。言い換えると、誤
差θが生じていても、この範囲内のどこかに真の部品中
心位置(X,Y)が存在する。従って、ハフ変換を繰り
返す場合、第n回目のハフ変換を行う際には、投票する
領域を、図20に示すように第n−1回目の検出位置の
周囲に絞ればよい。こうすることで、2回目以降の変換
を大幅に高速化することができる。
Specifically, when the actual tilt angle is Θ,
Assuming that the error in the detected angle is θ, the state of accumulation from the points on each side of the rectangle is as shown in FIG.
The things that should overlap should shift. Figure 1 shows the length of each side
When expressed by p xl (long side) and p yl (short side) of 5, the detected position coordinates (X, Y) may be displaced with p xl sin θ and p yl sin θ as the maximum widths. In other words, the true component center position (X, Y) exists somewhere within this range even if the error θ occurs. Therefore, when the Hough transform is repeated, when performing the nth Hough transform, the region to vote may be narrowed down to the periphery of the (n-1) th detected position as shown in FIG. By doing so, the second and subsequent conversions can be significantly speeded up.

【0063】具体的には、下記の式(7) と、前掲の式
(1) のパラメータs,tの範囲と、XY平面の領域を制
限する式(8) とを連立させ、各画素のパラメータs,t
の範囲を事前に求める。
Specifically, the following equation (7) and the above equation
The range of the parameters s and t in (1) and the equation (8) that limits the area of the XY plane are combined to form the parameters s and t of each pixel.
Find the range in advance.

【0064】[0064]

【数5】 (Equation 5)

【0065】但し、Xs ,Xe 及びYs ,Ye は、図2
0に示す矩形領域のX軸,Y軸方向における上限と下限
の値である。
However, X s , X e and Y s , Y e are as shown in FIG.
The upper and lower limits of the rectangular area shown in 0 in the X-axis and Y-axis directions.

【0066】図21は、この高速化の手順を示す。FIG. 21 shows a procedure for this speedup.

【0067】初めに、図2のステップST2で検出した
傾斜角度Θを部品傾斜角度θの初期値としてハフ変換を
行い、部品の中心位置P0 を検出する。このときの集積
値をm0 とする(ステップST21)。
First, the Hough transform is performed using the inclination angle Θ detected in step ST2 of FIG. 2 as an initial value of the component inclination angle θ, and the center position P 0 of the component is detected. The integrated value at this time is set to m 0 (step ST21).

【0068】次に、部品中心位置を投票する領域を、P
0 を中心とする領域A0 に制限する(ステップST2
2)。そして、図18の方法と同様に適当な角度の刻み
(角度差) dθを設定し、初期値Θを基準とする大小2
つの角度Θ− dθ及びΘ+ dθについて、それぞれ制限
領域A0 でハフ変換を実行する(ステップST23及び
ST24)。この後は、図18の方法と同様であり、前
記ステップST8以降の手順で行われる。
Next, let P be the area for voting the center position of the part.
It is limited to the area A 0 centered at 0 (step ST2).
2). Then, similarly to the method of FIG. 18, an appropriate angle step (angle difference) dθ is set, and the initial value Θ is used as a reference.
The Hough transform is executed in the restricted area A 0 for each of the angles Θ−dθ and Θ + dθ (steps ST23 and ST24). After this, the method is the same as that of FIG. 18, and the procedure is performed from step ST8 onward.

【0069】[0069]

【発明の効果】本発明の方法は、以上のような手順で実
施されるので、回路基板上の部品の位置及び姿勢を、ハ
フ変換を用いて誤認識することなく、検出することがで
きる。
Since the method of the present invention is carried out in the above procedure, the position and orientation of the component on the circuit board can be detected by Hough transformation without erroneous recognition.

【0070】また、ハフ変換の集積値の傾向を使用して
効率的に検出精度を向上させ、更にはハフ変換で投票す
る領域を制限することにより、演算処理の高速化を図る
こともできる。
Further, the tendency of the integrated value of the Hough transform can be used to efficiently improve the detection accuracy, and further, the region for voting by the Hough transform can be limited to speed up the arithmetic processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の方法を実施するシステム構成図。FIG. 1 is a system configuration diagram for implementing a method of the present invention.

【図2】本発明の方法の処理手順を示すフローチャー
ト。
FIG. 2 is a flowchart showing a processing procedure of the method of the present invention.

【図3】回路基板と実装部品の画像の一例を示す図。FIG. 3 is a diagram showing an example of images of a circuit board and mounted components.

【図4】図3の画像から抽出された部品等の輪郭画像を
示す図。
4 is a diagram showing a contour image of a part or the like extracted from the image of FIG.

【図5】濃淡画像中のグラジエントの方向を示す説明
図。
FIG. 5 is an explanatory diagram showing a gradient direction in a grayscale image.

【図6】注目点のエッジの方向を示す図。FIG. 6 is a diagram showing the direction of an edge of a point of interest.

【図7】注目点から見た隣接点の方向とエッジの方向と
左隣接点の方向を示す図。
FIG. 7 is a diagram showing the direction of an adjacent point, the direction of an edge, and the direction of a left adjacent point viewed from the point of interest.

【図8】グラジエントの角度に対するヒストグラムの例
を示す図。
FIG. 8 is a diagram showing an example of a histogram with respect to a gradient angle.

【図9】図5のヒストグラムを90°おきに重ね合わせる
ことにより得られた±45°の範囲のヒストグラムを示す
図。
9 is a diagram showing a histogram in a range of ± 45 ° obtained by superimposing the histogram of FIG. 5 at 90 ° intervals.

【図10】図9のヒストグラムをフィルタリングするた
めのガウス関数を示す図。
10 shows a Gaussian function for filtering the histogram of FIG.

【図11】図9のヒストグラムをガウス関数でフィルタ
リングして得られたヒストグラムを示す図。
FIG. 11 is a diagram showing a histogram obtained by filtering the histogram of FIG. 9 with a Gaussian function.

【図12】図11のヒストグラムを更にガウス関数でフ
ィルタリングして最後に得られたヒストグラムを示す
図。
FIG. 12 is a diagram showing a histogram finally obtained by further filtering the histogram of FIG. 11 with a Gaussian function.

【図13】部品輪郭の方向による重み付けのための重み
係数の例を示す図。
FIG. 13 is a diagram showing an example of weighting factors for weighting according to the direction of a component contour.

【図14】部品輪郭の方向による重み付けで図4の画像
から得られる画像の例を示す図。
14 is a diagram showing an example of an image obtained from the image of FIG. 4 by weighting according to the direction of the component contour.

【図15】長方形ハフ変換のパラメータの説明図。FIG. 15 is an explanatory diagram of parameters of rectangular Hough transform.

【図16】各画素が図15の長方形のどの辺上にある可
能性があるかを示す図。
16 is a diagram showing on which side of the rectangle in FIG. 15 each pixel may be located.

【図17】ハフ変換により各画素の重みを投票する平面
の説明図。
FIG. 17 is an explanatory diagram of a plane for voting the weight of each pixel by Hough transform.

【図18】本発明の方法において、より高精度の検出を
可能にするための手順を示すフローチャート。
FIG. 18 is a flowchart showing a procedure for enabling more highly accurate detection in the method of the present invention.

【図19】角度誤差による集積点のシフト可能性領域を
示す図。
FIG. 19 is a diagram showing a shift possibility region of an accumulation point due to an angle error.

【図20】ハフ変換の高速化のための集積限定領域を示
す図。
FIG. 20 is a diagram showing a limited integration region for speeding up Hough transform.

【図21】本発明の方法において集積点の領域限定によ
る高速化の手順を示すフローチャート。
FIG. 21 is a flowchart showing a procedure for speeding up by limiting the area of the accumulation points in the method of the present invention.

【符号の説明】[Explanation of symbols]

1…回路基板、2…部品、3…ハンダ付着部、11…C
CDカメラ、12…パソコン、13…モニタ用CRT。
DESCRIPTION OF SYMBOLS 1 ... Circuit board, 2 ... Component, 3 ... Solder adhesion part, 11 ... C
CD camera, 12 ... PC, 13 ... Monitor CRT.

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】基板上に設置した部品の位置などの状態を
検出する方法において、前記部品の像を含む画像の明る
さを微分することで得られる各画素のグラジエントに基
づいて前記画像中の部品の輪郭を抽出し、前記グラジエ
ントの方向によって前記各画素が前記輪郭上のどの辺に
あるかを判定し、その結果に応じて各画素に重みを付け
てハフ変換を行うことにより、前記部品の状態を検出す
ることを特徴とする部品状態検出方法。
1. A method for detecting a state such as a position of a component installed on a substrate, wherein a pixel in the image is obtained based on a gradient of each pixel obtained by differentiating a brightness of an image including an image of the component. The contour of the component is extracted, which side of the contour each pixel is on is determined by the direction of the gradient, and the Hough transform is performed by weighting each pixel according to the result, thereby performing the component transformation. A method of detecting a component state, which comprises detecting the state of the component.
【請求項2】請求項1記載の部品状態検出方法におい
て、前記画像を構成する画素のグラジエントの方向の分
布から部品傾斜角度を検出し、その検出した角度及び該
角度との所定の角度差を有する大小2つの角度をそれぞ
れ前記部品の傾斜角度として、前記ハフ変換を集積値が
減少するまで繰り返し実行し、後の2つの角度の場合の
ハフ変換の集積値が減少した時その直前の部品検出位置
及び傾斜角度を前記部品の位置及び傾きとして検出する
ことを特徴とする部品状態検出方法。
2. A component state detecting method according to claim 1, wherein a component inclination angle is detected from a distribution of pixels forming the image in a gradient direction, and the detected angle and a predetermined angle difference from the detected angle are detected. The Hough transform is repeatedly executed until the integrated value decreases, with the two large and small angles respectively set as the inclination angle of the component, and when the integrated value of the Hough transform in the case of the latter two angles decreases, the component detection immediately before that is detected. A component state detecting method comprising detecting a position and an inclination angle as a position and an inclination of the component.
【請求項3】請求項2記載の部品状態検出方法におい
て、2回目以降のハフ変換では、投票するパラメータ平
面を限定し、その限定した平面上の領域に投票する画素
及びパラメータの範囲を事前に計算することを特徴とす
る部品状態検出方法。
3. The component state detection method according to claim 2, wherein in the second and subsequent Hough transforms, the parameter plane to be voted is limited, and the range of pixels and parameters to be voted in the area on the limited plane is determined in advance. A method for detecting a component state, which comprises calculating.
JP3305144A 1991-11-20 1991-11-20 Parts status detection method Expired - Fee Related JP2505941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3305144A JP2505941B2 (en) 1991-11-20 1991-11-20 Parts status detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3305144A JP2505941B2 (en) 1991-11-20 1991-11-20 Parts status detection method

Publications (2)

Publication Number Publication Date
JPH05141920A JPH05141920A (en) 1993-06-08
JP2505941B2 true JP2505941B2 (en) 1996-06-12

Family

ID=17941611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3305144A Expired - Fee Related JP2505941B2 (en) 1991-11-20 1991-11-20 Parts status detection method

Country Status (1)

Country Link
JP (1) JP2505941B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219767A (en) * 2006-02-15 2007-08-30 National Institute Of Advanced Industrial & Technology Method and device for detecting lane
JP5109834B2 (en) * 2008-06-30 2012-12-26 富士通株式会社 Image processing apparatus and method
JP5338741B2 (en) * 2010-04-09 2013-11-13 コニカミノルタ株式会社 Image processing apparatus, image processing program, information processing apparatus, and information processing program

Also Published As

Publication number Publication date
JPH05141920A (en) 1993-06-08

Similar Documents

Publication Publication Date Title
CN107679520B (en) Lane line visual detection method suitable for complex conditions
EP1329850B1 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
US6985075B2 (en) Obstacle detection apparatus and method
US5717785A (en) Method and apparatus for locating patterns in an optical image
EP0389968A2 (en) Apparatus and method for extracting edges and lines
CN111047615B (en) Image-based straight line detection method and device and electronic equipment
CN110569861B (en) Image matching positioning method based on point feature and contour feature fusion
CN115096206B (en) High-precision part size measurement method based on machine vision
US20020158636A1 (en) Model -based localization and measurement of miniature surface mount components
CN111160477A (en) Image template matching method based on feature point detection
JP2002039962A (en) Method for inspecting electronic substrate and apparatus using the same
Laganiere Morphological corner detection
US6067379A (en) Method and apparatus for locating patterns in an optical image
JP2505941B2 (en) Parts status detection method
CN117635687A (en) Extraction method of line structure light stripe center
JP2004062519A (en) Lane mark detector
CN112669360B (en) Multi-source image registration method based on non-closed multi-dimensional contour feature sequence
CN108959355A (en) A kind of ship classification method, device and electronic equipment
JP2620441B2 (en) Component outline extraction method
Jeon et al. Map-based road detection in spaceborne synthetic aperture radar images based on curvilinear structure extraction
JP2505940B2 (en) Part tilt detection method
JP3502933B2 (en) Image processing method for target extraction from infrared image, target extraction method, ground observation method for tracking the extraction target, flying object guidance method and their devices
JP3203959B2 (en) Edge detection circuit of image processing device
JP3111434B2 (en) Image processing device
JP2859067B2 (en) Edge detection method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080402

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees