JPH0668257A - Detecting method for edge of object in image and detecting method for distance between edges - Google Patents

Detecting method for edge of object in image and detecting method for distance between edges

Info

Publication number
JPH0668257A
JPH0668257A JP4217743A JP21774392A JPH0668257A JP H0668257 A JPH0668257 A JP H0668257A JP 4217743 A JP4217743 A JP 4217743A JP 21774392 A JP21774392 A JP 21774392A JP H0668257 A JPH0668257 A JP H0668257A
Authority
JP
Japan
Prior art keywords
edge
image
object
size
position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4217743A
Other languages
Japanese (ja)
Inventor
Shigesato Adachi
Kenji Suzuki
Takehiro Yazaki
雄大 矢崎
茂聡 足立
健司 鈴木
Original Assignee
Kawasaki Steel Corp
川崎製鉄株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Steel Corp, 川崎製鉄株式会社 filed Critical Kawasaki Steel Corp
Priority to JP4217743A priority Critical patent/JPH0668257A/en
Publication of JPH0668257A publication Critical patent/JPH0668257A/en
Application status is Pending legal-status Critical

Links

Abstract

PURPOSE:To enable the sure detection of an edge by performing a cumulative addition of the density value of a picture element around an edge in a direction being orthogonally crossed with the edge, determining a curve having a cumulative value as a value along a coordinate axis and defining the feature point of this curve as an edge location. CONSTITUTION:In the image of a printed board 12 obtained by a camera 20, when the edge 24A of a land 24 is detected within a cumulative addition area, the location of an edge is hidden behind noise when the density value of each picture element in each picture element column and the location of the picture element column are expressed by a vertical axis and a lateral axis, respectively if the edge is noticed for every picture element column parallel to an X-axis. In an image processor 22, noise cancels with each other because noise generates at random as density differential value is integrated vertically to an X-axis, but the edge 24A of the land 24 exists on the same location on the X-axis and is emphasized, and a curve can be obtained. By determining the feature points of this curve such as a minimum value, a maximum changed point, etc., as an edge, the detection of the edge becomes possible.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【産業上の利用分野】この発明は、イメージセンサ等により得た画像を処理して、画像中の物体のエッジ及びエッジ間距離を検出する方法に関する。 BACKGROUND OF THE INVENTION This invention is to process the image obtained by the image sensor or the like, to a method for detecting an object edge and edge-to-edge distance in the image.

【0002】 [0002]

【従来の技術】画像処理の過程で、得られたデジタル画像に基づいてエッジを検出する方法としては、画像の濃度等の特徴が急激に変化する位置を探し出す方法が一般的であり、例えば、田村秀行著「コンピュータ画像処理入門」昭和60年3月10日総研出版発行、第5章、1 In the course of the Prior Art Image processing, as a method of detecting an edge based on the obtained digital image, a method characterized in density of the image is locate position changes rapidly is common, for example, Hideyuki Tamura et al., "Introduction to computer image processing", 1985 March 10, Soken Shuppan, Chapter 5, 1
19〜122頁に記載されるような、近傍画素領域内の濃度の和や平均値の差を用いてエッジを検出するものがある。 As described on pages 19 to 122, there is for detecting the edge by using the difference of the sum or the average value of the density in the vicinity of the pixel area.

【0003】更に、例えば特開昭62−202290号公報に開示されるように、画像の明るさの差によって重み付けした荷重平均によって、明るさの変化が最大となる位置をエッジとして求めるようにしたものがある。 [0003] Further, as disclosed in JP Sho 62-202290, the weighted average weighted by the difference in brightness of the image, the change in brightness is so determined as an edge position having the maximum there are things.

【0004】又、相対位置情報を用いて目的とする画像中でのエッジを検出するものがある。 [0004] Also, there is for detecting edges in an image of interest using the relative position information. 例えば特開平4− For example JP-4-
47467号公報に開示されるように、集積回路内の両端リードの先端位置座標を用いて中間リードの先端の存在必然位置を算出し、存在必然領域の近傍のみを探索して中間リード先端位置を算出するものがある。 As disclosed in 47467 JP, with both ends lead tip location coordinates in an integrated circuit to calculate the present inevitable position of the intermediate lead tip, an intermediate lead tip position by only searching the vicinity of the present inevitably region there are things to be calculated. 又、特開平2−116908号公報に開示されるものは、処理速度を速くするため、相対位置情報を利用して探索範囲を狭くしている。 Further, those disclosed in JP-A-2-116908, in order to increase the processing speed, and to narrow the search range by using the relative position information.

【0005】画像での目標点間距離を検出する方法としては、例えば特開昭60−263804号公報に開示されるように、長さが既知の部分を計測して補正係数を求め、目標点間部分のキャリブレーションを行う方法がある。 As a method of detecting an inter-target point distance in the image, as disclosed in JP Sho 60-263804, we obtain the correction coefficient length measures the known portion, and points a method of performing calibration between parts. これは図7に示されるように、長さが既知のマークMの実際の長さL sと画像処理によって計測されたl L which, as shown in FIG. 7, the length is measured by the actual length L s and the image processing of a known mark M s s
により、補正係数αを、α=L s /l sとして求め、目標点AB間部分の長さLを画像処理により求めた長さl Accordingly, the correction coefficient α, α = L s / l s determined as the length obtained by image processing the length L of the target point AB between the portions l
とαを用いて、式L=α×l により求めるようにしている。 With alpha and, so that obtained by equation L = α × l. 図7の符号1は物体、2はその画像、3はカメラを示す。 Number 1 in Figure 7 is an object, 2 the image, 3 denotes a camera.

【0006】 [0006]

【発明が解決しようとする課題】上記「コンピュータ画像処理入門」に記載されたエッジ検出方法では、小領域内で、エッジによる濃度変化が、ノイズによる濃度変化と比べて急激なときには適用できるが、同程度の場合はノイズに埋もれてしまい適用できないという問題点がある。 The edge detection method described above [0008] "Introduction to Computer Image Processing", in small region, the concentration change due to edge, can be applied when compared to the concentration change due to noise rapid, If the same level there is a problem that it can not be applied buried in noise.

【0007】更に、前記特開昭62−202290号公報に開示される方法は、荷重平均をとる際の範囲の設定方法が開示されていないため、設定を誤った場合に間違ったエッジ位置を検出してしまうという問題点がある。 Furthermore, the method disclosed in JP-A Sho 62-202290, since the method of setting the range when taking weighted average is not disclosed, detected the wrong edge position when a wrong setting there is a problem that to become.

【0008】又、前記特開平4−47467や特開平2 [0008] In addition, the JP-A-4-47467 and JP-A-2
−116908号公報に開示されるものは、存在必然領域内に同様な特徴を持った他のエッジが存在せず、各エッジ間の区別が明確な場合には適用できるが、類似した特徴を持ったエッジが複数存在して、各エッジの区別が困難な場合は、存在必然領域の設定方法が考慮されていないため、適用できないという問題点がある。 -116908 Patent those disclosed in publications, there is no other edge having the same features exist naturally in the area, can be applied in the case distinction between the edges clear, with similar characteristics and the edge there is a plurality, if distinction of each edge is difficult, since the method of setting the presence inevitably region is not considered, there is a problem that can not be applied.

【0009】更に又、前記特開昭60−263804号公報に開示される方法は、既知のマークMから求めた補正係数を目標点にそのまま適用するために、補正係数α [0009] Furthermore, the method disclosed in JP-A Sho 60-263804 is directly in order to apply to the target point correction coefficient obtained from a known mark M, the correction coefficient α
を求める際に用いるマークからカメラ(イメージセンサ)までの距離と、目標点からカメラまでの距離が等しい場合にのみ適用でき、マークの設定が非常に困難であるという問題点がある。 And the distance to the camera (image sensor) from the mark used to obtain the only applicable if the distance from the target point until the camera is equal, there is a problem that setting of the mark is very difficult.

【0010】第1発明は、上記従来の問題点に鑑みてなされたものであって、画像において、エッジによる濃度変化に乏しく、ノイズとの区別が困難な場合でもエッジを検出することができる画像中の物体のエッジ検出方法を提供することを目的とする。 [0010] The first invention was made in view of the above problems, in the image, poor concentration change due to the edge, the image distinguishing between the noise can detect the edge even if difficult and an object thereof is to provide an object of the edge detection method in.

【0011】又、第2発明は、画像中での、エッジ存在必然領域内に似たような特徴の複数のエッジが存在しても目的のエッジを確実に検出することができる画像中の物体のエッジ検出方法を提供することを目的とする。 [0011] The second invention is, in the image, in the image that can be multiple edges of features similar to the edge exists inevitably region to reliably detect the desired edge be present in the object and to provide the edge detection method.

【0012】又、第3発明は、エッジ間距離検出に際して、参照物からカメラまでの距離と目標エッジ間部分からカメラまでの距離が異なる場合でも、容易にエッジ間距離を検出することができる画像中の物体のエッジ間距離検出方法を提供することを目的とする。 [0012] Also, the image third invention, when the distance between the edges detected, even if the distance from the distance and a target edge between portions from the reference object to the camera until the camera is different, which can be easily detected edge distance and to provide an object distance between the edges detection method in.

【0013】 [0013]

【課題を解決するための手段】第1発明は、直線状のエッジを有する物体の画像における該エッジ周辺の画素の濃度値をエッジと直交する方向に累積加算し、画像中のエッジと直交する方向の座標軸に沿って前記累積値を値とする曲線を求め、この曲線の特徴点をエッジ位置として求めることを特徴とする画像中の物体のエッジ検出方法により上記目的を達成するものである。 SUMMARY OF THE INVENTION The first invention is a density value of the pixels near the edge by accumulating in the direction orthogonal to the edge of the image of an object having a straight edge, perpendicular to the edge in the image It obtains a curve to a value the accumulated value along a coordinate axis direction, is to achieve the above object by the edge detection method of an object in an image and obtains the feature point of the curve as the edge position.

【0014】又、前記特徴点近傍の前記累積値の3点を通る近似曲線を求め、この曲線の頂点をエッジ位置とするようにしてもよい。 [0014] Further, an approximate curve through the three points of the accumulated value of the feature point near determined, the apex of the curve may be set as the edge position.

【0015】第2発明は、物体の画像中の特徴点の位置を検出する過程と、この特徴点からの相対位置が予め判っているエッジの相対位置情報から、該エッジの探索範囲の位置及び大きさを、該エッジ以外のエッジが入らないように設定する過程と、この探索範囲内の画像データの処理により該エッジを検出する過程と、この求められたエッジ位置からの相対位置情報を用いて、他のエッジの探索範囲の位置及び大きさを決定する過程と、この探索範囲内の画像データの処理により該他のエッジを検出する過程と、を有してなり、前記エッジの探索範囲の位置及び大きさ決定、検出の過程を繰返し、最終的に目的とするエッジを検出する画像中の物体のエッジ検出方法により上記目的を達成するものである。 A second invention provides a process for detecting the positions of feature points in the object image, from the relative position information of the edges relative to the feature point is known in advance, the position and the search range of the edge size, using a process of setting as an edge other than the edge does not enter, the steps of detecting the edge by the processing of the image data within the search range, the relative position information from the thus determined edge position Te, and determining the position and size of the search range of the other edge, it has a, detecting the said other edge by the processing of the image data within the search range, the search range of said edge position and size determination of repeated process of detection, the object of the edge detection process in the image to detect the final edge of interest is to achieve the above object.

【0016】第3発明は、画像中の、大きさが一定の物体を参照物とし、この参照物の画像中での画素単位での大きさと、目標エッジ間距離の画素単位と実寸法との比を示す換算係数を、様々な参照物の画像中での大きさに対して予め求めた表を作成しておき、目標エッジ間距離の計測を行う際、画素単位で目標エッジ間距離と参照物の大きさを計測して、前記予め作成しておいた表と参照物の画素単位での大きさから換算係数を求め、該換算係数を画素単位での目標エッジ間距離に乗じて目標エッジ間の実寸法を求めることを特徴とする画像中の物体のエッジ間距離検出方法により上記目的を達成するものである。 A third invention, in the image, and the reference object a predetermined object size, and the size in pixels in the image of the reference object, the pixel unit and the actual size of the target distance between the edges the conversion factor represents the ratio, advance to create a pre-determined table relative to the size of the in images of various reference compounds, when performing the measurement of the target distance between the edges, the reference target distance between the edges in pixels by measuring the size of the object, the calculated conversion factor from the size in pixels of the previously prepared with table as reference was allowed, the target edge is multiplied by the conversion factor to the distance between the target edges in pixels the distance between the edges method of detecting an object in an image and obtains the actual dimension between is to achieve the above object.

【0017】 [0017]

【作用及び効果】請求項1の第1発明によれば、画像のエッジによる濃度変化が乏しく、ノイズとの区別が付き難いエッジの場合でも、ノイズはランダムに発生していて、打消し合うのに対して、エッジは直線であり、同一位置に必ず存在して強調されるので、エッジ周辺の画素濃度値をエッジと垂直方向に累積加算して得られた値は、S/N比が高く、この値に基づく曲線から確実にエッジを検出することができる。 According to the operation and effect] first invention of claim 1, the concentration change of the image of the edge is poor, even if the hard edges to distinguish between the noise, noise is not generated at random, the cancel respect, the edge is a straight line, because always at the same position is highlighted exist, the value obtained by cumulatively adding the pixel density value of the peripheral edge to the edge and the vertical direction, a high S / N ratio , it can be detected reliably edge from the curve based on this value.

【0018】請求項2によれば、曲線を求める際に、特徴点近傍の累積値の3点を通る近似曲線の頂点をエッジとしているので、正確なエッジ位置を求めることができる。 According to claim 2, when determining the curve, the apex of the approximate curve passing through three points of the cumulative values ​​of the neighboring feature points since the edge can be obtained an accurate edge positions.

【0019】請求項3の第2発明によれば、最終的に他のエッジが入らないような探索範囲の位置と大きさを決定してから、この探索範囲内の画像データを処理するので、類似した特徴を持ったエッジが複数存在しても確実に目的のエッジを検出することができる。 According to the second invention of claim 3, finally after determining the position and size of the search range does not enter the other edge, so to process the image data within the search range, it is an edge that has similar characteristics there are a plurality can be detected reliably desired edge.

【0020】請求項4の第3発明によれば、参照物からカメラ(イメージセンサ)までの距離と目標エッジ間部分からカメラまでの距離を同一に設定する必要がないために、目標エッジに付随する部品や、背景の一部を参照物として利用でき、容易に参照物を設定することができる。 According to the third invention of claim 4, in order from the referents camera need not be set to the same distance from the distance and a target edge between portion up (image sensor) to the camera, associated with the target edge parts and which can be used as a reference was part of the background, it is possible to easily set the reference product.

【0021】 [0021]

【実施例】以下、本発明に係る方法を図面を参照して詳細に説明する。 EXAMPLES Hereinafter, the method according to the present invention with reference to the accompanying drawings.

【0022】まず、図1に示される、本発明に係る画像中の物体のエッジ検出方法を利用するプリント基板の実装ライン10の全体のシステム構成について説明する。 [0022] First, as shown in FIG. 1, a description will be given of the overall system configuration of a printed circuit board mounting line 10 utilizing the edge detection method of an object in an image according to the present invention.

【0023】このプリント基板の実装ライン10は画像処理によりプリント基板12上のパターンの位置を自動計測し、このデータに基づきプリント基板12上に電子部品を自動搭載するものである。 [0023] in which mounting line 10 of the printed board is automatically measures the position of the pattern on the printed circuit board 12 by image processing, and automatically mounting electronic components on a printed circuit board 12 on the basis of this data.

【0024】位置計測の対象となるプリント基板12 [0024] The printed circuit board 12 as a target of position measurement
は、搬送機(ベルトコンベア)14により実装機16の前面位置に送られ、ここで位置決め機構18によっておおまかに位置決めされたプリント基板12を、上方からカメラ20により撮影し、得られた画像を画像処理装置22に送り、この画像処理装置22では画像処理によって、プリント基板12上のランド24の位置を求め、求められた位置に、搭載ヘッド26により、実装機16上に置かれているLSI等の電子部品17を自動搭載するものである。 It is sent to the front position of the mounting machine 16 by conveyor (belt conveyor) 14, a printed circuit board 12 which is roughly positioned by the positioning mechanism 18 where photographed by the camera 20 from above, the resulting picture sent to processor 22, by the image processing apparatus 22 in the image processing determines the position of the lands 24 on the printed circuit board 12, the obtained position, the mounting head 26, LSI or the like is placed on the mounting apparatus 16 of the electronic component 17 is intended to automatic mounting.

【0025】ここで、前記位置決め機構18は「がた」 [0025] In this case, the positioning mechanism 18 is "backlash"
があり、プリント基板12上への電子部品17の搭載に十分な精度では位置決めができない。 There are unable positioning with sufficient precision mounting of the electronic components 17 on the printed circuit board 12 above. 又、プリント基板12の外形と電子部品17を搭載するランド24との間にも製造誤差による位置誤差があり、このため、プリント基板12を正確に位置決めできても、電子部品17をランド24上の正しい位置に搭載することができない。 Also, there is a position error due to the manufacturing error between the lands 24 for mounting the outer and electronic components 17 of the printed circuit board 12, and thus, be capable of accurately positioning the printed circuit board 12, the electronic component 17 lands 24 on It can not be mounted in the correct position.

【0026】そこで、前述の如くカメラ20により撮影された画像を画像処理装置22で処理することによりランド24の位置、正確にはそのエッジの位置を直接求める必要がある。 [0026] Therefore, the position of the land 24 by processing the image captured by the camera 20 as described above in the image processing device 22, more precisely, it is necessary to determine the position of the edge directly.

【0027】次に、ランド24の、搬送機14による送り方向の位置を検出する過程について説明する。 Next, the lands 24, the step of detecting the position of the feed direction of the conveyor 14 will be described. なお、 It should be noted that,
これと直交方向の位置決めも同様の方法で行う。 This positioning in the orthogonal direction is also performed in a similar manner.

【0028】ランド24のエッジ24Aは直線状であるが、背景となるプリント基板12の上面の濃度がランド24の濃度に近いとき、画像中では明確に見えないため、搬送機14の送り方向での画像の濃度変化からは該エッジを求めることはできない。 [0028] While the edge 24A of the lands 24 is straight, when close to the density of the upper surface of the concentration lands 24 of the printed circuit board 12 as a background, since no clearly visible in the image, in the feeding direction of the conveyor 14 of the density change in the image can not be obtained the edge.

【0029】しかし、ランド24のエッジ24Aが、プリント基板12の外形エッジ、及び位置決め機構18のエッジ18Aと同一方向であるので、カメラ入力において、画面上の横方向(図1において搬送機14の送り方向)であるX軸に直交するように設定した。 [0029] However, the edge 24A of the lands 24, outer edge of the printed circuit board 12, and since it is the edge 18A in the same direction of the positioning mechanism 18, the camera input, the conveyor 14 in the transverse direction (Fig. 1 on the screen was set to be orthogonal to the X-axis is a feed direction). 画像処理装置22では、ランド24の検出に、累積加算によるエッジ検出方法を用いる。 In the image processing apparatus 22, the detection of the land 24, using the edge detection method according to the cumulative addition.

【0030】例えば図2の、カメラ20で得られたプリント基板12の画像13において破線で示される累積加算領域28内でランド24のエッジ24Aを検出する場合、X軸に平行な1本の画素列毎に注目とすると、各画素列での各画素の濃度値を縦軸に、画素列の位置(画面座標)を横軸に表わしたとき、図3で破線で示されるエッジ位置は、ノイズに隠れて検出できない。 [0030] in FIG. 2, for example, when detecting the edge 24A of the lands 24 in the image 13 of the printed circuit board 12 obtained by the camera 20 in the cumulative addition region 28 shown by a broken line, one pixel parallel to the X axis when focusing on each column, the vertical axis the density value of each pixel in each pixel row, when expressed position of the pixel column (screen coordinates) on the horizontal axis, the edge positions indicated by the broken line in FIG. 3, the noise can not be detected hidden.

【0031】この実施例の画像処理装置22では、X軸に垂直に濃度微分値を積算しているので、ノイズがランダムに発生していることからこれらは打消し合うのに対して、ランド24のエッジ24AはX軸上の同一位置に必ず存在しているため、強調され、図3(B)のような曲線を得ることができる。 [0031] In the image processing apparatus 22 of this embodiment, since the integrating vertically density differential value in the X-axis, relative to the fact that noise is randomly generated for these cancel, lands 24 the edge 24A because it always in the same position on the X-axis, is emphasized, it is possible to obtain a curve as shown in FIG. 3 (B). この得られた曲線の特徴点、 Feature point of the obtained curve,
例えば最小値、最大変化点等をエッジとして求めることによりエッジ検出が可能となる。 For example the minimum value, it is possible to edge detection by obtaining the edge the maximum change point or the like. なお、図の実施例では最大値をエッジとして検出している。 Note that detects the maximum value as an edge in the embodiment of FIG.

【0032】ここでは、図3(C)のように生データの累積加算値の曲線の最大変化点をエッジとして求めるようにしてもよい。 [0032] Here, the maximum change of the curve of the cumulative sum of the raw data may be obtained as the edge as shown in FIG. 3 (C).

【0033】ところで、ランド24上に正しく電子部品を搭載するためには、該ランド24の位置を±0.1mm [0033] By the way, in order to mount correctly electronic components on the land 24, ± 0.1mm the position of the land 24
の精度で求める必要があるが、画像中では1画素が約2 It is necessary to obtain in the accuracy but one pixel in the image is about 2
mmに相当するため、0.1mm単位の計測を行うには、1 To correspond to mm, to do the measurement of 0.1mm increments, 1
画素未満の精度でエッジ24Aの位置を求める必要がある。 It is necessary to determine the position of the edge 24A with an accuracy of less than a pixel.

【0034】前述の如く、画像処理装置22では、エッジ24Aと直交する方向の座標に対する画素の濃度変化の累積加算値を値とする曲線を扱っている。 [0034] As previously described, the image processing apparatus 22 deals with the curves for the cumulative sum of the concentration change of the pixel with respect to the direction of the coordinate perpendicular to the edge 24A and the value.

【0035】得られた累積加算値による実際の曲線は、 [0035] The resulting actual curve by the cumulative addition value is,
図4において符号Bで示されるように折曲げ線形状となるのに対して、画像での分解能を無限大としたときの理想的な曲線は図5に符号Aで示されるように滑らかな2 FIG whereas a fold line shape, as shown by reference numeral B in 4, the ideal curve when the resolution of the image infinite smooth as indicated by symbol A in FIG. 5 2
次曲線に類似したものになると想定される。 It is assumed to be something similar to the following curve.

【0036】符号Aで示される滑らかな曲線の極小点X The minimum point of a smooth curve, indicated at A X
a と折曲げ曲線Bの極小点Xb とのずれが標本化誤差となる。 Deviation between minimum point Xb of a and bending curve B is sampling error. 実施例の画像処理装置22では、折曲げ曲線Bの極小点Xb 付近の3点B1 、B2 、B3 を2次式で近似し、この3点を通る曲線の頂点をエッジ24Aの位置として求めるようにされている。 In the image processing apparatus 22 of the embodiment, three points in the vicinity of minimum point Xb fold curve B B1, B2, B3 was approximated by a quadratic equation, to seek the vertices of curve passing through the three points as the position of the edge 24A I have been in. この場合、折曲げ曲線B In this case, the bending curve B
の極小点Xb 付近の局所的な形状は多項式により十分であり、又、近似計算時間が短くて済み、且つ、確実に頂点が得られるという利点がある。 The local shape of the vicinity of minimum point Xb is sufficient by polynomials, also be short approximate calculation time, and, there is an advantage that reliably vertex obtained.

【0037】なお、曲線Aを表わす式が求められれば理想的ではあるが、該曲線Aは、プリント基板12の照明光に加え、周辺の機器からの複雑な反射光の合成に基づいて形成されていて、曲線Aを表わす式の推定は非常に困難である。 [0037] Incidentally, although ideal as long sought an expression that represents the curve A, curve A, in addition to the illumination light of the printed circuit board 12, is formed on the basis of the synthesis of complex reflected light from the periphery of the device have been estimated equation representing the curve a is very difficult.

【0038】次に、ランド24のエッジ24Aに近い位置に、これと類似した構成のエッジが存在する場合に、 Next, in a position close to the edge 24A of the land 24, when the configuration of the edge similar to this is present,
目標とするエッジを検出する場合について説明する。 It will be described for detecting the edge of the target.

【0039】ランド24のエッジ24の隣りには、図5 [0039] is next to the edge 24 of the land 24, as shown in FIG. 5
に示されるように、隣りのランド25のエッジ25Aが存在し、しかも、エッジ24A、25Aはいずれも、プリンント基板12の樹脂と金属パターンの境界であるので、画像上での周辺からの濃度変化が全く同一となり、 As such, there edges 25A of the lands 25 of adjacent are shown in, moreover, the edge 24A, both 25A, so is the boundary between the resin and the metal pattern of Purin'nto substrate 12, concentration change from near on the image There will be exactly the same,
濃度変化からエッジ24A、25A間を弁別することは不可能である。 It is impossible to discriminate edge 24A, the inter-25A from the concentration change.

【0040】ここで、エッジ24Aと25Aの距離が、 [0040] In this case, the distance of the edge 24A and 25A is,
位置決め機構18によるプリント基板12の位置決め誤差と該プリント基板12の製作誤差によるプリント基板12の外形とランド24の間の誤差との和よりも小さい場合は、なおさら弁別が困難となる。 If by the positioning mechanism 18 smaller than the sum of the error between the contour and the land 24 of the printed circuit board 12 by manufacturing error of the positioning error and the printed board 12 of the printed circuit board 12, it is difficult even more discrimination. 例えば、位置決め機構18のがたを、例えば±4mm、プリント基板12の製作誤差による該プリント基板12の外形とパターンの位置ずれを±3mmとすると、画面内におけるランド24 For example, the backlash of the positioning mechanism 18, for example ± 4 mm, when due to manufacturing error of the printed circuit board 12 as the position deviation of ± 3 mm of the outer shape and the pattern of the printed circuit board 12, lands 24 in the screen
のエッジ24Aの位置のばらつきは、エッジ24Aと2 Variations in the position of the edge 24A of the edge 24A and 2
5A間の距離5mmよりも大きくなるため、上記のような適切な探索範囲を設定することが不可能である。 To become larger than the distance 5mm between 5A, it is impossible to set an appropriate search range as described above.

【0041】この実施例において、画像処理装置22では、ランド24のエッジ24Aを検出する際に、隣接するランド25のエッジ25Aが入らないような探索範囲を設定している。 [0041] In this embodiment, the image processing apparatus 22, when detecting the edge 24A of the lands 24, and sets the search range as the edge 25A of the adjacent land 25 does not turn.

【0042】まず、搬送機14上に、カメラ20に対して固定された位置にある位置決め機構18の取付部のエッジ18Aに着目し、これを利用している。 [0042] First, on conveyor 14, focusing on the mounting portion of the edge 18A of the positioning mechanism 18 in a fixed position relative to the camera 20, and using the same.

【0043】前記位置決め機構18のエッジ18Aは、 [0043] edge 18A of the positioning mechanism 18,
カメラ20との相対位置(X、Y方向)が固定されていて、画像処理装置22における画面内のほぼ同じ位置に必ず現われ、周辺に同一又は類似のエッジが存在しないため、該エッジ18Aを探索する範囲を広く設定することができ、他のエッジと混同することがない。 The relative positions of the camera 20 (X, Y directions) is fixed and always appear at substantially the same position within the screen in the image processing apparatus 22, since the same or similar edge on the periphery does not exist, the search for the edge 18A it is possible to set a wide range for, is not to be confused with another edge.

【0044】画像処理装置22では、前記位置決め機構18のエッジ18Aからの相対位置情報を利用して、プリント基板12の外形のエッジ12A(エッジ18Aと平行)の探索範囲を設定する。 [0044] In the image processing apparatus 22, by using the relative position information from the edge 18A of the positioning mechanism 18, sets the search range of the outline of the edge 12A of the printed circuit board 12 (parallel to the edges 18A). ここで、位置決め機構1 Here, the positioning mechanism 1
8の誤差は位置決め機構18の誤差±4mmとなるので、 Since the error of 8 is the error ± 4mm of the positioning mechanism 18,
これに基づいて、エッジ12Aの探索範囲は幅8mmとする。 Based on this, the search range of the edge 12A is the width 8 mm. この範囲には、パターン等の他のエッジは存在しない。 This range, there is no other edges of the pattern or the like.

【0045】画像処理装置22では、プリント基板12 [0045] In the image processing device 22, printed circuit board 12
の外形エッジ12Aからの相対位置情報を利用して、ランド24のエッジ24Aの探索範囲を設定する。 Using the relative position information from the outer edge 12A of, sets the search range of the edge 24A of the lands 24. ランド24の、エッジ12Aに対する位置のばらつきは、プリント基板12の製作誤差±3mmと同一であるので、エッジ24Aの探索範囲は幅6mmと設定する。 Land 24, variations in the position relative to the edge 12A is the same as the manufacturing error ± 3 mm of the printed circuit board 12, the search range of the edge 24A is set to the width 6 mm. エッジ24A Edge 24A
と25Aの距離は5mmであり、±3mm内であり、従ってこの探索範囲の幅の中にエッジ25Aが現われることがない。 The distance 25A is 5 mm, is within ± 3 mm, thus never edge 25A appears in the width of the search range.

【0046】以上のようにして、画面中でのばらつき範囲を考慮しても確実に検出できるエッジ18Aの検出から始め、該検出されたエッジ18Aからの相対位置情報を用いて他のエッジ12Aの探索範囲を設定し、更に、 [0046] As described above, even taking into account the variation range in the screen starting from the detection of reliably detectable edges 18A, using the relative position information from the detected edge 18A of the other edge 12A set the search range, and further,
これを基準として目的のランド24のエッジ24Aのエッジ検出探索範囲を適切に設定し検出する。 This appropriately set to detect the edge detection search range of the edge 24A of the object of the lands 24 as a reference.

【0047】次に、上記のように画像処理によって求められたランド24のエッジ24Aとプリント基板12のエッジ12Aとの実寸距離、更にはエッジ24Aと25 Next, the actual size the distance between the edge 12A of the edge 24A and the printed circuit board 12 of the lands 24 obtained by the image processing as described above, even an edge 24A 25
A間の実寸距離を求める過程について説明する。 It is described a process for obtaining the exact distance between A.

【0048】ランド24のエッジ24Aについて求められた座標の単位は画素であり、これをミリメートルに変換して初めて実寸が得られる。 The units of the coordinates determined for the edge 24A of the lands 24 is a pixel, the first time the actual size obtained by converting it into millimeters. まず、オフラインでプリント基板12を位置決め機構18により固定し、該位置決め機構18の取付け部のエッジ18Aとランド24のエッジ24Aの距離の実寸を正確に実測しておく。 First, fixed by the printed circuit board 12 of the positioning mechanism 18 offline, the actual size of the distance of the edge 24A of the edge 18A and the land 24 of the mounting portion of the positioning mechanism 18 keep accurately measured.

【0049】次に、プリント基板12からのカメラ20 [0049] Next, the camera 20 from the printed circuit board 12
の距離、即ちカメラ距離を適宜変化させ、画像処理によりこの距離とプリント基板12上のコンデンサ30の直径Dを画素単位(画素数)で計測する。 Distance, i.e. the camera distance is changed appropriately, by image processing to measure the diameter D of the capacitor 30 on the distance and the printed board 12 in pixel units (the number of pixels). この結果から、 from this result,
直径Dの画素単位での長さと、位置決め機構18取付部のエッジ18Aとランド24のエッジ24Aの間の距離の画素単位と実寸との比Pを示す図6のようなルックアップテーブルを予め作成しておく。 Creating the length in pixels of the diameter D, and the look-up table shown in FIG. 6 showing the ratio P between the pixels and the actual size of the distance between the edge 24A of the positioning mechanism 18 mounting portion of the edge 18A and the land 24 in advance keep.

【0050】ここで図6のDの値は、カメラ20とプリント基板12の距離即ちカメラ距離によって変わり、カメラ距離が短いほどDの値は大きくなる。 [0050] Here, the value of D in FIG. 6, depends distance or camera distance of the camera 20 and the printed circuit board 12, the value of the more camera distance is short D increases. 又、図6の計測位置1〜3は、カメラ20からプリント基板12までの距離を同一としたとき、該プリント基板12上のカメラ20からの距離が異なる3個の計測位置を示す。 Further, the measurement position 1-3 of Figure 6, when the distance from the camera 20 to the printed board 12 and the same, shows a different three measuring positions a distance from the camera 20 on the printed circuit board 12.

【0051】画像処理により、各画像毎にDの画素単位での長さと、各計測位置1〜3の一部又は全部でのエッジ24Aと18Aの画素単位の距離を求め、図6のルックアップテーブルを参考にして変換係数p の値を求め、 [0051] The image processing, and the length in pixels of D for each image, the distance in pixels of the edge 24A and 18A of the part or the whole of each measurement position 1-3 determined, lookup 6 determine the value of the conversion coefficient p to the table as a reference,
このp を画素単位でのエッジ24Aと18Aの距離に掛けて距離の実寸を求める。 Determining the actual size of the distance over the p to the distance of the edge 24A and 18A in units of pixels. ここで、電子部品はランド2 Here, electronic components land 2
4とカメラ20との距離が異なるため、画像入力の都度変換係数を求め、これによって正確なランド位置の実寸計測を行うことができる。 4 and the camera 20 and for different distances, it obtains a transform coefficient each time the image input, whereby it is possible to perform exact measurement of the exact land position.

【0052】前記位置決め機構18のエッジ18Aの位置は不動であるので、ここから、エッジ24Aの絶対位置が求まり、この情報に基づいてランド24上の正しい位置に、搭載ヘッド26によって電子部品が正しく搭載される。 [0052] Since the position of the edge 18A of the positioning mechanism 18 is immobile, from here, Motomari absolute position of the edge 24A, in the correct position on the land 24 on the basis of this information, the electronic component correctly by mounting head 26 It is mounted. 従来は、予めプリント基板上にキャリブレーション用のマークを付けておき、これを参考にして画像毎に変換係数p を求めていたが、この実施例では、キャリブレーション用のマークは不要であり、基板上にある大きさが常に変わらず、且つ確実に画像中に確認することができる部分である、既に搭載された電子部品上のコンデンサ30を利用して変換係数を求め、より実装密度を向上させることができる。 Conventionally, leave marks for calibration in advance on the printed circuit board, but which had sought transform coefficients p for each image with reference, in this embodiment, the mark for calibration is not necessary, always unchanged in size in the substrate, and certainly a part which can be identified in the image, by utilizing seeking transform coefficient capacitor 30 on the electronic components already mounted, more improved mounting density it can be.

【0053】上記実施例は、プリント基板の実装ラインに本発明を適用したものであるが、本発明はこれに限定されるものでなく、自動的に部品を搭載したり、又、存在を確認したり、部品の消耗を検出するための画像処理過程で、目的物のエッジを検出する際に、一般的に適用されるものである。 [0053] The above embodiment is an application of the present invention on a printed circuit board mounting line, the present invention is not limited thereto, automatically or mounting components, also confirm the existence or, an image processing process for detecting the wear of parts, when detecting an edge of the object, are those generally applied.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明を適用したプリント基板の実装ラインを示す斜視図 Perspective view of a mounting line of the applied printed board to the invention, FIG

【図2】同実装ラインにおける画像処理装置でのプリント基板の画像を示す平面図 Plan view of a printed circuit board images in the image processing apparatus in FIG. 2 the mounting line

【図3】プリント基板上のエッジ近傍での画面座標と画素の濃度値及び累積加算値との関係を示す線図 [Figure 3] graph showing the relationship between the density value and the accumulated value of the screen coordinates and the pixel near the edge of the printed circuit board

【図4】累積加算値によりランドのエッジを、2次式による曲線近似を用いて求める際の線図 [4] The lands of the edge by the accumulated value, the diagram of time determined using curve approximation by quadratic

【図5】相対位置情報を用いてエッジを検出する際、及び、キャリブレーション方式でエッジ間距離を検出するときに補正係数の基準となる一定長さ部分を含むエッジ周辺の画像を示す平面図 [5] When detecting the edge using the relative position information, and a plan view showing an image around edges including a predetermined length portion to be the reference of the correction coefficient when detecting the distance between the edges in the calibration method

【図6】キャリブレーション用のルックアップテーブルを示す図 FIG. 6 is a diagram showing a look-up table for calibration

【図7】従来のキャリブレーション方式を示す略示斜視図 [7] substantially 示斜 view showing the conventional calibration method

【符号の説明】 DESCRIPTION OF SYMBOLS

10…プリント基板の実装ライン 12…プリント基板 12A、18A、24A、25A…エッジ 14…搬送機(コンベア) 16…実装機 18…位置決め機構 20…カメラ 22…画像処理装置 24、25…ランド 26…搭載ヘッド 28…累積加算領域 30…コンデンサ 10 ... printed circuit board mounting line of 12 ... printed circuit board 12A, 18A, 24A, 25A ... edge 14 ... conveyor (conveyor) 16 ... mounting machine 18 ... positioning mechanism 20 ... camera 22 ... image processing apparatus 24, 25 ... land 26 ... mounting head 28 ... accumulating region 30 ... capacitor

Claims (4)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】直線状のエッジを有する物体の画像における該エッジ周辺の画素の濃度値をエッジと直交する方向に累積加算し、画像中のエッジと直交する方向の座標軸に沿って前記累積値を値とする曲線を求め、この曲線の特徴点をエッジ位置として求めることを特徴とする画像中の物体のエッジ検出方法。 1. A linear density values ​​of the pixels around the edge by accumulating in the direction orthogonal to the edge of the image of an object having an edge, the accumulated value in the direction of the coordinate axis perpendicular to the edge in the image the calculated curves of the value, the object of the edge detection method in an image and obtains the feature point of the curve as the edge position.
  2. 【請求項2】請求項1において、前記特徴点近傍の前記累積値の3点を通る近似曲線を求め、この曲線の頂点をエッジ位置とすることを特徴とする画像中の物体のエッジ検出方法。 2. The method of claim 1, obtains an approximation curve passing through three points of the accumulated value of the feature point near the object edge detection method in an image, characterized in that the apex of the curve and the edge position .
  3. 【請求項3】物体の画像中の特徴点の位置を検出する過程と、この特徴点からの相対位置が予め判っているエッジの相対位置情報から、該エッジの探索範囲の位置及び大きさを、該エッジ以外のエッジが入らないように設定する過程と、この探索範囲内の画像データの処理により該エッジを検出する過程と、この求められたエッジ位置からの相対位置情報を用いて、他のエッジの探索範囲の位置及び大きさを決定する過程と、この探索範囲内の画像データの処理により該他のエッジを検出する過程と、 3. A process for detecting the positions of feature points in the object image, from the relative position information of the edges relative to the feature point is known in advance, the position and size of the search range of the edge , a process of setting as an edge other than the edge does not enter, the steps of detecting the edge by the processing of the image data within the search range, using the relative position information from the thus determined edge position, other and determining the position and size of the search range of the edge, detecting the said other edge by the processing of the image data within the search range,
    を有してなり、前記エッジの探索範囲の位置及び大きさ決定、検出の過程を繰返し、最終的に目的とするエッジを検出する画像中の物体のエッジ検出方法。 It has a position and size determination of the search range of said edge, repeating the process of detection, finally an object of the edge detection process in the image to detect the edge of interest.
  4. 【請求項4】画像中の、大きさが一定の物体を参照物とし、この参照物の画像中での画素単位での大きさと、目標エッジ間距離の画素単位と実寸法との比を示す換算係数を、様々な参照物の画像中での大きさに対して予め求めた表を作成しておき、目標エッジ間距離の計測を行う際、画素単位で目標エッジ間距離と参照物の大きさを計測して、前記予め作成しておいた表と参照物の画素単位での大きさから換算係数を求め、該換算係数を画素単位での目標エッジ間距離に乗じて目標エッジ間の実寸法を求めることを特徴とする画像中の物体のエッジ間距離検出方法。 Of wherein in an image, and the size is a reference product a certain object, indicating the size in pixels in the image of the reference product, a ratio of the pixel unit of the target distance between the edges and the actual size the conversion factor in advance to create a pre-determined table relative to the size of the in images of various reference compounds, when performing the measurement of the target distance between the edges, the size of the reference object and the target distance between the edges in pixels the measures of the determined conversion factor from the size in pixels of the previously prepared with table as reference was allowed real between target edges by multiplying the conversion factor to the distance between the target edges in pixels edge distance detecting method of an object in an image and obtains the size.
JP4217743A 1992-08-17 1992-08-17 Detecting method for edge of object in image and detecting method for distance between edges Pending JPH0668257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4217743A JPH0668257A (en) 1992-08-17 1992-08-17 Detecting method for edge of object in image and detecting method for distance between edges

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4217743A JPH0668257A (en) 1992-08-17 1992-08-17 Detecting method for edge of object in image and detecting method for distance between edges

Publications (1)

Publication Number Publication Date
JPH0668257A true JPH0668257A (en) 1994-03-11

Family

ID=16709063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4217743A Pending JPH0668257A (en) 1992-08-17 1992-08-17 Detecting method for edge of object in image and detecting method for distance between edges

Country Status (1)

Country Link
JP (1) JPH0668257A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6997572B2 (en) 2002-08-12 2006-02-14 Nec Corporation Illumination structure for pushbutton and electronic device with pushbutton having illumination structure
JP2007194733A (en) * 2006-01-17 2007-08-02 Kyocera Corp Image data processor and processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6997572B2 (en) 2002-08-12 2006-02-14 Nec Corporation Illumination structure for pushbutton and electronic device with pushbutton having illumination structure
JP2007194733A (en) * 2006-01-17 2007-08-02 Kyocera Corp Image data processor and processing method
JP4611212B2 (en) * 2006-01-17 2011-01-12 京セラ株式会社 Image data processing method and image data processing apparatus

Similar Documents

Publication Publication Date Title
US4490617A (en) Optical width measuring system using two cameras
US7630539B2 (en) Image processing apparatus
US6064756A (en) Apparatus for three dimensional inspection of electronic components
US5909285A (en) Three dimensional inspection system
US6064750A (en) Apparatus and method for determining vehicle wheel alignment measurements from three dimensional wheel positions and orientations
JP2943499B2 (en) Height measurement method and device
US6067165A (en) Position calibrating method for optical measuring apparatus
KR100309635B1 (en) Automatic visual inspection apparatus, automatic visual inspection method, and recording medium having recorded an automatic visual inspection program
CN1160660C (en) Graph testing method and device
US7590280B2 (en) Position detection apparatus and exposure apparatus
US6549648B1 (en) Method for determining a position of a structural element on a substrate
US6483536B2 (en) Distance measuring apparatus and method employing two image taking devices having different measurement accuracy
EP0335559B1 (en) A telecentric imaging system
JP3147002B2 (en) Correction method of distance detection value
US7349575B2 (en) Pattern inspection method and apparatus, and pattern alignment method
JPH0658682B2 (en) Position detecting device and method of the target
US5774573A (en) Automatic visual inspection system
DE102009015594B4 (en) Method and device for subpixel accurate position determination of an edge of a marker structure in a plurality of receiving pixels having recording the marker structure
JPH09237749A (en) Overlap measurement
JPH0669092A (en) Aligning mark for mutually aligning two bodies
JPH08294143A (en) Method for corresponding between images and inter-image parallax measurement method
JP2001091217A (en) Object-recognizing apparatus
JPH09505886A (en) Grid array inspection system and method
US4924506A (en) Method for directly measuring area and volume using binocular stereo vision
US5825914A (en) Component detection method