JP2006260315A - Method and device for detecting component position - Google Patents

Method and device for detecting component position Download PDF

Info

Publication number
JP2006260315A
JP2006260315A JP2005078320A JP2005078320A JP2006260315A JP 2006260315 A JP2006260315 A JP 2006260315A JP 2005078320 A JP2005078320 A JP 2005078320A JP 2005078320 A JP2005078320 A JP 2005078320A JP 2006260315 A JP2006260315 A JP 2006260315A
Authority
JP
Japan
Prior art keywords
component
straight line
edge point
contour edge
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005078320A
Other languages
Japanese (ja)
Other versions
JP4707423B2 (en
Inventor
Yoshiaki Abe
好晃 安部
Chieko Wakabayashi
千恵子 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2005078320A priority Critical patent/JP4707423B2/en
Publication of JP2006260315A publication Critical patent/JP2006260315A/en
Application granted granted Critical
Publication of JP4707423B2 publication Critical patent/JP4707423B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a device for detecting a component position capable of positioning parts of different shapes reliably and highly accurately. <P>SOLUTION: A contour edge point of a component 30 is detected, and straight lines 32a and 32b for scanning are set to the contour edge point. The slopes of the straight lines are changed (S3) so that a slope at which edge points where the distance between the straight lines and the contour edge points is minimal are detected at a plurality of positions is obtained (S3-S10). From the straight line of this slope, circumscribed straight lines 34a-34d tangent to the part are obtained, and the center of the component and the slope of the component are calculated (S17). Since positioning can be done if there are at least two or more contour edge points where the distance is minimal, detection of the position of not only a component having linear sides, but also a component having non-linear sides can be made highly accurately. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、部品位置検出方法及び装置、更に詳細には、撮像された電子部品の画像を処理して部品位置を検出する方法及び装置に関する。   The present invention relates to a component position detection method and apparatus, and more particularly to a method and apparatus for processing a captured electronic component image to detect a component position.

従来、電子部品(以下、単に部品という)を回路基板に実装する部品実装機では、フィーダーから供給される部品を吸着ノズルで吸着し、吸着ノズルを回路基板上の所定位置に移動させて部品を基板に搭載している。この場合、部品は、必ずしも正しい姿勢で吸着されるわけではないので、部品を回路基板に搭載する際、実装直前に画像認識部において部品の画像データをCCDカメラなどの撮像装置などで取得し画像処理を行って、部品中心、並びに部品傾きを検出して部品位置検出(部品認識、あるいは部品位置決めともよばれる)を行い、精度よく電子部品を実装している。   2. Description of the Related Art Conventionally, in a component mounter that mounts electronic components (hereinafter simply referred to as components) on a circuit board, the components supplied from the feeder are sucked by a suction nozzle, and the suction nozzle is moved to a predetermined position on the circuit board. It is mounted on the board. In this case, since the component is not necessarily attracted in the correct posture, when the component is mounted on the circuit board, the image recognition unit acquires image data of the component with an imaging device such as a CCD camera immediately before mounting. Processing is performed to detect the center of the part and the inclination of the part to detect the position of the part (also referred to as part recognition or part positioning), and mount the electronic part with high accuracy.

従来の部品位置検出方法は、パターンマッチングを利用したものや、部品の辺やコーナーを利用したものが存在している。   Conventional parts position detection methods include those using pattern matching and those using parts sides and corners.

パターンマッチングを利用する方法は、まず位置決めしようとする部品の基準となるパターン(あるいはテンプレート)を作成して、これを登録し、次に実際に位置決めする部品を撮像して画像を取得し、保存しておいたパターンと比較する。その場合、パターンを回転させて比較することも行われ、この作業を部品が存在する可能性のある画像全体に対して実行する。ここで、最も高い一致度を示した位置が対象物の位置として検出される。この一致度は、一般的に、「正規化相関法」を使用した相関値が知られている(非特許文献1)。   The method using pattern matching is to first create a pattern (or template) that serves as a reference for the part to be positioned, register it, and then capture the image by capturing the part that will actually be positioned and save it. Compare with the pattern you had. In that case, the pattern is rotated and compared, and this operation is performed on the entire image in which there is a possibility that the part exists. Here, the position showing the highest degree of coincidence is detected as the position of the object. As the degree of coincidence, a correlation value using the “normalized correlation method” is generally known (Non-Patent Document 1).

一方、部品の辺やコーナーを利用した部品位置決めは、部品のサイズ情報とどの辺、コーナーを位置決めに使用するかの情報が与えられた状態で部品を撮像する。部品が画像のどの位置にあるかを検出しておおまかな部品の位置を取得するため、画像四方からラスタスキャンを行い、部品外接矩形を取得する。その矩形から位置決めに使用すべき辺あるいはコーナーの位置がおおよそ分かるため、その周辺のエッジを取得する。辺の場合は、エッジ点を使用してハフ変換により直線式を求め、コーナーであれば交差する2直線を求め、その交点をコーナー点とする。部品中心・傾きは、4辺で位置決めするのであれば、中心位置は4直線の4交点を使用して求め、部品傾きは4辺のX,Y軸それぞれに対する傾きの平均とする。コーナーの場合は、左上、右上、右下、左下の4コーナーであれば、図8に示したように、4交点TL、TR、BL、BRを使用して、線分TL―TRの中点と線分BL―BRの中点を通る直線Vと、線分TL―BLの中点と線分TR―BRの中点を通る直線Hとの交点を部品100の中心として求め、一方、部品100の傾きは4コーナーで矩形を形成する時の上下左右4辺のX,Y軸それぞれに対する傾きの平均とする。このような方法が、特許文献1に記載されている。
特開2002−288634号公報 新実践画像処理 Image Processing with HALCON、発行者:村上 延夫、発行所:株式会社リンクス 出版事業部、発行日2001年6月6日)
On the other hand, in the component positioning using the side and corner of the component, the component is imaged in a state where the size information of the component and the information on which side and corner are used for positioning are given. In order to detect the position of the part in the image and acquire the approximate position of the part, raster scanning is performed from all four sides of the image, and the part circumscribed rectangle is acquired. Since the position of the side or corner to be used for positioning is roughly known from the rectangle, the peripheral edge is acquired. In the case of a side, a straight line expression is obtained by Hough transform using an edge point, and if it is a corner, two intersecting straight lines are obtained, and the intersection is set as a corner point. If the component center / inclination is positioned on four sides, the center position is obtained using four intersections of four straight lines, and the component inclination is the average of the inclinations on the X and Y axes of the four sides. In the case of the corner, if the upper left corner, the upper right corner, the lower right corner, and the lower left corner are four corners, as shown in FIG. And the intersection of the straight line V passing through the midpoint of the line segment BL-BR and the straight line H passing through the midpoint of the line segment TL-BL and the midpoint of the line segment TR-BR is obtained as the center of the part 100. An inclination of 100 is an average of inclinations with respect to the X and Y axes of the four sides of the top, bottom, left, and right when a rectangle is formed with four corners. Such a method is described in Patent Document 1.
JP 2002-288634 A (New Image Processing with HALCON, Publisher: Nobuo Murakami, Publisher: Links Inc., Publishing Division, Date of issue June 6, 2001)

しかしながら、上述したパターンマッチングによる部品位置認識では、部品位置が大きく傾いた場合には、部品認識が困難であるという欠点がある。また、テンプレートを登録しておかなければならないため、登録する作業が必要で、保存しておくためのメモリが必要であり、また画像全体を比較しなくてはならず処理スピードが遅いなどの問題がある。   However, the above-described component position recognition by pattern matching has a drawback that it is difficult to recognize a component when the component position is greatly inclined. In addition, because templates must be registered, registration work is required, memory for storing them is required, and the entire images must be compared, resulting in slow processing speeds. There is.

また、部品の辺やコーナーを利用した部品位置決めは、部品に直線部分やコーナー形状がないと、位置決めできないという問題があり、例えば図9に示したような部品101の辺やコーナーでは位置決めが困難であるという問題がある。   In addition, there is a problem that the component positioning using the side or corner of the component cannot be performed unless the component has a straight portion or a corner shape. For example, it is difficult to position at the side or corner of the component 101 as shown in FIG. There is a problem that.

本発明は、このような問題を解決するもので、種々の形状の部品を、良好にしかも高精度で位置決めすることが可能な部品位置検出方法及び装置を提供することを課題とする。   This invention solves such a problem, and makes it a subject to provide the component position detection method and apparatus which can position components of various shapes favorably and with high precision.

本発明(請求項1と5)は、
撮像された部品の画像を処理して部品位置を検出する方法及び装置であって、
部品の輪郭エッジ点を検出するとともに、該輪郭エッジ点に対して直線を設定すること、
前記設定された直線と画像を相対的に回転させて、該直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が複数箇所において検出される回転角度を求め、この求めた回転角度に基づき部品の傾きを算出することを特徴とする。
The present invention (claims 1 and 5)
A method and apparatus for detecting a component position by processing an image of a captured component,
Detecting a contour edge point of a part and setting a straight line for the contour edge point;
By rotating the set straight line and the image relatively to obtain a rotation angle at which a plurality of contour edge points at which the distance between the straight line and the contour edge point is shortest are detected, and based on the obtained rotation angle It is characterized in that the inclination of the part is calculated.

また、本発明(請求項2と6)は、
上記求めた回転角度での直線から部品に外接する外接直線を求め、
この外接直線を辺ごとに求めて、該求めた外接直線から部品中心と部品傾きを算出することを特徴とする。その場合、対向する辺に対応する外接直線間の距離が最短になる外接直線を求め、該求めた外接直線から部品中心と部品傾きを求めるようにする(請求項3と7)。
The present invention (claims 2 and 6)
Obtain a circumscribing straight line that circumscribes the part from the straight line at the rotation angle obtained above,
The circumscribed straight line is obtained for each side, and the component center and the component inclination are calculated from the obtained circumscribed straight line. In this case, a circumscribing straight line having the shortest distance between the circumscribing straight lines corresponding to the opposing sides is obtained, and the part center and the part inclination are obtained from the obtained circumscribing straight line (claims 3 and 7).

また、本発明(請求項4)は、
上記求めた外接直線と部品サイズに基づき部品中心と部品傾きを算出することを特徴とする。
The present invention (Claim 4)
The component center and the component inclination are calculated based on the obtained circumscribed line and component size.

本発明では、部品の輪郭エッジ点に対して設定された直線と画像を相対的に回転させて、該直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が複数箇所において検出される回転角度を求め、該求めた回転角度、あるいはその回転角度での直線から求められる外接直線から部品中心と部品傾きを算出するようにしている。従って、距離が最短となる輪郭エッジ点が少なくとも2つ以上ある部品の場合には、位置決めができるので、辺が直線状である部品はもちろん、非直線状の辺(ぎざぎざのある辺ないし凹凸のある辺)の場合でも、高精度で部品の位置検出が可能となる。従って、パターンマッチングによる方法と違い登録しておくパターンを必要とせず、メモリが節約されるとともに、パターンマッチングより、位置決めできる角度範囲が大きくなる、という効果が得られる。   In the present invention, a rotation is performed by relatively rotating a straight line set with respect to a contour edge point of a part and an image, and detecting a contour edge point at which the distance between the straight line and the contour edge point is the shortest at a plurality of locations. The angle is obtained, and the component center and the component inclination are calculated from the obtained rotation angle or a circumscribed line obtained from a straight line at the rotation angle. Therefore, in the case of a part having at least two contour edge points with the shortest distance, positioning can be performed, so that not only a part having a straight side but also a non-linear side (a jagged side or an uneven side) Even in the case of a certain side), the position of the component can be detected with high accuracy. Therefore, unlike the pattern matching method, a pattern to be registered is not required, and the memory can be saved, and the angle range that can be positioned is larger than the pattern matching.

本発明は、部品の輪郭エッジ点を検出するとともに、該輪郭エッジ点に対して直線を設定し、該設定された直線の傾きを変化させ、あるいは直線の傾きは、変化させず画像を回転させて、直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が少なくとも2点以上において検出される直線の傾き、あるいは画像の回転角度を求めるようにしており、その求めた直線の傾きあるいは画像の回転角度から、外接直線を求め部品中心と部品傾きを算出するようにしている。以下にその実施例を添付図面を参照して詳細に説明する。   The present invention detects a contour edge point of a part, sets a straight line for the contour edge point, changes the slope of the set straight line, or rotates the image without changing the slope of the straight line. Thus, the inclination of the straight line or the rotation angle of the image detected at at least two contour edge points at which the distance between the straight line and the contour edge point is the shortest is obtained. From the rotation angle, a circumscribing straight line is obtained, and the component center and component inclination are calculated. Embodiments will be described below in detail with reference to the accompanying drawings.

図1は、本発明が使用される部品実装機20と、撮像された部品の画像を処理する画像処理装置12の構成を概略示している。   FIG. 1 schematically shows the configuration of a component mounter 20 in which the present invention is used and an image processing apparatus 12 that processes captured images of components.

同図において、吸着ノズル1は、実装機20のメイン制御装置13により制御されてX、Y軸方向に移動して部品供給装置(不図示)から供給される部品(電子部品)2を吸着する。メイン制御装置13は、部品2を吸着した吸着ノズル1を、撮像位置へ移動させ、そこで、照明装置3により照明された部品2が、CCDカメラあるいはCMOSカメラなどの撮像装置4により撮像される。   In the figure, the suction nozzle 1 is controlled by the main control device 13 of the mounting machine 20 and moves in the X and Y axis directions to suck a component (electronic component) 2 supplied from a component supply device (not shown). . The main control device 13 moves the suction nozzle 1 that sucks the component 2 to the imaging position, and the component 2 illuminated by the illumination device 3 is imaged by the imaging device 4 such as a CCD camera or a CMOS camera.

撮像された部品の画像は、後述するように、画像処理装置12において画像処理され、部品位置、つまり、部品中心(画像中心ないし吸着中心からの位置ずれ)、並びに部品傾き(基準角度に対する角度ずれ)が検出される。その後、部品2は、メイン制御装置13により基板14の位置に移動され、検出された位置ずれと角度ずれが補正されて回路基板14の所定位置に搭載される。   As will be described later, the captured image of the component is subjected to image processing in the image processing device 12, and the component position, that is, the component center (displacement from the image center or the suction center) and the component inclination (angular displacement with respect to the reference angle). ) Is detected. Thereafter, the component 2 is moved to the position of the board 14 by the main control device 13, and the detected positional deviation and angular deviation are corrected and mounted at a predetermined position on the circuit board 14.

基板14には、基板マーク(不図示)が形成されており、この基板マークは、吸着ノズル1を設けたヘッドに取り付けられる基板認識カメラ15により撮影され、そのマーク画像が画像処理装置12で処理され、基板位置が検出される。基板14に位置ずれと角度ずれがある場合には、そのずれが補正されるので、部品2は、高精度で基板14上に搭載される。   A substrate mark (not shown) is formed on the substrate 14, and this substrate mark is photographed by a substrate recognition camera 15 attached to the head provided with the suction nozzle 1, and the mark image is processed by the image processing device 12. The substrate position is detected. If the substrate 14 has a positional deviation and an angular deviation, the deviation is corrected, so that the component 2 is mounted on the substrate 14 with high accuracy.

画像処理装置12は、カメラ4、15からの画像をデジタル値に変換するA/Dコンバータ5と、デジタル画像に変換された部品2や基板マークなどの対象物の画像を格納する画像メモリ6、作業用メモリ(RAM)7、部品データ格納メモリ8、CPU10、インターフェース11などから構成されており、撮像された部品2の画像は、デジタル化されて画像メモリ6に格納される。また、部品データ格納メモリ8には、部品外形寸法(縦幅、横幅など)、特徴物のサイズや位置などの部品データが部品の種類ごとにID番号を付されて格納されている。部品の画像処理時、モニタ16には、部品の画像ないし画像処理の様子と処理結果が表示される。   The image processing device 12 includes an A / D converter 5 that converts images from the cameras 4 and 15 into digital values, an image memory 6 that stores images of objects such as components 2 and board marks converted into digital images, The work memory (RAM) 7, the component data storage memory 8, the CPU 10, the interface 11, and the like are configured. The captured image of the component 2 is digitized and stored in the image memory 6. Also, the component data storage memory 8 stores component data such as component external dimensions (vertical width, horizontal width, etc.), the size and position of the feature, and the ID number for each component type. At the time of component image processing, the monitor 16 displays an image of the component, a state of image processing, and a processing result.

このような構成で、画像処理装置12は、部品実装機20からユーザーが作成した部品データをあらかじめ受け取り、それを部品データ格納メモリ8に格納する。部品実装時、メイン制御装置13は、吸着ノズル1を部品供給装置(不図示)に移動させ、そこから供給される部品2を吸着ノズル1で吸着させる。続いて、メイン制御装置13は、吸着ノズル1を撮像装置4の上に移動させ、照明装置3を点灯して部品2を照明し、それにより部品2が撮像装置4により撮像される。その画像は、画像処理装置12に転送され、A/D変換器5でデジタル化され、画像メモリ6に保存される。画像が保存されたら、画像処理装置12のCPU10は、以下に述べるように、部品データと画像データを使用して、部品位置検出(部品の位置決め)処理を行う。その部品位置の検出結果は、インターフェース11を介してメイン制御装置13に送信され、メイン制御装置は、位置検出により得られた位置ずれ、角度ずれを補正して部品2を回路基板14上に搭載する。   With such a configuration, the image processing apparatus 12 receives in advance the component data created by the user from the component mounter 20 and stores it in the component data storage memory 8. At the time of component mounting, the main control device 13 moves the suction nozzle 1 to a component supply device (not shown) and sucks the component 2 supplied from the suction nozzle 1 by the suction nozzle 1. Subsequently, the main control device 13 moves the suction nozzle 1 onto the imaging device 4 to turn on the illumination device 3 to illuminate the component 2, whereby the component 2 is imaged by the imaging device 4. The image is transferred to the image processing device 12, digitized by the A / D converter 5, and stored in the image memory 6. When the image is stored, the CPU 10 of the image processing apparatus 12 performs component position detection (component positioning) processing using the component data and the image data as described below. The detection result of the component position is transmitted to the main control device 13 via the interface 11, and the main control device corrects the positional deviation and the angular deviation obtained by the position detection and mounts the component 2 on the circuit board 14. To do.

本発明では、外接線を取得して部品位置検出を行うものであり、以下に、図2に示すように、部品の外周エッジ(輪郭)が複雑な形状を有する部品30の位置検出を行う場合について説明する。   In the present invention, a part position is detected by acquiring a circumscribing line. In the following, as shown in FIG. 2, the position of a part 30 having a complex outer peripheral edge (contour) is detected. Will be described.

まず、ステップS1で4辺のラスタスキャン線31a〜31dで画像メモリ6の部品(部品画像)30を4方からスキャンし、濃度の変化するところを検出して部品の外周輪郭線を形成する輪郭エッジ点(以下、単にエッジ点という)を取得する。   First, in step S1, the component (component image) 30 of the image memory 6 is scanned from four sides with the four sides of the raster scan lines 31a to 31d, and the change in density is detected to form the outer contour of the component. An edge point (hereinafter simply referred to as an edge point) is acquired.

続いて、ステップS2で上辺と下辺の初期のスキャン用直線32a、32b(エッジ点までの距離を取得するための直線)を設定し、各直線を示すスキャン直線式を求めて、スキャン直線式に所定傾き(Δα)を付加する(ステップS3)。今、傾きは、ステップS2で設定したときの傾き(デフォルト値=X軸に平行)から始めるとして、この角度のスキャン直線式とステップS1で求めたエッジ点との距離を取得する(ステップS4)。この距離は、ステップS4の左側の図に示した二重矢印線の矢印間の幅であり、スキャン直線式からラスタスキャン線と同じスキャン密度で、また同じ方向(水平又は垂直方向)にスキャン線を発生させ、スキャン線がエッジ点に交差したときのスキャン距離を求めることにより求めることができる。あるいは、上記距離は、求めたエッジ点からスキャン方向に直線を引いてスキャン直線式と交差する点を求め、この点とエッジ点の両座標値から求めることができる。そして、このような距離を、部品の上辺の各エッジ点と下辺の各エッジ点に対して求め、各上辺と下辺に対して、距離が最短になるエッジ点と、それとほぼ同距離のエッジ点を取得する(ステップS5、S6)。   Subsequently, in step S2, initial scanning straight lines 32a and 32b (straight lines for obtaining the distance to the edge point) of the upper side and the lower side are set, and a scanning linear expression indicating each straight line is obtained. A predetermined inclination (Δα) is added (step S3). Now, assuming that the inclination starts from the inclination (default value = parallel to the X axis) set in step S2, the distance between the scan linear equation of this angle and the edge point obtained in step S1 is acquired (step S4). . This distance is the width between the arrows of the double arrow line shown in the diagram on the left side of step S4, and the scan line has the same scan density as the raster scan line and the scan line in the same direction (horizontal or vertical direction). And the scan distance when the scan line intersects the edge point can be obtained. Alternatively, the distance can be obtained from the coordinate value of this point and the edge point by drawing a straight line from the obtained edge point in the scanning direction to obtain a point that intersects the scanning straight line equation. Then, such a distance is obtained for each edge point on the upper side and each lower edge point of the part, and for each upper side and lower side, the edge point having the shortest distance and the edge point that is almost the same distance as the edge point Is acquired (steps S5 and S6).

このようにして求められた最短距離エッジ点とそれとほぼ同距離のエッジ点が、ステップS7の右側の図に黒丸で図示されており、同ステップS7で、各辺の両端のエッジ点の距離が所定の画素数(例えば、30画素)以上の距離離れているかを判定する。これは、辺から局所的に突出している一部分のみで最短ないし同距離のエッジ点が取得されると、所望の外接線が検出できないので、ステップS7で示した判定を行う。そして、所定画素数未満であると判定されたら、ステップS3に戻ってスキャン直線式にさらに所定傾きを付加してステップS4以下の処理を繰り返す(ステップS8)。なお、スキャン用直線の傾きが外れていると、ステップS6で最短距離とほぼ同距離のエッジ点が取得できないので、それが取得できなかった場合も、ステップS3に戻って、スキャン直線式にさらに所定傾きを付加してステップS4以下の処理を繰り返す。   The shortest distance edge point obtained in this way and the edge point of the same distance are shown by black circles on the right side of step S7. In step S7, the distance between the edge points at both ends of each side is shown. It is determined whether the distance is equal to or greater than a predetermined number of pixels (for example, 30 pixels). This is because if a shortest or the same distance edge point is acquired from only a part locally protruding from the side, a desired circumscribed line cannot be detected, and the determination shown in step S7 is performed. If it is determined that the number of pixels is less than the predetermined number of pixels, the process returns to step S3, a predetermined inclination is further added to the scan linear equation, and the processes in and after step S4 are repeated (step S8). If the inclination of the scanning straight line is off, an edge point that is almost the same distance as the shortest distance cannot be obtained in step S6. If it cannot be obtained, the process returns to step S3, and the scanning linear expression is further increased. The process after step S4 is repeated by adding a predetermined inclination.

一方、ステップS7の判断で所定画素数以上あると判定された場合には、スキャン用直線32a、32bとエッジ点間の距離が最短になるエッジ点が所定距離(例えば、30画素)以上離れて複数箇所において(2箇所以上)検出されたので、ステップS9の左側の図に示すように最短距離エッジ点を通り、スキャン直線式に平行な直線33a、33bの式を取得する(ステップS9)。続いて、ステップS2〜S9の処理を実行して、左辺と右辺に対しても、左辺と右辺の最短距離エッジ点を通り、左辺と右辺のスキャン直線式に平行な直線33c、33dの式を取得する(ステップS10)。   On the other hand, if it is determined in step S7 that the number of pixels is equal to or greater than the predetermined number, the edge point at which the distance between the scanning straight lines 32a and 32b and the edge point is the shortest is separated by a predetermined distance (for example, 30 pixels) or more. Since it is detected at a plurality of locations (two or more locations), the equations of straight lines 33a and 33b passing through the shortest distance edge point and parallel to the scan linear equation are acquired as shown in the left diagram of step S9 (step S9). Subsequently, the processing of steps S2 to S9 is executed, and the equations of straight lines 33c and 33d that pass through the shortest distance edge points of the left and right sides and are parallel to the scan linear equations of the left and right sides are also obtained for the left and right sides. Obtain (step S10).

このようにして、4辺のすべての直線式が取得できたら対向する直線式間の距離(直線33aと33b間の距離d2、並びに直線33cと33d間の距離d1)を取得して(ステップS11)、それが、部品データに記述されている当該部品の幅に近いときは、各距離d1、d2を作業用メモリ7に記録しておく(ステップS12)。そして、スキャン直線式の傾きを粗く変えてステップS4〜S12の処理を行い(ステップS13)、各角度で求めた距離d1、d2の中で最短距離を取得する(ステップS14)。そのとき精度を高めるために、最短距離が得られた角度周辺でスキャン直線式の傾きの変更角度(Δα)の刻みを細かくしてステップS3〜S14(ステップS13は除く)を繰り返して、距離d1、d2が最短となる直線式を求める(ステップS15)。このとき、上下辺と左右辺の交角をチェックしておく(ステップS16)。そして、いままでの処理で求めた最短距離直線34a〜34dの生成される矩形から部品の中心と傾きを求め(ステップS17)、その結果をモニタ16に表示する(ステップS18)。なお、中心は、ステップS17の左側の図に示したように、各直線34a〜34dの交点TL、TR、BL、BRを求め、線分TL―TRの中点と線分BL―BRの中点を通る直線Vと、線分TL―BLの中点と線分TR―BRの中点を通る直線Hとの交点Oとし、一方、部品の傾きは、直線34aと34bのX軸に対する傾きと、直線34c、34dのY軸に対する傾きをそれぞれ求め、その平均とする。なお、部品が極端に縦長あるいは横長の時は、長辺の傾きを部品傾きとする。   In this way, when all the linear expressions of the four sides are acquired, the distances between the opposing linear expressions (distance d2 between the straight lines 33a and 33b and distance d1 between the straight lines 33c and 33d) are acquired (step S11). If it is close to the width of the part described in the part data, the distances d1 and d2 are recorded in the work memory 7 (step S12). Then, the process of steps S4 to S12 is performed by changing the inclination of the scan linear equation roughly (step S13), and the shortest distance is obtained among the distances d1 and d2 obtained at each angle (step S14). At this time, in order to increase the accuracy, steps S3 to S14 (except for step S13) are repeated with the increment of the scan linear inclination change angle (Δα) around the angle at which the shortest distance is obtained, and the distance d1 , D2 is determined to be the shortest (step S15). At this time, the intersection angle between the upper and lower sides and the left and right sides is checked (step S16). Then, the center and the inclination of the part are obtained from the rectangle in which the shortest distance straight lines 34a to 34d obtained in the process so far are generated (step S17), and the result is displayed on the monitor 16 (step S18). As shown in the left diagram of step S17, the center is obtained by calculating the intersections TL, TR, BL, BR of the straight lines 34a to 34d, and between the midpoint of the line segment TL-TR and the line segment BL-BR. An intersection O between a straight line V passing through the point and a straight line H passing through the midpoint of the line segment TL-BL and the midpoint of the line segment TR-BR, while the inclination of the parts is the inclination of the straight lines 34a and 34b with respect to the X axis Then, the inclinations of the straight lines 34c and 34d with respect to the Y axis are respectively obtained and set as the average. When the part is extremely vertically or horizontally long, the inclination of the long side is defined as the part inclination.

なお、ステップS9の処理で取得される直線式は、求めようとする部品の外形に外接する外接直線に相当しているので、ステップS11、S12の処理を省略して、ステップS9で求めた各辺での外接直線を登録して、これらの外接直線から部品中心と部品傾きを求めるようにしてもよい。   Note that the linear equation acquired in the process of step S9 corresponds to a circumscribed line circumscribing the outer shape of the component to be obtained. Therefore, the processes of steps S11 and S12 are omitted, and each of the linear expressions obtained in step S9 is obtained. It is also possible to register circumscribing straight lines at the sides and obtain the component center and component inclination from these circumscribing straight lines.

本発明におけるスキャンは、ステップS1で行われる1ライン毎に走査するラスタスキャンではなく、上述のステップS2、S4に示したように、スキャン直線式を作成して各エッジ点との距離を取得するためのスキャンとなっている。この方法は、図3(A)に示したように、スキャン用直線41が部品40の辺40aに平行でないときは、直線41と辺40aのエッジ点との距離は、辺40aに沿ったエッジ点でそれぞれ異なるのに対して、図3(B)に示したように、直線41を傾斜させ、辺40aに平行にすると、前記距離が辺40aに沿った各エッジ点でほぼ同じ値になることを利用している。このために、ステップS3で順次所定角度づつスキャン直線式の傾きを変化させ、前記距離が各エッジ点で等しくなる直線を探している。なお、スキャン用直線41のスキャン線42の密度は、好ましくは、ラスタスキャン線の密度の同じ値に設定し、スキャン方向はラスタスキャンと同じ方向にする。   The scan in the present invention is not a raster scan performed for each line performed in step S1, but as shown in the above-described steps S2 and S4, a scan linear expression is created to obtain the distance to each edge point. It has become a scan for. In this method, as shown in FIG. 3A, when the scanning straight line 41 is not parallel to the side 40a of the component 40, the distance between the straight line 41 and the edge point of the side 40a is the edge along the side 40a. Whereas each point differs, as shown in FIG. 3B, when the straight line 41 is inclined and parallel to the side 40a, the distance becomes substantially the same value at each edge point along the side 40a. I use that. For this purpose, in step S3, the slope of the scan line type is sequentially changed by a predetermined angle to search for a straight line in which the distance is equal at each edge point. The density of the scan lines 42 of the scanning straight line 41 is preferably set to the same value as the density of the raster scan lines, and the scan direction is set to the same direction as the raster scan.

このように、スキャン直線式の傾きを変化させて上記距離が同じエッジ点数が一番多い直線式を選択することになるが、これだけではハフ変換と同じであり、例えば、図3(C)に示したようなリード端子43a、43bを有する部品43の場合には、距離が同じエッジ点数が一番多い直線44’が選ばれ、所望の外接直線が得られないことがある。従って、図3(D)に示したように、スキャン用直線44に一番近いエッジ点43dを取得して、それとほぼ同距離にあるエッジ点43eを取得し、両エッジ点43dと43eが十分離れているという条件を入れるようにする(ステップS7の処理に相当)。この条件が満たされた場合には、図3(E)に示したように、スキャン用直線44を同距離だけ平行移動すれば、求めようとする外接直線45を得ることができる(ステップS9の処理に相当)。   In this way, the linear equation having the largest number of edge points having the same distance is selected by changing the slope of the scanning linear equation, but this is the same as the Hough transform, for example, as shown in FIG. In the case of the component 43 having the lead terminals 43a and 43b as shown, the straight line 44 'having the same number of edge points having the same distance may be selected, and a desired circumscribing straight line may not be obtained. Therefore, as shown in FIG. 3D, the edge point 43d closest to the scanning straight line 44 is acquired, the edge point 43e that is substantially the same distance is acquired, and both edge points 43d and 43e are sufficient. A condition of being away is added (corresponding to the process of step S7). When this condition is satisfied, the circumscribed straight line 45 to be obtained can be obtained by moving the scanning straight line 44 by the same distance as shown in FIG. 3E (step S9). Equivalent to processing).

また、スキャン直線式の角度変化の刻み(Δα)を細かくすれば、精度良く認識可能であるが、生産タクトが遅くなる弊害がでる。このため、スキャン変化幅を粗くしておおよその傾きを取得した後に(ステップS13の処理に相当)、変化幅を細かくして処理結果を求めるようにする(ステップS15の処理に相当)。このとき、例えば粗いスキャンは、±10°の範囲を1°刻みで行い、細かいスキャンは±1°の範囲を0.1°刻みで行うこととする。この刻みをさらに細かくしていけば、求める精度を調整することも可能となる。   Further, if the increment (Δα) of the angle change of the scan linear type is made fine, it can be recognized with high accuracy, but there is a problem that the production tact is delayed. For this reason, after the scan change width is roughened and an approximate inclination is acquired (corresponding to the process in step S13), the change width is narrowed to obtain the processing result (corresponding to the process in step S15). At this time, for example, a rough scan is performed in a range of ± 10 ° in increments of 1 °, and a fine scan is performed in a range of ± 1 ° in increments of 0.1 °. If this step is further refined, the required accuracy can be adjusted.

図4は、このようにスキャン直線式の角度を変化させることにより、部品30の4辺の外接線を求める過程を説明しており、図4(A)、(B)に示すスキャン直線の角度では、ステップS7の条件が満たされず、図4(C)に示すスキャン直線の角度で、初めて満たされることを示している。このように、スキャン用直線をX軸ないしY軸に対して回転させ、該直線とエッジ点間の距離が最短になるエッジ点が複数箇所において充分離れたところで検出される回転角度を求め、その回転角度におけるスキャン用直線を、距離が最短になるエッジ点まで平行移動させることにより部品に外接する外接直線33a〜33dを求め(ステップS10の処理に相当)、部品30の中心Oとその傾きを取得している(ステップS17の処理に相当)。   FIG. 4 illustrates the process of obtaining the circumscribing lines of the four sides of the component 30 by changing the angle of the scan straight line in this manner. The angle of the scan straight line shown in FIGS. This indicates that the condition of step S7 is not satisfied and is satisfied for the first time at the angle of the scan line shown in FIG. In this way, the scanning straight line is rotated with respect to the X axis or the Y axis, and the rotation angle detected when the edge point at which the distance between the straight line and the edge point is the shortest is sufficiently separated at a plurality of positions is obtained. The scanning straight line 33a to 33d circumscribing the part is obtained by translating the scanning straight line at the rotation angle to the edge point where the distance is the shortest (corresponding to the process of step S10), and the center O of the part 30 and its inclination are obtained. Has been acquired (corresponding to the processing in step S17).

なお、部品が図3(A)、(B)に示すような平行4辺形の部品40の場合には、図2のステップS7で判断される条件が満たされるので、処理時間が短くなり、本発明は、種々の形状の部品30、40、43に適用できるものである。   If the part is a parallelogram part 40 as shown in FIGS. 3A and 3B, the condition determined in step S7 in FIG. 2 is satisfied, so the processing time is shortened. The present invention can be applied to parts 30, 40, and 43 having various shapes.

図5(A)に示したように、直線部51aを有する部分51と直線部52aを有する部分52に分離して撮像されるような部品50のような場合には、直線部51aと52aで形成される隙間をスキャンして、隙間内側の直線部51a、52aに外接する2直線53a、53bを求めて、その幅が一番広いときのスキャン直線の傾きを部品傾きとし、重心を部品中心とする。この処理の流れが図6に図示されている。   As shown in FIG. 5A, in the case of a component 50 that is imaged separately into a portion 51 having a straight portion 51a and a portion 52 having a straight portion 52a, the straight portions 51a and 52a The gap formed is scanned to obtain two straight lines 53a and 53b circumscribing the straight line portions 51a and 52a inside the gap, and the inclination of the scan straight line when the width is the widest is defined as the component inclination, and the center of gravity is defined as the component center. And The flow of this process is shown in FIG.

まず、部品50の画像を4辺でラスタスキャンして外形矩形54を取得する(ステップS21、S22)。次に、スキャン用直線55から直線部51aと52aで形成される隙間に合ったスキャンを行うことにより部品50のエッジ点(黒丸で図示)を取得し(ステップS23)、各スキャン線での立下りから立ち上がりが現れる組み合わせエッジ点を取得し(ステップS24)、その中で隙間サイズの±20%以上となるものをノイズとして削除し(ステップS25)、ステップS25の左側の図に示したように、直線部51a、52aでの組み合わせエッジ点を取得する。   First, an outline rectangle 54 is acquired by raster scanning the image of the component 50 on four sides (steps S21 and S22). Next, an edge point (illustrated by a black circle) of the component 50 is acquired from the scanning straight line 55 by scanning in accordance with the gap formed by the straight line portions 51a and 52a (step S23), and the falling at each scanning line The combination edge point at which the rising edge appears is acquired (step S24), and those that are ± 20% or more of the gap size are deleted as noise (step S25), and as shown in the left diagram of step S25, The combination edge point in the straight line parts 51a and 52a is acquired.

続いて、各組み合わせエッジ点の中点(X印)を取得し(ステップS26)、各中点の最小2乗直線を求めて、それを隙間中央にある直線56とする(ステップS27)。そして、直線の幅方向にスキャンを行って隙間内側の直線部51a、52aのエッジ点を取得し(ステップS28)、隙間中央直線56に傾きを加えて隙間内側にスキャン用直線57を設定し、スキャン直線式を定める(ステップS29)。   Subsequently, the midpoint (marked by X) of each combination edge point is acquired (step S26), and the least square line of each midpoint is obtained and set as the straight line 56 at the center of the gap (step S27). Then, scanning is performed in the width direction of the straight line to obtain the edge points of the straight line portions 51a and 52a inside the gap (step S28), and the scanning straight line 57 is set inside the gap by adding an inclination to the gap center straight line 56, A scanning linear equation is determined (step S29).

以上の処理で、部品50の直線部51aと52aにあるエッジ点に対して、スキャン用直線57が設定されたので、その直線からスキャンを行い左右両方のエッジ点までの距離を取得し(ステップS30)、最短距離のエッジ点を抽出し、それとほぼ同距離のエッジ点を検出する(ステップS31)。   With the above processing, since the scanning straight line 57 is set for the edge points in the straight portions 51a and 52a of the component 50, scanning is performed from the straight line to obtain the distances to both the left and right edge points (step S30), an edge point with the shortest distance is extracted, and an edge point with substantially the same distance is detected (step S31).

続いて、ステップS31で求めたエッジ点の両端の距離が充分な距離であるかを判定し、それでなければステップS29に戻り、スキャン用直線57にさらに所定傾きを付加して以下の処理を繰り返す(ステップS32、S33)。この処理は、図2のステップS7、S8と同じ考え方に基づく。また、スキャン用直線57の傾きが外れていると、ステップS31で最短距離とほぼ同距離のエッジ点が取得できないので、それが取得できなかった場合も、ステップS29に戻って、スキャン直線式にさらに所定傾きを付加してステップS30以下の処理を繰り返す。   Subsequently, it is determined whether or not the distance between both ends of the edge point obtained in step S31 is a sufficient distance. If not, the process returns to step S29 to add a predetermined inclination to the scanning straight line 57 and repeat the following processing. (Steps S32 and S33). This process is based on the same idea as steps S7 and S8 in FIG. If the inclination of the scanning straight line 57 is off, an edge point that is almost the same distance as the shortest distance cannot be obtained in step S31. If it cannot be obtained, the process returns to step S29, and the scanning linear equation is obtained. Further, a predetermined inclination is added, and the processes after step S30 are repeated.

このようにして、スキャン用直線57とエッジ点間の距離が最短になるエッジ点が所定距離(例えば30画素)以上離れて複数箇所において検出されたので、ステップS34の右側の図に示すように最短距離エッジ点を通りスキャン直線57に平行な直線57a、57bを示す直線式を取得し(ステップS34)、2直線57a、57b間の距離dを取得する(ステップS35)。   In this way, since the edge points at which the distance between the scanning straight line 57 and the edge point is the shortest are detected at a plurality of locations separated by a predetermined distance (for example, 30 pixels) or more, as shown in the diagram on the right side of step S34. A straight line expression indicating straight lines 57a and 57b passing through the shortest distance edge point and parallel to the scan straight line 57 is acquired (step S34), and a distance d between the two straight lines 57a and 57b is acquired (step S35).

続いて、ステップS36において、同ステップの右側の図に示すように、スキャン用直線57の傾きを粗く変化させてステップS29からS35の処理を繰り返し、直線間距離dが一番広くなるときのスキャン直線式の傾きを取得し(ステップS37)、この傾き角度周辺でスキャン直線式の傾きの変化度(振幅)を細かくしてステップS29からS35の処理を繰り返す(ステップS38)。   Subsequently, in step S36, as shown on the right side of the same step, the inclination of the scanning straight line 57 is coarsely changed and the processing of steps S29 to S35 is repeated, and the scan when the distance d between the straight lines becomes the largest is shown. The linear inclination is acquired (step S37), and the degree of change (amplitude) of the scan linear inclination is reduced around the inclination angle, and the processing of steps S29 to S35 is repeated (step S38).

このような処理により直線間距離dが最大値d’となるときの直線58aあるいは58bの傾きθを取得し(ステップS39)、また、部品50の重心を公知の方法で取得する(ステップS40)。そして、部品傾きを、ステップS39で求めた角度θとし、また部品中心を、ステップS40で取得した重心として、それを部品実装機のメイン制御装置13に送信する(ステップS41)。   By such processing, the inclination θ of the straight line 58a or 58b when the distance d between the straight lines becomes the maximum value d ′ is acquired (step S39), and the center of gravity of the component 50 is acquired by a known method (step S40). . Then, the component inclination is set as the angle θ obtained in step S39, and the component center is set as the center of gravity acquired in step S40, which is transmitted to the main controller 13 of the component mounter (step S41).

以上は、部品の辺が4辺(実施例1)、あるいは2辺(実施例2)を有する部品の例であったが、図7(A)に示すように、1辺(下辺)60aのみが外接直線を持つような部品60の場合でも同じ原理を利用して位置決めをすることが可能である。   The above is an example of a component having four sides (Example 1) or two sides (Example 2), but only one side (lower side) 60a as shown in FIG. 7A. Even in the case of a component 60 having a circumscribed straight line, positioning can be performed using the same principle.

この場合には、下辺60aのみエッジ点を取得してスキャン直線を設定し、図7(B)に示したように、この辺60aに外接する外接直線61を求め、その外接直線に垂直な直線が部品60の外側に接する直線62を求めて、2直線61、62の交点Pを求める。部品データ格納メモリ8には、部品の横幅H、縦幅Vが格納されているので、この部品サイズから、PよりH/2、V/2離れた点を部品中心Cとし、外接直線61、あるいはそれと直交する直線62の傾きを部品傾きとする。   In this case, an edge point is acquired only for the lower side 60a and a scan straight line is set, and a circumscribed line 61 circumscribing the side 60a is obtained as shown in FIG. 7B, and a straight line perpendicular to the circumscribed line is obtained. A straight line 62 in contact with the outside of the component 60 is obtained, and an intersection point P of the two straight lines 61 and 62 is obtained. Since the component data storage memory 8 stores the horizontal width H and vertical width V of the component, a point that is H / 2, V / 2 away from P from the component size is defined as a component center C, and a circumscribed straight line 61, Or the inclination of the straight line 62 orthogonal to it is made into component inclination.

また、外接する辺が2,3辺の部品でも同様にいずれか1つの辺に対して外接直線を求め、この外接直線と部品サイズから、部品中心と部品傾きを算出するようにしてもよい。   Similarly, even in the case of a part having two or three circumscribed sides, a circumscribed straight line may be obtained for any one side, and the component center and the component inclination may be calculated from the circumscribed line and the component size.

実施例1から実施例3では、画像はそのままでスキャン直線式に傾きを与えて部品傾きを算出していたが、逆に画像を撮像軸を中心に回転させてスキャン用直線はX、Y軸に平行なものとしてスキャンを行って位置決めを行ってもよい。画像を回転させて外接直線を取得する方法は、撮像した画像をメモリ上でアフィン変換等を使用して部品画像を徐々に回転させ、その画像に対してXY軸に平行なラスタスキャンを行って、外接直線を取得する。そして、一番外接点が多い時の画像回転角度を外接直線の傾きとし、その外接直線から部品中心、傾きを算出する。また、画像を回転させるのは、処理時間を要するので、ラスタスキャンにより取得されたエッジ点(ステップS1、S23)から定まる画像を回転させるようにしてもよい。   In the first to third embodiments, the image is left as it is, and the tilt of the scan linear equation is given to calculate the component tilt, but conversely, the image is rotated about the imaging axis, and the scan straight lines are the X and Y axes. It is also possible to perform positioning by scanning as a parallel object. The method of rotating the image to obtain the circumscribing straight line is to rotate the part image using the affine transformation etc. in the memory and perform raster scan parallel to the XY axes on the image. Get the circumscribed line. Then, the image rotation angle when there are the most outer contacts is the inclination of the circumscribed line, and the component center and the inclination are calculated from the circumscribed line. Further, since it takes a processing time to rotate the image, the image determined from the edge points (steps S1 and S23) acquired by the raster scan may be rotated.

本発明の部品位置検出に利用される装置の構成を示した構成図である。It is the block diagram which showed the structure of the apparatus utilized for the component position detection of this invention. 部品位置検出の全体の流れを示したフローチャートである。It is the flowchart which showed the whole flow of component position detection. 本発明の部品位置検出の原理を説明する説明図である。It is explanatory drawing explaining the principle of the component position detection of this invention. スキャン直線式の傾きを変化させて所望の外接直線を求める過程を示した説明図である。It is explanatory drawing which showed the process of calculating | requiring a desired circumscribing straight line by changing the inclination of a scanning straight line type | formula. 分割されて撮像される部品の位置検出の原理を説明する説明図である。It is explanatory drawing explaining the principle of the position detection of the components imaged by division | segmentation. 図5に示した部品の位置検出の流れを説明するフローチャートである。It is a flowchart explaining the flow of position detection of the components shown in FIG. 外接直線と部品データに基づいて部品中心と傾きを算出する例を説明した説明図である。It is explanatory drawing explaining the example which calculates a component center and inclination based on a circumscribed line and component data. 部品中心と傾きの算出を説明する説明図である。It is explanatory drawing explaining calculation of a component center and inclination. 辺に凹凸のある部品の上面図である。It is a top view of components with unevenness on the side.

符号の説明Explanation of symbols

2 部品
4 撮像装置
6 画像メモリ
8 部品データ格納メモリ
12 画像処理装置
13 メイン制御装置
30、40、43、50、60 部品
32a、32b、41、44、57 スキャン直線式
2 parts 4 imaging device 6 image memory 8 parts data storage memory 12 image processing device 13 main control device 30, 40, 43, 50, 60 parts 32a, 32b, 41, 44, 57 scan linear type

Claims (7)

撮像された部品の画像を処理して部品位置を検出する方法であって、
部品の輪郭エッジ点を検出するとともに、該輪郭エッジ点に対して直線を設定し、
前記設定された直線と画像を相対的に回転させて、該直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が複数箇所において検出される回転角度を求め、
前記求めた回転角度に基づき部品の傾きを算出することを特徴とする部品位置検出方法。
A method of processing a captured part image to detect a part position,
While detecting the contour edge point of the part, set a straight line for the contour edge point,
Rotating the set straight line and the image relatively to obtain a rotation angle at which the contour edge point at which the distance between the straight line and the contour edge point is the shortest is detected at a plurality of locations,
A component position detection method comprising calculating a tilt of a component based on the obtained rotation angle.
撮像された部品の画像を処理して部品位置を検出する方法であって、
部品の輪郭エッジ点を検出するとともに、該輪郭エッジ点に対して直線を設定し、
前記設定された直線と画像を相対的に回転させて、該直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が複数箇所において検出される回転角度を求め、
前記求めた回転角度での直線から部品に外接する外接直線を求め、
前記外接直線を辺ごとに求めて、該求めた外接直線から部品中心と部品傾きを算出することを特徴とする部品位置検出方法。
A method of processing a captured part image to detect a part position,
While detecting the contour edge point of the part, set a straight line for the contour edge point,
Rotating the set straight line and the image relatively to obtain a rotation angle at which the contour edge point at which the distance between the straight line and the contour edge point is the shortest is detected at a plurality of locations,
Obtain a circumscribing straight line circumscribing the part from the straight line at the obtained rotation angle,
A component position detection method, wherein the circumscribed line is obtained for each side, and the component center and the component inclination are calculated from the obtained circumscribed line.
対向する辺に対応する外接直線間の距離が最短になる外接直線を求め、該求めた外接直線から部品中心と部品傾きを求めることを特徴とする請求項2に記載の部品位置検出方法。   3. The component position detection method according to claim 2, wherein a circumscribed straight line having a shortest distance between circumscribed straight lines corresponding to opposing sides is obtained, and a component center and a component inclination are obtained from the obtained circumscribed straight line. 撮像された部品の画像を処理して部品位置を検出する方法であって、
部品の輪郭エッジ点を検出するとともに、該輪郭エッジ点に対して直線を設定し、
前記設定された直線と画像を相対的に回転させて、該直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が複数箇所において検出される回転角度を求め、
前記求めた回転角度での直線から部品に外接する外接直線を求め、
前記求めた外接直線並びに部品サイズに基づき部品中心と部品傾きを算出することを特徴とする部品位置検出方法。
A method of processing a captured part image to detect a part position,
While detecting the contour edge point of the part, set a straight line for the contour edge point,
Rotating the set straight line and the image relatively to obtain a rotation angle at which the contour edge point at which the distance between the straight line and the contour edge point is the shortest is detected at a plurality of locations,
Obtain a circumscribing straight line circumscribing the part from the straight line at the obtained rotation angle,
A component position detection method comprising calculating a component center and a component inclination based on the obtained circumscribed straight line and component size.
撮像された部品の画像を処理して部品位置を検出する装置であって、
部品を撮像する撮像装置と、
撮像された部品の画像を処理して部品の輪郭エッジ点を検出するとともに、該輪郭エッジ点に対して直線を設定する画像処理装置とを有し、
前記画像処理装置は、前記設定された直線と画像を相対的に回転させて、該直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が複数箇所において検出される回転角度を求め、該求めた回転角度に基づき部品の傾きを算出することを特徴とする部品位置検出装置。
An apparatus for processing a captured part image to detect a part position,
An imaging device for imaging a component;
An image processing device that processes a captured image of the component to detect a contour edge point of the component and sets a straight line with respect to the contour edge point;
The image processing device relatively rotates the set straight line and the image, obtains a rotation angle at which a plurality of contour edge points at which the distance between the straight line and the contour edge point is shortest is detected, A component position detection apparatus that calculates a tilt of a component based on the obtained rotation angle.
撮像された部品の画像を処理して部品位置を検出する装置であって、
部品を撮像する撮像装置と、
撮像された部品の画像を処理して部品の輪郭エッジ点を検出するとともに、該輪郭エッジ点に対して直線を設定する画像処理装置とを有し、
前記画像処理装置は、前記設定された直線と画像を相対的に回転させて、該直線と輪郭エッジ点間の距離が最短になる輪郭エッジ点が複数箇所において検出される回転角度を求め、該求めた回転角度での直線から部品に外接する外接直線を辺ごとに求めて、該求めた外接直線から部品中心と部品傾きを算出することを特徴とする部品位置検出装置。
An apparatus for processing a captured part image to detect a part position,
An imaging device for imaging a component;
An image processing device that processes a captured image of the component to detect a contour edge point of the component and sets a straight line with respect to the contour edge point;
The image processing device relatively rotates the set straight line and the image, obtains a rotation angle at which a plurality of contour edge points at which the distance between the straight line and the contour edge point is shortest is detected, A component position detecting apparatus, wherein a circumscribed line circumscribing a component is obtained for each side from a straight line at a determined rotation angle, and a component center and a component inclination are calculated from the obtained circumscribed line.
対向する辺に対応する外接直線間の距離が最短になる外接直線を求め、該求めた外接直線から部品中心と部品傾きを求めることを特徴とする請求項6に記載の部品位置検出装置。   7. The component position detection apparatus according to claim 6, wherein a circumscribed straight line having a shortest distance between circumscribed straight lines corresponding to opposite sides is obtained, and a component center and a component inclination are obtained from the obtained circumscribed straight line.
JP2005078320A 2005-03-18 2005-03-18 Component position detection method and apparatus Active JP4707423B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005078320A JP4707423B2 (en) 2005-03-18 2005-03-18 Component position detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005078320A JP4707423B2 (en) 2005-03-18 2005-03-18 Component position detection method and apparatus

Publications (2)

Publication Number Publication Date
JP2006260315A true JP2006260315A (en) 2006-09-28
JP4707423B2 JP4707423B2 (en) 2011-06-22

Family

ID=37099468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005078320A Active JP4707423B2 (en) 2005-03-18 2005-03-18 Component position detection method and apparatus

Country Status (1)

Country Link
JP (1) JP4707423B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009501A (en) * 2008-06-30 2010-01-14 Fujitsu Ltd Image processing apparatus and method thereof
CN109214154A (en) * 2017-06-29 2019-01-15 佳能株式会社 Information processing unit and method
JP2019211968A (en) * 2018-06-04 2019-12-12 アズビル株式会社 Two-dimensional position attitude estimation device and two-dimensional position attitude estimation method
CN117876376A (en) * 2024-03-13 2024-04-12 智联信通科技股份有限公司 High-speed multifunctional connector quality visual detection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63247605A (en) * 1987-04-02 1988-10-14 Matsushita Electric Ind Co Ltd Component recognizing method
JPH0264402A (en) * 1988-08-31 1990-03-05 Sharp Corp Measuring method for gap amount by image processing and measuring method for gap amount between wick of oil heater and filament
JPH03194667A (en) * 1989-12-25 1991-08-26 Toshiba Corp Graphic processor
JPH11311506A (en) * 1998-04-30 1999-11-09 Tenryuu Technics:Kk Method and device for detecting position of electronic component
JP2002288634A (en) * 2001-03-28 2002-10-04 Juki Corp Part position detecting method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63247605A (en) * 1987-04-02 1988-10-14 Matsushita Electric Ind Co Ltd Component recognizing method
JPH0264402A (en) * 1988-08-31 1990-03-05 Sharp Corp Measuring method for gap amount by image processing and measuring method for gap amount between wick of oil heater and filament
JPH03194667A (en) * 1989-12-25 1991-08-26 Toshiba Corp Graphic processor
JPH11311506A (en) * 1998-04-30 1999-11-09 Tenryuu Technics:Kk Method and device for detecting position of electronic component
JP2002288634A (en) * 2001-03-28 2002-10-04 Juki Corp Part position detecting method and device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009501A (en) * 2008-06-30 2010-01-14 Fujitsu Ltd Image processing apparatus and method thereof
CN109214154A (en) * 2017-06-29 2019-01-15 佳能株式会社 Information processing unit and method
US11042615B2 (en) 2017-06-29 2021-06-22 Canon Kabushiki Kaisha Information processing apparatus and method
JP2019211968A (en) * 2018-06-04 2019-12-12 アズビル株式会社 Two-dimensional position attitude estimation device and two-dimensional position attitude estimation method
WO2019235210A1 (en) * 2018-06-04 2019-12-12 アズビル株式会社 Two-dimensional position/attitude deduction apparatus and two-dimensional position/attitude deduction method
JP7178802B2 (en) 2018-06-04 2022-11-28 アズビル株式会社 2D Position and Posture Estimation Apparatus and 2D Position and Posture Estimation Method
CN117876376A (en) * 2024-03-13 2024-04-12 智联信通科技股份有限公司 High-speed multifunctional connector quality visual detection method
CN117876376B (en) * 2024-03-13 2024-05-10 智联信通科技股份有限公司 High-speed multifunctional connector quality visual detection method

Also Published As

Publication number Publication date
JP4707423B2 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP5174589B2 (en) Automatic focus adjustment method for electronic component mounting apparatus
KR20190131475A (en) Position detection device and location detection method
JP4707423B2 (en) Component position detection method and apparatus
JP5095378B2 (en) Component mounting method and apparatus
JP4324442B2 (en) Component data generation device and electronic component mounting device
JP4494922B2 (en) Method and apparatus for detecting mounting error of electronic component mounting apparatus
JP6849815B2 (en) How to determine the component mounting device, shooting method, and mounting order
JP4890904B2 (en) Component position detection method and apparatus
JPWO2017081773A1 (en) Image processing apparatus and image processing method for substrate
JP5507378B2 (en) Electronic component mounting equipment
JP3632461B2 (en) Image recognition method
JP2007286930A (en) Method for detecting gravity center of object
US11357149B2 (en) Component orientation determination data creation device and component orientation determination data creation method
JP4757701B2 (en) Electronic component suction position correction method and apparatus
JP3725314B2 (en) Method for correcting object point coordinates on wafer and method for determining object point coordinates
JP4380864B2 (en) Component detection method and apparatus
JP4660205B2 (en) Component recognition method and apparatus
JP2006112930A (en) Object-shape discriminating method and apparatus
KR102505670B1 (en) Apparatus for manufacturing learning data
JPH0812050B2 (en) Substrate mark position detection method
JP4686329B2 (en) Component recognition method and apparatus
JP2004062784A (en) Method for identifying body to be inspected and method for detecting position of body to be inspected
JP2023087272A (en) Determination region decision method, program, and component supply apparatus
JP4829701B2 (en) Camera scaling acquisition method for component mounters
JP4226866B2 (en) Component recognition device for mounting machine

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070202

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110315

R150 Certificate of patent or registration of utility model

Ref document number: 4707423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150