JPH03167897A - Setting method of component-gripping position in component mounting apparatus by image recognition - Google Patents

Setting method of component-gripping position in component mounting apparatus by image recognition

Info

Publication number
JPH03167897A
JPH03167897A JP1307972A JP30797289A JPH03167897A JP H03167897 A JPH03167897 A JP H03167897A JP 1307972 A JP1307972 A JP 1307972A JP 30797289 A JP30797289 A JP 30797289A JP H03167897 A JPH03167897 A JP H03167897A
Authority
JP
Japan
Prior art keywords
component
gripping position
gravity
center
component mounting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1307972A
Other languages
Japanese (ja)
Other versions
JP2774841B2 (en
Inventor
Koichi Nakahara
浩一 中原
Minoru Maruyama
丸山 実
Tomohiro Moriya
守屋 知洋
Yasuhiko Mizutani
水谷 康彦
Tetsuya Ishiguro
哲也 石黒
Yoshito Tachibana
橘 義人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP1307972A priority Critical patent/JP2774841B2/en
Publication of JPH03167897A publication Critical patent/JPH03167897A/en
Application granted granted Critical
Publication of JP2774841B2 publication Critical patent/JP2774841B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Supply And Installment Of Electrical Components (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

PURPOSE:To decide a component-gripping position at high speed by using a low-speed computer by a method wherein, when the component-gripping position is set after recognizing a component, the surface and the rear of the component are judged. CONSTITUTION:When a flag F is 0, picture-element data, covering one frame, supplied collectively one after another from an A/D converter 10 are taken into a RAM by using a first control means 1. For a picture element, a window (W) is set, by using a block-level grid as a reference, in a grid being set for every prescribed number of picture elements. When a black-level grid does not exist on the boundary of the W, the number of black-level grid inside the W is within a prescribed range and an the interval between black-level picture elements is within a prescribed range, it is judged that the position and the size of a component as viewed from a TV camera 8 are within a prescribed range. Coordinates of the center of gravity are computed and F=1 is set. Then, the surface and the rear are discriminated based on the sign of the difference of counterclockwise angle with reference to a reference line in the horizontal direction of a long-axis line and a short-axis line which connect a farthest point and a nearest point on a contour from the center of gravity of the component. Then, a gripping position where the component is to be sucked is computed.

Description

【発明の詳細な説明】 技術分野 本発明はいわゆるプリント基板(以下、単に基板と称す
る)に部品を自動的に次々と装着する部品装着装置に関
し、特に画像認識によって部品を把持しこれを基板に装
着する画像認識部品装着装置における部品把持位置設定
方法に関する。
DETAILED DESCRIPTION OF THE INVENTION Technical Field The present invention relates to a component mounting device that automatically and sequentially mounts components onto a so-called printed circuit board (hereinafter simply referred to as a board). The present invention relates to a component gripping position setting method in an image recognition component mounting device for mounting.

背景技術 かかる画像認識により作動する部品装着装置は、軟弱端
子を有するが故に整列して供給することが困難な電子部
品を基板に正しく装着するために、コンベア上にランダ
ム(非整列状態)に供給.a置される電子部品をテレビ
カメラによって撮像し、得られる画像データを処理して
各部品の形状、位置及び姿勢を知るようにしている。
BACKGROUND ART A component mounting device operated by such image recognition supplies electronic components randomly (in an unaligned state) onto a conveyor in order to correctly mount electronic components on a board, which are difficult to supply in an aligned manner because they have weak terminals. .. A television camera takes images of the electronic components placed on the screen, and the resulting image data is processed to determine the shape, position, and orientation of each component.

従来の画像認識部品装着装置においては画像デ−夕処理
して、部品把持位置設定のプログラムが複雑で、部品装
着速度を速くぜんとした場合、高速のコンピュータを必
要とし、コスト高となり実用性に問題があった。
In conventional image recognition component placement devices, the program for processing image data and setting the component gripping position is complex, and if the component placement speed is to be fast and consistent, a high-speed computer is required, resulting in high costs and impractical use. There was a problem.

発明のほ要 [発明の目的コ 本発明の目的は、低速のコンピュータによって形成され
しかも高速に部品の把持位置を設定することが出来る画
像認識部品装着装置における部品把持位置設定方法を提
供することである。
Summary of the Invention [Object of the Invention] An object of the present invention is to provide a component gripping position setting method in an image recognition component mounting apparatus that is formed by a low-speed computer and can set the component gripping position at high speed. be.

[発明の構或コ 部品載置面上にランダムされる電子部品を撮像して画像
信号を生成し、前記画像信号を処理して2次元画面を構
成する画素データを生成し、前記画素データに基づき前
記部品載置面上の前記電子部品のうちの1の把持位置を
設定する画像認識部品装着装置における部品把持位置設
定方法であって、 前記画素データのうちの1群の黒レベルデータの存在域
の重心位置を求める行程と、 前記前記1群の黒レベルデータの等価楕円と慣性主軸を
求める行程と、 前記重心から前記存在域の外部までの最遠点及び最近点
と前記重心を結ぶ長軸及び短軸を求める行程と、 前記長軸及び短軸のいずれか一方から他方を見る方向に
よって前記部品の表裏判別をなす行程と前記表裏判別の
結果に応じて前記重心位置を基準として部品把持位置を
設定することを特徴とする方法。
[Structure of the invention] An image signal is generated by imaging electronic components randomly placed on a component placement surface, the image signal is processed to generate pixel data constituting a two-dimensional screen, and the pixel data is A component gripping position setting method in an image recognition component mounting apparatus that sets a gripping position of one of the electronic components on the component mounting surface based on the presence of one group of black level data among the pixel data. a step of finding the equivalent ellipse and principal axis of inertia of the first group of black level data; and a step of finding the farthest point from the center of gravity to the outside of the region of existence, and a length connecting the center of gravity to the nearest point and the farthest point from the center of gravity to the outside of the region of existence. a step of determining the axis and the short axis; a step of determining the front and back sides of the component based on the direction from which one of the long and short axes is viewed from the other; and a step of gripping the component based on the center of gravity position according to the result of the front and back determination. A method characterized by setting a position.

[発明の作用コ 本発明による画像認識部品装着装置においては、部品認
識をした後に部品把持位置を設定するに当り、部品の表
裏判別を行なって、比較的簡単な演算により部品把持位
置を設定している。
[Operation of the Invention] In the image recognition component mounting device according to the present invention, when setting the component gripping position after recognizing the component, the front and back of the component are discriminated, and the component gripping position is set using relatively simple calculations. ing.

実施例 以下、添付図面によって、本発明の実施例につき詳細に
説明する。
Embodiments Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

まず、第1図によって、本発明による部品把持位置設定
方法を実行する画像認識部品装着装置に1I1 ・,′つき説明する。
First, with reference to FIG. 1, an image recognition component mounting apparatus for carrying out a component gripping position setting method according to the present invention will be described.

本装置において、第1制御手段1が部品供給装置2を作
動せしめるためのモータ3を駆動し、部品供給装置2か
らコンベア4上に数個の電子部品5、(この場合発光素
子)がランダム(すなわち非整列)状態にて投下される
。そして、コンベア4を作動せしめるためのモータ6が
駆動され、コンベア4上に投下された発光素子5は撮像
手段としてのテレビカメラ8により撮像され得る部品供
給位置9に持ち来される。テレビカメラ8により生成さ
れた画像信号はA/D変換器10を経て画素データに変
換され、第1制御手段1に送られる。
In this device, a first control means 1 drives a motor 3 for operating a component supply device 2, and several electronic components 5 (in this case, light emitting elements) are randomly transferred from the component supply device 2 onto a conveyor 4 ( In other words, they are dropped in an unaligned state. Then, a motor 6 for operating the conveyor 4 is driven, and the light emitting elements 5 dropped onto the conveyor 4 are brought to a component supply position 9 where they can be imaged by a television camera 8 serving as an imaging means. An image signal generated by the television camera 8 is converted into pixel data via an A/D converter 10 and sent to the first control means 1.

第1副御手段1はこの画素データに基づいて部品供給位
置9における各発光素子5の形状、位置及び姿勢を知り
、X−Yテーブル12の作動用のモータ13を駆動して
部品搬送チャック14をして、最初に搬送すべきである
と判定した発光素子を把持し得る位置に持ち来し、且つ
、把持せしめる。
The first sub-control means 1 learns the shape, position, and orientation of each light emitting element 5 at the component supply position 9 based on this pixel data, and drives the motor 13 for operating the X-Y table 12 to drive the component transport chuck 14. Then, the light emitting element determined to be transported first is brought to a position where it can be gripped, and the light emitting element is gripped.

そして、この把持させた発光素子5を表裏反転装置15
に受け渡し、受け渡した発光素子が表裏が反転していれ
ば表裏反転装置15を作動させて発光素子5が常に表向
きとなるように姿勢を修正し、インデックステーブル1
7上のインデックスチャック18に受け渡す。インデッ
クステーブル17はメインモータ19によりカム機構2
0を介して回転駆動され、第1制御手段1によってカム
機構20の動作制御がなされることによって36″ずつ
間欠的に回転する。インデックスチャック18はインデ
ックステーブル17上に等間隔(366ピッチ)にて1
0箇所に設けられている。インデックスチャック18は
上記の表裏反転装置15による部品供給箇所と後述の部
品排出箇所においてm2ml手段22よりカム!aHa
t 2 0を介して動作制御されるインデックスチャッ
ク駆動装置23及び24により機械力を付与されること
にょり把持爪の開動作をなす。そして、この機械力が解
除されることによって把持爪を閉じる。
Then, this gripped light emitting element 5 is turned over by a front-back reversing device 15.
If the delivered light-emitting element is turned upside down, the front-back reversing device 15 is operated to correct the posture so that the light-emitting element 5 always faces up, and the index table 1
Transfer it to the index chuck 18 above 7. The index table 17 is connected to the cam mechanism 2 by the main motor 19.
The index chuck 18 is rotated intermittently by 36" by controlling the operation of the cam mechanism 20 by the first control means 1.The index chuck 18 is rotated at equal intervals (366 pitches) on the index table 17. te1
It is provided in 0 locations. The index chuck 18 is operated by a cam! aHa
The gripping claws are opened by applying mechanical force by the index chuck drive devices 23 and 24 whose operation is controlled through t 2 0. When this mechanical force is released, the gripping claws are closed.

上述した如く、インデックステーブル17は36aを1
ピッチとして間欠的に回転せしめられるが、上記の部品
供給箇所からこの1ピッチずつ進んだ位置に対応してテ
レビカメラ26、端子扱き装置27、端子屈曲装置28
、テレビカメラ2つ及び部品装着チャック30が配設さ
れている。この部品装着チャック30が配置された位置
が上述した部品排出箇所であり、発光素子5を把持した
インデックスチャック18はこの位置にてインデックス
チャック駆動装置24により機械力を付与されて該発光
素子の把持状態を解除して部品装着チャック30に受け
渡す。
As mentioned above, the index table 17 has 36a as 1
The television camera 26, the terminal handling device 27, and the terminal bending device 28 are rotated intermittently as pitches, and the television camera 26, the terminal handling device 27, and the terminal bending device 28 correspond to the positions advanced by one pitch from the above-mentioned parts supply point.
, two television cameras, and a component mounting chuck 30 are provided. The position where this component mounting chuck 30 is placed is the above-mentioned component ejection location, and the index chuck 18 that grips the light emitting element 5 is applied with mechanical force by the index chuck drive device 24 at this position to grip the light emitting element. The state is released and the part is transferred to the component mounting chuck 30.

上記の各インデックスチャック駆動装置23,24、端
子扱き装置27、端子屈曲装置28及び部品装着チャッ
ク30は第2制御手段22により動作制御されるカム機
構20及びクラッチ21を介してメインモータ19によ
り駆動される。また、これら端子扱き装置27、端子屈
曲装置28及び部品装着チャック30の駆動のタイミン
グは、エンコーダ31からの信号に基づく。第2制御手
段22はまず、インデックスチャック18により把持さ
れた発光素子5の端子の状態をテレビカメラ26からの
撮像信号に基づいて認識し、これに応じて端子扱き装置
27を作動せしめ、軟弱であるが故に第2図に示す如く
変形していた発光素子5の端子5aをその先端に向けて
扱いて第3図に示すように互いに平行に或形する。次い
で、第2制御手段22は端子屈曲装置28を作動せしめ
、第4図に示すように端子5aを約90°屈曲せしめる
The above index chuck drive devices 23, 24, terminal handling device 27, terminal bending device 28, and component mounting chuck 30 are driven by the main motor 19 via the cam mechanism 20 and clutch 21 whose operation is controlled by the second control means 22. be done. Further, the timing of driving the terminal handling device 27, the terminal bending device 28, and the component mounting chuck 30 is based on a signal from the encoder 31. The second control means 22 first recognizes the state of the terminal of the light emitting element 5 gripped by the index chuck 18 based on the image signal from the television camera 26, and operates the terminal handling device 27 accordingly. Therefore, the terminals 5a of the light-emitting element 5, which had been deformed as shown in FIG. 2, are handled with their tips facing toward their ends, and are shaped parallel to each other as shown in FIG. Next, the second control means 22 operates the terminal bending device 28 to bend the terminal 5a by about 90 degrees as shown in FIG.

この後、第2制御手段は発光素子5の端子5aの状態を
テレビカメラ29からの撮像信号に基づいて認識し、端
子5aの成形状態が良であると判定したら、インデック
スチャック駆動装置24を作動させてインデックスチャ
ック18による発光素子5の把持状態を解除せしめると
共に、部品装着チャック30をしてこの発光素子5を把
持せしめる。そして、X−Yテーブル33を作動させる
ためのモータ34を駆動して、該発光素子5が装着され
るべくプリント基板35を持ち来す。
Thereafter, the second control means recognizes the state of the terminal 5a of the light emitting element 5 based on the image signal from the television camera 29, and if it determines that the molding state of the terminal 5a is good, it operates the index chuck drive device 24. Then, the light emitting element 5 is released from being held by the index chuck 18, and the light emitting element 5 is held by the component mounting chuck 30. Then, a motor 34 for operating the X-Y table 33 is driven, and a printed circuit board 35 is brought to be mounted with the light emitting element 5.

この後、第2制御手段22は部品装着チャック回転用モ
ータ37を回転せしめて部品装着チャック30を適当な
角度位置まで回転せしめ、プリント基板35に対する発
光素子5の角度位置を定める。そして、部品装着チャッ
ク30を下降させ、第5図に示す如く、プリントu板3
5に発光素子5を装着する。このとき、発光素子5の端
子5aはプリント基板35に形成された端子挿入孔35
aに挿入され、その先端部分がプリント基板35の下面
側に突出する。第2制御手段22はこの端子5aの導通
状態の良否を導通チェック・端子カット装置3つにより
検査し、導通が良好であれば端子5aの先端部をこの導
通チャック・端子カット装置3つにより切断して所定の
長さに切り揃える。
Thereafter, the second control means 22 rotates the component mounting chuck rotation motor 37 to rotate the component mounting chuck 30 to an appropriate angular position, thereby determining the angular position of the light emitting element 5 with respect to the printed circuit board 35. Then, the component mounting chuck 30 is lowered, and as shown in FIG.
The light emitting element 5 is attached to the light emitting device 5. At this time, the terminal 5a of the light emitting element 5 is inserted into the terminal insertion hole 35 formed in the printed circuit board 35.
a, and its tip portion protrudes to the lower surface side of the printed circuit board 35. The second control means 22 inspects the conductivity of the terminal 5a using three continuity check/terminal cutting devices, and if the continuity is good, cuts the tip of the terminal 5a using the three continuity chuck/terminal cutting devices. and cut it to the specified length.

一方、第2制御手段22は、導通チャック・端子カット
装置39による端子導通検査結果が不良と認識した場合
には、部品装着チャック30をしてその発光素子5をプ
リント基阪35から取り外させてその回収のためにこれ
を不良部品収納部40に収納し、直ちに後続の発光素子
の装着を行なわしめる。
On the other hand, when the second control means 22 recognizes that the terminal continuity test result by the continuity chuck/terminal cutting device 39 is defective, the second control means 22 causes the component mounting chuck 30 to remove the light emitting element 5 from the printed circuit board 35. For recovery, it is stored in the defective parts storage section 40, and subsequent light emitting elements are immediately mounted.

以下、上記の一連の動作がプリント基板35に装着され
るべき発光素子の各々に関して行われる。
Thereafter, the above series of operations are performed for each light emitting element to be mounted on the printed circuit board 35.

次に、第6図を参照して第1制御手段1における部品認
識動作を説明する。
Next, the component recognition operation in the first control means 1 will be explained with reference to FIG.

第1制御手段による部品認識動作をなす手段は、CPU
,RAM及びROMを含むいわゆるマイクロコンピュー
タによって形成される。第6図はこのマイクロコンピュ
ータによって実行されるプログラムを示すフローチャー
トであり、第1手段によるモータ13及び部品搬送チャ
ック14の制御動作を司るプログラムに対して所望タイ
ミングにて割込実行される。
The means for performing the component recognition operation by the first control means is a CPU.
, RAM, and ROM. FIG. 6 is a flowchart showing a program executed by this microcomputer, which is executed at a desired timing by interrupting the program controlling the control operation of the motor 13 and component transport chuck 14 by the first means.

このプログラムにおいては、先ず、フラッグFが1に等
しいや否やを判別して(ステップSl)、Fが0に等し
いときは、A/D変換器10から順次供給さる画素デー
タを1フレーム分まとめてRAM内の所定領域に取り込
む(ステップS2)。
In this program, first, it is determined whether the flag F is equal to 1 (step Sl), and when F is equal to 0, the pixel data sequentially supplied from the A/D converter 10 is collected for one frame. The data is imported into a predetermined area in the RAM (step S2).

なお、F−1と判別したときには後述のステップS18
に入る。第7図は、画素データによって表わされる1フ
レームの画像の一例を示しており、この画像においては
電子部品dl,d2,d3がコンベア4上に非整列状態
にて′a置されている様子が表れている。第8図示した
如く、本発明によれば、1フレームの画像において垂直
及び水平方向におい所定画素(例えば100画素)おき
にグリッドGε (t−1,・・・19G)を設定して
ある。そして、既設ウィンドウ外の領域において最若番
のG(,から順に番号順にチェックし(ステップS3)
、黒レベルグリッドが見つかると、この検出黒レベルグ
リッドを基準にして所定広さの領域すなわちウィンドウ
Wを設定する(第9図参照)(ステップS4)。次いで
、このウィンドウWの境界上に黒レベルグリッドが存在
するや否やを判別する(ステップS5)。ウィンドウ境
界上に黒レベルグリッドが存在するときは例えば第10
図に示す如く部品同士が近接しており、部品吸着には適
さないとして、既に設定したウィンドウ以外の領域につ
いて最若番のGtから老番方向へ黒レベルグリッドの検
出動作をなすべくステップS3に戻る。一方、ウィンド
ウ境界上に黒レベルグリッドが存在しないときは、当該
ウィンドウ内の黒レベルグリッド数が所定値より大であ
るや否やを1′j1別する(ステップS7)。当該ウィ
ンドゥ内の黒レベルグリッド数が所定値範囲内にない場
合、目標部品の大きさが規定外であるか、又は、部品が
栽置面に対して傾斜して載置されており、吸着に適さな
いとしてステップS3に戻る。一方、当該ウィンドウ内
の黒レベルグリッド数が所定値範囲内にあると判別した
ときはテレビヵメラ8から見た目標部品の面積が第11
図に示した如く一応の規定に収まっているとして、次の
ステップs8の判別動作に入る。ステップS8において
は、当該ウィンドウ内の水平方向における黒レベル画素
間の最大距ll#Xと、垂直方向における黒レベル画素
間の最大距離Yとが所定の最大値XMx及びYMxより
小であるや否やを判別する。第12図に示した如く、X
くXMx及びY < Y MXが共に成立すれば目標部
品の大きさは規定に収まっているとして次の面積チェッ
クのステップs9に入る。
Note that when it is determined that it is F-1, step S18 described below is performed.
to go into. FIG. 7 shows an example of a one-frame image represented by pixel data, and in this image, electronic components dl, d2, and d3 are placed on the conveyor 4 in an unaligned state. It's showing. As shown in FIG. 8, according to the present invention, grids Gε (t-1, . . . 19G) are set at predetermined pixel intervals (for example, 100 pixels) in the vertical and horizontal directions in one frame of image. Then, in the area outside the existing window, check in numerical order starting from the lowest number G(,) (step S3).
, when a black level grid is found, an area of a predetermined size, ie, a window W, is set based on this detected black level grid (see FIG. 9) (step S4). Next, it is determined whether a black level grid exists on the boundary of this window W (step S5). For example, when there is a black level grid on the window border, the 10th
As shown in the figure, since the parts are close to each other and it is not suitable for parts suction, the process goes to step S3 to perform a black level grid detection operation from the lowest number Gt to the highest number in the area other than the already set window. return. On the other hand, if there is no black level grid on the window boundary, it is determined by 1'j1 as soon as the number of black level grids within the window is greater than a predetermined value (step S7). If the number of black level grids in the window is not within the specified value range, the size of the target component is outside the specified range, or the component is placed at an angle to the planting surface and cannot be suctioned. It is determined that it is not suitable and the process returns to step S3. On the other hand, when it is determined that the number of black level grids in the window is within the predetermined value range, the area of the target component as seen from the television camera 8 is
As shown in the figure, it is assumed that the conditions are within the specified range, and the next step s8 is the determination operation. In step S8, as soon as the maximum distance ll#X between black level pixels in the horizontal direction and the maximum distance Y between black level pixels in the vertical direction within the window are smaller than predetermined maximum values XMx and YMx. Determine. As shown in Figure 12,
If XMx and Y<YMX are both established, it is assumed that the size of the target part is within the specified range, and the process proceeds to step s9 for the next area check.

ステップS9においては、ウィンドゥ内の黒レベル画素
数が、所定最小値NMN及び所定最大MNMXの間にあ
るや否やを判別する。ウィンドウ内の黒レベル画素数が
NMNとNMXこの間にないと部品面積が規定範囲外に
ある故、部品の形状が異常であるか部品の姿勢が正しく
ないして、ステ八 ップS3に戻る。一方、ウィンドウ内の黒レベル画素数
がNMNとNMXとの間にあることを判別した場合は、
部品吸着又は把持位置の算出のための準備として目標部
品の重心位置座標を算出する(ステップS10)。重心
位置座標算出方法については周知なので、ここでは詳述
しない。次いで、ステップS11において、取り込んだ
1フレームの画像について、吸着位置算出までの動作が
1の部品について既になされたことを示すフラッグFが
立っているかどうかを判別する。フラッグFが1である
ことを判別したときは、既に1の部品について、吸着位
置算出が終了しているので、今回設定ウィンドウ内の部
品についての重心位置座標データを記憶して(ステップ
S12)、メインルーチンに戻る。一方、F−0を判別
したときは、第13図に示す如く目標部品d1の等価楕
円及び慣性主軸上にある黒レベルデータを算出する(ス
テップS13)。この演算も周知であり、ここでは詳述
しない。次に、ステップS14においては、第14図に
示す如く、部品の重心からの輪郭上の最遠点及び最近点
と重心とを粘ぶ長軸線g1及び短軸線g2を求める。次
いで、このg1及びg2の水平右方向裁準線γに対する
反時計回りの角度を01及びθ2として、Δθ=θ1−
02を求め、Δθ〉180°のときはΔθヨΔθ−36
0°とし、Δθ<−180°のときはΔθ一Δθ+36
0°とする。こうすれば−180″<Δθ< 180’
となり、Δθの正負により表裏判別を行なう(ステップ
S1 5)。
In step S9, it is determined whether the number of black level pixels within the window is between a predetermined minimum value NMN and a predetermined maximum MNMX. If the number of black level pixels in the window is not between NMN and NMX, the area of the component is outside the specified range, so the shape of the component is determined to be abnormal or the orientation of the component is incorrect, and the process returns to step S3. On the other hand, if it is determined that the number of black level pixels in the window is between NMN and NMX,
In preparation for calculating the component suction or gripping position, the center of gravity position coordinates of the target component are calculated (step S10). Since the method for calculating the coordinates of the center of gravity position is well known, it will not be described in detail here. Next, in step S11, it is determined whether or not a flag F indicating that the operation up to the calculation of the suction position has already been performed for one component is set for the captured one frame image. When it is determined that the flag F is 1, the suction position calculation has already been completed for one component, so the center of gravity position coordinate data for the component in the current setting window is stored (step S12). Return to main routine. On the other hand, when F-0 is determined, black level data on the equivalent ellipse and principal axis of inertia of the target part d1 is calculated as shown in FIG. 13 (step S13). This operation is also well known and will not be described in detail here. Next, in step S14, as shown in FIG. 14, a long axis g1 and a short axis g2 extending between the center of gravity and the farthest and nearest points on the contour from the center of gravity of the part are determined. Next, assuming that the counterclockwise angles of g1 and g2 with respect to the horizontal rightward alignment line γ are 01 and θ2, Δθ=θ1−
02, and when Δθ>180°, Δθyo Δθ−36
0°, and when Δθ<-180°, Δθ - Δθ + 36
Set to 0°. This way -180″<Δθ<180'
Then, front and back discrimination is performed based on the sign of Δθ (step S15).

次いで、ステップS17において、目標部品を載置面か
ら拾い上げる吸着手段により吸着すべき位置すなわち把
持位置を算出する。この吸着位置の座標(P x,  
P y)は次の(1)又は(2)式の演算によって得ら
れる。
Next, in step S17, the position at which the target part should be picked up by the suction means that picks it up from the mounting surface, that is, the gripping position is calculated. The coordinates of this suction position (P x,
P y) can be obtained by calculating the following equation (1) or (2).

PF=GF+G!’sin (180゜−θGP 十θ
MX )ここに、Gx,Gyは先に算出した重心位置座
標であり、GPは重心との吸着位置との距離であり、予
め部品種類毎に定められている。θGPは重心と吸着位
置との間の距離であり、θcpは重心と吸着α置とを結
ぶ線と慣性主軸とのなす角度であり、予め部品種類毎に
定まっている。また、θMエはステップS13で求めた
慣性主軸の水平方向となす角度である。
PF=GF+G! 'sin (180°-θGP 10θ
MX) Here, Gx and Gy are the coordinates of the center of gravity position calculated previously, and GP is the distance between the center of gravity and the suction position, which is determined in advance for each type of component. θGP is the distance between the center of gravity and the suction position, and θcp is the angle between the line connecting the center of gravity and the suction position α and the principal axis of inertia, and is determined in advance for each type of component. Further, θM is the angle formed between the principal axis of inertia obtained in step S13 and the horizontal direction.

なお、第15図(A)に示す如く部品の長手部分が右方
向へ延びたR状態(表)の場合上記(1)式を用い、第
15図(B)に示す如く部品の長手部が左方向へ延びた
L状態(裏)の場合は(2)式を用いる。
In addition, in the case of the R state (table) in which the longitudinal part of the part extends to the right as shown in Fig. 15 (A), using the above equation (1), the longitudinal part of the part extends as shown in Fig. 15 (B) In the case of the L state (back) extending to the left, formula (2) is used.

このようにして吸着位置座標Px,Pyが得られたら上
述のフラッグFを1にした後(ステップS17)、ステ
ップS3に戻る。
When the suction position coordinates Px, Py are obtained in this way, the flag F is set to 1 (step S17), and then the process returns to step S3.

なお、ステップS1において、F−1が判別されたとき
は、画像データ取込をすることなく、ステップ512に
おいて記憶しておいた次回用ウィンドウデータを今回用
として取り込んで(ステップS18)、フラッグFをゼ
ロとした後(ステップS19)、ステップS13に入る
Note that when F-1 is determined in step S1, the next window data stored in step 512 is imported as the current one (step S18) without importing image data, and the flag F is set. After setting it to zero (step S19), the process proceeds to step S13.

l こうして、ステップS13ないしステップS17まで再
び実行して、ステップS3に入って次の部品を探すので
ある。そうして、部品が見つからないとメインルーチン
に戻るのであるが、このときコンベアを1ピッチ移動せ
しめる(ステップS20)。
l In this way, steps S13 to S17 are executed again, and step S3 is entered to search for the next part. If no part is found, the process returns to the main routine, and at this time the conveyor is moved one pitch (step S20).

発明の効果 本発明による部品把持位置算出方法においては、部品把
持位置を算出するに当り、部品の表裏判別を行なってお
り、比較的簡単な演算式により部品把持位置を設定出来
るので演算速度が向上する。
Effects of the Invention In the component gripping position calculation method according to the present invention, when calculating the component gripping position, the front and back sides of the component are discriminated, and the component gripping position can be set using a relatively simple calculation formula, so the calculation speed is improved. do.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の部品認識方法を実行する画像認識部
品装着装置を示すブロック図、第2図ないし第5図は、
対象部品の端子を整列せしめる場合の動作を説明する斜
視図、第6図は、第1図の装置における画像認識動作を
司る制御手段のサブルーチンを示すフローチャート、第
7図ないし第15図(A),  (B)は第6図によっ
て示されるサブルーチンの動作の演算内容を示す図であ
る。
FIG. 1 is a block diagram showing an image recognition component mounting apparatus that executes the component recognition method of the present invention, and FIGS. 2 to 5 are
FIG. 6 is a perspective view illustrating the operation when aligning the terminals of the target parts, and FIG. 6 is a flowchart showing a subroutine of the control means controlling the image recognition operation in the apparatus of FIG. 1, and FIGS. 7 to 15 (A) , (B) is a diagram showing the calculation contents of the subroutine operation shown in FIG. 6.

Claims (1)

【特許請求の範囲】  部品載置面上にランダムされる電子部品を撮像して画
像信号を生成し、前記画像信号を処理して2次元画面を
構成する画素データを生成し、前記画素データに基づき
前記部品載置面上の前記電子部品のうちの1の把持位置
を定める画像認識部品装着装置における部品把持位置設
定方法であって、前記画素データのうちの1群の黒レベ
ルデータの存在域の重心位置を求める行程と、 前記1群の黒レベルデータの等価楕円と慣性主軸を求め
る行程と、 前記重心から前記存在域の外部までの最遠点及び最近点
と前記重心とを結ぶ長軸及び短軸を求める行程と、 前記長軸及び短軸のいずれか一方から他方を見る方向に
よって前記部品の表裏判別をなす行程と前記表裏判別の
結果に応じて前記重心位置を基準として部品把持位置を
設定することを特徴とする方法。
[Claims] An image signal is generated by capturing an image of electronic components randomly placed on a component placement surface, the image signal is processed to generate pixel data constituting a two-dimensional screen, and the pixel data is A component gripping position setting method in an image recognition component mounting apparatus that determines a gripping position of one of the electronic components on the component mounting surface based on the presence area of one group of black level data of the pixel data. a step of finding the equivalent ellipse and principal axis of inertia of the first group of black level data, and a long axis connecting the farthest point and nearest point from the center of gravity to the outside of the existence area and the center of gravity. and a step of determining the front and back sides of the component based on the direction in which the other is viewed from one of the long and short axes, and a step of determining the gripping position of the component based on the center of gravity position according to the result of the front and back determination. A method characterized by setting.
JP1307972A 1989-11-28 1989-11-28 Component gripping position setting method for image recognition component mounting device Expired - Fee Related JP2774841B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1307972A JP2774841B2 (en) 1989-11-28 1989-11-28 Component gripping position setting method for image recognition component mounting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1307972A JP2774841B2 (en) 1989-11-28 1989-11-28 Component gripping position setting method for image recognition component mounting device

Publications (2)

Publication Number Publication Date
JPH03167897A true JPH03167897A (en) 1991-07-19
JP2774841B2 JP2774841B2 (en) 1998-07-09

Family

ID=17975378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1307972A Expired - Fee Related JP2774841B2 (en) 1989-11-28 1989-11-28 Component gripping position setting method for image recognition component mounting device

Country Status (1)

Country Link
JP (1) JP2774841B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106664822B (en) * 2014-08-01 2019-07-09 株式会社富士 Component mounting method and component mounting apparatus

Also Published As

Publication number Publication date
JP2774841B2 (en) 1998-07-09

Similar Documents

Publication Publication Date Title
EP0218259B1 (en) Method and apparatus for calculating position and orientation by combination of features of partial shapes
CN110253564B (en) Part insertion device, part insertion method, and computer-readable recording medium
WO2016016933A1 (en) Component data handling device, component data handling method, and component mounting system
CN114494420A (en) Flexible circuit board assembling device and method
CN117124302B (en) Part sorting method and device, electronic equipment and storage medium
US20220234208A1 (en) Image-Based Guidance for Robotic Wire Pickup
JP4787694B2 (en) Mounting machine
CN114341930A (en) Image processing device, imaging device, robot, and robot system
CN114193440A (en) Robot automatic grabbing system and method based on 3D vision
JP2000263482A (en) Attitude searching method and attitude searching device of work, and work grasping method and work grasping device by robot
JPH03167897A (en) Setting method of component-gripping position in component mounting apparatus by image recognition
WO2018158888A1 (en) Backup-pin recognizing method and component mounting device
CN114788436B (en) Component mounting machine
JP2774840B2 (en) Component recognition method for image recognition component mounting device
JP2774842B2 (en) Image recognition component mounting device
CN115609254A (en) Automatic assembling system, method and device for flexible circuit board
JP3681843B2 (en) Electronic component correction angle correction method and electronic component mounting apparatus using the same
JP7525777B2 (en) Gripping device for small thin plate-like workpieces, and method for gripping small thin plate-like workpieces
JP6735208B2 (en) Calibration jig, sheet metal carry-in system, and calibration method
JP3946502B2 (en) Component mounting method
TW200806115A (en) Connector punching machine, method, and program therefor
KR20030092914A (en) Device and mark alignment method for flip chip bonder comprising up and down mark
CN115872018B (en) Electronic tray labeling correction system and method based on 3D visual sensing
WO2022264911A1 (en) Three-dimensional measurement method for strip-shaped object, connection method of strip-shaped object, strip-shaped object connection system control device, and strip-shaped object connection system
JP2006112930A (en) Object-shape discriminating method and apparatus

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees