JPH03167896A - Recognition of component in component mounting apparatus by image recognition - Google Patents

Recognition of component in component mounting apparatus by image recognition

Info

Publication number
JPH03167896A
JPH03167896A JP1307971A JP30797189A JPH03167896A JP H03167896 A JPH03167896 A JP H03167896A JP 1307971 A JP1307971 A JP 1307971A JP 30797189 A JP30797189 A JP 30797189A JP H03167896 A JPH03167896 A JP H03167896A
Authority
JP
Japan
Prior art keywords
component
image
grid
black level
black
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1307971A
Other languages
Japanese (ja)
Other versions
JP2774840B2 (en
Inventor
Koichi Nakahara
浩一 中原
Minoru Maruyama
丸山 実
Tomohiro Moriya
守屋 知洋
Yasuhiko Mizutani
水谷 康彦
Tetsuya Ishiguro
哲也 石黒
Yoshito Tachibana
橘 義人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP1307971A priority Critical patent/JP2774840B2/en
Publication of JPH03167896A publication Critical patent/JPH03167896A/en
Application granted granted Critical
Publication of JP2774840B2 publication Critical patent/JP2774840B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Supply And Installment Of Electrical Components (AREA)

Abstract

PURPOSE:To detect the existing position of a component at high speed by using a low-speed computer by a method wherein, with regard to an image of a component mounting face, it is judged whether the component is good or not on the basis of the brightness level of picture element at positions on a grid being set for every prescribed number of picture elements. CONSTITUTION:A first control means 1 judges whether a flag F is equal to 1 or not. When F=0, picture-element data which are supplied one after another from an A/D converter 10 are taken into a RAM collectively. When F=1, window data for next operation use are taken in. Grids Gi are set at prescribed intervals of picture elements for an image of one frame; when a black grid level exists at a bonding of a window W set by using the black-level grid as a reference, it is judged that components are close to each other and that the components are not suitable for a suction operation; a next detection is executed. When the black level does not exist on the boundary and the number of black grid levels inside the W is within a prescribed range, it is judged that they are situated within a range of target components as viewed from a TV camera 8. An interval between black-level picture elements is checked. When the interval is within a prescribed range, coordinates at the center of gravity are computed and it is set as F=1.

Description

【発明の詳細な説明】 技術分野 本発明はいわゆるプリント基板(以下、単に基板と称す
る)に部品を自動的に次々と装着する部品装着装置に・
関し、特に画像認識によって部品を把持しこれを基板に
装着する画像認識部品装着装置におけ・る部品認識方法
に関する。
[Detailed Description of the Invention] Technical Field The present invention relates to a component mounting device that automatically and sequentially mounts components onto a so-called printed circuit board (hereinafter simply referred to as a board).
In particular, the present invention relates to a component recognition method in an image recognition component mounting apparatus that grasps a component and mounts it on a board using image recognition.

背景技術 かかる画像認識により作動する部品装着装置は、軟弱端
子を有するが故に整列して供給することが困難な電子部
品を基板に正しく装着するために、コンベア上にランダ
ム(非整列状態)に供給載置される電子部品をテレビカ
メラによって撮像し、得られる画像データを処理して各
部品の形状、位置及び姿勢を知るようにしている。
BACKGROUND ART A component mounting device operated by such image recognition supplies electronic components randomly (in an unaligned state) onto a conveyor in order to correctly mount electronic components on a board, which are difficult to supply in an aligned manner because they have weak terminals. The mounted electronic components are imaged by a television camera, and the resulting image data is processed to determine the shape, position, and orientation of each component.

従来の画像認識部品装着装置においては画像データ処理
のプログラムが複雑で、部品装着速度を速くせんとした
場合、高速のコンピュータを必要とし、コスト高となり
実用性に問題があった。
In the conventional image recognition component mounting apparatus, the image data processing program is complicated, and if the component mounting speed is to be increased, a high-speed computer is required, resulting in high cost and impractical problems.

発明の概要 [発明の目的] 本発明の目的は、低速のコンピュータによって形成され
しかも高速に部品の存在位置を検出することが出来る画
像認識部品装着装置における部品認識方法を提供するこ
とである。
Summary of the Invention [Object of the Invention] An object of the present invention is to provide a component recognition method in an image recognition component mounting apparatus that is formed by a low-speed computer and can detect the location of a component at high speed.

[発明の構成] 本発明による画像認識部品装着装置における画像認識方
法は、部品載置面上にランダムに供給される電子部品を
撮像して画像信号を生威し、前記画像信号を処理して2
次元画面を構成する画素データを生威し、前記画素デー
タに基づき前記部品裁置面上の前記電子部品の存在を認
識する画像認識部品装着装置における部品認識方法であ
って、水平及び垂直方向における所定画素おきの座標位
置としてのグリッドにおける前記画素データの輝度レベ
ルが部品存在を示す黒レベルにあることを1′リ別して
黒レベルグリッドを記憶する判別記憶行程と、 前記黒レベルグリッドを基準とするウィンドウ煩域の境
界上に黒レベルグリッドが存在しないことを判別して判
別出力を生ずる境界判別行程と、前記境界判別行程にお
ける判別に応じて前記記憶手段によって記憶された黒レ
ベルグリッドの個数が所定数以上であることを判別して
判別出力を生ずる簡易面積判別行程と、 前記簡易面積判別行程における判別に応じて前記ウィン
ドウ領域の名内の黒レベル画素数が所定数を越えたこと
を判別する面積詳細判別行程と、からなることを特徴と
している。
[Structure of the Invention] The image recognition method in the image recognition component mounting apparatus according to the present invention includes capturing images of electronic components randomly supplied on a component placement surface, generating image signals, and processing the image signals. 2
A component recognition method in an image recognition component mounting apparatus that uses pixel data constituting a dimensional screen and recognizes the presence of the electronic component on the component placement surface based on the pixel data, the method comprising: a determination storage step of storing a black level grid by determining that the luminance level of the pixel data in the grid as coordinate positions of every predetermined pixel is at a black level indicating the presence of a component; and using the black level grid as a reference. a boundary determination step that determines that no black level grid exists on the boundary of the window area and generates a determined output; and a predetermined number of black level grids stored by the storage means in accordance with the determination in the boundary determination step. a simple area determination step that generates a determination output by determining whether the number is greater than or equal to a predetermined number; and determining that the number of black level pixels within the name of the window area exceeds a predetermined number according to the determination in the simple area determination step. The method is characterized by comprising an area detailed determination process.

[発明の作用] 上記した如き本発明の部品認識方法によれば、画像信号
から得られる画素データの全てのデータのレベルを判別
するのではなく、予め定められた一定画素数おきの座標
位置すなわちグリッドにおける画素データのレベルを判
別して粗い部品存在判別をなしている。
[Operation of the Invention] According to the component recognition method of the present invention as described above, instead of determining the level of all data of pixel data obtained from an image signal, coordinate positions at predetermined intervals of a constant number of pixels, that is, The presence of parts is roughly determined by determining the level of pixel data in the grid.

実施例 以下、添付図面によって、本発明の実施例につき詳細に
説明する。
Embodiments Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

まず、第1図によって、本発明による部品認識方法を実
行する画像認識部品装着装置につき説明する。
First, with reference to FIG. 1, an image recognition component mounting apparatus that executes a component recognition method according to the present invention will be described.

本装置において、第1制御手段1が部品供給装置2を作
動せしめるためのモータ3を駆動し、部品供給装置2か
らコンベア4上に数個の電子部品5、(この場合発光素
子)がランダム(すなわち非整列)状態にて投下される
。そして、コンベア4を作動せしめるためのモータ6が
駆動され、コンベア4上に投下された発光素子5は撮像
手段としてのテレビカメラ8により撮1象され得る部品
供給位置9に持ち来される。テレビカメラ8により也成
された画像信号はA/D変換器10を経て画素データに
変換され、第1制御手段1に送られる。
In this device, a first control means 1 drives a motor 3 for operating a component supply device 2, and several electronic components 5 (in this case, light emitting elements) are randomly transferred from the component supply device 2 onto a conveyor 4 ( In other words, they are dropped in an unaligned state. Then, a motor 6 for operating the conveyor 4 is driven, and the light emitting element 5 dropped onto the conveyor 4 is brought to a component supply position 9 where it can be photographed by a television camera 8 as an imaging means. An image signal generated by the television camera 8 is converted into pixel data via an A/D converter 10 and sent to the first control means 1.

第1制御手段1はこの画素データに基づいて部品洪給位
置9における各発光素子5の形状、僚置及び姿勢を知り
、X−Yテーブル12の作動用のモータ13を駆動して
部品搬送チャック14をして、最初に搬送すべきである
と判定した発光素子を把持し得る位置に持ち来し、且つ
、把持せしめる。
The first control means 1 learns the shape, placement and posture of each light emitting element 5 at the parts feeding position 9 based on this pixel data, and drives the motor 13 for operating the X-Y table 12 to drive the parts transport chuck. 14, the light emitting element determined to be transported first is brought to a position where it can be gripped, and the light emitting element is gripped.

そして、この把持させた発光素子5を表裏反転装置15
に受け渡し、受け渡した発光素子が表裏が反転していれ
ば表裏反転装置15を作動させて発光素子5が常に表向
きとなるように姿勢を修正し、インデックステーブル1
7上のインデックスチャック18に受け渡す。インデッ
クステーブル17はメインモータ19によりカム機構2
0を介して回転駆動され、第1制御手段lによってカム
機構20の動作制御がなされることによって36°ずつ
間欠的に回転する。インデックスチャック18はインデ
ックステーブル17上に等間隔(36°ピッチ)にて1
0箇所に設けられている。インデックスチャック18は
上記の表裏反転装置15による部品供給箇所と後述の部
品排出箇所において第2制御手段22よりカム機構20
を介して動作制御されるインデックスチャック駆動装置
23及び24により機械力を付与されることにより把持
爪の開動作をなす。そして、この機械力が解除されるこ
とによって把持爪を閉じる。
Then, this gripped light emitting element 5 is turned over by a front-back reversing device 15.
If the delivered light-emitting element is turned upside down, the front-back reversing device 15 is operated to correct the posture so that the light-emitting element 5 always faces up, and the index table 1
Transfer it to the index chuck 18 above 7. The index table 17 is connected to the cam mechanism 2 by the main motor 19.
The first control means 1 controls the operation of the cam mechanism 20 to rotate the cam mechanism 20 intermittently by 36 degrees. The index chucks 18 are mounted on the index table 17 at equal intervals (36° pitch).
It is provided in 0 locations. The index chuck 18 is controlled by a cam mechanism 20 by a second control means 22 at a component supply location by the above-mentioned front/back reversing device 15 and at a component discharge location described below.
The gripping claws are opened by applying mechanical force from the index chuck drive devices 23 and 24, which are controlled via the index chuck drive devices 23 and 24. When this mechanical force is released, the gripping claws are closed.

上述した如く、インデックステーブル17は36″を1
ピッチとして間欠的に回転せしめられるが、上記の部品
供給箇所からこの1ピッチずつ進んだ位置に対応してテ
レビカメラ26、端子扱き装置27、端子屈曲装置28
、テレビカメラ2つ及び部品装着チャック30が配設さ
れている。この部品装着チャック30が配置された位置
が上述した部品排出箇所であり、発光素子5を把持した
インデックスチャック18はこの位置にてインデックス
チャック駆動装置24により機械力を付与されて該発光
素子の把持状態を解除して部品装着チャック30に受け
渡す。
As mentioned above, the index table 17 has 36″ as 1
The television camera 26, the terminal handling device 27, and the terminal bending device 28 are rotated intermittently as pitches, and the television camera 26, the terminal handling device 27, and the terminal bending device 28 correspond to the positions advanced by one pitch from the above-mentioned parts supply point.
, two television cameras, and a component mounting chuck 30 are provided. The position where this component mounting chuck 30 is placed is the above-mentioned component ejection location, and the index chuck 18 that grips the light emitting element 5 is applied with mechanical force by the index chuck drive device 24 at this position to grip the light emitting element. The state is released and the part is transferred to the component mounting chuck 30.

上記の各インデックスチャック駆動装置23,24、端
子扱き装置27、端子屈曲装置28及び部品装着チャッ
ク30は第2制御手段22により動作11リ御されるカ
ム機構20及びクラッチ21を介してメインモータ19
により駆動される。また、これら端子扱き装置27、端
子屈曲装置28及び部品装着チャック30の駆動のタイ
ミングは、エンコーダ31からの信号に基づく。第2制
御手段22はまず、インデックスチャック18により把
持された発光素子5の端子の状態をテレビカメラ26か
らの撮像信号に基づいて認識し、これに応じて端子扱き
装置27を作動せしめ、軟弱であるが故に第2図に示す
如く変形していた発光素子5の端子5aをその先端に向
けて扱いて第3図に示すように互いに平行に成形する。
The index chuck drive devices 23 and 24, the terminal handling device 27, the terminal bending device 28, and the component mounting chuck 30 are operated by the main motor 19 via a cam mechanism 20 and a clutch 21 whose operations are controlled by the second control means 22.
Driven by. Further, the timing of driving the terminal handling device 27, the terminal bending device 28, and the component mounting chuck 30 is based on a signal from the encoder 31. The second control means 22 first recognizes the state of the terminal of the light emitting element 5 gripped by the index chuck 18 based on the image signal from the television camera 26, and operates the terminal handling device 27 accordingly. Therefore, the terminals 5a of the light-emitting element 5, which had been deformed as shown in FIG. 2, are handled with their tips facing forward, and are molded parallel to each other as shown in FIG.

次いで、第2制御手段22は端子屈曲装置28を作動せ
しめ、第4図に示すように端子5aを約90″屈曲せし
める。
The second control means 22 then actuates the terminal bending device 28 to bend the terminal 5a approximately 90'' as shown in FIG.

この後、第2制御手段は発光素子5の端子5aの状態を
テレビカメラ29からの撮像信号に基づいて認識し、端
子5aの成形状態が良であると判定したら、インデック
スチャック駆動装置24を作動させてインデックスチャ
ック18による発光素子5の把持状態を解除せしめると
共に、部品装着チャック30をしてこの発光素子5を把
持せしめる。そして、X−Yテーブル33を作動させる
ためのモータ34を駆動して、該発光素子5が装着され
るべくプリント基板35を持ち来す。
Thereafter, the second control means recognizes the state of the terminal 5a of the light emitting element 5 based on the image signal from the television camera 29, and if it determines that the molding state of the terminal 5a is good, it operates the index chuck drive device 24. Then, the light emitting element 5 is released from being held by the index chuck 18, and the light emitting element 5 is held by the component mounting chuck 30. Then, a motor 34 for operating the X-Y table 33 is driven, and a printed circuit board 35 is brought to be mounted with the light emitting element 5.

この後、第2制御手段22は部品装着チャック回転用モ
ータ37を回転せしめて部品装着チャック30を適当な
角度位置まで回転せしめ、プリント基板35に対する発
光素子5の角度位置を定める。そして、部品装着チャッ
ク30を下降させ、第5図に示す如く、プリント基板3
5に発光索子5を装着する。このとき、発光素子5の端
子5aはプリント基板35に形成された端子挿入孔35
aに挿入され、その先端部分がプリント基板35の下面
側に突出する。第2制御手段22はこの端子5aの導通
状態の良否を導通チェック・端子カット装置3つにより
検査し、導通が良好であれば端子5aの先端部をこの導
通チャック・端子カット装置39により切断して所定の
長さに切り揃える。
Thereafter, the second control means 22 rotates the component mounting chuck rotation motor 37 to rotate the component mounting chuck 30 to an appropriate angular position, thereby determining the angular position of the light emitting element 5 with respect to the printed circuit board 35. Then, the component mounting chuck 30 is lowered, and as shown in FIG.
5, the luminous cord 5 is attached to it. At this time, the terminal 5a of the light emitting element 5 is inserted into the terminal insertion hole 35 formed in the printed circuit board 35.
a, and its tip portion protrudes to the lower surface side of the printed circuit board 35. The second control means 22 inspects the conductivity of the terminal 5a using three continuity checking/terminal cutting devices, and if the continuity is good, cuts the tip of the terminal 5a using the continuity chuck/terminal cutting device 39. and cut it to the specified length.

一方、第2制御手段22は、導通チャック・端子カット
装置39による端子導通検査結果が不良と認識した場合
には、部品装着チャック30をしてその発光素子5をプ
リント基板35から取り外させてその回収のためにこれ
を不良部品収納部40に収納し、直ちに後続の発光素子
の装着を行なわしめる。
On the other hand, when the second control means 22 recognizes that the terminal continuity test result by the continuity chuck/terminal cutting device 39 is defective, the second control means 22 uses the component mounting chuck 30 to remove the light emitting element 5 from the printed circuit board 35 and remove the light emitting element 5 from the printed circuit board 35. This is stored in the defective parts storage section 40 for recovery, and the subsequent light emitting element is immediately mounted.

以下、上記の一連の動作がプリント基板35に装着され
るべき発光素子の各々に関して行われる。
Thereafter, the above series of operations are performed for each light emitting element to be mounted on the printed circuit board 35.

次に、第6図を参照して第1制御手段1における部品認
識動作を説明する。
Next, the component recognition operation in the first control means 1 will be explained with reference to FIG.

第1制御手段による部品認識動作をなす手段は、CPU
,RAM及びROMを含むいわゆるマイクロコンピュー
タによって形成される。第6図はこのマイクロコンピュ
ータによって実行されるプログラムを示すフローチャー
トであり、第1手段によるモータ13及び部品搬送チャ
ック14の制御動作を司るプログラムに対して所望タイ
ミングにて割込実行される。
The means for performing the component recognition operation by the first control means is a CPU.
, RAM, and ROM. FIG. 6 is a flowchart showing a program executed by this microcomputer, which is executed at a desired timing by interrupting the program controlling the control operation of the motor 13 and component transport chuck 14 by the first means.

このプログラムにおいては、先ず、フラッグFが1に等
しいや否やを判別して(ステップSl)、Fが0に等し
いときは、A/D変換器10から順次供給さる画素デー
タを1フレーム分まとめてRAM内の所定領域に取り込
む(ステップS2)。
In this program, first, it is determined whether the flag F is equal to 1 (step Sl), and when F is equal to 0, the pixel data sequentially supplied from the A/D converter 10 is collected for one frame. The data is imported into a predetermined area in the RAM (step S2).

なお、F−1と判別したときには後述のステップ818
に入る。第7図は、画素データによって表わされる1フ
レームの画像の一例を示しており、この画像においては
電子部品dl,d2,d3がコンベア4上に非整列状態
にて載置されている様子が表れている。第8図示した如
く、本発明によれば、1フレームの画像において垂直及
び水平方向におい所定画素(例えば100画素)おきに
グリッドGt  (t−1,・・・196)を設定して
ある。そして、既設ウィンドウ外の領域において最若番
のGεから順に番号順にチェックし(ステップS3)、
黒レベルグリッドが見つかると、この検出黒レベルグリ
ッドを基準にして所定広さの領域すなわちウィンドウW
を設定する(第9図参照)(ステップS4)。次いで、
このウィンドウWの境界上に黒レベルグリッドが存在す
るや否やを判別する(ステップS5)。ウィンドウ境界
上に黒レベルグリッドが存在するときは例えば第10図
に示す如く部品同士が近接しており、部品吸着には適さ
ないとして、既に設定したウィンドウ以外の領域につい
て最若番のGtから老番方向へ黒レベルグリッドの検出
動作をなすべくステップS3に戻る。
Note that when it is determined that it is F-1, step 818 described below is performed.
to go into. FIG. 7 shows an example of a one-frame image represented by pixel data, and in this image it is shown that electronic components dl, d2, and d3 are placed on the conveyor 4 in a non-aligned state. ing. As shown in FIG. 8, according to the present invention, grids Gt (t-1, . . . 196) are set at predetermined pixel intervals (for example, 100 pixels) in the vertical and horizontal directions in one frame of image. Then, the area outside the existing window is checked in numerical order starting from the lowest number Gε (step S3),
When a black level grid is found, a region of a predetermined size, that is, a window W is created based on this detected black level grid.
(see FIG. 9) (step S4). Then,
As soon as a black level grid exists on the boundary of this window W, it is determined (step S5). When a black level grid exists on the window boundary, for example, as shown in Figure 10, the parts are close to each other and it is not suitable for parts pick-up. The process returns to step S3 to perform the black level grid detection operation in the direction of the black level grid.

一方、ウィンドウ境界上に黒レベルグリッドが存在しな
いときは、当該ウィンドウ内の黒レベルグリッド数が所
定値範囲内にあるや否やを判別する(ステップS7)。
On the other hand, if there is no black level grid on the window boundary, it is determined whether the number of black level grids within the window is within a predetermined value range (step S7).

当該ウィンドウ内の黒レベルグリッド数が所定値範囲内
にない場合、目標部品の大きさが規定外であるか、又は
、部品が載置面に対して傾斜して載置されており、吸着
に適さないとしてステップS3に戻る。一方、当該ウィ
ンドウ内の黒レベルグリッド数が所定値範囲内にあると
判別したときはテレビカメラ8から見た目標部品の面積
が第11図に示した如く一応の規定に収まっているとし
て、次のステップS8の判別動作に入る。ステップS8
においては、当該ウィンドウ内の水平方向における黒レ
ベル画素間の最大距離Xと、垂直方向における黒レベル
画素間の最大距離Yとが所定の最大値XMX及びYMx
より小であるや否やを判別する。第12図に示した如く
、XくXMx及びY < YM zが共に成立すれば目
標部品の大きさは規定に収まっているとして次の面積チ
ェックのステップS9に入る。ステップS9においては
、ウィンドウ内の黒レベル画素数が、所定最小値NMN
及び所定最大値NMXの間にあるや否やを判別する。ウ
ィンドウ内の黒レベル画素数がNMNとNMxとの間に
ないと部品面積が規定範囲外にある故、部品の形状が異
常であるか部品の姿勢が正しくないして、ステップS3
ハ に戻る。一方、ウィンドウ内の黒レベル画素数がNMN
とNMxとの間にあることを判別した場合は、部品吸着
又は把持位置の算出のための準備として目標部品の重心
位置座標を算出する(ステップS10)。重心位置座標
算出方法については周知なので、ここでは詳述しない。
If the number of black level grids in the window is not within the specified value range, the size of the target component is outside the specified range, or the component is placed at an angle to the mounting surface and cannot be suctioned. It is determined that it is not suitable and the process returns to step S3. On the other hand, when it is determined that the number of black level grids in the window is within the predetermined value range, it is assumed that the area of the target component as seen from the television camera 8 is within the specified range as shown in FIG. The determination operation begins in step S8. Step S8
, the maximum distance X between black level pixels in the horizontal direction and the maximum distance Y between black level pixels in the vertical direction within the window are predetermined maximum values XMX and YMx.
It is determined whether the value is smaller than or not. As shown in FIG. 12, if both XxXMx and Y<YMz are established, it is assumed that the size of the target part is within the specified range, and the process proceeds to step S9 for the next area check. In step S9, the number of black level pixels within the window is set to a predetermined minimum value NMN.
and a predetermined maximum value NMX. If the number of black level pixels in the window is not between NMN and NMx, the component area is outside the specified range, so the shape of the component is abnormal or the orientation of the component is incorrect, and step S3
Back to Ha. On the other hand, the number of black level pixels in the window is NMN
If it is determined that the position is between NMx and NMx, the coordinates of the center of gravity of the target component are calculated in preparation for calculating the component suction or gripping position (step S10). Since the method for calculating the coordinates of the center of gravity position is well known, it will not be described in detail here.

次いで、ステップS11において、取り込んだ1フレー
ムの画像について、吸着位置算出までの動作が1の部品
について既になされたことを示すフラッグFが立ってい
るかどうかを判別する。フラッグFが1であることを判
別したときは、既に1の部品について、吸着位置算出が
終了しているので、今回設定ウィンドウ内の部品につい
ての重心位置座標データを記憶して(ステップS12)
、メインルーチンに戻る。一方、F−0を判別したとき
は、第13図に示す如く目標部品d1の等価楕円及び慣
性主軸上にある黒レベルデータを算出する(ステップS
13)。この演算も周知であり、ここでは詳述しない。
Next, in step S11, it is determined whether or not a flag F indicating that the operation up to the calculation of the suction position has already been performed for one component is set for the captured one frame image. When it is determined that the flag F is 1, the suction position calculation has already been completed for one component, so the center of gravity position coordinate data for the component in the current setting window is stored (step S12).
, return to the main routine. On the other hand, when F-0 is determined, black level data on the equivalent ellipse and principal axis of inertia of the target part d1 is calculated as shown in FIG.
13). This operation is also well known and will not be described in detail here.

次に、ステップS14においては、第14図に示す如く
、部品の重心からの輪郭上の最遠点及び最近点と重心と
を結ぶ長袖線g1及び短軸線p2を求める。次いで、こ
のD1及びg2の水平右方向基準線γに対する反時計回
りの角度を01及び  θ2として、Δθ一θ1−θ2
を求め、Δ θ > 180@のときはΔθ一Δθ−3
60@ とじ、Δθ<−180°のときはΔθ−Δθ+
360°とする。こうすれば−l80°くΔθ<l80
°となり、Δθの正負により表裏判別を行なう(ステッ
プS15)。 次いで、ステップS17において、目標
部品を載置而から拾い上げる吸着手段により吸着すべき
位置すなわち把持位置を算出する。この吸着位置の座標
(Px,Py)は次の(1)又は(2)式の演算によっ
て得られる。
Next, in step S14, as shown in FIG. 14, a long sleeve line g1 and a short axis line p2 connecting the farthest and closest points on the contour from the center of gravity of the part to the center of gravity are determined. Next, assuming that the counterclockwise angles of D1 and g2 with respect to the horizontal right direction reference line γ are 01 and θ2, Δθ - θ1 - θ2
Find Δθ - Δθ−3 when Δθ > 180@
60@ Binding, when Δθ<-180°, Δθ−Δθ+
It is assumed to be 360°. In this way, -l80° and Δθ<l80
The front and back sides are determined based on the sign of Δθ (step S15). Next, in step S17, the position where the target part should be picked up by the suction means that picks it up from the placement device, that is, the gripping position is calculated. The coordinates (Px, Py) of this suction position can be obtained by calculating the following equation (1) or (2).

ここに、Gx,Gyは先に算出した重心位置座標であり
、GPは重心との吸着位置との距離であり、予め部品種
類毎に定められている。θGPは重心と吸着位置との間
の距離であり、θcpは重心と吸着位置とを結ぶ線と慣
性主軸とのなす角度であり、予め部品種類毎に定まって
いる。また、θMエはステップS13で求めた慣性主軸
の水平方向となす角度である。
Here, Gx and Gy are the coordinates of the center of gravity position previously calculated, and GP is the distance between the center of gravity and the suction position, which is determined in advance for each type of component. θGP is the distance between the center of gravity and the suction position, and θcp is the angle between the line connecting the center of gravity and the suction position and the principal axis of inertia, and is determined in advance for each type of component. Further, θM is the angle formed between the principal axis of inertia obtained in step S13 and the horizontal direction.

なお、第15図(A)に示す如く部品の長手部分が右方
向へ延びたR状態(表)の場合上記(1)式を用い、第
15図(B)に示す如く部品の長手部が左方向へ延びた
L状態(裏)の場合は(2)式を用いる。
In addition, in the case of the R state (table) in which the longitudinal part of the part extends to the right as shown in Fig. 15 (A), using the above equation (1), the longitudinal part of the part extends as shown in Fig. 15 (B) In the case of the L state (back) extending to the left, formula (2) is used.

このようにして吸着位置座標Px,Pyが得られたら上
述のフラッグFを1にした後(ステップS17)、ステ
ップS3に戻る。
When the suction position coordinates Px, Py are obtained in this way, the flag F is set to 1 (step S17), and then the process returns to step S3.

なお、ステップS1において、F−1が判別されたとき
は、画像データ取込をすることなく、ステップS12に
おいて記憶しておいた次回用ウィンドウデータを今回用
として取り込んで(ステップS18)、フラッグFをゼ
ロとした後(ステップS19)、ステップS13に入る
Note that when F-1 is determined in step S1, the next window data stored in step S12 is imported as the current one (step S18) without importing image data, and the flag F is After setting it to zero (step S19), the process proceeds to step S13.

こうして、ステップ313ないしステップS17まで再
び実行して、ステップS3に入って次の部品を探すので
ある。そうして、部品が見つからないとメインルーチン
に戻るのであるが、このときコンベアを1ピッチ移動せ
しめる(ステップS20)。
In this way, steps 313 to S17 are executed again, and step S3 is entered to search for the next part. If no part is found, the process returns to the main routine, and at this time the conveyor is moved one pitch (step S20).

発明の効果 上記したことから明らかな如く、本発明による画像認識
装置における部品認識方法によれば、部品載置面を撮像
した画像信号から部品の存否を判別するに当り、全ての
画素データのレベルを判別するのではなく、所定画素お
きに設定したグリッドの位置における画素の輝度レベル
を判別するこサととしたので、演算速度の遅いコンピュ
ータを用いても、素早く部品の存否判定が出来て、部品
認識速度が向上する。
Effects of the Invention As is clear from the above, according to the component recognition method in an image recognition device according to the present invention, when determining the presence or absence of a component from an image signal obtained by capturing an image of a component placement surface, all pixel data levels are Instead of determining the presence or absence of parts, we decided to determine the brightness level of the pixel at the position of the grid set every predetermined pixel, so even if a computer with slow calculation speed is used, it is possible to quickly determine the presence or absence of a component. Part recognition speed is improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の部品認識方法を実行する画像認識部
品装着装置を示すブロック図、第2図ないし第5図は、
対象部品の端子を整列せしめる場合の動作を説明する斜
視図、第6図は、第1図の装置における画像認識動作を
司る制御手段のサブルーチンを示すフローチャート、第
7図ないし第15図(A),  (B)は第6図によっ
て示されるサブルーチンの動作の演算内容を示す図であ
る。
FIG. 1 is a block diagram showing an image recognition component mounting apparatus that executes the component recognition method of the present invention, and FIGS. 2 to 5 are
FIG. 6 is a perspective view illustrating the operation when aligning the terminals of the target parts, and FIG. 6 is a flowchart showing a subroutine of the control means controlling the image recognition operation in the apparatus of FIG. 1, and FIGS. 7 to 15 (A) , (B) is a diagram showing the calculation contents of the subroutine operation shown in FIG. 6.

Claims (2)

【特許請求の範囲】[Claims] (1)部品載置面上にランダムに供給される電子部品を
撮像して画像信号を生成し、前記画像信号を処理して2
次元画面を構成する画素データを生成し、前記画素デー
タに基づき前記部品載置面上の前記電子部品の存在を認
識する画像認識部品装着装置における部品認識方法であ
って、 前記2次元画面の水平及び垂直方向における所定画素お
きの座標位置としてのグリッドにおける前記画素データ
の輝度レベルが部品存在を示す黒レベルにあることを判
別して黒レベルグリッドを記憶する判別記憶行程と、 前記黒レベルグリッドを基準とするウィンドウ領域の境
界上に黒レベルグリッドが存在しないことを判別して判
別出力を生ずる境界判別行程と、前記境界判別行程から
の判別出力に応じて前記記憶手段によって記憶された黒
レベルグリッドの個数が所定の範囲内であることを判別
して判別出力を生ずる簡易面積判別行程と、 前記簡易面積判別行程における判別に応じて前記ウィン
ドウ領域内の黒レベル画素数が所定の範囲内であること
を判別する面積詳細判別行程と、からなることを特徴と
する画像認識部品装着装置における部品認識方法。
(1) Image the electronic components randomly supplied on the component placement surface to generate an image signal, process the image signal, and
A component recognition method in an image recognition component mounting apparatus that generates pixel data constituting a dimensional screen and recognizes the presence of the electronic component on the component placement surface based on the pixel data, the method comprising: and a determination storage step of storing a black level grid by determining that the brightness level of the pixel data in the grid as coordinate positions of every predetermined pixel in the vertical direction is at a black level indicating the presence of a component; a boundary determination step that determines that a black level grid does not exist on the boundary of a reference window area and generates a determined output; and a black level grid that is stored by the storage means in accordance with the determined output from the boundary determination step. a simple area determination step that determines that the number of pixels in the window area is within a predetermined range and produces a determined output; A component recognition method in an image recognition component mounting apparatus, characterized in that the method comprises: a step of determining area details for determining the location of the component;
(2)前記簡易面積判別行程における判別に応じて前記
ウィンドウ領域内の黒レベル画素の存在範囲が所定範囲
内にあることを判別する範囲判別行程を有することを特
徴とする請求項1記載の画像認識部品装着装置における
部品認識方法。
(2) The image according to claim 1, further comprising a range determination step for determining whether the existence range of black level pixels in the window area is within a predetermined range according to the determination in the simple area determination step. A component recognition method in a recognition component mounting device.
JP1307971A 1989-11-28 1989-11-28 Component recognition method for image recognition component mounting device Expired - Fee Related JP2774840B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1307971A JP2774840B2 (en) 1989-11-28 1989-11-28 Component recognition method for image recognition component mounting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1307971A JP2774840B2 (en) 1989-11-28 1989-11-28 Component recognition method for image recognition component mounting device

Publications (2)

Publication Number Publication Date
JPH03167896A true JPH03167896A (en) 1991-07-19
JP2774840B2 JP2774840B2 (en) 1998-07-09

Family

ID=17975368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1307971A Expired - Fee Related JP2774840B2 (en) 1989-11-28 1989-11-28 Component recognition method for image recognition component mounting device

Country Status (1)

Country Link
JP (1) JP2774840B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001053499A (en) * 1999-08-09 2001-02-23 Tdk Corp Electronic component inserting machine
JPWO2021124386A1 (en) * 2019-12-16 2021-06-24

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001053499A (en) * 1999-08-09 2001-02-23 Tdk Corp Electronic component inserting machine
JPWO2021124386A1 (en) * 2019-12-16 2021-06-24

Also Published As

Publication number Publication date
JP2774840B2 (en) 1998-07-09

Similar Documents

Publication Publication Date Title
US11171431B2 (en) Component insertion device with dummy component, and component insertion method and computer readable recording medium of using the same
JPH07193397A (en) Suction point correction device of mounting device
WO2016020975A1 (en) Mounting device
CN108872265A (en) Detection method, apparatus and system
CN114494420A (en) Flexible circuit board assembling device and method
JPH03167896A (en) Recognition of component in component mounting apparatus by image recognition
CN114788436B (en) Component mounting machine
WO2018158888A1 (en) Backup-pin recognizing method and component mounting device
US20180243909A1 (en) Electronic device manufacturing apparatus and electronic device manufacturing method
JPH03167898A (en) Component mounting apparatus by image recognition
CN115609254B (en) Automatic flexible circuit board assembly system, method and device
JP2774841B2 (en) Component gripping position setting method for image recognition component mounting device
JP6475165B2 (en) Mounting device
JP3681843B2 (en) Electronic component correction angle correction method and electronic component mounting apparatus using the same
WO2021185200A1 (en) Method and system for correcting candle wick and candle production line
CN211403487U (en) Calibration equipment for RGB-D module
JP6974101B2 (en) Setting device and surface mounter
JP2021194744A (en) Holding device of thin plate-like small workpiece, and holding method of the thin plate-like small workpiece
JP3223009B2 (en) Electronic component automatic mounting device
US11039559B2 (en) Information processing apparatus, mounting apparatus, information processing method, and component gripper
WO2018055663A1 (en) Imaging device and mounting device
JP2003163495A (en) Part mounting method
US20230096446A1 (en) Terminal insertion device
JP7124126B2 (en) Component mounter
KR101157156B1 (en) Method for recognizing a direction of electronic parts and method for aligning and mounting electronic parts using the same

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees