JPH05296725A - Position detecting method - Google Patents

Position detecting method

Info

Publication number
JPH05296725A
JPH05296725A JP4106629A JP10662992A JPH05296725A JP H05296725 A JPH05296725 A JP H05296725A JP 4106629 A JP4106629 A JP 4106629A JP 10662992 A JP10662992 A JP 10662992A JP H05296725 A JPH05296725 A JP H05296725A
Authority
JP
Japan
Prior art keywords
data
brightness change
electrode position
electrode
image pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4106629A
Other languages
Japanese (ja)
Inventor
Atsushi Tanabe
敦 田邉
Shozo Fukuda
尚三 福田
Masamichi Morimoto
正通 森本
Masao Iritani
正夫 入谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4106629A priority Critical patent/JPH05296725A/en
Publication of JPH05296725A publication Critical patent/JPH05296725A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide an electrode position detecting method of high reliability free from a noise effect due to a background and a part body, regarding image recognition and processing in an electronic part packaging facility or the like. CONSTITUTION:An electronic part 1 is first photographed and an image pattern 4 is obtained. Then, the rough inclination and center of the image pattern 4 of the part 1 is obtained, thereby setting a processing area 6 for electrode position detection. A brightness change in the processing area 6 is projected, and brightness change data 8 as a reference is prepared on the basis of the projected data 7. While the reference brightness change data 8 is being moved, the degree of similarity to the projected data 7 is calculated, and a peak position over a threshold value is detected as an electrode position 11.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、電子部品実装設備等に
おいて、電子部品を高速かつ高精度に実装するために必
要とされる視覚認識装置の画像認識方法で、処理対象物
である電子部品の電極位置を画像パターンによって正確
に計測する方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition method of a visual recognition device required for mounting electronic parts at high speed and with high accuracy in electronic part mounting equipment and the like. The present invention relates to a method of accurately measuring the electrode position of the electrode according to an image pattern.

【0002】[0002]

【従来の技術】近年、電子部品実装分野では電子部品を
高速かつ高精度に回路基板に実装する技術が必要とされ
ている。このため電子部品を撮像して得られる画像パタ
ーンを高速に処理して、電子部品の位置・傾きの検出を
高速かつ正確に行う画像認識技術が活用される傾向にあ
る。また、電子部品の細密化が進むにつれ電極の多ピン
化がなされている。そこで、多数の電極を有する電子部
品に関しては、個々の電極の位置を検出することが望ま
れている。
2. Description of the Related Art In recent years, in the field of mounting electronic components, a technique for mounting electronic components on a circuit board at high speed and with high precision is required. Therefore, there is a tendency to utilize an image recognition technique that processes an image pattern obtained by capturing an image of an electronic component at high speed to detect the position / tilt of the electronic component at high speed and accurately. In addition, as electronic components are becoming finer, the number of pins of electrodes is increasing. Therefore, for electronic components having a large number of electrodes, it is desired to detect the position of each electrode.

【0003】従来、画像認識技術を活用した電子部品の
認識方法としては、対象電子部品の後方から照明を当て
そのシルエットを処理して、中心・傾き・電極位置など
を検出する透過認識方法や、前方から照明を当て電極よ
り反射された光を処理し、中心・傾き・電極位置などを
検出する反射認識方法が提案されている。
Conventionally, as a method of recognizing an electronic component utilizing image recognition technology, a transparent recognition method of illuminating a target electronic component from behind and processing its silhouette to detect a center, an inclination, an electrode position, and the like, A reflection recognition method has been proposed in which light is applied from the front and the light reflected from the electrodes is processed to detect the center, inclination, electrode position, and the like.

【0004】以下図を参照しながら従来の部品認識方法
に付いて説明する。
A conventional component recognition method will be described below with reference to the drawings.

【0005】図4は、透過認識方法の一例で、リード付
き電子部品42の後方より照明を当て(以下透過照明と
記す)、リードの先端位置を検出する例を示したもので
ある。図4の(a)に示すように、リード付き電子部品
42に透過照明41を当て、ビデオカメラ43で撮像す
ると、図4の(b)に示すような画像パターン44を得
る。リード付き電子部品42の画像パターン45は透過
照明により、そのシルエットが映し出される。リード付
き電子部品42の画像パターン45と背景の境界を図4
の(c)に示すように検出し、境界追跡の軌跡を求める
と、Uターンを行う位置46が検出される。このUター
ンを行う位置46を検出すべき電極位置として検出す
る。この透過認識方法は、シルエットを処理するため、
論理が単純であり処理も高速である。
FIG. 4 is an example of a transmission recognition method and shows an example of detecting the tip position of the lead by illuminating the leaded electronic component 42 from behind (hereinafter referred to as transmission illumination). As shown in FIG. 4A, when the transmissive illumination 41 is applied to the leaded electronic component 42 and the video camera 43 captures an image, an image pattern 44 as shown in FIG. 4B is obtained. The silhouette of the image pattern 45 of the leaded electronic component 42 is displayed by transmitted illumination. The boundary between the image pattern 45 of the leaded electronic component 42 and the background is shown in FIG.
When the locus of the boundary tracking is obtained by the detection as shown in (c) of FIG. The position 46 at which this U-turn is made is detected as the electrode position to be detected. Since this transparent recognition method processes silhouettes,
The logic is simple and the processing is fast.

【0006】しかし、透過認識方法では、電極が部品の
外郭形状より内側に曲げられている電子部品(以下Jリ
ード電子部品と記す)に関しては、電極位置を検出する
ことが困難である。そこで電極を直接とらえることの出
来る反射認識方法が提案された。 図5は、反射認識方
法の一例で、Jリード電子部品51のリード位置を検出
する例を示したものである。図5の(a)に示すよう
に、Jリード電子部品51の前方より照明(以下反射照
明と記す)52を当て、ビデオカメラ43で撮像する
と、図5の(b)に示すような画像パターン53を得
る。Jリード電子部品51の画像パターン54は、反射
照明52の反射光が映し出されるため、電極部分が明る
くなっている。図5の(c)に示すように、明るく光る
電極部分は、Sのように走査することで大まかな位置が
検出される。検出された大まかな位置に基き処理ウィン
ドウ56を設け、処理ウィンドウ56内の輝度分布を5
7のように投影し、極値58を検出する。電極部分は、
高輝度であるので、検出された極値58を検出すべき電
極位置として検出する。
However, with the transmission recognition method, it is difficult to detect the electrode position of an electronic component (hereinafter referred to as a J-lead electronic component) in which the electrode is bent inward from the outer shape of the component. Therefore, a reflection recognition method has been proposed that can directly capture the electrodes. FIG. 5 shows an example of the reflection recognition method, in which the lead position of the J-lead electronic component 51 is detected. As shown in (a) of FIG. 5, when an illumination (hereinafter referred to as “reflected illumination”) 52 is applied from the front of the J-lead electronic component 51 and an image is taken by the video camera 43, an image pattern as shown in (b) of FIG. You get 53. In the image pattern 54 of the J-lead electronic component 51, the reflected light of the reflective illumination 52 is projected, so that the electrode portion is bright. As shown in (c) of FIG. 5, the electrode portion which shines brightly is detected as a rough position by scanning like S. The processing window 56 is provided based on the detected rough position, and the brightness distribution in the processing window 56 is set to 5
7 is projected and the extreme value 58 is detected. The electrode part is
Since the brightness is high, the detected extreme value 58 is detected as the electrode position to be detected.

【0007】従来、投影データ57の極値を検出するた
めには差分法が用いられていた。差分法とは、前後のデ
ータの変位を解析するものであり、投影データ57を差
分データに変換したものが59となる。この時、差分デ
ータが正から負に転じる地点を極値として検出する。
Conventionally, the difference method has been used to detect the extreme value of the projection data 57. The difference method is for analyzing the displacement of the data before and after, and 59 is obtained by converting the projection data 57 into the difference data. At this time, the point where the difference data turns from positive to negative is detected as an extreme value.

【0008】[0008]

【発明が解決しようとする課題】前述した従来技術によ
り電極位置を検出する際、図6に示すように、背景に明
るいノイズ61や部品ボディに局部的に暗い部分62が
ある場合、差分データ59の電極位置とは違う位置に正
から負へ転じる地点が存在してしまう。このためノイズ
を電極位置と判断してしまい、正しい部品認識がなされ
ないおそれがあった。
When detecting the electrode position by the above-mentioned conventional technique, as shown in FIG. 6, when there is a bright noise 61 in the background or a locally dark portion 62 in the component body, the difference data 59 is obtained. There is a point that changes from positive to negative at a position different from the electrode position of. For this reason, noise may be determined to be the electrode position, and correct component recognition may not be performed.

【0009】[0009]

【課題を解決するための手段】前記問題点を解決するた
めに本発明は下記の手段を用いる。
In order to solve the above problems, the present invention uses the following means.

【0010】まず対象電子部品を撮像し画像パターンを
得る。従来技術を活用し、部品の大まかな中心と傾きを
検出する。次に検出された中心と傾きを利用し電極検出
用の処理エリアを設定する。設定した処理エリア内の輝
度変化を投影し、投影データを得る。得られた投影デー
タをもとに基準となる輝度変化データを作成する。この
基準となる輝度変化データと投影データが重ならない面
積を計算し、逆数をとったものを類似度とする。基準と
なる輝度変化データを投影データに対し順次ずらし、そ
のときの類似度を求め類似度データを得る。得られた類
似度データにおいて、閾値を越えるピーク位置を検出し
電極の位置とする。
First, the target electronic component is imaged to obtain an image pattern. Utilizing conventional technology to detect the approximate center and tilt of parts. Next, a processing area for electrode detection is set using the detected center and inclination. The brightness change in the set processing area is projected to obtain projection data. Luminance change data serving as a reference is created based on the obtained projection data. The area where the reference brightness change data and the projection data do not overlap is calculated, and the reciprocal thereof is taken as the similarity. The reference luminance change data is sequentially shifted with respect to the projection data, the similarity at that time is obtained, and the similarity data is obtained. In the obtained similarity data, the peak position exceeding the threshold value is detected and used as the electrode position.

【0011】[0011]

【作用】本発明は上記した構成により、背景や、部品ボ
ディのノイズ等の電極位置以外での著しい輝度変化に影
響されることがない。よってより信頼性の高い位置検出
が実現可能である。
With the above-described structure, the present invention is not affected by a significant change in brightness other than the position of the electrode such as the background or noise of the component body. Therefore, more reliable position detection can be realized.

【0012】[0012]

【実施例】本発明の一実施例として、Jリード電子部品
1の電極位置を検出する方法について図1、図2、図3
を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS As an embodiment of the present invention, a method for detecting the electrode position of a J-lead electronic component 1 will be described with reference to FIGS.
Will be explained.

【0013】図3において第1工程は、画像パターン入
力工程S1である。図1の(a)に示すように、認識対
象物であるJリード電子部品1を、ビデオカメラ3など
の撮像手段で撮像することにより映像信号を得る。得ら
れた映像信号をデジタル化し図1の(b)に示す画像パ
ターン4とする。
In FIG. 3, the first step is an image pattern input step S1. As shown in (a) of FIG. 1, a video signal is obtained by capturing an image of the J-lead electronic component 1 that is a recognition target with an image capturing unit such as a video camera 3. The obtained video signal is digitized to form an image pattern 4 shown in FIG.

【0014】第2工程は、処理エリア決定工程S2であ
る。画像パターン4において、エッジ検出などの従来技
術を活用しJリード電子部品1に対応する画像パターン
5の大まかな中心や傾きを求める。求められた大まかな
中心と傾き、及び予め与えられている部品の外形寸法や
電極間寸法を利用し処理エリア6を設定する。
The second step is the processing area determining step S2. In the image pattern 4, conventional techniques such as edge detection are used to find the approximate center and inclination of the image pattern 5 corresponding to the J-lead electronic component 1. The processing area 6 is set by using the obtained rough center and inclination, and the external dimensions of the parts and the inter-electrode dimensions given in advance.

【0015】第3工程は、輝度変化投影工程S3であ
る。図1の(c)に示すように、第2工程により設定さ
れた処理エリア6内の輝度変化をα方向に投影し、投影
データ7を得る。投影の方法としては、α方向の同一直
線上の輝度を累算する方法や、最大値を求める方法など
がある。
The third step is a brightness change projection step S3. As shown in FIG. 1C, the brightness change in the processing area 6 set in the second step is projected in the α direction to obtain projection data 7. As a projection method, there are a method of accumulating luminance on the same straight line in the α direction, a method of obtaining a maximum value, and the like.

【0016】第4工程は、基準輝度変化投影データ作成
工程S4である。第3工程により得られた投影データ7
をもとにして、基準とする輝度変化データ8を作成す
る。例えば図1の(c)に示すように、幅をリードピッ
チdとし、高さを2段階に設定する。
The fourth step is a reference brightness change projection data creation step S4. Projection data 7 obtained in the third step
Based on, the luminance change data 8 to be the reference is created. For example, as shown in FIG. 1C, the width is set to the lead pitch d and the height is set to two levels.

【0017】第5工程は、類似度算出工程S5である。
第3工程で得られた投影データ7と第4工程で得られた
基準輝度変化データ8とを比較して類似度を算出する。
類似度の計算方法としては、例えば図2の(a)で示す
ように重ならない面積(図の斜線部)の逆数とする方法
などがある。投影データ7に対し基準輝度変化データ8
をずらしていきその度に類似度を検出したものが類似度
データ9となる。図2の(b)に示すように、従来技術
である差分法と異なりデータの変化そのものを比較する
ため、背景のノイズ21や部品ボディのノイズ22に影
響されることがない。
The fifth step is the similarity calculation step S5.
The projection data 7 obtained in the third step and the reference luminance change data 8 obtained in the fourth step are compared to calculate the degree of similarity.
As a method of calculating the degree of similarity, for example, there is a method of using the reciprocal of the non-overlapping area (hatched portion in the figure) as shown in FIG. Reference brightness change data 8 for projection data 7
The similarity data 9 is obtained by shifting the distance and detecting the similarity each time. As shown in FIG. 2B, unlike the conventional difference method, the data change itself is compared, so that it is not affected by the background noise 21 or the component body noise 22.

【0018】第6工程は、電極位置決定工程S6であ
る。第5工程で得られた類似度データ9において、図1
の(c)に示すように、閾値10を越えるピーク値を検
出し電極の位置11として検出する。
The sixth step is an electrode position determining step S6. In the similarity data 9 obtained in the fifth step, as shown in FIG.
As shown in (c), the peak value exceeding the threshold value 10 is detected and the position 11 of the electrode is detected.

【0019】この第6工程での処理を繰り返し行い全て
の電極位置を検出し処理を終了する。
The process in the sixth step is repeated to detect all electrode positions, and the process is completed.

【0020】[0020]

【発明の効果】本発明によれば、従来技術と異なりデー
タの値の変化を比較するため、背景や部品ボディのノイ
ズに影響される可能性が少ない。そのため、処理対象と
なる電子部品の形状・状態や背景の状態に影響されるこ
なく、より信頼性の高い認識対象物の電極位置を検出す
ることが可能となる。
According to the present invention, unlike the prior art, the change in the data value is compared, so there is little possibility of being affected by the noise of the background or the component body. Therefore, it is possible to detect the electrode position of the recognition target with higher reliability without being affected by the shape / state of the electronic component to be processed and the state of the background.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における電極位置の検出方法
を示す説明図である。
FIG. 1 is an explanatory diagram showing a method for detecting an electrode position according to an embodiment of the present invention.

【図2】本発明の一実施例における電極位置の検出方法
を詳細に示した説明図である。
FIG. 2 is an explanatory diagram showing in detail a method of detecting an electrode position according to an embodiment of the present invention.

【図3】本発明の一実施例の概要を示すフローチャート
である。
FIG. 3 is a flowchart showing an outline of an embodiment of the present invention.

【図4】従来例の電子位置の検出方法を示した説明図で
ある。
FIG. 4 is an explanatory diagram showing a conventional electronic position detection method.

【図5】他の従来例の電極位置の検出方法を示した説明
図である。
FIG. 5 is an explanatory diagram showing another conventional electrode position detection method.

【図6】従来例の問題点を示す説明図である。FIG. 6 is an explanatory diagram showing a problem of the conventional example.

【符号の説明】[Explanation of symbols]

1 Jリード電子部品(認識対象物) 2 反射照明 3 ビデオカメラ 4 画像パターン 5 Jリード電子部品に対応する画像パターン 6 電極位置検出用処理エリア 7 輝度変化投影データ 8 基準輝度変化データ 9 類似度データ 10 閾値 11 電極位置 21 背景上のノイズ 22 部品ボディ上のノイズ 1 J-lead electronic component (object to be recognized) 2 Reflective lighting 3 Video camera 4 Image pattern 5 Image pattern corresponding to J-lead electronic component 6 Electrode position detection processing area 7 Brightness change projection data 8 Reference brightness change data 9 Similarity data 10 Threshold 11 Electrode position 21 Background noise 22 Noise on component body

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H05K 13/08 B 8315−4E (72)発明者 入谷 正夫 大阪府門真市大字門真1006番地 松下電器 産業株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification number Reference number within the agency FI Technical display location H05K 13/08 B 8315-4E (72) Inventor Masao Iriya 1006 Kadoma, Kadoma, Osaka Prefecture Matsushita Electric Sangyo Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 認識対象物を撮像して画像パターンを得
る第1工程と、大まかな中心と傾きを検出することによ
り処理範囲を設定する第2工程と、第2工程により設定
された処理範囲内の輝度変化を投影する第3工程と、第
3工程により投影された輝度変化投影データをもとに基
準となる輝度変化データを作成する第4工程と、第3工
程により投影された輝度変化データと第4工程により作
成された基準輝度変化データとを1データずつずらして
順次比較し類似度を算出する第5工程と、第5工程によ
り算出された類似度データをもとに認識対象物の電極位
置を検出する第6工程を備えた位置検出方法。
1. A first step for capturing an image of an object to be recognized to obtain an image pattern, a second step for setting a processing range by detecting a rough center and an inclination, and a processing range set by the second step. The third step of projecting the brightness change in the image, the fourth step of creating the reference brightness change data based on the brightness change projection data projected by the third step, and the brightness change projected by the third step The fifth step of calculating the similarity by sequentially comparing the data and the reference luminance change data created in the fourth step by one data, and the recognition object based on the similarity data calculated in the fifth step. A position detecting method including a sixth step of detecting the electrode position of.
JP4106629A 1992-04-24 1992-04-24 Position detecting method Pending JPH05296725A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4106629A JPH05296725A (en) 1992-04-24 1992-04-24 Position detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4106629A JPH05296725A (en) 1992-04-24 1992-04-24 Position detecting method

Publications (1)

Publication Number Publication Date
JPH05296725A true JPH05296725A (en) 1993-11-09

Family

ID=14438410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4106629A Pending JPH05296725A (en) 1992-04-24 1992-04-24 Position detecting method

Country Status (1)

Country Link
JP (1) JPH05296725A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003267A1 (en) * 2017-06-26 2019-01-03 ヤマハ発動機株式会社 Component mounting device and component data creation method
JP2020170323A (en) * 2019-04-02 2020-10-15 キヤノン株式会社 Processing method, article manufacturing method, processing apparatus, robot apparatus, program and recording media

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003267A1 (en) * 2017-06-26 2019-01-03 ヤマハ発動機株式会社 Component mounting device and component data creation method
JPWO2019003267A1 (en) * 2017-06-26 2019-11-21 ヤマハ発動機株式会社 Component mounting apparatus and component data creation method
JP2020170323A (en) * 2019-04-02 2020-10-15 キヤノン株式会社 Processing method, article manufacturing method, processing apparatus, robot apparatus, program and recording media

Similar Documents

Publication Publication Date Title
US4450579A (en) Recognition method and apparatus
US4212031A (en) Method of aligning a body
JPH08145906A (en) Method and equipment for inspection of defect of surface to be inspected
JP3269170B2 (en) Electronic component position detection method
JPH05296725A (en) Position detecting method
JP3098847B2 (en) Component recognition method
JPS59107202A (en) Checking device of fitting position of minute parts
JPH02251714A (en) Method for inspecting polarity of mounted polar part and visual inspection method for mounting board
JPH0831497B2 (en) Spherical object position detection method and apparatus
JPS6322241B2 (en)
CN1113390C (en) Method of checking for presence of connection balls
JP3278555B2 (en) Bonding wire recognition method
JP2819696B2 (en) Soldering inspection equipment
JP3160838B2 (en) Surface defect inspection equipment
JP2625429B2 (en) Image processing method
JPH095022A (en) Pattern position detecting method and apparatus by image recognition
JPH0989525A (en) Position detecting method for lead shoulder and for lead end
JPH0727531A (en) Inspection region recognizing method for appearance shape inspecting device
KR0141154B1 (en) The test method of inserting for electronic elements on pcb(printed circuit board)
JPH0968415A (en) Method of soldering parts to printed circuit board, soldering inspection method and apparatus therefor
JP2506673B2 (en) Electronic component lead recognition device
JPH06222010A (en) Inspection method for electronic component
CN117687234A (en) Automatic detection method and device for number and deviation of conductive particles of liquid crystal display
JPS62148838A (en) Defect recognizing method
JPH02219183A (en) Recognizing device for position of object