JPH04332199A - Part mounting apparatus - Google Patents

Part mounting apparatus

Info

Publication number
JPH04332199A
JPH04332199A JP3101122A JP10112291A JPH04332199A JP H04332199 A JPH04332199 A JP H04332199A JP 3101122 A JP3101122 A JP 3101122A JP 10112291 A JP10112291 A JP 10112291A JP H04332199 A JPH04332199 A JP H04332199A
Authority
JP
Japan
Prior art keywords
lead
component
area
center
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3101122A
Other languages
Japanese (ja)
Other versions
JP3452201B2 (en
Inventor
Toshimasa Hirate
利昌 平手
Fumiaki Takeuchi
文章 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10112291A priority Critical patent/JP3452201B2/en
Publication of JPH04332199A publication Critical patent/JPH04332199A/en
Application granted granted Critical
Publication of JP3452201B2 publication Critical patent/JP3452201B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To prevent drop of IC gravity detecting speed by forecasting a region in which IC leads required for calculating the gravity center exist and then detecting leads through scanning of only such region and then improve lead detection accuracy and gravity measuring accuracy through the interporation processing of video data. CONSTITUTION:A region in which IC and IC leads are forecasted to be existing among the IC imaging data, namely the video data stored in a video memory is calculated with a recognition region calculating means 12. The center coordinates in the four directions of IC are calculated only for such region with an IC lead detecting means 15 by interporation process of the video data stored in the video memory 14, while recognition error due to high density of lead pitch is prevented. An IC garvity position coordinates and gradient thereof are calculated from the center coordinates of the four sides of an IC with an IC gravity-gradient calculating means 16, displacement to a robot head of an electronic part is calculated and it is then transmitted to a mounting device controller 10 for the high accuracy mounting.

Description

【発明の詳細な説明】[Detailed description of the invention]

[発明の目的] [Purpose of the invention]

【0001】0001

【産業上の利用分野】本発明は、電子部品等を基板に自
動的に且つ高速・高精度に実装する部品実装装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a component mounting apparatus for automatically mounting electronic components and the like on a board at high speed and with high precision.

【0002】0002

【従来の技術】近年、プリント基板上に電子部品(以下
ICと略す)を実装する密度が益々高くなってきている
。そのICについても、回路集積化に伴い、従来以上に
QFPなどパッケージ部品の使用頻度が高くなってきて
いる。
2. Description of the Related Art In recent years, the density of mounting electronic components (hereinafter abbreviated as ICs) on printed circuit boards has become higher and higher. With regard to ICs as well, packaged components such as QFPs are being used more frequently than before as circuit integration increases.

【0003】図6に示すように、部品実装装置(以下、
実装機と略す)のロボットヘッド1に吸着・固定された
リードLを有するIC2をプリント基板3上に装着する
ためには、IC2のロボットヘッド1に対する位置ズレ
量を計測する必要がある。従来は、IC認識用カメラ4
でIC2を撮像後、その画像データを視覚認識コントロ
ーラ5内の画像メモリにストアしたのち全ての画像デー
タについて2値化処理を行い、しかる後下記に示す様な
演算処理を行って撮像された像の2値化像の重心及び傾
度を算出していた。
As shown in FIG. 6, a component mounting apparatus (hereinafter referred to as
In order to mount the IC 2 having the leads L attracted and fixed to the robot head 1 of a mounting machine (abbreviated as a mounter) onto the printed circuit board 3, it is necessary to measure the amount of positional deviation of the IC 2 with respect to the robot head 1. Conventionally, IC recognition camera 4
After imaging the IC2, the image data is stored in the image memory in the visual recognition controller 5, and then all image data is binarized, and then the following arithmetic processing is performed to create the captured image. The centroid and slope of the binarized image were calculated.

【0004】また、プリント基板3の認識も同様に、プ
リント基板3上の基板マーク6を基板認識用カメラ7で
撮像後、その画像データを視覚認識コントローラ5を介
して2値化処理し、認識している。その後、視覚認識コ
ントローラ5からの画像データを基に、実装機コントロ
ーラ8を介してIC2とプリント基板3との位置ズレを
相対的に補正し、位置合わせを行ない、プリント基板3
上にIC2を装着する。
Similarly, the recognition of the printed circuit board 3 is performed by capturing an image of the board mark 6 on the printed circuit board 3 with a board recognition camera 7, and then binarizing the image data via the visual recognition controller 5. are doing. After that, based on the image data from the visual recognition controller 5, the positional deviation between the IC 2 and the printed circuit board 3 is relatively corrected and aligned via the mounting machine controller 8, and the printed circuit board 3 is
Attach IC2 on top.

【0005】図7は、ICを撮像し、2値化処理を行っ
た結果をモデル化した図である。光学系が透過光の場合
、IC2上が暗く、その他が明るい状態に撮像される。 また、この図で、計測ウィンドウWはIC認識用カメラ
4で撮像可能な領域すべてを示している。今、その4隅
の点を計測ウィンドウ原点W0 、端点W1 、同W2
 、同W3 とする。この計測ウィンドウWの原点W0
 を始点としてX軸に平行に2値化画像データを抽出す
る。これをY軸方向に順次行なっていく。これを示した
のが図7の映像データ抽出線L1 、L2 である。
FIG. 7 is a diagram illustrating a model of the result of imaging an IC and performing binarization processing. When the optical system uses transmitted light, the image above the IC2 is dark and the rest is bright. Furthermore, in this figure, the measurement window W indicates the entire area that can be imaged by the IC recognition camera 4. Now, measure the four corner points of the window origin W0, end point W1, and W2.
, the same W3. The origin W0 of this measurement window W
Binarized image data is extracted in parallel to the X axis using the starting point. This is performed sequentially in the Y-axis direction. This is shown by the video data extraction lines L1 and L2 in FIG.

【0006】映像データ抽出線L1 は2値化像上を走
査していないので、図7の走査結果R1 に示す様に常
に暗い状態、即ち0の値しか持たない。これに対し、映
像データ抽出線L2 の場合、IC2のリードL上を走
査しているため、走査結果R2 に示す様に鋸歯状にな
っている。従来は、IC2のリードL上で走査した映像
データ抽出線L2 をIC2の4辺全てに行なうことに
よってIC2の中心位置座標検出を行なっていた。次に
、この方法を図7乃至図9を用いて具体的に説明する。
Since the video data extraction line L1 does not scan the binarized image, it is always in a dark state, that is, only has a value of 0, as shown in the scanning result R1 of FIG. On the other hand, in the case of the video data extraction line L2, since the lead L of the IC2 is scanned, the line has a sawtooth shape as shown in the scanning result R2. Conventionally, the coordinates of the center position of the IC2 have been detected by scanning the video data extraction line L2 on the lead L of the IC2 on all four sides of the IC2. Next, this method will be specifically explained using FIGS. 7 to 9.

【0007】図7に示す映像データ抽出線L2 によっ
て鋸歯状のデータが得られることは先に説明した。この
鋸歯状波形データからIC2の1辺方向の中心座標を算
出する。図8はこれを説明したモデル図である。
It was previously explained that sawtooth data is obtained by the video data extraction line L2 shown in FIG. The center coordinates of IC2 in one side direction are calculated from this sawtooth waveform data. FIG. 8 is a model diagram explaining this.

【0008】まず、映像データ抽出線L2 によって得
られたデータを図7中の映像データR2 とする。いま
このデータをある2値化閾値で2値化処理をかけた結果
は図9に示す様な結果となる。この結果より各リードの
両端のエッジを検出できることが判る。この両端からリ
ード中心を算出していく。これによって、リード中心は
リード本数分検出されることになる。
First, let us say that the data obtained by the video data extraction line L2 is video data R2 in FIG. Now, when this data is subjected to binarization processing using a certain binarization threshold value, the result is as shown in FIG. From this result, it can be seen that the edges at both ends of each lead can be detected. The lead center is calculated from both ends. As a result, lead centers are detected for the number of leads.

【0009】次に、IC2の1辺、即ちリード群の中心
をリード部全ての中心とすれば、この点は各リード中心
の重心として算出可能である。この作業をIC4辺全て
に処理した結果をモデル化したのが図8である。
Next, if one side of the IC 2, ie, the center of the lead group, is taken as the center of all the lead parts, this point can be calculated as the center of gravity of each lead center. FIG. 8 shows a model of the result of processing this work on all four sides of the IC.

【0010】図8において、IC2のリード上部に映像
データ抽出線L2 を施すことによって、リード部中点
P1 が検出される。リード左部に映像データ抽出線L
4 を施すことによって、リード部中点P2 が検出さ
れる。同様に映像データ抽出線L6 ,L8 をリード
下部、右部に施すことによって、リード部中点P3 ,
P4 が検出される。次に、これらのリード部中点P1
 ,P2 ,P3 ,P4 からIC2の重心位置であ
るIC計測重心G、IC傾度θ1 ,θ2 の算出方法
を説明する。
In FIG. 8, a lead midpoint P1 is detected by drawing a video data extraction line L2 above the lead of IC2. Video data extraction line L on the left side of the lead
4, the lead midpoint P2 is detected. Similarly, by applying video data extraction lines L6 and L8 to the lower and right parts of the leads, the midpoints of the lead parts P3,
P4 is detected. Next, the middle point P1 of these leads
, P2, P3, P4 to calculate the IC measurement center of gravity G, which is the center of gravity position of IC2, and the IC inclinations θ1, θ2.

【0011】リード部中点P1 ,P3 を結んで作っ
た直線を直線A、リード部中点P2 ,P4 を結んで
作った直線Bとすれば、この2直線の交点がIC計測重
点Gであり、この2直線のX軸・Y軸方向への傾きをI
C傾度θ1 ,θ2 として求めることが可能である。 算出式は以下の通りである。 リード部中点P1 〜P4 の座標を以下の様に定める
。 リード部中点P1   :(xa,ya)リード部中点
P2   :(xb,yb)リード部中点P3   :
(xc,yc)リード部中点P4   :(xd,yd
)直線Aの方程式    :(x−xa)×(yc−y
a)=(xc−xa)×(y−ya) 直線Bの方程式    :(x−xb)×(yd−yb
)=(xd−xb)×(y−yb) IC計測重心Gの座標:x=(mb−lb)/(la−
ma) y=(la×mb−lb×ma)/(la−ma)但し
、la,lb,ma,mbは la=(ya−yc)/(xa−xc)lb=(xa×
yc−xc×ya)/(xa−xc)ma=(yb−y
d)/(xb−xd)mb=(xb×yd−xd×yb
)/(xb−xd)IC傾度θ1 の値    :θ1
 =tan−1[(yd−yb)/(xd−xb)] IC傾度θ2 の値    :θ2 =tan−1[(
yc−ya)/(xc−xa)] 尚、最終的な電子部品の傾きは、IC傾度θ1 ,θ2
 の平均値として実装機コトンローラ8へ送信される。
[0011] If a straight line connecting lead midpoints P1 and P3 is straight line A, and straight line B is connecting lead midpoints P2 and P4, the intersection of these two straight lines is the IC measurement point G. , the slope of these two straight lines in the X-axis and Y-axis directions is I
It is possible to obtain the C slope as θ1 and θ2. The calculation formula is as follows. The coordinates of the lead midpoints P1 to P4 are determined as follows. Lead midpoint P1: (xa, ya) Lead midpoint P2: (xb, yb) Lead midpoint P3:
(xc, yc) Lead part middle point P4: (xd, yd
) Equation of straight line A: (x-xa) x (yc-y
a) = (xc-xa) x (y-ya) Equation of straight line B: (x-xb) x (yd-yb
)=(xd-xb)×(y-yb) Coordinates of IC measurement center of gravity G: x=(mb-lb)/(la-
ma) y=(la×mb-lb×ma)/(la-ma) However, la, lb, ma, mb are la=(ya-yc)/(xa-xc) lb=(xa×
yc-xc×ya)/(xa-xc)ma=(yb-y
d)/(xb-xd)mb=(xb×yd-xd×yb
)/(xb-xd) Value of IC slope θ1: θ1
=tan-1[(yd-yb)/(xd-xb)] Value of IC slope θ2: θ2 =tan-1[(
yc-ya)/(xc-xa)] The final slope of the electronic component is IC slope θ1, θ2
The average value is sent to the mounting machine cotton roller 8.

【0012】以上の様な手段を用いて従来基板マークの
重心位置を検出し、その値とカメラ中心位置からのズレ
量を比較することにより、ロボットヘッド1とIC2の
位置ズレ量及び傾きを検出し、その位置ズレ補正ながら
実際のプリント基板3への装着を行ってきた。
[0012] By detecting the center of gravity position of the conventional board mark using the above-mentioned means and comparing that value with the amount of deviation from the camera center position, the amount of positional deviation and inclination of the robot head 1 and IC 2 are detected. Then, the actual mounting on the printed circuit board 3 was carried out while correcting the positional deviation.

【0013】[0013]

【発明が解決しようとする課題】近年、ICリード及び
リードピッチは高密度化・多様化する傾向にある。その
ため、以下に述べる様な2つの問題が生じてきている。
[Problems to be Solved by the Invention] In recent years, IC leads and lead pitches have tended to become denser and more diverse. Therefore, two problems have arisen as described below.

【0014】まず、第1に、ICリード高密度化によっ
て、リードを正確に認識することは益々難しくなってき
ている。従来設定していた光学系では、ICのリードが
つぶれてしまい、それぞれを正しく撮像出来なくなって
きている。これを解決する方法としては、カメラ解像度
を上げることが考えられるが、光学系の変更等を余儀な
くされるため難しい。
First, as the density of IC leads increases, it is becoming increasingly difficult to accurately recognize the leads. With the conventional optical system, the IC leads are crushed and it is no longer possible to properly image each IC. One way to solve this problem is to increase the camera resolution, but this is difficult because it requires changes to the optical system.

【0015】又、単純にカメラ倍率を上げても、カメラ
視野角が小さくなってしまいIC全景を撮像出来なくな
ってしまう。そのために年々ICリードの認識はその精
度的問題が大きくなってきている。映像データは、見か
けは連続なデータであるが、実際には不連続であり、カ
メラ受光素子の密度と光学的倍率から撮像対象物の解像
度に限界が生じる。ICリードピッチが極めて小さい場
合映像データは、実は不連続なデータとなるため、2値
化処理などによってリード検出行うと、リードピッチの
値に誤差が大きく含まれてしまうことになる。
[0015] Furthermore, even if the camera magnification is simply increased, the viewing angle of the camera becomes smaller, making it impossible to capture a panoramic view of the IC. For this reason, the problem of accuracy in IC lead recognition is becoming more and more serious year by year. Although video data appears to be continuous data, it is actually discontinuous, and there is a limit to the resolution of the imaged object due to the density of the camera light receiving element and the optical magnification. When the IC lead pitch is extremely small, the video data actually becomes discontinuous data, so if lead detection is performed by binarization processing or the like, the lead pitch value will contain a large error.

【0016】即ち、ICのリード自身及びそのピッチが
極めて小さく、カメラ受光素子の数ピクセル分しかない
場合、従来の2値化、又は差分といった画像処理技術で
は、各リード及びリードピッチのばらつきが極めて大き
くなるということである。
In other words, when the IC leads themselves and their pitches are extremely small and only cover a few pixels of the camera light receiving element, conventional image processing techniques such as binarization or subtraction can cause extremely large variations in each lead and lead pitch. It means getting bigger.

【0017】更に第2の問題としてIC形状の多様化が
ある。従来の方法では多種サイズのIC全てに対してカ
メラ1で撮像後、撮像した画面全ての領域を2値化処理
し、その上でウィンドウ内に存在するICの2値化像に
ついてICリード位置を計測して、その座標値からIC
の重心座標を計測した後、ロボットヘッドへのICの位
置ズレを算出していた。そのため演算量が大きいので、
特に樹脂モールド部分の大きい電子部品の場合処理時間
の負荷が大きい処理速度が低下してしまうという問題点
があった。
A second problem is the diversification of IC shapes. In the conventional method, after capturing images of all ICs of various sizes with camera 1, the entire area of the captured screen is binarized, and then the IC lead position is determined for the binarized images of the ICs present in the window. Measure and calculate IC from the coordinate values.
After measuring the coordinates of the center of gravity, the positional deviation of the IC relative to the robot head was calculated. Therefore, the amount of calculation is large, so
Particularly in the case of electronic parts having large resin molded parts, there is a problem in that the processing time is large and the processing speed is reduced.

【0018】例えば上記従来の方法では、各リード部中
心を検出するための映像データ抽出線について、その開
始を計測ウィンドウの4隅から始めるために、映像デー
タ抽出線の様にリード部検出が出来なく、結局は無駄に
なる画像走査が発生する。
For example, in the conventional method described above, since the video data extraction line for detecting the center of each lead starts from the four corners of the measurement window, the lead part cannot be detected like the video data extraction line. This results in image scanning that is ultimately wasted.

【0019】このことは特に1枚のプリント基板に装着
するICの外形サイズが多種多様な場合、IC認識用カ
メラの倍率・視野角をIC外形サイズ最大のものに設定
しなければならず、そのため従来方法では外形サイズの
小さいICの装着時には撮像画面、即ち計測ウィンドウ
内に占めるIC2値化像の割合が小さくなり、無駄な演
算処理が膨らんでいた。更に、ICの重心算出時に部品
以外の領域でノイズを取り込んでしまう可能性もあり、
重心位置の誤計測を生じてしまう恐れもあった。
[0019] This is particularly true when the external sizes of ICs mounted on a single printed circuit board are diverse, and the magnification and viewing angle of the IC recognition camera must be set to the maximum IC external size. In the conventional method, when an IC with a small external size is mounted, the proportion of the IC binarized image occupying the imaging screen, that is, the measurement window becomes small, and unnecessary calculation processing increases. Furthermore, when calculating the center of gravity of the IC, there is a possibility that noise may be introduced in areas other than the parts.
There was also the risk of erroneously measuring the center of gravity.

【0020】そこで、本発明は、上記問題点を解決する
ためになされたもので、撮像手段で撮像した画面全てを
画像処理するのではなく、重心位置を算出するのに必要
とされるICリードの存在する領域を予め予測して、そ
の領域のみを走査してリードの検出を行なうことによっ
て、ICの重心検出速度の低下を防止し、かつ映像デー
タを補間処理してリード検出精度及び電子部品重心計測
精度の向上を図ることのできる部品実装装置を提供する
ことを目的とする。 [発明の構成]
[0020]The present invention was made to solve the above-mentioned problems, and instead of processing the entire screen imaged by the imaging means, the IC lead required to calculate the position of the center of gravity. By predicting in advance the area where the IC exists and detecting the lead by scanning only that area, it is possible to prevent a decrease in the IC center of gravity detection speed, and to improve lead detection accuracy and electronic components by interpolating the video data. An object of the present invention is to provide a component mounting apparatus that can improve center of gravity measurement accuracy. [Structure of the invention]

【0021】[0021]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、リードを有する部品の形状等を視覚認識
することにより、前記部品と基板との位置ズレを検出し
、この検出値を基に前記部品及び基板の位置を相対的に
補正し、前記部品を前記基板上の所定部位に装着する部
品実装装置において前記部品の画像を取り込む撮像手段
と、前記部品の外形寸法等に関するデータを記憶する記
憶手段と、前記撮像手段による部品の撮像画像の欠落を
補間する補間手段を有し、前記記憶手段に記憶されたデ
ータに基いて、前記撮像手段の画面内に前記部品のリー
ドの存在する領域を予測算出して、前記領域についての
み前記撮像手段の走査線に沿って前記撮像手段から送ら
れた画像データを濃淡画像データに変換し、この変換し
た濃淡画像データを2値化処理し前記部品のリードを検
出するリード検出手段と、このリード検出手段からの検
出データに基いて、前記部品の重心座標及び傾度を算出
する演算手段とを備えた部品実装装置を提供する。
[Means for Solving the Problems] In order to achieve the above object, the present invention detects the positional deviation between the component and the board by visually recognizing the shape etc. of the component having leads, and detects the detected value. an imaging means for capturing an image of the component in a component mounting apparatus that relatively corrects the positions of the component and the board based on the above and mounts the component at a predetermined location on the board; and data regarding external dimensions of the component, etc. and an interpolation means for interpolating missing images of the component taken by the imaging means, and based on the data stored in the storage means, the leads of the component are displayed on the screen of the imaging means. Predicting and calculating the existing area, converting image data sent from the imaging means along the scanning line of the imaging means only for the area into grayscale image data, and binarizing the converted grayscale image data. The present invention provides a component mounting apparatus comprising lead detection means for detecting leads of the component, and calculation means for calculating the center of gravity coordinates and inclination of the component based on detection data from the lead detection means.

【0022】[0022]

【作用】このように構成された本発明の部品実装装置に
よれば、撮像手段による部品の撮像画像の欠落を補間し
、記憶手段に記憶された部品の外形寸法等に関するデー
タに基いて、撮像手段の画面内に部品のリードの存在す
る領域を予測算出して、その領域についてのみ撮像手段
の走査線に沿って撮像手段から取入れられた画像データ
を濃淡画像データに変換し、この変換した濃淡画像デー
タを2値化処理し、部品のリード検出データを基に、部
品の重心座標及び傾度を算出する。
[Operation] According to the component mounting apparatus of the present invention configured as described above, omissions in the image of the component taken by the imaging means are interpolated, and the image is taken based on data regarding external dimensions of the component stored in the storage means. Predicting and calculating the area where the component lead exists within the screen of the means, converting the image data taken in from the imaging means along the scanning line of the imaging means only for that area into grayscale image data, and converting the converted grayscale image data into grayscale image data. The image data is binarized, and the center of gravity coordinates and inclination of the component are calculated based on the lead detection data of the component.

【0023】これにより、部品撮像後、部品の重心計測
に必要のない部分については、部品のリード検出処理を
行なわず、かつリード上の映像データについては補間処
理を行うので、認識処理の高速化・高精度化が実現でき
る。
[0023] As a result, after the part is imaged, part lead detection processing is not performed for parts that are not necessary for measuring the center of gravity of the part, and interpolation processing is performed for the video data on the leads, thereby speeding up the recognition processing.・High precision can be achieved.

【0024】[0024]

【実施例】以下、本発明の一実施例を図面を用いて説明
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0025】図1に示すように、本実施例の部品実装装
置はIC外形サイズを実装機コントローラ10から受信
するICデータ受信手段11と、このデータをもとにI
C撮像領域を予測する認識領域演算手段12と、実際に
ICを撮像するIC撮像手段13と、このIC撮像手段
13からの画像データを記憶する画像メモリ14と、そ
の撮像画像についてICリードを画面データ補間処理に
よって検出するICリード検出手段15と、検出された
ICリードそれぞれの中心からIC自身の重心・傾度を
算出するIC重心・傾度算出手段16と、この重心・傾
度からICをプリント基板に実装するための補正データ
を算出し、実装機コントローラ10に送信するIC補正
データ送信手段17から制御主要部は構成されている。
As shown in FIG. 1, the component mounting apparatus of this embodiment includes an IC data receiving means 11 that receives the IC external size from the mounting machine controller 10, and an IC data receiving means 11 that receives the IC external size from the mounting machine controller 10.
A recognition area calculating means 12 for predicting the C imaging area, an IC imaging means 13 for actually imaging the IC, an image memory 14 for storing image data from the IC imaging means 13, and an IC lead for the captured image on the screen. IC lead detection means 15 detects IC leads by data interpolation processing; IC gravity center/inclination calculation means 16 calculates the center of gravity/inclination of the IC itself from the center of each detected IC lead; The main control section is composed of an IC correction data transmitting means 17 that calculates correction data for mounting and transmits it to the mounting machine controller 10.

【0026】このように構成された制御主要部を有する
本実施例においては、実装機内でロボットヘッドに吸着
されたICをIC撮像手段13により撮像する。この撮
像画像は、図7に示すような鋸歯上のデータR2 とし
て画像メモリ14に記憶されることを意味する。その後
、実装機コントローラ10と通信により、図2に示した
撮像したIC2の外形サイズデータを制御主要部内に取
り込む。
In this embodiment having the main control section configured as described above, the IC imaging means 13 images the IC sucked to the robot head within the mounting machine. This captured image means that it is stored in the image memory 14 as sawtooth data R2 as shown in FIG. Thereafter, through communication with the mounting machine controller 10, the imaged external size data of the IC 2 shown in FIG. 2 is taken into the main control section.

【0027】次に、このデータを基に認識領域演算手段
12によってICの撮像データ、即ち上記画像メモリに
蓄えられた映像データの中でIC2及びそのICリード
Lが存在すると予測される部分の領域を算出する。本実
施例では、この領域についてのみICリード検出手段1
5によって、画像メモリ14中に記憶された映像データ
を補間処理することからリードピッチ高密度化から生じ
る認識誤差を防止しながらIC2の4方向中心座標を算
出する。これによって、ICリードLを無駄なく且つ高
精度に検出可能となる。
Next, based on this data, the recognition area calculation means 12 calculates a region of the IC image data, that is, a region of the image data stored in the image memory where the IC 2 and its IC lead L are predicted to exist. Calculate. In this embodiment, the IC lead detecting means 1 only applies to this area.
5, the image data stored in the image memory 14 is subjected to interpolation processing, thereby calculating the center coordinates of the IC 2 in four directions while preventing recognition errors caused by increased lead pitch density. Thereby, the IC lead L can be detected efficiently and with high precision.

【0028】次に、このIC4辺の中心座標からIC重
心・傾度算出手段16によりIC2の重心位置座標とそ
の傾度を算出し、これを基に、電子部品のロボットヘッ
ドへの位置ズレ量を算出し、実装機コントローラ10へ
送信し、高精度なIC2のプリント基板への装着を行な
う。プリント基板が実装機内で、IC2を装着するため
にIC撮像手段たるカメラで視覚認識位置決め処理を行
なう。以下、図3を参照しながらその処理について説明
する。
Next, from the center coordinates of the four sides of the IC, the IC center of gravity/inclination calculation means 16 calculates the coordinates of the center of gravity of the IC2 and its inclination, and based on this, calculates the amount of positional deviation of the electronic component relative to the robot head. The information is then transmitted to the mounting machine controller 10, and the IC 2 is mounted on the printed circuit board with high precision. In order to mount the IC2 in the printed circuit board mounting machine, visual recognition positioning processing is performed using a camera serving as an IC imaging means. The processing will be explained below with reference to FIG.

【0029】第1に、認識処理しようとするIC2につ
いて、その外形データを認識条件として実装機コントロ
ーラ10から受信する(4−1)。受信するデータは図
2に示すように、リードLを有するIC2の外形サイズ
であるIC外形IC1〜IC4、リードピッチP1 ,
P2 、リードピン数・リード曲がり許容率・画素校正
値・ICリード本数などがその内容である。
First, the external shape data of the IC 2 to be recognized is received from the mounting machine controller 10 as a recognition condition (4-1). As shown in FIG. 2, the received data includes IC external dimensions IC1 to IC4, which are external sizes of IC2 having leads L, lead pitch P1,
P2, the number of lead pins, lead bending tolerance, pixel calibration value, number of IC leads, etc. are the contents.

【0030】次にカメラでICを撮像する。取り込んだ
画像データを制御主要部に伝送し、同制御部内でA/D
変換処理を行なった後直ちに画像メモリに記憶される。 この後で、IC外形IC1〜IC4の値、リードピッチ
P1 ,P2 と同じく受信した画素校正値を基に図4
に示す小計測ウィンドウWiを算出する(4−2)。具
体的な算出例として、例えば、下記の式を与える。 [計測ウィンドウ原点  (XF,YF)]XF=25
5−(X1×r×a) YF=240−(Y1×r×a) [計測ウィンドウ端点1(XF,YF)]XF=255
−(X1×r×a) YF=240−(Y1×r×a) 但し、a/rについては以下の通り a:キャリブレーションデータ(画素校正値)r:ウィ
ンドウ安全率(1.0〜2.0)これはICサイズに対
するウィンドウの大きさの比を示すものである。 X1:IC外形IC1      Y1:IC外形IC
3尚、本式はカメラ座標系を512×480としている
。 即ち座標(255,240)カメラ中心座標を示す。
Next, the IC is imaged with a camera. The captured image data is transmitted to the main control section, and the A/D is processed within the control section.
Immediately after the conversion process, the image is stored in the image memory. After this, based on the pixel calibration values received in the same way as the values of the IC outline IC1 to IC4 and the lead pitches P1 and P2,
A small measurement window Wi shown in (4-2) is calculated. As a specific calculation example, the following formula is given. [Measurement window origin (XF, YF)] XF=25
5-(X1×r×a) YF=240-(Y1×r×a) [Measurement window end point 1 (XF, YF)] XF=255
−(X1×r×a) YF=240−(Y1×r×a) However, regarding a/r, a: Calibration data (pixel calibration value) r: Window safety factor (1.0 to 2 .0) This indicates the ratio of window size to IC size. X1: IC external form IC1 Y1: IC external form IC
3. In this equation, the camera coordinate system is 512×480. That is, the coordinates (255, 240) indicate the camera center coordinates.

【0031】次に、この小計測ウィンドウWiの上部か
ら順次Y軸方向正に向かって映像データ抽出線Li1を
移動・走査させていく。この走査を続けて行くとやがて
IC上部のリードLの存在する領域に到達する(=映像
データ抽出線Li2)(4−3)。この場所に来たとこ
ろで、ICリードの検出を開始する(4−3)。次に、
このICリード検出のための映像データ補間処理につい
て述べる。
Next, the video data extraction line Li1 is sequentially moved and scanned from the top of this small measurement window Wi in the positive direction of the Y-axis. As this scanning continues, the area where the lead L on the top of the IC is present is eventually reached (=video data extraction line Li2) (4-3). At this location, IC lead detection is started (4-3). next,
The video data interpolation process for IC lead detection will be described.

【0032】補間する映像データは映像データにおいて
ICリード上付近の映像レベル差の大きい領域のみに限
定する。即ち、ICリード1本ずつデータ補間を行なう
ことを意味する。補間式としては、下式が考えられる。 実数値  :  X0,X1,X2,X3…Xnと関数
値  :  f(X0),f(X1),f(X2),f
(X3),…f(Xn) が与えられた時、この(n+1)点を通るn次多項式は
[0032] The video data to be interpolated is limited to only the area of the video data near the top of the IC lead where the video level difference is large. That is, this means that data interpolation is performed for each IC lead. As an interpolation formula, the following formula can be considered. Real values: X0, X1, X2, X3...Xn and function values: f(X0), f(X1), f(X2), f
When (X3),...f(Xn) are given, the nth degree polynomial passing through this (n+1) point is

【0033】今、X軸を映像データ座標、Y軸を映像レ
ベル(=濃淡レベル)とする。こうして算出された補間
式から1/10ピクセル単位に映像データを数値解析す
る。これによって導かれたデータは本来、カメラ受光素
子の分解能の制限によってとらえきれなかったICリー
ドとそれ以外の領域のデータとして適用できる。
Now, assume that the X-axis is the video data coordinate and the Y-axis is the video level (=shading level). Based on the interpolation formula calculated in this way, the video data is numerically analyzed in units of 1/10 pixel. The data derived thereby can be applied as data on IC leads and other areas that could not be captured due to the limited resolution of the camera light receiving element.

【0034】従って、このデータに対して2値化処理、
または差分処理を行うことによって1/10ピクセル単
位即ちサブピクセル単位でICリードの左右エッジを検
出することが可能となる。図5はこれをモデル化してい
る。
[0034] Therefore, this data is subjected to binarization processing,
Alternatively, by performing differential processing, it becomes possible to detect the left and right edges of the IC lead in units of 1/10 pixel, that is, in units of subpixels. Figure 5 models this.

【0035】例えば図5において、真ん中のICリード
に注目する。このICリードの幅は、従来方法だと映像
データが補間処理されていないので、図5(b)で示す
映像データそのものの値、即ちICリードエッジLE´
、同RE´となり、幅は3ピクセルとなる。しかし、本
実施例では映像データが補間処理されているので図5(
b)で示すLE´,RE´は図5(a)で示すICリー
ドエッジLE、同REとなり、リードの幅をより正しく
ICリードの幅を検出している。
For example, in FIG. 5, pay attention to the IC lead in the middle. Since the video data is not interpolated in the conventional method, the width of this IC lead is determined by the value of the video data itself shown in FIG. 5(b), that is, the IC lead edge LE'
, the same RE', and the width is 3 pixels. However, in this embodiment, since the video data is interpolated, FIG.
LE' and RE' shown in b) are the IC lead edges LE and RE shown in FIG. 5A, and the width of the IC lead is detected more accurately.

【0036】従って、図5(a)のリード幅H1,H2
,H3は図5(b)のH1´,H2´,H3´と比して
より正しくリード幅を検出することになる。こうして、
ICリード幅を従来よりもより高精度に検出することが
可能となる。
Therefore, the lead widths H1 and H2 in FIG. 5(a)
, H3 detect the lead width more accurately than H1', H2', and H3' in FIG. 5(b). thus,
It becomes possible to detect the IC lead width with higher precision than before.

【0037】又、個々のICリードの左右のエッジから
その中点を求めてICリードの中心と定めるが、この中
心同士の距離即ち図5(a)で示すリードピッチLP1
,LP2もまた図5(b)のリードピッチLP1´,L
P2´と比して精度良く検出することになる。この処理
によって、図4のICリード部中点Pi1を算出する(
4−3)。この後で、検出したICリードの本数・リー
ドピッチを図2に示す受信したIC外形データと比較し
てチェックを行う(4−4)。
Furthermore, the center of the IC lead is determined by finding the midpoint between the left and right edges of each IC lead, but the distance between these centers, that is, the lead pitch LP1 shown in FIG. 5(a)
, LP2 are also the lead pitches LP1′,L in FIG. 5(b).
This results in more accurate detection compared to P2'. Through this process, the midpoint Pi1 of the IC lead part in FIG. 4 is calculated (
4-3). After this, a check is performed by comparing the detected number of IC leads and lead pitch with the received IC external shape data shown in FIG. 2 (4-4).

【0038】この後、順にIC左部、下部、右部のリー
ドを検出していく(4−6,4−8,4−10)。但し
この時IC3辺に於いて、更にICリードの存在する領
域つまりA〜D領域についても予め更に予測する。即ち
、図4のB領域,C領域,D領域のそれぞれの4隅の座
標である。算出手順は例えば以下の式で行う。   [B領域]     B領域1点B1     X=255−(X1
×r×a/2)                  
    Y=240−(Y1×r×a/2)    B
領域2点B2     X=255−(X2×(2−r
)×a/2)                   
   Y=240−(Y1×r×a/2)    B領
域3点B3     X=255−(X2×(2−r)
×a/2)                    
  Y=240+(Y1×r×a/2)    B領域
4点B4     X=255−(X1×r×a/2)
                      Y=2
40+(Y1×r×a/2)  [C領域]     C領域1点C1     X=255−(X1
×r×a/2)                  
    Y=240+(Y1×r×a/2)    C
領域2点C2     X=255−(X2×(2−r
)×a/2)                   
   Y=240+(Y1×r×a/2)    C領
域3点C3     X=255−(X2×(2−r)
×a/2)                    
  Y=240+(Y1×r×a/2)    C領域
4点C4     X=255−(X1×r×a/2)
                      Y=2
40+(Y1×r×a/2)  [D領域]     D領域1点D1     X=255−(X1
×r×a/2)                  
    Y=240−(Y1×r×a/2)    D
領域2点D2     X=255−(X2×(2−r
)×a/2)                   
   Y=240−(Y1×r×a/2)    D領
域3点D3     X=255−(X2×(2−r)
×a/2)                    
  Y=240+(Y1×r×a/2)    D領域
4点D4     X=255−(X1×r×a/2)
                      Y=2
40+(Y1×r×a/2)但し、a/rについては以
下の通り a:キャリブレーションデータ(画素校正値)r:ウィ
ンドウ安全率(1.0〜2.0)これはICサイズに対
するウィンドウの大きさの比を示すものである。 X1:IC外形IC1 X2:IC外形IC2 Y1:IC外形IC3 Y2:IC外形IC4
After this, the leads on the left, bottom, and right parts of the IC are detected in order (4-6, 4-8, 4-10). However, at this time, on the three sides of the IC, the areas where IC leads are present, that is, areas A to D, are also predicted in advance. That is, these are the coordinates of each of the four corners of area B, area C, and area D in FIG. The calculation procedure is performed using the following formula, for example. [B area] B area 1 point B1 X=255-(X1
×r×a/2)
Y=240-(Y1×r×a/2) B
Area 2 points B2 X=255-(X2×(2-r
)×a/2)
Y=240-(Y1×r×a/2) B area 3 points B3 X=255-(X2×(2-r)
×a/2)
Y=240+(Y1×r×a/2) B area 4 points B4 X=255−(X1×r×a/2)
Y=2
40+(Y1×r×a/2) [C area] C area 1 point C1 X=255−(X1
×r×a/2)
Y=240+(Y1×r×a/2) C
Area 2 points C2 X=255-(X2×(2-r
)×a/2)
Y=240+(Y1×r×a/2) C area 3 points C3 X=255−(X2×(2−r)
×a/2)
Y=240+(Y1×r×a/2) C area 4 points C4 X=255−(X1×r×a/2)
Y=2
40+(Y1×r×a/2) [D area] D area 1 point D1 X=255−(X1
×r×a/2)
Y=240-(Y1×r×a/2) D
Area 2 points D2 X=255-(X2×(2-r
)×a/2)
Y=240-(Y1×r×a/2) D area 3 points D3 X=255-(X2×(2-r)
×a/2)
Y=240+(Y1×r×a/2) D area 4 points D4 X=255−(X1×r×a/2)
Y=2
40+(Y1×r×a/2) However, a/r is as follows: a: Calibration data (pixel calibration value) r: Window safety factor (1.0 to 2.0) This is the window for the IC size It shows the ratio of the size of . X1: IC outline IC1 X2: IC outline IC2 Y1: IC outline IC3 Y2: IC outline IC4

【0039】こうしてリード検出のためのB〜D領域を
算出しながらIC各辺のリード検出を行う。従来はカメ
ラ座標系の上端から順に映像データを抽出するために走
査して、ICリードを検索していたのを子計測ウィンド
ウWiの上端から開始すれば良いことになる。IC上部
のリードが検索された時点でリードピン数及びリードピ
ッチをチェックする。どちらも許容範囲内であれば各リ
ード中心位置座標を求めその値からIC上部リード群全
体の中心、即ち図4のリード部中点Pi1を算出する。
In this way, lead detection on each side of the IC is performed while calculating areas B to D for lead detection. Conventionally, scanning was performed to extract video data from the top of the camera coordinate system in order to search for an IC lead, but now it is sufficient to start from the top of the child measurement window Wi. When the leads on the top of the IC are searched, the number of lead pins and lead pitch are checked. If both are within the allowable range, the coordinates of each lead center position are determined, and the center of the entire IC upper lead group, that is, the center point Pi1 of the lead portion in FIG. 4 is calculated from the obtained value.

【0040】次に、このリード部中点Pi1を基に図4
に示すB,C,Dの3つの領域を算出する。今、この領
域を構成する4点を図4に示す様にそれぞれB領域B1
〜B4、C領域C1〜C4、D領域D1〜D4と定める
。リード部中点Pi2〜Pi4は上記領域内に存在する
ので映像データ走査によるリード検索はB領域〜D領域
でのみ行う。
Next, based on this lead part midpoint Pi1, FIG.
Three areas B, C, and D shown in are calculated. Now, as shown in Figure 4, the four points that make up this area are each B area B1.
~B4, C areas C1 to C4, and D areas D1 to D4. Since the lead midpoints Pi2 to Pi4 exist within the above area, the lead search by scanning the video data is performed only in areas B to D.

【0041】即ち、B領域1点B1と同2点B2を結ん
だ線分をスタートとして電子部品中央に向かって平行に
走査する。C領域についてもC領域1点C1と2点C2
を結んだ線分、D領域についてもD領域1点D1と2点
D2をスタートとしてリード検索を行う。以上の作用に
ついては図3のICリード検出手段14にて行われる。 以上、詳記した処理が図3中の4−3〜4−10に相当
する。
That is, starting from a line segment connecting one point B1 and two points B2 in area B, scanning is performed in parallel toward the center of the electronic component. Regarding C area, C area 1 point C1 and 2 points C2
A lead search is also performed for the line segment connecting the D area, starting from the D area 1 point D1 and the 2 point D2. The above operations are carried out by the IC lead detection means 14 shown in FIG. The processes detailed above correspond to 4-3 to 4-10 in FIG.

【0042】次に、上記作用によって検出されたリード
部中点Pi1〜Pi4から撮像されたIC2の重心(I
C計測重心G)・傾度(IC傾度θi1,θi2の平均
値)を算出する(4−12)。算出方法は、従来例と同
様な方法で可能である。
Next, the center of gravity (I
C measurement center of gravity G) and slope (average value of IC slopes θi1 and θi2) are calculated (4-12). The calculation method can be the same as in the conventional example.

【0043】IC重心・傾度計測の後、カメラの中心座
標との距離を算出して実装機コントローラ10に送信す
る(4−13)。また、ICリード各辺検出時異常が検
出されれば実装機コントローラ10に異常コードを送信
する(4−14)。
After measuring the IC center of gravity and inclination, the distance from the center coordinates of the camera is calculated and transmitted to the mounting machine controller 10 (4-13). Further, if an abnormality is detected when detecting each side of the IC lead, an abnormality code is transmitted to the mounting machine controller 10 (4-14).

【0044】以上詳記したように、本実施例においては
、ICリードをサブピクセル単位で検出可能となり、カ
メラ解像度の限界から生じるICリード検出時のリード
認識不良・誤差といった問題を防止する事が可能となる
As described in detail above, in this embodiment, IC leads can be detected in subpixel units, and problems such as poor lead recognition and errors when detecting IC leads caused by the limits of camera resolution can be prevented. It becomes possible.

【0045】更に、ICの位置検出時に必要とされるリ
ード撮像されている領域のみを視覚認識するため、IC
またはその周囲に発生するノイズが発生してもそれを回
避しつつICの位置検出が可能となり、位置検出の精度
が向上する。またIC上不必要な部分に関しては認識の
ための画像処理を行わないため位置検出効率が向上して
IC認識処理を高速化することも可能となる。
Furthermore, in order to visually recognize only the area where the lead image is required when detecting the position of the IC, the IC
Alternatively, even if noise occurs around the IC, the position of the IC can be detected while avoiding it, and the accuracy of position detection is improved. Further, since image processing for recognition is not performed on unnecessary portions of the IC, the position detection efficiency is improved and it is also possible to speed up the IC recognition process.

【0046】又、上記実施例においては、ICの位置検
出方法についてのみ記述したが、この他にプリント基板
の位置検出様に印刷された基板マーク認識時においても
本発明は適用可能である。
Further, in the above embodiment, only the method for detecting the position of an IC has been described, but the present invention is also applicable to the recognition of printed circuit board marks, such as detecting the position of a printed circuit board.

【0047】即ち、基板マークには丸型・四角型・三角
型・十字型が存在する。これらをITVカメラで撮像し
たのち2値化計測を行ってその重心位置を検出している
が、その計測時において基板マークの形状を予め視覚認
識装置にファイリングしておけば、そのデータから基板
マークエッジ検出ポイントの存在する領域を予測が可能
となり、予め効率的な計測ウィンドウの設定が可能とな
り認識処理速度の向上が図れる。更に、この場合、不必
要な部分についても認識処理計測を行わないので基板マ
ーク上及びその付近のノイズの影響を回避することが可
能となり位置検出精度の向上も図れる。
That is, board marks include round, square, triangular, and cross shapes. These are imaged with an ITV camera, and then binarized and measured to detect their center of gravity. At the time of measurement, if the shape of the board mark is filed in the visual recognition device in advance, the data can be used to identify the board mark. It becomes possible to predict the area where the edge detection point exists, and it becomes possible to set an efficient measurement window in advance, thereby improving the recognition processing speed. Furthermore, in this case, since the recognition processing measurement is not performed on unnecessary portions, it is possible to avoid the influence of noise on and in the vicinity of the board mark, and it is also possible to improve the position detection accuracy.

【0048】また、上記映像データ補間処理についても
基板マーク認識に適用すればマーク外形エッジをより精
度良く認識可能となり、それによって基板マークの重心
計測精度は向上する。
Furthermore, if the video data interpolation process described above is applied to board mark recognition, it becomes possible to recognize the outer edge of the mark with higher accuracy, thereby improving the accuracy of measuring the center of gravity of the board mark.

【0049】[0049]

【発明の効果】以上述べたように、本発明によれば、I
Cリードの高密度化及びカメラ解像度の限界から生じる
リード認識不良を映像データを補間処理してサブピクセ
ル単位で認識することにより認識精度の低下を防止する
[Effects of the Invention] As described above, according to the present invention, I
Deterioration in recognition accuracy is prevented by interpolating video data and recognizing it in sub-pixel units to prevent lead recognition failures caused by increased C-lead density and camera resolution limitations.

【0050】更に、電子部品の位置計測時不必要なポイ
ントについて認識処理計測を行なうためにノイズに影響
されて認識精度が低下するという問題と処理時間がかか
るという問題も防止する。
Furthermore, since recognition processing is performed on unnecessary points when measuring the position of an electronic component, it is possible to prevent the problem that recognition accuracy is degraded due to the influence of noise and the problem that processing time is required.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例の制御主要部を示す概要構成
図。
FIG. 1 is a schematic configuration diagram showing main control parts of an embodiment of the present invention.

【図2】本発明の一実施例で適用するIC外形データを
示す概要構成図。
FIG. 2 is a schematic configuration diagram showing IC external shape data applied in an embodiment of the present invention.

【図3】本発明の一実施例で適用する制御フローチャー
ト。
FIG. 3 is a control flowchart applied in one embodiment of the present invention.

【図4】本発明の一実施例で適用するデータを示すモデ
ル図。
FIG. 4 is a model diagram showing data applied in an embodiment of the present invention.

【図5】本発明の一実施例で適用するデータ補間を説明
する図。
FIG. 5 is a diagram illustrating data interpolation applied in an embodiment of the present invention.

【図6】本発明の一実施例のハードウェア構成を示す概
要構成図。
FIG. 6 is a schematic configuration diagram showing the hardware configuration of an embodiment of the present invention.

【図7】電子部品を撮像し、二値化処理した結果を示す
モデル図。
FIG. 7 is a model diagram showing the result of imaging and binarizing an electronic component.

【図8】図7に示した二値化処理結果から電子部品の中
心座標算出を説明する図。
8 is a diagram illustrating calculation of center coordinates of an electronic component from the binarization processing result shown in FIG. 7. FIG.

【符号の説明】[Explanation of symbols]

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  リードを有する部品の形状等を視覚認
識することにより、前記部品と基板との位置ズレを検出
し、この検出値を基に前記部品及び基板の位置を相対的
に補正し、前記部品を前記基板上の所定部位に装着する
部品実装装置において、前記部品の画像を取込む撮像手
段と、前記部品の外形寸法等に関するデータを記憶する
記憶手段と、前記部品の撮像画像の欠落を補間する補間
手段を有し、前記記憶手段に記憶されたデータに基いて
、前記撮像手段の画面内に前記部品のリードの存在する
領域を予測算出して、前記領域についてのみ前記撮像手
段の走査線に沿って、前記撮像手段から送られた画像デ
ータを濃淡画像データに変換し、この変換した濃淡画像
データを2値化処理し、前記部品のリードを検出するリ
ード検出手段と、このリード検出手段からの検出データ
に基いて、前記部品の重心座標及び傾度を算出する演算
手段とを具備したことを特徴とする部品実装装置。
1. A positional deviation between the component and the board is detected by visually recognizing the shape etc. of the component having the lead, and the positions of the component and the board are relatively corrected based on this detected value, A component mounting apparatus for mounting the component on a predetermined location on the board, comprising an imaging means for capturing an image of the component, a storage means for storing data regarding external dimensions of the component, and a lack of the captured image of the component. and an interpolation means for interpolating a lead of the component in the screen of the imaging means based on the data stored in the storage means, and predicts and calculates the area where the lead of the component exists within the screen of the imaging means, and calculates the area where the lead of the component exists only for the area a lead detection means for converting image data sent from the imaging means into grayscale image data along a scanning line, binarizing the converted grayscale image data, and detecting a lead of the component; A component mounting apparatus comprising: arithmetic means for calculating the center of gravity coordinates and inclination of the component based on detection data from the detection means.
JP10112291A 1991-05-07 1991-05-07 Component mounting equipment Expired - Lifetime JP3452201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10112291A JP3452201B2 (en) 1991-05-07 1991-05-07 Component mounting equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10112291A JP3452201B2 (en) 1991-05-07 1991-05-07 Component mounting equipment

Publications (2)

Publication Number Publication Date
JPH04332199A true JPH04332199A (en) 1992-11-19
JP3452201B2 JP3452201B2 (en) 2003-09-29

Family

ID=14292271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10112291A Expired - Lifetime JP3452201B2 (en) 1991-05-07 1991-05-07 Component mounting equipment

Country Status (1)

Country Link
JP (1) JP3452201B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07122900A (en) * 1993-10-21 1995-05-12 Tenryu Technic:Kk Component-data recording device for electronic component and conveying and assembling device for electronic component using recording device thereof
JP2018167354A (en) * 2017-03-29 2018-11-01 本田技研工業株式会社 Arrangement mode change calculation method for external state sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07122900A (en) * 1993-10-21 1995-05-12 Tenryu Technic:Kk Component-data recording device for electronic component and conveying and assembling device for electronic component using recording device thereof
JP2018167354A (en) * 2017-03-29 2018-11-01 本田技研工業株式会社 Arrangement mode change calculation method for external state sensor

Also Published As

Publication number Publication date
JP3452201B2 (en) 2003-09-29

Similar Documents

Publication Publication Date Title
EP1062853B1 (en) Component recognizing method and apparatus
JP2003035527A (en) Embrakation loading volume measurement method and apparatus
JP4890904B2 (en) Component position detection method and apparatus
JPH04332199A (en) Part mounting apparatus
JP3322569B2 (en) Component image edge detection method and component shape recognition device
JP3269816B2 (en) Component mounting equipment
JP2007286930A (en) Method for detecting gravity center of object
JP3114941B2 (en) Component mounting equipment
JP3579247B2 (en) Pattern alignment method
JP3281457B2 (en) Board component mounting inspection method and inspection device
JPH06260794A (en) Method and equipment for recognizing position of electronic part
US6240202B1 (en) Appearance inspection method for electronic parts
JP2974794B2 (en) Multi-view recognition method for polygonal parts
JP4150262B2 (en) Component recognition method and apparatus
JP2006234793A (en) Part position detecting method and device
JP5271654B2 (en) Electronic component mounting equipment
Yu et al. New approach to vision-based BGA package inspection
JP4660205B2 (en) Component recognition method and apparatus
JP3046421B2 (en) Electronic component mounting method and device
JP2879357B2 (en) Shape judgment method
JPH08340194A (en) Method of measuring dimension of part and chip mounter
JPH04338700A (en) Board mark recognition device
JP2578324B2 (en) Image processing device
JP3111432B2 (en) Image processing device
JPH0372203A (en) Checking method of outer appearance of soldering part

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7