JP2003256808A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2003256808A
JP2003256808A JP2002051905A JP2002051905A JP2003256808A JP 2003256808 A JP2003256808 A JP 2003256808A JP 2002051905 A JP2002051905 A JP 2002051905A JP 2002051905 A JP2002051905 A JP 2002051905A JP 2003256808 A JP2003256808 A JP 2003256808A
Authority
JP
Japan
Prior art keywords
feature point
image processing
points
model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002051905A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Urakawa
禎之 浦川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002051905A priority Critical patent/JP2003256808A/en
Publication of JP2003256808A publication Critical patent/JP2003256808A/en
Pending legal-status Critical Current

Links

Landscapes

  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor resistant to a noise on an arbitrarily shaped electronic component or an image signal by efficiently recognizing the electronic component having luminance changing points other than a lead even when luminance changing points exist in a background in the surrounding of the lead part of the electronic component to be recognized by a common algorithm. <P>SOLUTION: The position information of a plurality of model feature points(luminance changing points) related with an objective lead group 30a to be outputted by a model shape information storing means 8 are compared with the position information of a plurality of feature point candidates 31-42 of lead groups 30a and 30b obtained from the image signal, and the combination of the feature point candidates which are the closest to the relative position relation of the model feature points(luminance feature points) is selected, and the position of the objective lead group 30a is calculated from the position information of the combination of the selected feature point candidates. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、産業用ロボットや
プリント基板に電子部品を実装する部品実装機等、電子
部品の位置補正をするのに必要とする画像処理装置及び
処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a processing method necessary for correcting the position of an electronic component such as an industrial robot or a component mounter for mounting an electronic component on a printed circuit board.

【0002】[0002]

【従来の技術】従来より産業用ロボットやプリント基板
に電子部品(以下、「部品」ともいう)を実装する部品
実装機等、部品の位置補正をするのにCCDカメラ等の
撮像装置を用いて、部品を視覚的に認識することにより
その位置を検出し、検出された部品位置情報に基き部品
の位置及び角度の補正を行う如くしている。このような
電子部品の画像認識においては、例えば対象とする電子
部品より得られた画像信号上を走査して輝度変化点を検
出する如くするエッジチェッカー等を設けており、検出
する電子部品の形状に応じてこのエッジチェッカーの位
置を決めている。
2. Description of the Related Art Conventionally, an image pickup device such as a CCD camera has been used to correct the position of a component such as an industrial robot or a component mounter for mounting an electronic component (hereinafter, also referred to as "component") on a printed circuit board. The position of a component is detected by visually recognizing the component, and the position and angle of the component are corrected based on the detected component position information. In such image recognition of an electronic component, for example, an edge checker or the like is provided which scans an image signal obtained from the target electronic component to detect a brightness change point, and the shape of the electronic component to be detected. The position of this edge checker is decided according to.

【0003】この画像認識による部品の位置及び角度の
検出方法には2通りあり、ひとつは部品が有する電極を
検出することにより部品の位置及び角度を算出する方法
であり、もう一方は部品の外形から部品の位置及び角度
を得る方法である。
There are two methods for detecting the position and angle of a component by this image recognition. One is a method for calculating the position and angle of the component by detecting the electrodes of the component, and the other is the outer shape of the component. It is a method of obtaining the position and angle of the component from the.

【0004】部品の電極を検出する方法は、例えば特許
第3225067号公報にカメラを用いて画像信号の走
査線上の電極(以下、「リード」ともいう)の輝度信号
を検出し、この輝度信号を微分して得られる信号から明
暗変化点を検出してリードのエッジ中心位置を得るとと
もにリード相互間の距離や角度などを算出する方法が記
載されている。
A method of detecting the electrode of a component is, for example, disclosed in Japanese Patent No. 3225067, by using a camera to detect a luminance signal of an electrode (hereinafter, also referred to as "lead") on a scanning line of an image signal. It describes a method of detecting a light-dark change point from a signal obtained by differentiating to obtain an edge center position of the leads and calculating a distance or an angle between the leads.

【0005】図11(a),(b),(c)に特許第3
225067号公報に記載された部品の電極を検出する
方法を示す。図11(a)は、傷90dを有する例えば
3つのリード90について、画像信号上の水平走査線信
号SXにより輝度信号を検出する様子を示すものであ
る。90L及び90Rはそれぞれリード90の左右エッ
ジを表す。
The patent No. 3 is shown in FIGS. 11 (a), 11 (b) and 11 (c).
A method for detecting electrodes of the component described in Japanese Patent No. 225067 will be described. FIG. 11A shows how a luminance signal is detected by the horizontal scanning line signal SX on the image signal for, for example, three leads 90 having a flaw 90d. 90L and 90R represent the left and right edges of the lead 90, respectively.

【0006】図11(b)は、水平走査線信号SXによ
って得られた各リード90毎の輝度信号B1,B2,B
3を示すものである。Nは各リードが持っている傷90
dにより生じたノイズ信号を表す。
FIG. 11B shows luminance signals B1, B2, B for each lead 90 obtained by the horizontal scanning line signal SX.
3 is shown. N is 90 scratches on each lead
represents the noise signal caused by d.

【0007】図11(c)は、各輝度信号B1,B2,
B3を微分して得られた微分信号を示し、このとき、ノ
イズ信号Nによるノイズ微分信号NCも検出される。
FIG. 11C shows each of the luminance signals B1, B2.
The differential signal obtained by differentiating B3 is shown. At this time, the noise differential signal NC by the noise signal N is also detected.

【0008】各リードのエッジ位置を特定するのにノイ
ズ信号Nによるノイズ微分信号NCの影響を排除するた
め、図11(c)に示すように、例えば微分信号を検出
する際に、図中左端のリード90の実際の左側エッジ9
0Lが存在すると予測される位置より左方の外側位置D
L1から右方へ輝度信号B1の微分信号を検出する処理
を行い、最初に検出された微分信号XL1が左側エッジ
90Lによる微分信号と認定される。
In order to eliminate the influence of the noise differential signal NC due to the noise signal N in identifying the edge position of each lead, as shown in FIG. 11C, for example, when the differential signal is detected, the left end in the figure is detected. Actual left edge 9 of lead 90
Outside position D on the left of the position where 0L is predicted to exist
The differential signal of the luminance signal B1 is detected from L1 to the right, and the differential signal XL1 detected first is recognized as the differential signal by the left edge 90L.

【0009】同様に、あるリード90の実際の右側エッ
ジ90Rが存在すると予測される位置より右方の外側位
置DR1から左方へ輝度信号B1の微分信号を検出する
処理を行い、最初に検出された微分信号XR1が右側エ
ッジ90Rによる微分信号と認定される。
Similarly, a process of detecting a differential signal of the luminance signal B1 from the outer position DR1 on the right side of the position where the actual right edge 90R of a certain lead 90 is predicted to exist to the left side is first detected. The differentiated signal XR1 is recognized as the differentiated signal by the right edge 90R.

【0010】このようにして、リード90の微分信号の
中央(XL1及びXR1の間)に形成されるノイズ信号
Nによるノイズ微分信号NCにかかわらずリード90の
左右エッジ位置が特定されるとともに中心位置を算出す
ることができる。上述の微分信号検出処理を各リードに
対して行い、各リードの例えば図中中央のリードの微分
信号XL2及びXR2を検出しエッジ位置を特定すると
ともに中心位置を算出する。
In this manner, the left and right edge positions of the lead 90 are specified and the center position of the lead 90 is specified regardless of the noise differential signal NC due to the noise signal N formed at the center of the differential signal of the lead 90 (between XL1 and XR1). Can be calculated. The above-described differential signal detection processing is performed for each lead, the differential signals XL2 and XR2 of the lead of each lead, for example, in the center of the drawing are detected, the edge position is specified, and the center position is calculated.

【0011】そして、各リードの中心位置を用いること
により例えばリード相互間あるいはリード全体の中心位
置等を得ることができる。
By using the center position of each lead, for example, the center position of the leads or the center position of the whole lead can be obtained.

【0012】[0012]

【発明が解決しようとする課題】しかしながら、電子部
品のリード部の画像認識においては、電子部品を撮像し
た画像信号に対して、対象リードが存在すると想定され
る位置に走査線等、検出直線を適用し、検出直線上で検
出される輝度変化点をすべてリードによる輝度変化点と
想定して対象リード部位置の算出を行う如くする。
However, in the image recognition of the lead portion of the electronic component, a detection line such as a scanning line is placed at a position where the target lead is supposed to exist in the image signal of the electronic component. The target lead portion position is calculated by assuming that all the brightness change points detected on the detection straight line are the brightness change points due to the read.

【0013】このため、画像信号における検出直線上に
リード以外の輝度変化点が生じないよう照明の調整及び
背景の配置に注意する必要があった。
Therefore, it is necessary to pay attention to the adjustment of the illumination and the arrangement of the background so that the brightness change points other than the lead do not occur on the detection straight line in the image signal.

【0014】また、検出したいリード以外に輝度変化点
の生じる可能性のある部品の場合、何等かの仮定あるい
は条件等を設けて対象リードによる輝度変化点のみを選
択する必要がある。この場合、例えば部品形状が変わる
とリード部検出直線の仮定や条件等も変更する必要があ
ると共に、その都度部品形状に応じた画像処理アルゴリ
ズムが必要となる不都合があった。
Further, in the case of a component which may have a brightness change point other than the lead to be detected, it is necessary to set some assumptions or conditions and select only the brightness change point by the target lead. In this case, for example, when the shape of the part changes, the assumptions and conditions of the lead detection line must be changed, and an image processing algorithm corresponding to the shape of the part is required each time.

【0015】本発明は、斯かる点に鑑み、リード以外に
輝度変化点のある電子部品及び認識したい電子部品のリ
ード部近辺の背景に輝度変化点がある場合でも共通のア
ルゴリズムで効率的に認識を行うことで、任意の形状の
電子部品や画像信号上のノイズに強い画像処理装置及び
処理方法を提案することを目的とする。
In view of the above point, the present invention efficiently recognizes an electronic component having a luminance change point other than the lead and a luminance change point in the background near the lead portion of the electronic component to be recognized with a common algorithm. It is an object of the present invention to propose an image processing apparatus and a processing method that are resistant to noises on electronic components and image signals of arbitrary shapes by performing the above.

【0016】[0016]

【課題を解決するための手段】本発明画像処理装置は、
電子部品のリード群を撮像する撮像手段と、この電子部
品の複数のリード群のモデル形状情報を記憶するモデル
形状情報記憶手段と、この撮像手段で得られた複数のリ
ード群を有する電子部品の画像信号を処理する画像処理
手段とを有する画像処理装置において、この画像処理手
段は、このモデル形状情報記憶手段から出力される対象
リード群に関する複数のモデル特徴点の位置情報とこの
画像信号から得られたリード群の複数の特徴点候補の位
置情報とを比較し、このモデル特徴点の相対位置関係と
最も近いこの特徴点候補の組み合わせを選択し、選択さ
れた特徴点候補の組み合わせの位置情報からこの対象リ
ード群の位置を算出するようにしたものである。ここ
で、この電子部品のモデル特徴点の位置情報は、例えば
対象リード群の所定方向に検出直線を設定したときの輝
度変化点の位置座標より算出し、この特徴点候補の位置
情報は、例えばこの画像信号に検出直線を適用して対象
リード群の輝度変化点を検出したときの位置座標より算
出するようにしたものである。
The image processing apparatus of the present invention comprises:
An image pickup means for picking up an image of a lead group of an electronic component, a model shape information storage means for storing model shape information of a plurality of lead groups of the electronic component, and an electronic component having a plurality of lead groups obtained by the image pickup means. In an image processing apparatus having an image processing means for processing an image signal, the image processing means obtains from the position information of a plurality of model feature points regarding the target lead group output from the model shape information storage means and the image signal. The position information of the combination of the selected feature point candidates is selected by comparing the position information of the plurality of feature point candidates of the selected lead group, and the combination of the feature point candidates that is closest to the relative positional relationship of this model feature point is selected. From this, the position of this target lead group is calculated. Here, the position information of the model feature point of this electronic component is calculated from the position coordinates of the brightness change point when the detection straight line is set in the predetermined direction of the target lead group, and the position information of this feature point candidate is, for example, The detection straight line is applied to this image signal to calculate from the position coordinates when the brightness change point of the target lead group is detected.

【0017】斯かる本発明によれば、画像信号より検出
される対象リード群の特徴点候補の位置情報とモデル形
状情報記憶装置より出力される対象リード群のモデル特
徴点の位置情報とを比較し、モデル特徴点に最も近い特
徴点候補の組み合わせを選択し、選択された特徴点候補
の組合せの位置情報から上記画像信号における対象リー
ド群位置を算出するようにしたので、共通のアルゴリズ
ムにより効率的に不要な特徴点候補の影響を除いて対象
リード群位置を算出することができ、不規則な形状のリ
ード群や画像信号上のノイズに強い画像処理を行うこと
ができる。
According to the present invention, the position information of the feature point candidate of the target lead group detected from the image signal is compared with the position information of the model feature point of the target lead group output from the model shape information storage device. Then, the combination of the feature point candidates closest to the model feature point is selected, and the target lead group position in the image signal is calculated from the position information of the selected combination of the feature point candidates. The target lead group position can be calculated by removing the influence of unnecessary feature point candidates, and image processing can be performed that is resistant to irregularly shaped lead groups and noise on the image signal.

【0018】また、本発明画像処理装置は、この複数の
モデル特徴点の中の最も距離の大きい2点に相当すると
推定される2点の組み合わせをこの特徴点候補の中から
選択し、この2点を含む特徴点候補の組み合わせについ
てのみ、このモデル特徴点とこの特徴点候補との位置を
比較し画像処理を行なうようにしたものである。
Further, the image processing apparatus of the present invention selects, from the feature point candidates, a combination of two points which are estimated to correspond to the two points having the largest distance among the plurality of model feature points. The image processing is performed by comparing the positions of the model feature points and the feature point candidates only for combinations of feature point candidates including points.

【0019】斯かる本発明によれば、複数のモデル特徴
点の最も距離の大きい2点に相当すると思われる2点の
組み合わせを、特徴点候補の中から複数選択し、この2
点を含む組み合わせについてのみ、モデル特徴点と特徴
点候補との位置の比較を行うようにしたので、全ての場
合について総当りで計算することを避け計算時間を短縮
できる。
According to the present invention, a plurality of combinations of two points which are considered to correspond to the two points having the largest distance among the plurality of model characteristic points are selected from the characteristic point candidates, and the two points are selected.
Since the positions of the model feature points and the feature point candidates are compared only for combinations including points, the calculation time can be shortened by avoiding brute force calculation in all cases.

【0020】また、本発明画像処理装置は、このモデル
特徴点とこの特徴点候補との位置比較時に、画像信号の
検出直線上においてモデル特徴点の位置情報から推定さ
れる位置近辺に輝度変化点が存在しない特徴点候補の組
み合わせについては間違った組み合わせと判断し、以降
の比較計算を行わないようにしたものである。
Further, the image processing apparatus of the present invention, when comparing the position of this model feature point and this feature point candidate, the brightness change point near the position estimated from the position information of the model feature point on the detection line of the image signal. A combination of feature point candidates that does not exist is determined to be an incorrect combination and the subsequent comparison calculation is not performed.

【0021】斯かる本発明によれば、特徴点候補の中か
ら選択された2点の組み合わせについて、モデル特徴点
の位置情報から推定される位置近辺に輝度変化点が存在
しない組み合わせは間違った組み合わせと判断し、以降
の比較計算を行わないようにしたので、無駄な計算を避
け効率的に計算を行うことができる。
According to the present invention, regarding the combination of two points selected from the feature point candidates, the combination in which the brightness change point does not exist near the position estimated from the position information of the model feature point is a wrong combination. Since it is determined that the comparison calculation is not performed thereafter, it is possible to avoid unnecessary calculation and perform calculation efficiently.

【0022】本発明画像処理方法は、電子部品のリード
群を撮像する撮像手段と、この電子部品の複数のリード
群のモデル形状情報を記憶するモデル形状情報記憶手段
と、この撮像手段で得られた複数のリード群を有する電
子部品の画像信号を処理する画像処理手段とを有し、こ
の画像処理手段は、このモデル形状情報記憶手段から出
力される対象リード群に関する複数のモデル特徴点の位
置情報とこの画像信号から得られたリード群の複数の特
徴点候補の位置情報とを比較し、このモデル特徴点の相
対位置関係と最も近いこの特徴点候補の組み合わせを選
択し、選択された特徴点候補の組み合わせの位置情報か
らこの対象リード群の位置を算出するようにしたもので
ある。ここで、この電子部品のモデル特徴点の位置情報
は、例えば対象リード群の所定方向に検出直線を設定し
たときの輝度変化点の位置座標より算出し、この特徴点
候補の位置情報は、例えばこの画像信号に検出直線を適
用して対象リード群の輝度変化点を検出したときの位置
座標より算出するようにしたものである。
The image processing method of the present invention is obtained by the image pickup means for picking up an image of a lead group of an electronic component, the model shape information storage means for storing model shape information of a plurality of lead groups of the electronic component, and the image pickup means. And image processing means for processing an image signal of an electronic component having a plurality of lead groups, and the image processing means outputs the positions of the plurality of model feature points with respect to the target lead group output from the model shape information storage means. The information is compared with the position information of a plurality of feature point candidates of the lead group obtained from this image signal, the relative positional relationship of this model feature point is selected, and the combination of this feature point candidate closest to the selected feature is selected. The position of this target lead group is calculated from the position information of the combination of point candidates. Here, the position information of the model feature point of this electronic component is calculated from the position coordinates of the brightness change point when the detection straight line is set in the predetermined direction of the target lead group, and the position information of this feature point candidate is, for example, The detection straight line is applied to this image signal to calculate from the position coordinates when the brightness change point of the target lead group is detected.

【0023】また、本発明画像処理方法は、この複数の
モデル特徴点の中の最も距離の大きい2点に相当すると
推定される2点の組み合わせをこの特徴点候補の中から
選択し、この2点を含む特徴点候補の組み合わせについ
てのみ、このモデル特徴点とこの特徴点候補との位置を
比較し画像処理を行なうようにしたものである。
Further, the image processing method of the present invention selects from the feature point candidates a combination of two points which are estimated to correspond to the two points having the largest distance among the plurality of model feature points. The image processing is performed by comparing the positions of the model feature points and the feature point candidates only for combinations of feature point candidates including points.

【0024】また、本発明画像処理方法は、このモデル
特徴点とこの特徴点候補との位置比較時に、画像信号の
検出直線上においてモデル特徴点の位置情報から推定さ
れる位置近辺に輝度変化点が存在しない特徴点候補の組
み合わせについては間違った組み合わせと判断し、以降
の比較計算を行わないようにしたものである。
Further, according to the image processing method of the present invention, at the time of comparing the positions of the model feature points and the feature point candidates, the brightness change point near the position estimated from the position information of the model feature points on the detection straight line of the image signal. A combination of feature point candidates that does not exist is determined to be an incorrect combination and the subsequent comparison calculation is not performed.

【0025】[0025]

【発明の実施の形態】以下、図面を参照して本発明画像
処理装置及び処理方法の実施の形態の例につき説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of an image processing apparatus and a processing method according to the present invention will be described below with reference to the drawings.

【0026】図1は本発明画像処理装置を適用した電子
部品実装機の一例を示す概略構成図である。この電子部
品実装機は、位置補正の対象となる電子部品(以下、
「部品」という)1を保持する保持部2、この保持部2
を駆動する駆動装置3、斜めの位置より部品1に光を照
射する斜方反射照明4、部品1を撮像する撮像手段とし
ての例えばビデオカメラ5、このビデオカメラ5よりの
画像信号を一時的に記憶する画像メモリ部7a、演算部
7b及びモデル形状情報記憶装置8等よりなる画像信号
の処理及び制御を行う画像信号処理・制御部6、並びに
画像信号処理・制御部6での画像信号処理結果を駆動装
置3に伝達するための通信手段9から構成されている。
FIG. 1 is a schematic configuration diagram showing an example of an electronic component mounter to which the image processing apparatus of the present invention is applied. This electronic component mounter is an electronic component (hereinafter,
A holding unit 2 for holding a "component") 1, and this holding unit 2
A driving device 3 for driving the device 1, an oblique reflection illumination 4 for irradiating the component 1 with light from an oblique position, a video camera 5 as an image pickup means for imaging the component 1, and an image signal from the video camera 5 temporarily. An image signal processing / control unit 6 for processing and controlling an image signal including an image memory unit 7a for storing, a calculation unit 7b, a model shape information storage device 8 and the like, and an image signal processing result in the image signal processing / control unit 6. Is composed of a communication means 9 for transmitting to the drive device 3.

【0027】上述の如く構成される図1において、駆動
装置3により駆動される保持部2では例えば真空吸着等
のチャック手段によって部品1を吸着保持し例えば空中
の所定の位置に保持固定する如くする。空中に保持され
た部品1に斜方反射照明4により例えば斜め下方の位置
から光を照射するとともにプリズム5aを介して同軸反
射照明5bからも光を照射する如くする。このとき、部
品1の背景が黒く撮像されるようにするため、斜方反射
照明4及び同軸反射照明5bと反対側の部品1の背面に
黒い板4a等を設置しておく。
In FIG. 1 configured as described above, the holding unit 2 driven by the drive unit 3 sucks and holds the component 1 by chuck means such as vacuum suction, and holds and fixes the component 1 at a predetermined position in the air, for example. . The oblique reflection illumination 4 irradiates the component 1 held in the air with light from, for example, an obliquely lower position, and the coaxial reflection illumination 5b also irradiates the light via the prism 5a. At this time, in order to image the background of the component 1 black, a black plate 4a or the like is installed on the back surface of the component 1 on the side opposite to the oblique reflection illumination 4 and the coaxial reflection illumination 5b.

【0028】光が照射された部品1の像はプリズム5a
を経てビデオカメラ5に取り込まれ画像が撮像される。
ビデオカメラ5では部品1の像が画像信号に変換され、
画像信号処理・制御部6に送られる。
The image of the component 1 irradiated with light is the prism 5a.
After that, the image is captured by the video camera 5 and captured.
In the video camera 5, the image of the component 1 is converted into an image signal,
It is sent to the image signal processing / control unit 6.

【0029】この画像信号処理・制御部6ではビデオカ
メラ5よりの画像信号の処理が行われるとともにこの処
理結果を基に駆動装置3の制御を行う如くするものであ
る。ビデオカメラ5より得られた画像信号は画像メモリ
部7aに一時的に記憶されると共に演算部7bに送信さ
れ、演算部7bにて画像信号上の部品形状とモデル形状
情報記憶装置8に記憶されているモデル形状情報とが比
較される。
The image signal processing / control section 6 processes the image signal from the video camera 5 and controls the drive unit 3 based on the processing result. The image signal obtained from the video camera 5 is temporarily stored in the image memory unit 7a and transmitted to the calculation unit 7b, and stored in the component shape on the image signal and the model shape information storage device 8 by the calculation unit 7b. The existing model shape information is compared.

【0030】このモデル形状情報記憶装置8は、例えば
ROM(Read Only Memory)等よりな
り複数の部品のリード群のモデル形状情報や中心位置、
および中心位置算出過程で得られる情報等を記憶するも
のである。
The model shape information storage device 8 is composed of, for example, a ROM (Read Only Memory) or the like, model shape information and center positions of lead groups of a plurality of parts,
And information and the like obtained in the process of calculating the center position.

【0031】ここで、上述の比較の結果例えば画像信号
上の部品1の位置が大きく曲がっている、あるいはリー
ド欠損などの理由により、部品1とモデル形状情報記憶
装置8に登録された部品のモデル形状情報とが異なると
判断された場合には、部品の種類の相違または不良品等
としてライン過程からはじかれ画像処理工程は行われな
い。
Here, as a result of the above-mentioned comparison, for example, the position of the component 1 on the image signal is greatly bent, or due to a lead defect or the like, the component 1 and the model of the component registered in the model shape information storage device 8 are obtained. When it is determined that the shape information is different from the shape information, the image processing step is not performed because the line process is rejected as a difference in the type of parts or a defective product.

【0032】部品1がモデル形状情報と一致すると判断
された場合には、モデル形状情報を基に後述する画像処
理が行われ、部品1の中心位置及び角度が算出される。
そして、算出された部品中心位置及び角度情報が通信手
段9を経て駆動装置3に伝達される。
When it is determined that the part 1 matches the model shape information, image processing described later is performed based on the model shape information, and the center position and angle of the part 1 are calculated.
Then, the calculated component center position and angle information is transmitted to the drive device 3 via the communication means 9.

【0033】この駆動装置3では、画像信号処理・制御
部6より供給される部品中心位置及び角度情報に基きX
−Y−Z軸の3次元方向及び回転方向rの位置補正動作
が行われて、部品1が例えばプリント基板等の所定の位
置に設定され、その後部品1の電極に半田付け処理等が
行われプリント基板に実装される如くなされる。
In this drive unit 3, X based on the component center position and angle information supplied from the image signal processing / control unit 6 is used.
A position correction operation is performed in the three-dimensional directions of the YZ axes and the rotation direction r to set the component 1 to a predetermined position on, for example, a printed circuit board, and then the electrodes of the component 1 are subjected to soldering processing and the like. It is made to be mounted on a printed circuit board.

【0034】次に、部品の検出方法について述べる。Next, a method of detecting parts will be described.

【0035】図2は、例えばビデオカメラ5と接続され
たモニター(図示せず)等に得られる部品の画像信号を
模式的に示したものである。図中11はモニター等の画
面を示し、黒い板4aにより黒く撮像される背景12を
斜線で表している。10は撮像された部品1の像を示
し、部品10の1辺に接合され3本の長いリードよりな
るリード群10a及び2本の短いリードよりなるリード
群10bは斜方反射照明4及び同軸反射照明5bからの
光が反射して白く見える。但し、図中斜線で示すように
黒いモールドのボディ10c等、部品表面の黒色部分は
やはり黒く撮像される。
FIG. 2 schematically shows image signals of parts obtained on a monitor (not shown) connected to the video camera 5, for example. In the figure, reference numeral 11 denotes a screen of a monitor or the like, and the background 12 imaged in black by the black plate 4a is indicated by diagonal lines. Reference numeral 10 shows an image of the imaged component 1, and a lead group 10a consisting of three long leads and a lead group 10b consisting of two short leads joined to one side of the component 10 are an oblique reflection illumination 4 and a coaxial reflection. The light from the illumination 5b is reflected and appears white. However, as shown by the diagonal lines in the figure, the black portion of the surface of the component, such as the black mold body 10c, is also imaged black.

【0036】本例のように斜方反射照明4等の反射照明
を用いる場合は、光を照射する部品1の背面側に黒い板
4aを設置して部品1の像の背景が黒く撮像されるよう
にする。
When the reflection illumination such as the oblique reflection illumination 4 is used as in the present example, a black plate 4a is installed on the back side of the component 1 which irradiates light, and the background of the image of the component 1 is imaged black. To do so.

【0037】一方、黒い板4aの代わりに拡散板を用い
るとともに部品1上方に透過照明を設置し、同軸反射照
明5bは照射せず透過照明から拡散板を介して部品1に
光を照射する如くすると、拡散板が光を拡散して全体に
白くなるので、図2例と背景の色が逆転して背景は白く
撮像され、透過照明により部品1及びリード部は影を作
りともに黒く撮像される。
On the other hand, a diffuser plate is used in place of the black plate 4a, and a transmissive illumination is installed above the component 1 so that the coaxial reflective illumination 5b is not irradiated and the component 1 is irradiated with light from the transmissive illumination through the diffuser plate. Then, the diffuser plate diffuses the light and becomes white as a whole, so that the background color is reversed from that of the example in FIG. 2 and the background is imaged white, and the transmitted illumination creates a shadow on the component 1 and the lead portion and both are imaged black. .

【0038】本例においては反射照明を用いているが、
透過照明を用いる場合でも、輝度変化を検出する例えば
エッジチェッカー等の検出直線上の輝度変化点として黒
から白への輝度変化点を検出するか、白から黒への輝度
変化点を検出するかの違いはあるが、輝度変化点を基に
部品中心位置及び角度を算出する処理においては共通の
処理方法をもって行うことができる。
Reflective illumination is used in this example,
Even when using transillumination, whether to detect a brightness change point, such as an edge checker, to detect a brightness change point from black to white or to detect a brightness change point from white to black. However, the common processing method can be used to calculate the component center position and angle based on the brightness change point.

【0039】図3は検出直線上の1次元輝度信号の一例
を示す線図であり、例えばビデオカメラ5により部品1
0がモニター(図示せず)等の画面11の黒い背景12
上に撮像されている。リードの輝度変化を検出するリー
ドに直交する方向に設定された検出直線14ではこの検
出直線14の走査方向(図中右から左方向の矢印)に沿
って1次元輝度信号15を検出し、次にこの1次元輝度
信号15を微分した微分信号16を作成する。そして、
上述の長短5本のリードおよび白丸で示される背景12
上のノイズ13よりの1次元輝度信号を検出する。
FIG. 3 is a diagram showing an example of the one-dimensional luminance signal on the detection straight line.
0 is a black background 12 of a screen 11 such as a monitor (not shown)
Imaged above. In the detection straight line 14 which is set in the direction orthogonal to the lead for detecting the change in the brightness of the lead, the one-dimensional brightness signal 15 is detected along the scanning direction of the detection straight line 14 (the arrow from the right to the left in the drawing). Then, a differential signal 16 is generated by differentiating the one-dimensional luminance signal 15. And
Background 12 indicated by the above-mentioned 5 long and short leads and white circles
The one-dimensional luminance signal from the noise 13 above is detected.

【0040】図4は検出直線に幅を持たせた場合の1次
元輝度信号の一例を示すものである。図3例同様、リー
ド群10aの反射による白い部分が画面11の黒い背景
12上に撮像されており、輝度変化を検出する幅を持っ
た検出直線17はこの検出直線17の走査方向(図中右
から左方向)に沿って1次元輝度信号18を検出し、次
にこの1次元輝度信号18を微分した微分信号19を作
成する。そして、上述の長短5本のリードおよび白丸で
示される背景12上ノイズ13よりの1次元輝度信号1
8を検出する。
FIG. 4 shows an example of a one-dimensional luminance signal when the detection straight line has a width. As in the example of FIG. 3, the white portion due to the reflection of the lead group 10a is imaged on the black background 12 of the screen 11, and the detection straight line 17 having a width for detecting the brightness change is the scanning direction of the detection straight line 17 (in the figure, The one-dimensional luminance signal 18 is detected along the direction from right to left), and then the differential signal 19 is generated by differentiating the one-dimensional luminance signal 18. Then, the one-dimensional luminance signal 1 from the above-mentioned long and short 5 leads and the noise 13 on the background 12 indicated by white circles
8 is detected.

【0041】この図4例の場合、検出直線17にある幅
を持たせた帯状としこの幅方向に輝度を加算して1次元
輝度信号18を検出するようにしているので、ノイズ1
3及びリード群10bのように検出直線の幅方向全てで
白くないものの輝度信号に対する影響が小さくなり、例
えば長いリードを有する検出対象リード群との区別が行
いやすくなる。
In the case of the example of FIG. 4, since the detection straight line 17 is formed in a band shape having a certain width, the luminance is added in the width direction to detect the one-dimensional luminance signal 18, so that the noise 1
3 and the lead group 10b, which are not white in the width direction of the detection straight line, have less influence on the luminance signal, and can be easily distinguished from the detection target lead group having long leads, for example.

【0042】図5に、図3の1次元輝度信号15を微分
した微分信号16から得られる輝度変化点の一例を示
す。この微分信号16において、右から左への走査方向
に沿って黒から白に変化する輝度変化点では正のピー
ク、白から黒に変化する輝度変化点では負のピークとな
る。ここでは、輝度変化点としてリード群10a及び1
0bを構成する長短5本のリードの左右エッジから得ら
れる10箇所の輝度変化点および白丸で示されるノイズ
13より得られる2箇所の合計12箇所の輝度変化点を
検出する。
FIG. 5 shows an example of the luminance change point obtained from the differential signal 16 obtained by differentiating the one-dimensional luminance signal 15 of FIG. In the differentiated signal 16, the luminance change point at which the black changes from white to the white along the scanning direction from the right to the left has a positive peak, and the luminance change point at which the white changes to black has a negative peak. Here, the lead groups 10a and 1 are used as the brightness change points.
A total of 12 luminance change points, namely, 10 luminance change points obtained from the left and right edges of the 5 long and short leads constituting 0b and 2 places obtained from the noise 13 indicated by a white circle are detected.

【0043】上述の図5の画像信号には2種類のリード
群が混在しており、例えば検出直線上に検出したいリー
ド群10aとは異なるリード群10bによる輝度変化点
がある。また、図中これらリード群左側に背景による白
部分13が存在する。このような画像信号において、図
中の検出直線上で微分信号のピークをとって輝度変化点
を検出すると図5のように、対象リード群に起因する輝
度変化点以外にも輝度変化点の存在する1次元輝度信号
となる。このような信号では複数の輝度変化点の中か
ら、対象リードに相当するものを選択する必要がある。
The above-described image signal of FIG. 5 contains two types of lead groups, and for example, there is a brightness change point on the detection straight line due to the lead group 10b different from the lead group 10a to be detected. Also, in the figure, a white portion 13 due to the background exists on the left side of these lead groups. In such an image signal, when the peak of the differential signal is taken on the detection straight line in the figure to detect the brightness change point, as shown in FIG. 5, there is a brightness change point other than the brightness change point caused by the target lead group. 1-dimensional luminance signal. For such a signal, it is necessary to select one corresponding to the target lead from a plurality of brightness change points.

【0044】本例は、このような複数の輝度変化点の中
から対象リード群に相当するものを選択して検出直線上
の位置、即ち1次元座標上の位置を算出する如くする。
In the present example, one corresponding to the target lead group is selected from such a plurality of brightness change points and the position on the detection straight line, that is, the position on the one-dimensional coordinate is calculated.

【0045】以下、図6の画像処理方法の手順を示すフ
ローチャート並びに図7〜図10にしたがって、部品の
任意の位置に配置された検出直線の輝度変化点からその
部品のリード群の中心位置を算出するアルゴリズムにつ
いて説明する。
Hereinafter, the center position of the lead group of the component is determined from the brightness change point of the detection straight line arranged at an arbitrary position of the component according to the flowchart showing the procedure of the image processing method of FIG. 6 and FIGS. The calculation algorithm will be described.

【0046】まず、部品のリード群の形状情報よりモデ
ル特徴点の位置情報を作成する(ステップ1)。
First, the position information of the model feature points is created from the shape information of the lead group of the component (step 1).

【0047】図7は、例えば部品のリード群に関するモ
デル形状情報を模式的に示したものである。図中11は
モニター等の画面を示し、黒い板4aにより黒く撮像さ
れる背景12を斜線で表している。10は撮像された部
品の像を示し、部品10の1辺に接合され長短のリード
が交互に配置された5本のリードを構成する3本の長い
リードよりなるリード群10aおよび2本の短いリード
よりなるリード群10bが斜方反射照明4及び同軸反射
照明5bからの光が反射して白く見える。
FIG. 7 schematically shows model shape information regarding, for example, a lead group of parts. In the figure, reference numeral 11 denotes a screen of a monitor or the like, and the background 12 imaged in black by the black plate 4a is indicated by diagonal lines. Reference numeral 10 denotes an image of the imaged component, which is a lead group 10a composed of three long leads and two short leads which are joined to one side of the component 10 and constitute five leads in which long and short leads are alternately arranged. The lead group 10b composed of leads looks white due to the light from the oblique reflection illumination 4 and the coaxial reflection illumination 5b being reflected.

【0048】この図7においては、予めモデル形状情報
記憶装置8により例えば画面11上に部品10の右から
左への略水平方向に検出直線14が設定され、輝度変化
点を検出する如くする。検出直線14の位置等はモデル
形状情報記憶装置8により部品のリード群形状情報に応
じて適宜設定される如くなされる。
In FIG. 7, the detection line 14 is set in advance on the screen 11 in a substantially horizontal direction from the right to the left of the component 10 by the model shape information storage device 8 in advance so as to detect the brightness change point. The position and the like of the detection straight line 14 are appropriately set by the model shape information storage device 8 in accordance with the lead group shape information of the component.

【0049】検出対象とするリード群形状情報に対し
て、上述のような所定の検出直線を走査したときに得ら
れる輝度変化点の最初に現れる輝度変化点をスタート輝
度変化点とし、このスタート輝度変化点から各輝度変化
点に対する輝度変化点距離を算出する。
With respect to the lead group shape information to be detected, the first brightness change point of the brightness change points obtained when the above-described predetermined detection straight line is scanned is set as the start brightness change point. From the change point, the brightness change point distance for each brightness change point is calculated.

【0050】このスタート輝度変化点は後述するリード
群中心位置を算出する際の基準となるものである。例え
ば、図7において3本の長いリードからなるリード群1
0aについて、検出直線14上の最右端のリードの輝度
変化点21をスタート輝度変化点候補とし、その他の5
つの輝度変化点22,23,24,25,26への距離
x1,x2,x3,x4,x5を輝度変化点距離として
算出する。特にスタート輝度変化点21から最も離れた
輝度変化点26への距離x5を最大輝度変化点距離27
とする。
This start luminance change point serves as a reference when calculating the lead group center position described later. For example, in FIG. 7, a lead group 1 including three long leads
For 0a, the brightness change point 21 of the rightmost lead on the detection line 14 is set as the start brightness change point candidate, and the other 5
The distances x1, x2, x3, x4, x5 to the two brightness change points 22, 23, 24, 25, 26 are calculated as the brightness change point distances. In particular, the distance x5 from the start luminance change point 21 to the farthest luminance change point 26 is the maximum luminance change point distance 27.
And

【0051】次に、実際に実装される部品から得られた
画像信号に設定された検出直線に対して、輝度変化点を
算出する(ステップ2)。
Next, the brightness change point is calculated with respect to the detection straight line set in the image signal obtained from the components actually mounted (step 2).

【0052】図8は、例えばビデオカメラ5と接続され
たモニター(図示せず)等に得られる実際に実装される
部品の画像信号及び輝度変化点の一例を示したものであ
る。図中30は部品を示し、画面11内にて正規の実装
位置より若干回転した状態を表している。図中画面11
横方向の検出直線14により部品30の横方向の1辺に
接合され長短のリードが交互に配置された5本のリード
を構成する3本の長いリードよりなるリード群10aお
よび2本の短いリードよりなるリード群10b及び背景
12上の白部分43と背景12との輝度変化点を検出す
る如くする。
FIG. 8 shows an example of image signals and brightness change points of actually mounted parts obtained on a monitor (not shown) connected to the video camera 5, for example. Reference numeral 30 in the drawing denotes a component, which is in a state of being slightly rotated from the regular mounting position on the screen 11. Screen 11 in the figure
A lead group 10a composed of three long leads and two short leads that constitute five leads in which long and short leads are alternately arranged by being joined to one side of the component 30 by the lateral detection straight line 14. The brightness change point between the lead group 10b and the white portion 43 on the background 12 and the background 12 is detected.

【0053】その結果、図8例においては、5本のリー
ドと背景12との輝度変化点31,32,33,34,
35,36,37,38,39,40の10箇所、並び
に5本のリード群の左側にリードではない背景12上の
白丸部分43と背景12との輝度変化点41及び42の
2箇所の合計12箇所の輝度変化点がそれぞれ検出直線
14上で矢印方向右から左に向かって順次検出される。
上述の12箇所の輝度変化点の1次元座標上での座標を
それぞれX1,X2,X3,X4,X5,X6,X7,
X8,X9,X10,X11,X12とする。尚、以降
の説明において輝度変化点を部品の特徴点候補ともい
う。
As a result, in the example of FIG. 8, the brightness change points 31, 32, 33, 34 between the five leads and the background 12 are shown.
35, 36, 37, 38, 39, 40, and 10 points on the left side of the 5 lead group, and a total of two points 41 and 42 on the left side of the non-lead white circle portion 43 on the background 12 and the brightness change points 41 and 42. Twelve brightness change points are sequentially detected on the detection line 14 from right to left in the arrow direction.
The coordinates on the one-dimensional coordinates of the above-mentioned 12 brightness change points are respectively X1, X2, X3, X4, X5, X6, X7,
Let them be X8, X9, X10, X11, and X12. In the following description, the brightness change point is also referred to as a feature point candidate of a component.

【0054】次にスタート輝度変化点を求める(ステッ
プ3)。
Next, the start luminance change point is obtained (step 3).

【0055】具体的には、各輝度変化点から最大輝度変
化点距離27だけ伸ばしたある範囲内例えば±10%の
範囲内に輝度変化点の存在するものを選択する。選択さ
れた輝度変化点をスタート輝度変化点候補とする。図8
例においては、輝度変化点31及び33から最大輝度変
化点距離27だけ離れた位置近辺に、上述モデル特徴点
26と同一極性の輝度変化点としてそれぞれ輝度変化点
40及び42が存在すると判断され、輝度変化点31及
び33がスタート輝度変化点候補となる。
More specifically, the one having a brightness change point within a certain range, eg, ± 10%, which is extended from each brightness change point by the maximum brightness change point distance 27, is selected. The selected brightness change point is set as a start brightness change point candidate. Figure 8
In the example, it is determined that the brightness change points 40 and 42 exist as the brightness change points having the same polarity as that of the model feature point 26 near the positions separated by the maximum brightness change point distance 27 from the brightness change points 31 and 33, respectively. The brightness change points 31 and 33 are candidates for the start brightness change point.

【0056】次に、各スタート輝度変化点候補について
自乗誤差を求める(ステップ4)。
Next, a squared error is obtained for each candidate start luminance change point (step 4).

【0057】まず、最大輝度変化点距離に合わせて輝度
変化点距離を補正した各モデル特徴点の補正輝度変化点
距離を算出する如くする。図9に、特徴点候補31をス
タート輝度変化点候補とし、特徴点候補31から特徴点
候補40までの距離を最大輝度変化点距離27aとする
例を示す。
First, the corrected luminance change point distance of each model feature point in which the luminance change point distance is corrected according to the maximum luminance change point distance is calculated. FIG. 9 shows an example in which the feature point candidate 31 is the start luminance change point candidate and the distance from the feature point candidate 31 to the feature point candidate 40 is the maximum luminance change point distance 27a.

【0058】部品30のモデル特徴点のうち、スタート
輝度変化点候補とした輝度変化点31からモデル特徴点
22及び23に対する輝度変化点距離について、上述の
最大輝度変化点距離27aに合わせて補正した補正輝度
変化点距離を算出したとき、それぞれ補正モデル特徴点
候補22a,23aとし、このときの1次元座標上での
座標をそれぞれx1′,x2′とする。補正モデル特徴
点候補22aの1次元座標上での座標x1′は x1′=x1/x5×(X10−X1)、 補正モデル特徴点候補23aの1次元座標上での座標x
2′は x2′=x2/x5×(X10−X1) として算出される。
Among the model feature points of the component 30, the brightness change point distance from the brightness change point 31 which is a candidate start brightness change point to the model feature points 22 and 23 is corrected according to the above-mentioned maximum brightness change point distance 27a. When the corrected luminance change point distance is calculated, correction model feature point candidates 22a and 23a are respectively set, and the coordinates on the one-dimensional coordinates at this time are set to x1 'and x2', respectively. The coordinate x1 ′ on the one-dimensional coordinate of the correction model feature point candidate 22a is x1 ′ = x1 / x5 × (X10−X1), and the coordinate x on the one-dimensional coordinate of the correction model feature point candidate 23a.
2'is calculated as x2 '= x2 / x5 * (X10-X1).

【0059】そして、まずこの補正モデル特徴点候補2
2aの座標x1′近辺に輝度変化点があるか探索する。
図9の場合、特徴点候補32(座標X2)が同一極性の
輝度変化点としてこれに最も近いので補正モデル特徴点
候補22aと輝度変化点32との自乗誤差を計算し、こ
れを上述のスタート輝度変化点候補である特徴点候補3
1についての自乗誤差に加算する。
First, this correction model feature point candidate 2
It is searched whether there is a brightness change point near the coordinate x1 'of 2a.
In the case of FIG. 9, the feature point candidate 32 (coordinate X2) is the closest to the brightness change point of the same polarity, so the squared error between the correction model feature point candidate 22a and the brightness change point 32 is calculated, and this is started as described above. Feature point candidate 3 which is a brightness change point candidate
Add to the squared error about 1.

【0060】次に、同じように補正モデル特徴点候補2
3aの座標x2′近辺に輝度変化点があるか探索する。
図9の場合、輝度変化点35(座標X5)が同一極性の
輝度変化点としてこれに最も近いものである。このよう
に、補正モデル特徴点候補23a近辺に輝度変化点があ
る場合は、上述の補正モデル特徴点候補22aと同様に
輝度変化点35との自乗誤差を計算してスタート輝度変
化点候補である特徴点候補33についての自乗誤差に加
算する。
Next, similarly, the correction model feature point candidate 2
It is searched whether there is a luminance change point near the coordinate x2 'of 3a.
In the case of FIG. 9, the brightness change point 35 (coordinate X5) is the closest brightness change point of the same polarity. As described above, when there is a brightness change point near the correction model feature point candidate 23a, a square error between the brightness change point 35 and the correction model feature point candidate 22a is calculated and the start brightness change point candidate is calculated. It is added to the squared error of the feature point candidate 33.

【0061】以上述べた計算をスタート輝度変化点候補
に対する全てのモデル特徴点に対して行い、スタート輝
度変化点候補についての最終的な自乗誤差を算出する。
The above-described calculation is performed for all the model feature points for the start luminance change point candidates to calculate the final squared error for the start luminance change point candidates.

【0062】ここで、上述のスタート輝度変化点候補に
対する自乗誤差算出の計算を途中で打ち切る場合につい
て図10を用いて説明する。特徴点候補33をスタート
輝度変化点候補とし、この特徴点候補33から特徴点候
補42までの距離を最大輝度変化点距離27bとする例
である。
Here, the case where the calculation of the squared error calculation for the above-mentioned start luminance change point candidate is terminated halfway will be described with reference to FIG. This is an example in which the feature point candidate 33 is a start luminance change point candidate and the distance from the feature point candidate 33 to the feature point candidate 42 is the maximum luminance change point distance 27b.

【0063】上述の部品30のモデル特徴点のうち、ス
タート輝度変化点候補とした輝度変化点33からモデル
特徴点22及び23に対する輝度変化点距離について、
上述の最大輝度変化点距離27bに合わせて補正した補
正輝度変化点距離を算出したとき、それぞれ補正モデル
特徴点候補22b,23bとし、このときの1次元座標
上での座標をそれぞれx1補正モデル特徴点候補22b
の1次元座標上での座標x1″は x1″=x1/x5×(X12−X3)、 補正モデル特徴点候補23bの1次元座標上での座標x
2″は x2″=x2/x5×(X12−X3) として算出される。
Among the model feature points of the component 30 described above, the distance from the brightness change point 33, which is a candidate start brightness change point, to the model feature points 22 and 23 is the brightness change point distance.
When the corrected brightness change point distances corrected according to the above-mentioned maximum brightness change point distance 27b are calculated, they are set as correction model feature point candidates 22b and 23b, respectively, and the coordinates on the one-dimensional coordinates at this time are x1 correction model feature points, respectively. Point candidate 22b
The coordinate x1 ″ on the one-dimensional coordinate of is x1 ″ = x1 / x5 × (X12−X3), and the coordinate x on the one-dimensional coordinate of the correction model feature point candidate 23b
2 ″ is calculated as x2 ″ = x2 / x5 × (X12−X3).

【0064】まず、この補正モデル特徴点候補22bの
座標x1″近辺に輝度変化点があるか探索する。図10
の場合、特徴点候補34(座標X4)が同一極性の輝度
変化点としてこれに最も近いが、図中座標X4は特徴点
候補33(座標X3)から座標x1″までの距離の±1
0%の範囲外である。即ち、|(X4−X3)|<|
0.9×x1″| である。
First, it is searched whether there is a brightness change point near the coordinate x1 "of the correction model feature point candidate 22b.
In the case of, the feature point candidate 34 (coordinate X4) is the closest as a brightness change point of the same polarity, but the coordinate X4 in the figure is ± 1 of the distance from the feature point candidate 33 (coordinate X3) to the coordinate x1 ″.
It is outside the range of 0%. That is, | (X4-X3) | <|
0.9 × x1 ″ |

【0065】これにより演算部7bでは、補正モデル特
徴点候補22b近辺の輝度変化点が存在せず上述のスタ
ート輝度変化点候補とした特徴点候補33はスタート輝
度変化点ではないと判断し、以降の計算は行わない。
As a result, the calculation unit 7b determines that the brightness change point in the vicinity of the correction model feature point candidate 22b does not exist and the feature point candidate 33, which is the above-mentioned start brightness change point candidate, is not the start brightness change point. Is not calculated.

【0066】以上のように、各スタート輝度変化点候補
について自乗誤差計算を行い、計算を途中で打ち切ら
ず、全てのモデル特徴点に対して自乗誤差計算が行われ
たスタート輝度変化点候補のうち、最も自乗誤差の小さ
いものを上述画像信号の部品30のスタート輝度変化点
と決定する(ステップ5)。
As described above, the squared error calculation is performed for each of the start luminance change point candidates, and the squared error calculation is performed for all the model feature points without stopping the calculation halfway. Then, the one having the smallest square error is determined as the start luminance change point of the component 30 of the image signal (step 5).

【0067】このスタート輝度変化点に対する各モデル
特徴点にそれぞれ最も近い特徴点候補を画像信号上の特
徴点とし、この特徴点から例えば座標上にて各リードの
特徴点の平均をとりリード群の中心位置を求める等して
リード群位置を算出する(ステップ6)。
Feature point candidates closest to each model feature point for this start luminance change point are set as feature points on the image signal, and the feature points of each lead are averaged from this feature point on the coordinates, for example, of the lead group. The lead group position is calculated by, for example, obtaining the center position (step 6).

【0068】そして、このようにして算出された部品3
0のリード群30aの位置情報等から部品30の相対的
な中心位置等の位置情報を得ることもでき、この部品3
0の位置情報を例えば図1に示す部品実装機の演算部7
bより通信手段9を介し駆動装置3に伝達して電子部品
1の位置補正を行うようにすれば、電子部品1を例えば
プリント基板等の所定の位置に正確に実装することがで
きる。
Then, the component 3 calculated in this way
It is also possible to obtain positional information such as the relative center position of the component 30 from the positional information of the lead group 30a of 0.
The position information of 0 is, for example, the arithmetic unit 7 of the component mounter shown in FIG.
If the position correction of the electronic component 1 is performed by transmitting the electronic component 1 from b to the driving device 3 through the communication means 9, the electronic component 1 can be accurately mounted at a predetermined position such as a printed circuit board.

【0069】斯かる本例によれば、画像信号より検出さ
れる対象リード群の特徴点候補の位置情報とモデル形状
情報記憶装置より出力される対象リード群のモデル特徴
点の位置情報とを比較し、モデル特徴点に最も近い特徴
点候補の組み合わせを選択し、選択された特徴点候補の
組合せの位置情報から上記画像信号における対象リード
群位置を算出するようにしたので、検出したいリード群
による輝度変化点とそれ以外のリード群またはリード以
外の輝度変化点とが混在しているような部品でも、また
認識したいリード群の背景に輝度変化点がある場合で
も、共通のアルゴリズムにより効果的に不要な特徴点候
補の影響を除いて対象リード群位置を算出することがで
き、不規則な形状の部品や画像信号上のノイズに強い画
像処理を行うことができる。これにより、リード以外の
輝度変化点が生じないような照明の調整や、認識したい
電子部品の背景に輝度変化点が生じないよう注意する必
要がなくなり、簡便に多様な電子部品を認識することが
できる。
According to this example, the position information of the feature point candidates of the target lead group detected from the image signal is compared with the position information of the model feature point of the target lead group output from the model shape information storage device. Then, the combination of feature point candidates closest to the model feature point is selected, and the target lead group position in the image signal is calculated from the position information of the selected combination of feature point candidates. Even if the brightness change point is mixed with other lead groups or other brightness change points than the lead, or if there is a brightness change point in the background of the lead group to be recognized, the common algorithm effectively It is possible to calculate the target lead group position by removing the influence of unnecessary feature point candidates, and perform image processing that is resistant to irregularly shaped parts and noise on the image signal. Kill. This eliminates the need to adjust the illumination so that no brightness change points other than the leads or to make sure that there is no brightness change point in the background of the electronic component to be recognized, and various electronic components can be easily recognized. it can.

【0070】また本例によれば、複数のモデル特徴点の
最も距離の大きい2点に相当すると思われる2点の組み
合わせを、特徴点候補の中から複数選択し、この2点を
含む組み合わせについてのみ、モデル特徴点と特徴点候
補との位置の比較を行うようにしたので、全ての場合に
ついて総当りで計算することを避け計算時間を短縮でき
る。
Further, according to this example, a plurality of combinations of two points which are considered to correspond to the two points having the largest distance among the plurality of model characteristic points are selected from the characteristic point candidates, and the combination including these two points is selected. Only in this case, the positions of the model feature points and the feature point candidates are compared, so that it is possible to avoid the brute force calculation in all cases and reduce the calculation time.

【0071】また本例によれば、特徴点候補の中から選
択された2点の組み合わせについて、モデル特徴点の位
置情報から推定される位置近辺に輝度変化点が存在しな
い組み合わせは間違った組み合わせと判断し、以降の比
較計算を行わないようにしたので、無駄な計算を避け効
率的に計算を行うことができる。
Further, according to this example, regarding a combination of two points selected from the feature point candidates, a combination having no brightness change point near the position estimated from the position information of the model feature point is an incorrect combination. Since the determination is made and the subsequent comparison calculation is not performed, useless calculation can be avoided and calculation can be performed efficiently.

【0072】尚、本発明は上述例に限らず本発明の要旨
を逸脱することなく、その他種々の構成が取り得ること
は勿論である。
The present invention is not limited to the above-mentioned examples, and it goes without saying that various other configurations can be adopted without departing from the gist of the present invention.

【0073】[0073]

【発明の効果】斯かる本発明によれば、検出したいリー
ド群による輝度変化点とそれ以外のリード群またはリー
ド以外の輝度変化点とが混在しているような部品でも、
また認識したいリード群の背景に輝度変化点がある場合
でも、共通のアルゴリズムにより効果的に不要な特徴点
候補の影響を除いて対象リード群位置を算出することが
でき、不規則な形状の部品や画像信号上のノイズに強い
画像処理を行うことができる利益がある。これにより、
リード以外の輝度変化点が生じないような照明の調整
や、認識したい電子部品の背景に輝度変化点が生じない
よう注意する必要がなくなり、簡便に多様な電子部品を
認識することができる。
According to the present invention, even a component in which a luminance change point due to a lead group to be detected and another lead group or a luminance change point other than the leads are mixed,
Also, even if there is a brightness change point in the background of the lead group to be recognized, the target lead group position can be effectively calculated by removing the influence of unnecessary feature point candidates by a common algorithm, and parts with irregular shapes can be calculated. There is an advantage that image processing that is resistant to noise on the image signal and the image signal can be performed. This allows
It is not necessary to adjust the illumination such that a brightness change point other than the lead does not occur, or to pay attention so that a brightness change point does not occur in the background of the electronic component to be recognized, and various electronic parts can be easily recognized.

【0074】また本発明によれば、複数のモデル特徴点
の最も距離の大きい2点に相当すると思われる2点の組
み合わせを、特徴点候補の中から複数選択し、この2点
を含む組み合わせについてのみ、モデル特徴点と特徴点
候補との位置の比較を行うようにしたときには、全ての
場合について総当りで計算することを避け計算時間を短
縮できる利益がある。
Further, according to the present invention, a plurality of combinations of two points which are considered to correspond to the two points having the largest distance among the plurality of model characteristic points are selected from the characteristic point candidates, and the combination including these two points is selected. Only when the positions of the model feature points and the feature point candidates are compared, there is an advantage that the calculation time can be shortened by avoiding the brute force calculation in all cases.

【0075】また本発明によれば、特徴点候補の中から
選択された2点の組み合わせについて、モデル特徴点の
位置情報から推定される位置近辺に輝度変化点が存在し
ない組み合わせは間違った組み合わせと判断し、以降の
比較計算を行わないようにしたときには、無駄な計算を
避け効率的に計算を行うことができる利益がある。
Further, according to the present invention, regarding a combination of two points selected from the feature point candidates, a combination having no brightness change point near the position estimated from the position information of the model feature point is an incorrect combination. When the judgment is made and the subsequent comparison calculation is not performed, there is an advantage that the calculation can be avoided efficiently and uselessly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明画像処理装置の実施の形態の例を示す概
略構成図である。
FIG. 1 is a schematic configuration diagram showing an example of an embodiment of an image processing apparatus of the present invention.

【図2】電子部品より得られる画像信号の一例を示す線
図である。
FIG. 2 is a diagram showing an example of an image signal obtained from an electronic component.

【図3】検出直線上の1次元輝度信号の一例を示す線図
である。
FIG. 3 is a diagram showing an example of a one-dimensional luminance signal on a detection straight line.

【図4】検出直線に幅を持たせたときの1次元輝度信号
の一例を示す線図である。
FIG. 4 is a diagram showing an example of a one-dimensional luminance signal when a detection straight line has a width.

【図5】輝度変化点の一例を示す線図である。FIG. 5 is a diagram showing an example of brightness change points.

【図6】本発明画像処理方法の手順を示すフローチャー
トである。
FIG. 6 is a flowchart showing the procedure of the image processing method of the present invention.

【図7】モデル特徴点の位置情報の作成の説明に供する
線図である。
FIG. 7 is a diagram for explaining the creation of position information of model feature points.

【図8】実際に撮像される画像信号及び輝度変化点の一
例を示す線図である。
FIG. 8 is a diagram showing an example of an image signal actually captured and a luminance change point.

【図9】スタート輝度変化点候補算出の説明に供する線
図である。
FIG. 9 is a diagram for explaining calculation of start luminance change point candidates.

【図10】スタート輝度変化点候補算出の説明に供する
線図である。
FIG. 10 is a diagram for explaining calculation of start luminance change point candidates.

【図11】従来の画像処理方法の説明に供する線図であ
る。
FIG. 11 is a diagram for explaining a conventional image processing method.

【符号の説明】[Explanation of symbols]

1,10,30・・・・電子部品、5・・・・ビデオカメラ、6
・・・・画像信号処理・制御部、7a・・・・画像メモリ部、7
b・・・・演算部、8・・・・モデル形状情報記憶装置、10
a,10b,30a,30b・・・・リード群、14,17
・・・・検出直線、20, 21, 22, 23, 24, 25,
26, 31, 32, 33, 34, 35, 36, 37, 3
8, 39, 40, 41, 42・・・・輝度変化点、27, 2
7a, 27b・・・・最大輝度変化点距離
1, 10, 30, ... Electronic parts, 5 ... Video camera, 6
.... Image signal processing / control unit, 7a ... Image memory unit, 7
b ... Calculation unit, 8 ... Model shape information storage device, 10
a, 10b, 30a, 30b ... Lead group, 14, 17
.... Detection line, 20, 21, 22, 23, 24, 25,
26, 31, 32, 33, 34, 35, 36, 37, 3
8, 39, 40, 41, 42, ... Luminance change point, 27, 2
7a, 27b ... ・ Maximum brightness change point distance

フロントページの続き Fターム(参考) 2F065 AA01 CC27 FF04 HH12 HH13 JJ03 LL46 PP01 QQ24 QQ31 RR05 5B057 AA03 BA02 DA07 DB02 DB05 DB09 DC06 DC08 DC09 DC16 DC33 5E313 AA04 CC04 DD03 DD13 EE02 EE03 EE24 EE37 FF24 FF26 FF28 FF33 FF34 Continued front page    F term (reference) 2F065 AA01 CC27 FF04 HH12 HH13                       JJ03 LL46 PP01 QQ24 QQ31                       RR05                 5B057 AA03 BA02 DA07 DB02 DB05                       DB09 DC06 DC08 DC09 DC16                       DC33                 5E313 AA04 CC04 DD03 DD13 EE02                       EE03 EE24 EE37 FF24 FF26                       FF28 FF33 FF34

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 電子部品のリード群を撮像する撮像手段
と、 前記電子部品の複数のリード群のモデル形状情報を記憶
するモデル形状情報記憶手段と、 前記撮像手段で得られた複数のリード群を有する電子部
品の画像信号を処理する画像処理手段とを有する画像処
理装置において、 前記画像処理手段は、前記モデル形状情報記憶手段から
出力される対象リード群に関する複数のモデル特徴点の
位置情報と前記画像信号から得られたリード群の複数の
特徴点候補の位置情報とを比較し、 前記モデル特徴点の相対位置関係と最も近い前記特徴点
候補の組み合わせを選択し、 選択された特徴点候補の組み合わせの位置情報から前記
対象リード群の位置を算出するようにしたことを特徴と
する画像処理装置。
1. An image pickup means for picking up an image of a lead group of an electronic component, a model shape information storage means for storing model shape information of a plurality of lead groups of the electronic component, and a plurality of lead groups obtained by the image pickup means. An image processing device having an image processing means for processing an image signal of an electronic component having the image processing means, wherein the image processing means outputs position information of a plurality of model feature points regarding a target lead group output from the model shape information storage means. The positional information of a plurality of feature point candidates of the lead group obtained from the image signal is compared, the combination of the feature point candidates closest to the relative positional relationship of the model feature points is selected, and the selected feature point candidates are selected. An image processing apparatus, wherein the position of the target lead group is calculated from the position information of the combination.
【請求項2】 請求項1に記載の画像処理装置におい
て、 前記電子部品のモデル特徴点の位置情報は、対象リード
群の所定方向に検出直線を設定したときの輝度変化点の
位置座標より算出し、 前記特徴点候補の位置情報は、前記画像信号に検出直線
を適用して対象リード群の輝度変化点を検出したときの
位置座標より算出するようにしたことを特徴とする画像
処理装置。
2. The image processing device according to claim 1, wherein the position information of the model feature point of the electronic component is calculated from the position coordinates of the brightness change point when the detection straight line is set in the predetermined direction of the target lead group. The position information of the feature point candidate is calculated from the position coordinates when the brightness change point of the target lead group is detected by applying the detection straight line to the image signal.
【請求項3】 請求項2に記載の画像処理装置におい
て、 前記複数のモデル特徴点の中の最も距離の大きい2点に
相当すると推定される2点の組み合わせを前記特徴点候
補の中から選択し、前記2点を含む特徴点候補の組み合
わせについてのみ、前記モデル特徴点と前記特徴点候補
との位置を比較し画像処理を行なうようにしたことを特
徴とする画像処理装置。
3. The image processing apparatus according to claim 2, wherein a combination of two points estimated to correspond to the two points having the largest distance among the plurality of model characteristic points is selected from the characteristic point candidates. The image processing apparatus is characterized in that the positions of the model feature points and the feature point candidates are compared and image processing is performed only for a combination of feature point candidates including the two points.
【請求項4】 請求項3に記載の画像処理装置におい
て、 前記モデル特徴点と前記特徴点候補との位置比較時に、
画像信号の検出直線上においてモデル特徴点の位置情報
から推定される位置近辺に輝度変化点が存在しない特徴
点候補の組み合わせについては間違った組み合わせと判
断し、以降の比較計算を行わないようにしたことを特徴
とする画像処理装置。
4. The image processing apparatus according to claim 3, wherein at the time of position comparison between the model feature point and the feature point candidate,
The combination of feature point candidates in which there is no brightness change point near the position estimated from the position information of the model feature points on the detection line of the image signal is judged as an incorrect combination, and the subsequent comparison calculation is not performed. An image processing device characterized by the above.
【請求項5】 電子部品のリード群を撮像する撮像手段
と、 前記電子部品の複数のリード群のモデル形状情報を記憶
するモデル形状情報記憶手段と、 前記撮像手段で得られた複数のリード群を有する電子部
品の画像信号を処理する画像処理手段とを有し、 前記
画像処理手段は、前記モデル形状情報記憶手段から出力
される対象リード群に関する複数のモデル特徴点の位置
情報と前記画像信号から得られたリード群の複数の特徴
点候補の位置情報とを比較し、 前記モデル特徴点の相対位置関係と最も近い前記特徴点
候補の組み合わせを選択し、 選択された特徴点候補の組み合わせの位置情報から前記
対象リード群の位置を算出するようにしたことを特徴と
する画像処理方法。
5. An image pickup means for picking up an image of a lead group of an electronic component, a model shape information storage means for storing model shape information of a plurality of lead groups of the electronic component, and a plurality of lead groups obtained by the image pickup means. Image processing means for processing an image signal of an electronic component having the image processing means, wherein the image processing means outputs position information of a plurality of model feature points regarding the target lead group output from the model shape information storage means and the image signal. The position information of the plurality of feature point candidates of the lead group obtained from is compared, the combination of the feature point candidates closest to the relative positional relationship of the model feature points is selected, and the combination of the selected feature point candidates is selected. An image processing method, wherein the position of the target lead group is calculated from position information.
【請求項6】 請求項5に記載の画像処理方法におい
て、 前記電子部品のモデル特徴点の位置情報は、対象リード
群の所定方向に検出直線を設定したときの輝度変化点の
位置座標より算出し、 前記特徴点候補の位置情報は、前記画像信号に検出直線
を適用して対象リード群の輝度変化点を検出したときの
位置座標より算出するようにしたことを特徴とする画像
処理方法。
6. The image processing method according to claim 5, wherein the position information of the model feature points of the electronic component is calculated from the position coordinates of the brightness change point when the detection straight line is set in the predetermined direction of the target lead group. The position information of the feature point candidate is calculated from the position coordinates when the brightness change point of the target lead group is detected by applying the detection straight line to the image signal.
【請求項7】 請求項6に記載の画像処理方法におい
て、 前記複数のモデル特徴点の中の最も距離の大きい2点に
相当すると推定される2点の組み合わせを前記特徴点候
補の中から選択し、前記2点を含む特徴点候補の組み合
わせについてのみ、前記モデル特徴点と前記特徴点候補
との位置を比較し画像処理を行なうようにしたことを特
徴とする画像処理方法。
7. The image processing method according to claim 6, wherein a combination of two points estimated to correspond to the two points having the largest distance among the plurality of model characteristic points is selected from the characteristic point candidates. An image processing method is characterized in that the positions of the model feature points and the feature point candidates are compared and image processing is performed only for a combination of feature point candidates including the two points.
【請求項8】 請求項7に記載の画像処理方法におい
て、 前記モデル特徴点と前記特徴点候補との位置比較時に、
画像信号の検出直線上においてモデル特徴点の位置情報
から推定される位置近辺に輝度変化点が存在しない特徴
点候補の組み合わせについては間違った組み合わせと判
断し、以降の比較計算を行わないようにしたことを特徴
とする画像処理方法。
8. The image processing method according to claim 7, wherein at the time of position comparison between the model feature point and the feature point candidate,
The combination of feature point candidates in which there is no brightness change point near the position estimated from the position information of the model feature points on the detection line of the image signal is judged as an incorrect combination, and the subsequent comparison calculation is not performed. An image processing method characterized by the above.
JP2002051905A 2002-02-27 2002-02-27 Image processor and image processing method Pending JP2003256808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002051905A JP2003256808A (en) 2002-02-27 2002-02-27 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002051905A JP2003256808A (en) 2002-02-27 2002-02-27 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2003256808A true JP2003256808A (en) 2003-09-12

Family

ID=28663759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002051905A Pending JP2003256808A (en) 2002-02-27 2002-02-27 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2003256808A (en)

Similar Documents

Publication Publication Date Title
JPH0926307A (en) Component detection method
JP2006220613A (en) Device for detecting welded position
JPH11146268A (en) Film scanner and method for scanning cinefilm
JP2003256808A (en) Image processor and image processing method
JP3216439B2 (en) Internal inspection equipment for circular containers
JPH091338A (en) Method and device for automatically recognizing weld seam
JP2003242483A (en) Image processor and image processing method
JP4563183B2 (en) Inspection method and apparatus for streaky unevenness defect
JP4100376B2 (en) Surface condition inspection method and apparatus, and inspection image generation apparatus
JP4380864B2 (en) Component detection method and apparatus
JP2006112930A (en) Object-shape discriminating method and apparatus
JP2000194861A (en) Method and device for recognizing image
JPH0575296A (en) Component inserting device
US20240015943A1 (en) Image processing device, mounting device, mounting system, image processing method, and mounting method
WO2022269912A1 (en) Recognition device and recognition method
JP3205426B2 (en) Image processing device
JP2007142009A (en) Bonding apparatus
JP4832586B2 (en) Substrate recognition processing method
JP2010145775A (en) Focus adjustment method and focus adjustment device for imaging apparatus
KR102005345B1 (en) An automobile junction box terminal vision inspection method using line scan camera
JP2022190983A (en) Workpiece inspection device and workpiece inspection method
JP3262632B2 (en) Image processing device
JP4620448B2 (en) Substrate recognition processing method
JP2021188937A (en) Extrusion inspection device and inspection method
JP2001084379A (en) Method and device for inspecting pattern