JP2003256809A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2003256809A
JP2003256809A JP2002054103A JP2002054103A JP2003256809A JP 2003256809 A JP2003256809 A JP 2003256809A JP 2002054103 A JP2002054103 A JP 2002054103A JP 2002054103 A JP2002054103 A JP 2002054103A JP 2003256809 A JP2003256809 A JP 2003256809A
Authority
JP
Japan
Prior art keywords
feature point
image processing
electronic component
image
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002054103A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Urakawa
禎之 浦川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002054103A priority Critical patent/JP2003256809A/en
Publication of JP2003256809A publication Critical patent/JP2003256809A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To propose an image processor resistant to a noise by efficiently recognizing an electronic component having luminous parts other than a lead part even when any luminous part exists in the background by a common algorithm. <P>SOLUTION: In this image processor having an image pickup means 5 for imaging an electronic component 1, a model shape information storing part 8 for storing the model shape information of the electronic component 1 and image processing means 7a and 7b for processing the image signal of the electronic component 1 obtained by the image pickup means 5, the image processing means 7a and 7b compare the model position information of a plurality of feature points related with the model-shaped electronic component 1 outputted by the model shape information storing means 8 with the position information of a plurality of feature point candidates obtained by the picture signal, and select the combination of the feature point candidates which are the closest to the relative position relation of the feature points, and calculate the central position of the electronic component from the position information of the selected combination of the feature point candidates. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、産業用ロボットや
プリント基板に電子部品を実装する部品実装機等、電子
部品の位置補正をするのに必要とする画像処理装置及び
処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a processing method necessary for correcting the position of an electronic component such as an industrial robot or a component mounter for mounting an electronic component on a printed circuit board.

【0002】[0002]

【従来の技術】従来より産業用ロボットやプリント基板
に電子部品(以下、「部品」ともいう)を実装する部品
実装機等、部品の位置補正をするのにCCDカメラ等の
撮像装置を用いて、部品を視覚的に認識することにより
その位置を検出し、検出された部品位置情報に基き部品
の位置及び角度の補正を行う如くしている。
2. Description of the Related Art Conventionally, an image pickup device such as a CCD camera has been used to correct the position of a component such as an industrial robot or a component mounter for mounting an electronic component (hereinafter, also referred to as "component") on a printed circuit board. The position of a component is detected by visually recognizing the component, and the position and angle of the component are corrected based on the detected component position information.

【0003】このような電子部品の画像認識において
は、電子部品が撮像された画像信号に対して2値化処理
を行って白黒画像とし、この白黒画像の白部分を電極
(以下、「リード」ともいう)の反射照明等による反射
部分とみなして部品位置の算出を行う如くする。例えば
対象とする電子部品より得られた画像信号上の白部分を
走査して輝度変化点を検出する如くするエッジチェッカ
ー等を設けて、検出する電子部品の形状に応じてこのエ
ッジチェッカーの位置を決めて白部分の輝度変化点を検
出している。
In such image recognition of an electronic component, an image signal of the electronic component is binarized to obtain a black and white image, and the white portion of the black and white image is used as an electrode (hereinafter referred to as "lead"). (Also referred to as "), the position of the component is calculated by regarding it as a reflection portion due to reflection illumination or the like. For example, by providing an edge checker or the like that detects a brightness change point by scanning the white part on the image signal obtained from the target electronic component, the position of this edge checker can be changed according to the shape of the electronic component to be detected. The brightness change point of the white part is determined and detected.

【0004】例えば特許第3225067号公報にカメ
ラを用いて画像信号の走査線上の電極(以下、「リー
ド」ともいう)の輝度信号を検出し、この輝度信号を微
分して得られる信号から明暗変化点を検出してリードの
エッジ中心位置を得るとともにリード相互間の距離や角
度などを算出する方法が記載されている。
For example, in Japanese Patent No. 3225067, a camera is used to detect a luminance signal of an electrode (hereinafter, also referred to as "lead") on a scanning line of an image signal, and a signal obtained by differentiating the luminance signal is changed in brightness. A method for detecting a point to obtain the center position of the edge of the lead and calculating the distance or angle between the leads is described.

【0005】図11(a),(b),(c)に特許第3
225067号公報に記載された部品の電極を検出する
方法を示す。図11(a)は、傷90dを有する例えば
3つのリード90について、画像信号上の水平走査線信
号SXにより輝度信号を検出する様子を示すものであ
る。90L及び90Rはそれぞれリード90の左右エッ
ジを表す。
The patent No. 3 is shown in FIGS. 11 (a), 11 (b) and 11 (c).
A method for detecting electrodes of the component described in Japanese Patent No. 225067 will be described. FIG. 11A shows how a luminance signal is detected by the horizontal scanning line signal SX on the image signal for, for example, three leads 90 having a flaw 90d. 90L and 90R represent the left and right edges of the lead 90, respectively.

【0006】図11(b)は、水平走査線信号SXによ
って得られた各リード90毎の輝度信号B1,B2,B
3を示すものである。Nは各リードが持っている傷90
dにより生じたノイズ信号を表す。
FIG. 11B shows luminance signals B1, B2, B for each lead 90 obtained by the horizontal scanning line signal SX.
3 is shown. N is 90 scratches on each lead
represents the noise signal caused by d.

【0007】図11(c)は、各輝度信号B1,B2,
B3を微分して得られた微分信号を示し、このとき、ノ
イズ信号Nによるノイズ微分信号NCも検出される。
FIG. 11C shows each of the luminance signals B1, B2.
The differential signal obtained by differentiating B3 is shown. At this time, the noise differential signal NC by the noise signal N is also detected.

【0008】各リードのエッジ位置を特定するのにノイ
ズ信号Nによるノイズ微分信号NCの影響を排除するた
め、図11(c)に示すように、例えば微分信号を検出
する際に、図中左端のリード90の実際の左側エッジ9
0Lが存在すると予測される位置より左方の外側位置D
L1から右方へ輝度信号B1の微分信号を検出する処理
を行い、最初に検出された微分信号XL1が左側エッジ
90Lによる微分信号と認定される。
In order to eliminate the influence of the noise differential signal NC due to the noise signal N in identifying the edge position of each lead, as shown in FIG. 11C, for example, when the differential signal is detected, the left end in the figure is detected. Actual left edge 9 of lead 90
Outside position D on the left of the position where 0L is predicted to exist
The differential signal of the luminance signal B1 is detected from L1 to the right, and the differential signal XL1 detected first is recognized as the differential signal by the left edge 90L.

【0009】同様に、あるリード90の実際の右側エッ
ジ90Rが存在すると予測される位置より右方の外側位
置DR1から左方へ輝度信号B1の微分信号を検出する
処理を行い、最初に検出された微分信号XR1が右側エ
ッジ90Rによる微分信号と認定される。
Similarly, a process of detecting a differential signal of the luminance signal B1 from the outer position DR1 on the right side of the position where the actual right edge 90R of a certain lead 90 is predicted to exist to the left side is first detected. The differentiated signal XR1 is recognized as the differentiated signal by the right edge 90R.

【0010】このようにして、リード90の微分信号の
中央(XL1及びXR1の間)に形成されるノイズ信号
Nによるノイズ微分信号NCにかかわらずリード90の
左右エッジ位置が特定されるとともに中心位置を算出す
ることができる。上述の微分信号検出処理を各リードに
対して行い、各リードの例えば図中中央のリードの微分
信号XL2及びXR2を検出しエッジ位置を特定すると
ともにリード中心位置を算出する。
In this manner, the left and right edge positions of the lead 90 are specified and the center position of the lead 90 is specified regardless of the noise differential signal NC due to the noise signal N formed at the center of the differential signal of the lead 90 (between XL1 and XR1). Can be calculated. The above-described differential signal detection processing is performed on each lead, the differential signals XL2 and XR2 of each lead, for example, in the center of the drawing are detected, the edge position is specified, and the lead center position is calculated.

【0011】そして、各リードの中心位置を用いること
により例えばリード相互間あるいはリード全体の中心位
置等を得ることができる。
By using the center position of each lead, for example, the center position of the leads or the center position of the whole lead can be obtained.

【0012】[0012]

【発明が解決しようとする課題】このとき、電子部品の
リード部の画像認識においては、電子部品を撮像した画
像信号に対して、対象リードが存在すると想定される位
置に走査線等、検出直線を適用し、検出直線上で検出さ
れる白部分の輝度変化点をすべてリードによるものと想
定して対象リード部位置の算出を行っている。
At this time, in the image recognition of the lead portion of the electronic component, a detection line such as a scanning line is located at a position where the target lead is assumed to exist with respect to the image signal obtained by capturing the image of the electronic component. Then, the target lead portion position is calculated assuming that all the brightness change points of the white portion detected on the detection straight line are due to the lead.

【0013】したがって、画像信号における検出直線上
にリード以外の部分が白部分とならないよう反射照明を
調整し、さらに、認識したい電子部品の背景に光る部分
が生じないよう反射照明等の配置に注意する必要があっ
た。
Therefore, the reflection illumination is adjusted so that the portion other than the lead does not become a white portion on the detection straight line in the image signal, and the arrangement of the reflection illumination or the like is taken care so that the background of the electronic component to be recognized does not have a glowing portion. Had to do.

【0014】また、部品の検出したいリード以外に白部
分の生じる可能性のある部品の場合、画像信号に対し何
等かの仮定あるいは条件等を設けて対象リードによる輝
度変化点のみを選択する必要がある。この場合、例えば
部品形状が変わるとリード部検出直線の仮定や条件等も
変更する必要があると共に、その都度部品形状に応じた
画像処理アルゴリズムが必要となる。特にリードとリー
ド以外の光る部分が混在している場合、複雑な仮定や条
件等が必要となり、画像処理アルゴリズムの変更も繁雑
になるという不都合があった。
Further, in the case of a part in which a white part may occur other than the lead to be detected, it is necessary to set some assumptions or conditions for the image signal and select only the brightness change point by the target lead. is there. In this case, for example, if the shape of the part changes, the assumption and conditions of the lead detection line must be changed, and an image processing algorithm corresponding to the shape of the part is required each time. In particular, when leads and shining parts other than the leads are mixed, complicated assumptions and conditions are required, and there is a disadvantage that the change of the image processing algorithm becomes complicated.

【0015】本発明は、斯かる点に鑑み、リード部以外
に光る部分のある電子部品や、認識したい電子部品の背
景に光る部分がある場合でも共通のアルゴリズムで効率
的に認識を行うことで、不規則な形状の電子部品や画像
信号上のノイズに強い画像処理装置及び処理方法を提案
することを目的とする。
In view of the above point, the present invention is capable of efficiently recognizing an electronic component having a shining portion other than the lead portion and a shining portion in the background of the electronic component to be recognized by a common algorithm. It is an object of the present invention to propose an image processing apparatus and a processing method that are resistant to irregularly shaped electronic components and noise on image signals.

【0016】[0016]

【課題を解決するための手段】本発明画像処理装置は、
電子部品を撮像する撮像手段と、この電子部品のモデル
形状情報を記憶するモデル形状情報記憶手段と、この撮
像手段で得られたこの電子部品の画像信号を処理する画
像処理手段とを有する画像処理装置において、この画像
処理手段は、このモデル形状情報記憶手段から出力され
るモデル形状の電子部品に関する複数の特徴点のモデル
位置情報とこの画像信号から得られる複数の特徴点候補
の位置情報とを比較し、この特徴点の相対位置関係と最
も近いこの特徴点候補の組み合わせを選択し、選択され
た特徴点候補の組み合わせの位置情報からこの電子部品
の中心位置を算出するようにしたものである。ここで、
この電子部品の特徴点のモデル位置情報は、例えばこの
電子部品に光を照射したときに反射する複数の検出対象
とする反射部の中心位置座標を用い、この特徴点候補の
位置座標は、例えばこの画像信号を2値化したときの複
数の白部分の中心位置座標を用いるようにしたものであ
る。
The image processing apparatus of the present invention comprises:
Image processing including image pickup means for picking up an image of an electronic component, model shape information storage means for storing model shape information of the electronic component, and image processing means for processing an image signal of the electronic component obtained by the image pickup means In the apparatus, the image processing means outputs model position information of a plurality of feature points regarding the electronic component of the model shape output from the model shape information storage means and position information of a plurality of feature point candidates obtained from the image signal. By comparing, the combination of the feature point candidates closest to the relative positional relationship of the feature points is selected, and the center position of the electronic component is calculated from the position information of the combination of the selected feature point candidates. . here,
The model position information of the characteristic points of this electronic component uses, for example, the central position coordinates of the plurality of reflecting portions to be detected when the electronic component is irradiated with light, and the position coordinates of the characteristic point candidates are, for example, The center position coordinates of a plurality of white parts when this image signal is binarized are used.

【0017】斯かる本発明によれば、電子部品のモデル
形状情報から算出される複数の特徴点のモデル位置情報
と、画像信号から得られる電子部品の複数の特徴点候補
の位置情報とを比較し、この特徴点の相対位置関係と最
も近い特徴点候補の組合せを選択し、選択された特徴点
候補の組合せの位置情報からこの画像信号における電子
部品の中心位置を算出するようにしたので、検出したい
リード部とリード部以外の光る部分とが混在しているよ
うな電子部品でも、また認識したい電子部品の背景に光
る部分がある場合でも、共通のアルゴリズムにより効率
的に不要な特徴点候補の影響を除いて画像信号の認識が
でき、不規則な形状の電子部品や画像信号上のノイズに
強い画像処理を行うことができる。
According to the present invention, the model position information of a plurality of feature points calculated from the model shape information of the electronic component is compared with the position information of the plurality of feature point candidates of the electronic component obtained from the image signal. Then, the combination of feature point candidates closest to the relative positional relationship of this feature point is selected, and the center position of the electronic component in this image signal is calculated from the position information of the selected combination of feature point candidates. Efficient unnecessary feature point candidates with a common algorithm even for electronic components where the lead part to be detected and the shining part other than the lead part are mixed, and even if there is a shining part in the background of the electronic part to be recognized The image signal can be recognized by removing the influence of, and image processing that is resistant to irregularly shaped electronic components and noise on the image signal can be performed.

【0018】また、本発明画像処理装置は、この複数の
特徴点の中の最も距離の大きい2点に相当すると推定さ
れる2点の組み合わせをこの特徴点候補の中から選択
し、この2点を含む特徴点候補の組み合わせについての
み、この特徴点とこの特徴点候補との位置を比較し画像
処理を行なうようにしたものである。
Further, the image processing apparatus of the present invention selects, from the feature point candidates, a combination of two points which are estimated to correspond to the two points having the longest distance among the plurality of feature points. The image processing is performed by comparing the positions of this feature point and this feature point candidate only for the combination of feature point candidates including.

【0019】斯かる本発明によれば、複数の特徴点の中
の最も距離の大きい2点に相当すると思われる2点の組
み合わせを、特徴点候補の中からいくつか選択し、この
2点を含む組み合わせについてのみ、特徴点と特徴点候
補との位置の比較を行うようにしたので、全ての場合に
ついて総当りで計算することを避け計算時間を短縮でき
る。
According to the present invention, some combinations of two points which are considered to correspond to the two points having the largest distance among the plurality of characteristic points are selected from the characteristic point candidates, and these two points are selected. Since the positions of the feature points and the feature point candidates are compared only for the combinations that include them, it is possible to avoid the brute force calculation in all cases and reduce the calculation time.

【0020】また、本発明画像処理装置は、この特徴点
とこの特徴点候補との位置比較時に、選択されたこの2
点の組み合わせを含む特徴点候補について、この特徴点
のモデル位置情報から推定される位置近辺にこの白部分
が存在しない特徴点候補の組み合わせについては間違っ
た組み合わせと判断し、以降の比較計算を行わないよう
にしたものである。
Further, the image processing apparatus of the present invention selects the two selected at the time of position comparison between the feature point and the feature point candidate.
For feature point candidates that include a combination of points, the combination of feature point candidates that do not have this white part near the position estimated from the model position information of this feature point is determined to be an incorrect combination, and the subsequent comparison calculation is performed. It was designed so that it would not exist.

【0021】斯かる本発明によれば、特徴点候補の中か
ら選択された2点の組み合わせについて、特徴点のモデ
ル位置情報から推定される位置近辺に白部分が存在しな
い組み合わせは間違った組み合わせと判断し、以降の比
較計算を行わないようにしたので、無駄な計算を避け効
率的に計算を行うことができる。
According to the present invention, regarding a combination of two points selected from the characteristic point candidates, a combination in which a white portion does not exist near the position estimated from the model position information of the characteristic point is an incorrect combination. Since the determination is made and the subsequent comparison calculation is not performed, useless calculation can be avoided and calculation can be performed efficiently.

【0022】また、本発明画像処理装置は、この複数の
特徴点及びモデル特徴点候補に対して、ベクトルを用い
て位置を比較し画像処理を行うようにしたものである。
The image processing apparatus of the present invention is adapted to perform image processing by comparing the positions of the plurality of feature points and model feature point candidates using vectors.

【0023】斯かる本発明によれば、ベクトルを用いて
位置比較をするようにしたので、任意の形状の電子部品
や不規則な形状の電子部品についても簡便に位置比較を
行うことができる。
According to the present invention, since the position comparison is performed using the vector, it is possible to easily perform the position comparison even for an electronic component having an arbitrary shape or an electronic component having an irregular shape.

【0024】本発明画像処理方法は、電子部品を撮像す
る撮像手段と、この電子部品のモデル形状情報を記憶す
るモデル形状情報記憶手段と、この撮像手段で得られた
この電子部品の画像信号を処理する画像処理手段とを有
する画像処理装置において、この画像処理手段は、まず
このモデル形状情報記憶手段から出力されるモデル形状
の電子部品に関する複数の特徴点のモデル位置情報とこ
の画像信号から得られる複数の特徴点候補の位置情報と
を比較し、次に、この特徴点の相対位置関係と最も近い
この特徴点候補の組み合わせを選択し、そして、選択さ
れた特徴点候補の組み合わせの位置情報からこの電子部
品の中心位置を算出するようにしたものである。ここ
で、この電子部品の特徴点のモデル位置情報は、例えば
この電子部品に光を照射したときに反射する複数の検出
対象とする反射部の中心位置座標を用い、この特徴点候
補の位置座標は、例えばこの画像信号を2値化したとき
の複数の白部分の中心位置座標を用いるようにしたもの
である。
According to the image processing method of the present invention, an image pickup means for picking up an image of an electronic part, a model shape information storage means for storing model shape information of the electronic part, and an image signal of the electronic part obtained by the image pickup means. In the image processing apparatus having image processing means for processing, the image processing means first obtains from the model position information of a plurality of feature points regarding the electronic component of the model shape output from the model shape information storage means and the image signal. Position information of a plurality of feature point candidates to be selected, next, a combination of the feature point candidates closest to the relative positional relationship of the feature points is selected, and position information of the combination of the selected feature point candidates is selected. The center position of this electronic component is calculated from. Here, the model position information of the characteristic points of this electronic component uses, for example, the central position coordinates of the plurality of detection target reflecting portions that are reflected when the electronic component is irradiated with light, and the position coordinates of the characteristic point candidates are used. Is one in which the center position coordinates of a plurality of white parts when this image signal is binarized are used.

【0025】また、本発明画像処理方法は、この複数の
特徴点の中の最も距離の大きい2点に相当すると推定さ
れる2点の組み合わせをこの特徴点候補の中から選択
し、この2点を含む特徴点候補の組み合わせについての
み、この特徴点とこの特徴点候補との位置を比較し画像
処理を行なうようにしたものである。
Further, the image processing method of the present invention selects from the feature point candidates a combination of two points which are estimated to correspond to the two points having the largest distance among the plurality of feature points, and select these two points. The image processing is performed by comparing the positions of this feature point and this feature point candidate only for the combination of feature point candidates including.

【0026】また、本発明画像処理方法は、この特徴点
とこの特徴点候補との位置比較時に、選択されたこの2
点の組み合わせを含む特徴点候補について、この特徴点
のモデル位置情報から推定される位置近辺にこの白部分
が存在しない特徴点候補の組み合わせについては間違っ
た組み合わせと判断し、以降の比較計算を行わないよう
にしたものである。
In the image processing method of the present invention, the two points selected at the time of position comparison between the feature point and the feature point candidate are selected.
For feature point candidates that include a combination of points, the combination of feature point candidates that do not have this white part near the position estimated from the model position information of this feature point is determined to be an incorrect combination, and the subsequent comparison calculation is performed. It was designed so that it would not exist.

【0027】また、本発明画像処理方法は、この複数の
特徴点及びこのモデル特徴点候補に対して、ベクトルを
用いて位置を比較し画像処理を行うようにしたものであ
る。
In the image processing method of the present invention, the positions of the plurality of feature points and the model feature point candidates are compared using vectors to perform image processing.

【0028】[0028]

【発明の実施の形態】以下、図面を参照して本発明画像
処理装置及び処理方法の実施の形態の例につき説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of an image processing apparatus and a processing method according to the present invention will be described below with reference to the drawings.

【0029】図1は本発明画像処理装置を適用した電子
部品実装機の一例を示す概略構成図である。この電子部
品実装機は、位置補正の対象となる電子部品(以下、
「部品」という)1を保持する保持部2、この保持部2
を駆動する駆動装置3、斜めの位置より部品1に光を照
射する斜方反射照明4、部品1を撮像する撮像手段とし
ての例えばビデオカメラ5、このビデオカメラ5よりの
画像信号を一時的に記憶する画像メモリ部7a、演算部
7b及びモデル形状情報記憶装置8等よりなる画像信号
の処理及び制御を行う画像信号処理・制御部6、並びに
画像信号処理・制御部6での画像信号処理結果を駆動装
置3に伝達するための通信手段9から構成されている。
FIG. 1 is a schematic configuration diagram showing an example of an electronic component mounter to which the image processing apparatus of the present invention is applied. This electronic component mounter is an electronic component (hereinafter,
A holding unit 2 for holding a "component") 1, and this holding unit 2
A driving device 3 for driving the device 1, an oblique reflection illumination 4 for irradiating the component 1 with light from an oblique position, a video camera 5 as an image pickup means for imaging the component 1, and an image signal from the video camera 5 temporarily. An image signal processing / control unit 6 for processing and controlling an image signal including an image memory unit 7a for storing, a calculation unit 7b, a model shape information storage device 8 and the like, and an image signal processing result in the image signal processing / control unit 6. Is composed of a communication means 9 for transmitting to the drive device 3.

【0030】上述の如く構成される図1において、駆動
装置3により駆動される保持部2では例えば真空吸着等
のチャック手段によって部品1を吸着保持し例えば空中
の所定の位置に保持固定する如くする。空中に保持され
た部品1に斜方反射照明4より例えば斜め下方の位置か
ら光を照射するとともにプリズム5aを介して同軸反射
照明5bからも光を照射する如くする。
In FIG. 1 configured as described above, the holding unit 2 driven by the drive unit 3 sucks and holds the component 1 by chuck means such as vacuum suction and holds and fixes the component 1 at a predetermined position in the air, for example. . The component 1 held in the air is irradiated with light from, for example, a position obliquely below the oblique reflection illumination 4 and also emitted from the coaxial reflection illumination 5b via the prism 5a.

【0031】光が照射された部品1の像はプリズム5a
を経てビデオカメラ5に画像が取り込まれる。ビデオカ
メラ5では部品1の像が画像信号に変換され、画像信号
処理・制御部6に送られる。
The image of the component 1 irradiated with light is the prism 5a.
An image is captured by the video camera 5 via the. In the video camera 5, the image of the component 1 is converted into an image signal and sent to the image signal processing / control unit 6.

【0032】このときに、ビデオカメラ5により撮像さ
れモニター(図示せず)等に得られる部品の画像信号の
一例を図2に示す。
FIG. 2 shows an example of image signals of parts obtained by the video camera 5 and obtained on a monitor (not shown) or the like at this time.

【0033】図中28はモニター等の画面を示し、10
は撮像された部品の像であると共に29は画面背景を示
す。背景29には例えば電子部品実装機の部品1の背面
側の保持部2もしくは駆動装置3の一部が映るはずであ
るが、略黒く撮像されるよう保持部2及び駆動装置3側
で塗装等の処理がなされている。そして、部品10の略
矩形形状のボディ部の一辺に3本の電極11,12,1
3及びこれと対向する辺に2本の電極14,15の計5
本の電極(以下、「リード」という)を持つ部品10に
は斜方反射照明4及び同軸反射照明5bからの光が照射
されているので、リード部に光が反射して白く映る。斜
線で示すボディ部は黒いモールドであるので、光が照射
されても光が反射せず略黒く映る。
Reference numeral 28 in the figure denotes a screen of a monitor or the like.
Is the image of the imaged part and 29 is the screen background. In the background 29, for example, a part of the holding portion 2 or the driving device 3 on the back side of the component 1 of the electronic component mounting machine should be reflected, but painting is performed on the holding portion 2 and the driving device 3 side so as to be imaged substantially black. Is being processed. Then, the three electrodes 11, 12, 1 are provided on one side of the substantially rectangular body portion of the component 10.
3 and two electrodes 14 and 15 on the side opposite to this, a total of 5
Since the light from the oblique reflection illumination 4 and the coaxial reflection illumination 5b is applied to the component 10 having a book electrode (hereinafter, referred to as "lead"), the light is reflected by the lead portion and appears white. The shaded body portion is a black mold, so that even if it is irradiated with light, the light does not reflect and appears almost black.

【0034】そして、画像信号処理・制御部6ではビデ
オカメラ5よりの画像信号の処理が行われるとともにこ
の処理結果を基に駆動装置3の制御を行う如くするもの
である。
The image signal processing / control unit 6 processes the image signal from the video camera 5 and controls the drive unit 3 based on the processing result.

【0035】図3に、図2に示す部品10の画像信号を
輝度について適当なしきい値を設定して2値化処理した
例を示す。
FIG. 3 shows an example in which the image signal of the component 10 shown in FIG. 2 is binarized by setting an appropriate threshold value for luminance.

【0036】しきい値を背景29及び部品の黒いモール
ドのボディ部の輝度よりも大きく、かつリード部の輝度
より小さく設定することで、画面28の背景29は黒部
分となり5本のリード11,12,13,14,15の
みが白部分となるような画像信号が得られる。
By setting the threshold value to be larger than the luminance of the background 29 and the body portion of the black mold of the component and smaller than the luminance of the lead portions, the background 29 of the screen 28 becomes a black portion and the five leads 11, An image signal in which only 12, 13, 14, and 15 are white portions is obtained.

【0037】ビデオカメラ5より得られた画像信号は画
像メモリ部7aに一時的に記憶されると共に演算部7b
に送信され、演算部7bにて画像信号上の部品形状とモ
デル形状情報記憶装置8に記憶されているモデル形状情
報とが比較される。
The image signal obtained from the video camera 5 is temporarily stored in the image memory section 7a, and at the same time, the calculation section 7b.
And the model shape information stored in the model shape information storage device 8 is compared with the part shape on the image signal by the calculation unit 7b.

【0038】このモデル形状情報記憶装置8は、例えば
ROM(Read Only Memory)等よりな
り部品の複数の特徴点のモデル位置情報等のモデル形状
情報を記憶するものである。
The model shape information storage device 8 is composed of, for example, a ROM (Read Only Memory) or the like, and stores model shape information such as model position information of a plurality of feature points of a component.

【0039】ここで、上述の比較の結果例えば画像信号
上の部品1の位置が大きく曲がっている、あるいはリー
ド欠損などの理由により、部品1とモデル形状情報記憶
装置8に登録された部品のモデル形状情報とが異なると
判断された場合には、部品の種類の相違または不良品等
としてライン過程からはじかれ画像処理工程は行われな
い。
Here, as a result of the above comparison, for example, the position of the component 1 on the image signal is greatly bent, or due to a lead defect or the like, the component 1 and the model of the component registered in the model shape information storage device 8 are obtained. When it is determined that the shape information is different from the shape information, the image processing step is not performed because the line process is rejected as a difference in the type of parts or a defective product.

【0040】部品1がモデル形状情報と一致すると判断
された場合には、モデル形状情報を基に後述する画像処
理が行われ、部品1の中心位置及び角度が算出される。
そして、算出された部品中心位置及び角度情報が通信手
段9を経て駆動装置3に伝達される。
When it is determined that the part 1 matches the model shape information, image processing described later is performed based on the model shape information, and the center position and angle of the part 1 are calculated.
Then, the calculated component center position and angle information is transmitted to the drive device 3 via the communication means 9.

【0041】この駆動装置3では、画像信号処理・制御
部6より供給される部品中心位置及び角度情報に基きX
−Y−Z軸の3次元方向及び回転方向rの位置補正動作
が行われて、部品1が例えばプリント基板等の所定の位
置に設定され、その後部品1の電極に半田付け処理等が
行われプリント基板に実装される如くなされる。
In this drive unit 3, X based on the component center position and angle information supplied from the image signal processing / control unit 6 is used.
A position correction operation is performed in the three-dimensional directions of the YZ axes and the rotation direction r to set the component 1 to a predetermined position on, for example, a printed circuit board, and then the electrodes of the component 1 are subjected to soldering processing and the like. It is made to be mounted on a printed circuit board.

【0042】実際にビデオカメラ5により撮像されて得
られる部品の画像信号は、上述の図2及び図3に示すも
のよりもより複雑であり、その一例を図4に示す。この
図4において図2に対応する部分には同一符号を付して
示す。
The image signals of the parts actually picked up by the video camera 5 are more complicated than those shown in FIGS. 2 and 3, and an example thereof is shown in FIG. In FIG. 4, parts corresponding to those in FIG. 2 are designated by the same reference numerals.

【0043】部品10の略矩形形状のボディー部の一辺
に3本の電極11,12,13及びこれと対向する辺に
2本の電極14,15の計5本の電極(以下、「リー
ド」という)を持つ部品10には斜方反射照明4及び同
軸反射照明5bからの光が照射されているので、リード
部には光が反射して白く映る。部品のボディ部は黒いモ
ールドであるので、これら照明からの光が照射されても
光が反射せず略黒く映る。
A total of five electrodes (hereinafter referred to as "leads"), that is, three electrodes 11, 12, and 13 on one side of the substantially rectangular body portion of the component 10 and two electrodes 14 and 15 on the opposite side. The light from the oblique reflection illumination 4 and the coaxial reflection illumination 5b is radiated to the component 10 having the above), so that the light is reflected on the lead portion and appears white. Since the body part of the component is a black mold, even if the light from these illuminations is applied, the light does not reflect and appears almost black.

【0044】さらに、画面背景29にも白く反射してい
る部分16,17,24,25があり、また部品10上
にもリード部以外に光る部分18,19,20,21,
22,23が存在する。このような画像信号を2値化処
理するとしきい値を最適に選んでも図5に示すように、
リード部以外に起因する白部分の存在する画像となる。
Further, the screen background 29 also has white-reflected portions 16, 17, 24, 25, and the parts 10, 19, 20, 21, shining other than the lead portions on the component 10.
There are 22 and 23. Even if the threshold value is optimally selected by binarizing such an image signal, as shown in FIG.
The image has a white portion caused by other than the lead portion.

【0045】ここで、リード部を四角形状の白部分とし
てそれ以外を丸状の白部分として表現しているが、実際
の画像信号には表示上の区別はない。
Here, the lead portion is represented as a quadrangular white portion and the other portions are represented as circular white portions, but there is no display distinction in the actual image signal.

【0046】以下、図6の画像処理方法の手順を示すフ
ローチャート並びに図7〜図10にしたがって、画像信
号上の任意の位置に配置された白部分からその部品のリ
ード部に起因する白部分のみを選択して部品中心位置及
び角度を算出するアルゴリズムについて説明する。
Hereinafter, according to the flowchart showing the procedure of the image processing method of FIG. 6 and FIGS. 7 to 10, only the white portion caused by the lead portion of the part is arranged from the white portion arranged at an arbitrary position on the image signal. An algorithm for selecting and calculating the component center position and angle will be described.

【0047】まず、部品の形状情報からモデル位置情報
を作成する(ステップ1)
First, model position information is created from the shape information of the parts (step 1).

【0048】具体的には、部品に反射照明をあてたとき
に光を反射する反射部のうち検出したい複数の反射部の
中心位置座標を生成する。
Specifically, the center position coordinates of a plurality of reflecting portions to be detected among the reflecting portions that reflect light when the component is illuminated with reflected illumination are generated.

【0049】図2に示した例えば所定の正規の位置に配
されている部品10について、5本のリード11,1
2,1 3,14,15を検出して部品の中心位置座標を
算出したい場合、例えば電子部品10の型番情報等を設
定器(図示せず)等により画像信号処理・制御部6に対
し設定すると、図7に示すような部品10に対応するモ
デル形状情報をモデル形状情報記憶装置8より読み出し
て、リード31,32,33,34,35からなるモデ
ル位置情報を得る。これらのリードは部品の形状を表す
特徴点である。そして、画像信号上においてこれら5本
のそれぞれのリードの中心位置座標(x1,y1),
(x2,y2),(x3,y3),(x4,y4),
(x5,y5)が算出される。
For example, for the component 10 shown in FIG. 2 which is arranged at a predetermined regular position, five leads 11, 1 are provided.
When it is desired to calculate the center position coordinates of the component by detecting 2, 13, 14, and 15, for example, model number information of the electronic component 10 is set in the image signal processing / control unit 6 by a setter (not shown) or the like. Then, the model shape information corresponding to the part 10 as shown in FIG. 7 is read from the model shape information storage device 8 and the model position information including the leads 31, 32, 33, 34, 35 is obtained. These leads are characteristic points that represent the shape of the component. Then, on the image signal, the center position coordinates (x1, y1) of each of these five leads,
(X2, y2), (x3, y3), (x4, y4),
(X5, y5) is calculated.

【0050】次に、このモデル位置情報からリード部ベ
クトルを算出する(ステップ2)
Next, the lead portion vector is calculated from this model position information (step 2).

【0051】まず、図7に示す部品10のモデル形状情
報の特徴点であるリードから一つを選んで基準リードと
する。基準リードはどのリードでも構わないが後述する
計算の効率化のために端にあるリードを選ぶのが好まし
い。例えば、図7例では最右端のリードのうち、最も上
にあるリード31を基準リードとする。
First, one of the leads, which is the characteristic point of the model shape information of the component 10 shown in FIG. 7, is selected as a reference lead. The reference lead may be any lead, but it is preferable to select the lead at the end in order to improve the efficiency of calculation described later. For example, in the example of FIG. 7, the lead 31 located at the top among the leads at the right end is used as the reference lead.

【0052】このリード31の中心位置座標(x1,y
1)から各リード中心へのベクトルをリード部ベクトル
とし、各リード毎に算出する。例えば、図7に示す例で
はリード31からリード32へのベクトルがリード部ベ
クトル31a1となる。
Coordinates of the center position of the lead 31 (x1, y
The vector from 1) to the center of each lead is used as the lead portion vector and calculated for each lead. For example, in the example shown in FIG. 7, the vector from the lead 31 to the lead 32 is the lead portion vector 31a1.

【0053】次に、リード部ベクトルのうち最も長いも
のを基準ベクトルとする。(ステップ3)
Next, the longest read part vector is used as a reference vector. (Step 3)

【0054】図7例においては、リード31からリード
34へのベクトルが最も長いので基準ベクトル31aと
なる。
In the example of FIG. 7, since the vector from the lead 31 to the lead 34 is the longest, it becomes the reference vector 31a.

【0055】予めこれら部品10のモデル形状情報のモ
デル位置情報より算出される各ベクトルをモデル形状情
報記憶装置8に登録しておき、これらの各ベクトルを基
にして後述する部品10の中心位置を算出する如くす
る。
Each vector calculated from the model position information of the model shape information of these parts 10 is registered in the model shape information storage device 8 in advance, and the center position of the part 10 to be described later is determined based on these vectors. As calculated.

【0056】次に、画像信号を2値化処理して白部分の
中心位置を算出する(ステップ4)
Next, the image signal is binarized to calculate the center position of the white portion (step 4).

【0057】図4の画像信号を2値化処理した2値化画
像の例を図8に示す。実際には区別はないがここでは説
明のために、検出したい5個のリード部を四角形状の白
部分11,12,13,14,15とし、それ以外の1
0個を丸状の白部分16,17,18,19,20,2
1,22,23,24,25として表した。またそれぞ
れの白部分中心座標を(X1,Y1),(X2,Y
2),(X3,Y3),(X4,Y4),(X5,Y
5),(X6,Y6),(X7,Y7),(X8,Y
8),(X9,Y9),(X10,Y10),(X1
1,Y11),(X12,Y12)(X13,Y1
3),(X14,Y14),(X15,Y15)とす
る。
FIG. 8 shows an example of a binarized image obtained by binarizing the image signal of FIG. In practice, no distinction is made, but here, for the sake of explanation, the five lead portions to be detected are the white portions 11, 12, 13, 14, 15 having a square shape, and the other ones are
0 is round white part 16,17,18,19,20,2
Represented as 1, 22, 23, 24, 25. In addition, the respective white part center coordinates are (X1, Y1), (X2, Y
2), (X3, Y3), (X4, Y4), (X5, Y
5), (X6, Y6), (X7, Y7), (X8, Y
8), (X9, Y9), (X10, Y10), (X1
1, Y11), (X12, Y12) (X13, Y1
3), (X14, Y14), (X15, Y15).

【0058】次に、画像中の各白部分の中から基準ベク
トルを伸ばしてベクトルの終点近辺に白部分の存在する
組合せを選ぶ(ステップ5)
Next, the reference vector is extended from each white part in the image to select a combination having a white part near the end point of the vector (step 5).

【0059】具体的には、各白部分を始点として基準ベ
クトルをのばし、ある範囲内、例えば基準ベクトルの長
さ±10%及び角度±30度の範囲内に何等かの白部分
の存在するものを選択する。選択された、基準ベクトル
の始点に位置する白部分を基準リード候補とし、この基
準リード候補とした白部分から前述範囲内の白部分への
ベクトルを基準ベクトル候補とする。
Specifically, the reference vector is extended with each white portion as the starting point, and some white portion exists within a certain range, for example, within the range of the reference vector length ± 10% and the angle ± 30 degrees. Select. The selected white portion located at the starting point of the reference vector is set as a reference lead candidate, and the vector from the white portion that is the reference lead candidate to the white portion within the above range is set as the reference vector candidate.

【0060】図9に、それぞれ座標(X3,Y3),
(X2,Y2),(X1,Y1)にある3つの白部分1
3,12、11から基準ベクトル31aをのばした例を
示す。図中点線で表示されている領域が各白部分から基
準ベクトル31aをのばしたときの基準ベクトル長さ±
10%及び角度±30度の範囲である。この点線領域内
に白部分があるかどうかで基準リード候補かどうかを判
断する。
FIG. 9 shows coordinates (X3, Y3),
Three white parts 1 in (X2, Y2), (X1, Y1)
An example in which the reference vector 31a is extended from 3, 12, and 11 is shown. The reference vector length ± when the reference vector 31a is extended from each white part in the area indicated by the dotted line in the figure ±
The range is 10% and the angle is ± 30 degrees. It is determined whether or not it is a reference lead candidate by whether or not there is a white portion in this dotted line area.

【0061】例えば、座標(X3,Y3)の白部分13
は基準ベクトル31aをのばしたときに点線領域内に白
部分24が存在するので基準リード候補となる。座標
(X2,Y2)の白部分12の場合は点線領域内に白部
分が存在しないので基準リード候補ではない。また座標
(X1,Y1)の白部分11の場合は点線領域内に2つ
の白部分14,20が存在するので基準リード候補とな
り、2つの基準ベクトル候補を持つ。このように一つの
基準リード候補が複数の基準ベクトル候補を持つことも
ある。
For example, the white portion 13 of the coordinates (X3, Y3)
Is a reference lead candidate because the white portion 24 exists in the dotted line area when the reference vector 31a is extended. In the case of the white portion 12 at the coordinates (X2, Y2), the white portion does not exist in the dotted line area, so it is not a reference lead candidate. Further, in the case of the white portion 11 of the coordinates (X1, Y1), since there are two white portions 14 and 20 in the dotted line area, the white portion 11 serves as a reference lead candidate and has two reference vector candidates. In this way, one reference lead candidate may have a plurality of reference vector candidates.

【0062】次に、各基準ベクトル候補について自乗誤
差を求める(ステップ6)
Next, the squared error is obtained for each reference vector candidate (step 6).

【0063】まず、ステップ2で算出したリード部ベク
トルの長さ及び角度を基準ベクトル候補に合わせて補正
した補正リード部ベクトルを算出する。図10に、特徴
点候補となる白部分13から同じく特徴点候補となる白
部分24へのばした基準ベクトル候補13aについての
例を示す。
First, a corrected lead portion vector is calculated by correcting the length and angle of the lead portion vector calculated in step 2 in accordance with the reference vector candidate. FIG. 10 shows an example of the reference vector candidate 13a extended from the white portion 13 which is a feature point candidate to the white portion 24 which is also a feature point candidate.

【0064】部品10のモデル位置情報のうち、図7に
示すリード32,33に対するリード部ベクトルについ
て、長さ及び角度を、白部分13を始点とする基準ベク
トル候補13aに合わせて補正した補正リード部ベクト
ル31a1´及び31a2´を算出したとき、それぞれ
のベクトル終点を補正リード部ベクトル終点32´及び
33´とする。例えばこのときの補正リード部ベクトル
終点32´の座標を(x2´,y2´)とし、図7に示
すモデルとなる部品10に対し回転方向の位置ズレがな
い場合には、 として算出することができる。
Of the model position information of the component 10, the lead and lead vectors for the leads 32 and 33 shown in FIG. 7 have their lengths and angles corrected according to the reference vector candidate 13a having the white portion 13 as a starting point. When the part vectors 31a1 'and 31a2' are calculated, the respective vector end points are set as the correction read part vector end points 32 'and 33'. For example, when the coordinates of the correction lead vector end point 32 'at this time are (x2', y2 '), and there is no positional deviation in the rotational direction with respect to the model component 10 shown in FIG. Can be calculated as

【0065】そして、まず補正リード部ベクトル終点3
2´(x2´,y2´)近辺に白部分があるかどうかを
検索する。図10の場合、白部分17がこれに最も近い
白部分なので補正リード部ベクトル終点32´(x2
´,y2´)と白部分17(X7,Y7)との自乗誤差
を計算し、これを前述の基準ベクトル候補13aについ
ての自乗誤差に加算する。
First, the correction lead portion vector end point 3
It is searched whether there is a white portion near 2 '(x2', y2 '). In the case of FIG. 10, since the white portion 17 is the closest white portion to this, the correction lead vector end point 32 '(x2
', Y2') and the square error between the white portion 17 (X7, Y7) are calculated, and this is added to the square error for the reference vector candidate 13a described above.

【0066】次に、同じように補正リード部ベクトル終
点33´(x3´,y3´)を求め、この近辺に白部分
があるかどうかを検索する。補正リード部ベクトル終点
33´近辺に白部分がある場合は前述の補正リード部ベ
クトル終点32´のときと同様、該当する白部分の中心
位置との自乗誤差を計算して基準ベクトル候補13aに
ついての自乗誤差に加算する。
Next, similarly, the corrected lead portion vector end point 33 '(x3', y3 ') is obtained, and it is searched whether or not there is a white portion in this vicinity. When there is a white portion near the correction lead vector end point 33 ′, the squared error from the center position of the corresponding white portion is calculated and the reference vector candidate 13a is calculated as in the case of the correction lead vector end point 32 ′. Add to the squared error.

【0067】以上述べた計算を基準ベクトル候補に対す
る全てのリード部ベクトルに対して行い、基準ベクトル
候補についての最終的な自乗誤差を算出する。
The above-described calculation is performed for all the read part vectors for the reference vector candidate to calculate the final squared error for the reference vector candidate.

【0068】ところで、この図10例では、補正リード
部ベクトル終点33´近辺には白部分が存在しないの
で、前述の基準ベクトル候補13aは基準ベクトルでは
ないと判断し、以降の計算は行わなず、次の基準ベクト
ル候補の計算に移る。前述の白部分が存在するかどうか
の判断は、例えば補正リード部ベクトル終点33´のあ
る領域内(長さ及び角度誤差を設定)に白部分があるか
どうかで判断する。
By the way, in this example of FIG. 10, since there is no white portion near the correction lead portion vector end point 33 ', it is judged that the above-mentioned reference vector candidate 13a is not a reference vector, and the subsequent calculation is not performed. , And move to the calculation of the next reference vector candidate. Whether or not the white portion is present is determined, for example, by whether or not there is a white portion in the area (correction of the length and the angle error is set) of the correction lead vector end point 33 '.

【0069】以上のように、各基準ベクトル候補につい
て自乗誤差計算を行い、計算を途中で打ち切らず、すべ
てのリード部ベクトルに対して自乗誤差計算が行われた
基準ベクトル候補のうち、最も自乗誤差の小さいものを
前述の画像信号の部品10の基準ベクトルと決定する
(ステップ7)
As described above, the squared error calculation is performed for each reference vector candidate, the calculation of the squared error is not aborted in the middle, and the squared error is the most squared error among the reference vector candidates for which the squared error calculation is performed for all the lead part vectors. Is determined as the reference vector of the above-mentioned image signal component 10 (step 7).

【0070】この基準ベクトルに対する各リード部ベク
トル終点にそれぞれ最も近い各白部分を部品10のリー
ド部に相当する白部分とし、この白部分の中心位置座標
から例えば最小自乗計算等により再度、部品位置及び角
度を算出して部品中心位置及び部品角度とする(ステッ
プ8)
Each white portion closest to the end point of each lead portion vector with respect to this reference vector is set as a white portion corresponding to the lead portion of the component 10, and the component position is again determined from the center position coordinates of this white portion by, for example, least square calculation. And the angle are calculated as the component center position and the component angle (step 8).

【0071】そして、上述した之等のステップを経て算
出された部品10の中心位置や角度等の位置情報を例え
ば図1に示す部品実装機の演算部7bより通信手段9を
介し駆動装置3に伝達して電子部品1の位置補正を行う
ようにすれば、電子部品1を例えばプリント基板等の所
定の位置に正確に実装することができる。
Then, the positional information such as the central position and the angle of the component 10 calculated through the above steps is sent to the drive unit 3 via the communication means 9 from the arithmetic unit 7b of the component mounter shown in FIG. If the electronic component 1 is transmitted and the position of the electronic component 1 is corrected, the electronic component 1 can be accurately mounted at a predetermined position such as a printed circuit board.

【0072】斯かる本例によれば、電子部品のモデル形
状情報から算出される複数の特徴点のモデル位置情報
と、画像信号から得られる電子部品の複数の特徴点候補
の位置情報とを比較し、この特徴点の相対位置関係と最
も近い特徴点候補の組合せを選択し、選択された特徴点
候補の組合せの位置情報からこの画像信号における電子
部品の中心位置を算出するようにしたので、検出したい
リード部とリード部以外の光る部分とが混在しているよ
うな電子部品でも、また認識したい電子部品の背景に光
る部分がある場合でも、共通のアルゴリズムにより効率
的に不要な特徴点候補の影響を除いて画像信号の認識が
でき、不規則な形状の電子部品や画像信号上のノイズに
強い画像処理を行うことができる。これにより、リード
以外の部分が白部分とならないような反射照明の調整
や、認識したい電子部品の背景に光る部分が生じないよ
う注意する必要がなくなり、簡便に多様な電子部品を認
識することができる。
According to this example, the model position information of a plurality of feature points calculated from the model shape information of the electronic component is compared with the position information of a plurality of feature point candidates of the electronic component obtained from the image signal. Then, the combination of feature point candidates closest to the relative positional relationship of this feature point is selected, and the center position of the electronic component in this image signal is calculated from the position information of the selected combination of feature point candidates. Efficient unnecessary feature point candidates with a common algorithm even for electronic components where the lead part to be detected and the shining part other than the lead part are mixed, and even if there is a shining part in the background of the electronic part to be recognized The image signal can be recognized by removing the influence of, and image processing that is resistant to irregularly shaped electronic components and noise on the image signal can be performed. This eliminates the need to adjust the reflected illumination so that the parts other than the leads do not become white parts, and to be careful not to create a shining part in the background of the electronic component to be recognized, and to easily recognize various electronic components. it can.

【0073】また本例によれば、複数の特徴点の中の最
も距離の大きい2点に相当すると思われる2点の組み合
わせを、特徴点候補の中からいくつか選択し、この2点
を含む組み合わせについてのみ、特徴点と特徴点候補と
の位置の比較を行うようにしたので、全ての場合につい
て総当りで計算することを避け計算時間を短縮できる。
Further, according to this example, some combinations of two points which are considered to correspond to the two points having the largest distance among the plurality of characteristic points are selected from the characteristic point candidates, and these two points are included. Since the positions of the characteristic points and the characteristic point candidates are compared only for the combinations, the calculation time can be shortened by avoiding the round-robin calculation in all cases.

【0074】また本例によれば、特徴点候補の中から選
択された2点の組み合わせについて、特徴点のモデル位
置情報から推定される位置近辺に白部分が存在しない組
み合わせは間違った組み合わせと判断し、以降の比較計
算を行わないようにしたので、無駄な計算を避け効率的
に計算を行うことができる。
Further, according to this example, regarding a combination of two points selected from the characteristic point candidates, a combination in which a white portion does not exist near the position estimated from the model position information of the characteristic point is determined to be an incorrect combination. However, since the subsequent comparison calculation is not performed, useless calculation can be avoided and calculation can be performed efficiently.

【0075】また本例によれば、ベクトルを用いて位置
比較をするようにしたので、任意の形状の電子部品や不
規則な形状の電子部品についても簡便に位置比較を行う
ことができる。
Further, according to the present example, since the position comparison is performed using the vector, it is possible to easily perform the position comparison for an electronic component having an arbitrary shape or an electronic component having an irregular shape.

【0076】尚、本発明は上述した実施の形態の例に限
らず本発明の要旨を逸脱することなく、その他種々の構
成が取り得ることは勿論である。
It should be noted that the present invention is not limited to the examples of the above-described embodiments, and it goes without saying that various other configurations can be adopted without departing from the gist of the present invention.

【0077】[0077]

【発明の効果】斯かる本発明によれば、検出したいリー
ド部とリード部以外の光る部分とが混在しているような
電子部品でも、また認識したい電子部品の背景に光る部
分がある場合でも、共通のアルゴリズムにより効率的に
不要な特徴点候補の影響を除いて画像信号の認識がで
き、不規則な形状の電子部品や画像信号上のノイズに強
い画像処理を行うことができる利益がある。これによ
り、リード以外の部分が白部分とならないような反射照
明の調整や、認識したい電子部品の背景に光る部分が生
じないよう注意する必要がなくなり、簡便に多様な電子
部品を認識することができる。
According to the present invention, even in an electronic component in which a lead portion to be detected and a shining portion other than the lead portion are mixed, and even when there is a shining portion in the background of the electronic component to be recognized. , The common algorithm can efficiently recognize the image signal by removing the influence of unnecessary feature point candidates, and has the advantage of being able to perform image processing that is robust against irregularly shaped electronic components and noise on the image signal. . This eliminates the need to adjust the reflected illumination so that the parts other than the leads do not become white parts, and to be careful not to create a shining part in the background of the electronic component to be recognized, and to easily recognize various electronic components. it can.

【0078】また本発明によれば、複数の特徴点の中の
最も距離の大きい2点に相当すると思われる2点の組み
合わせを、特徴点候補の中からいくつか選択し、この2
点を含む組み合わせについてのみ、特徴点と特徴点候補
との位置の比較を行うようにしたときには、全ての場合
について総当りで計算することを避け計算時間を短縮で
きる利益がある。
Further, according to the present invention, some combinations of two points which are considered to correspond to the two points having the largest distance among the plurality of characteristic points are selected from the characteristic point candidates, and the two points are selected.
When the positions of the feature points and the feature point candidates are compared only for combinations including points, there is an advantage that the calculation time can be shortened by avoiding brute force calculation in all cases.

【0079】また本発明によれば、特徴点候補の中から
選択された2点の組み合わせについて、特徴点のモデル
位置情報から推定される位置近辺に白部分が存在しない
組み合わせは間違った組み合わせと判断し、以降の比較
計算を行わないようにしたときには、無駄な計算を避け
効率的に計算を行うことができる利益がある。
Further, according to the present invention, regarding a combination of two points selected from the characteristic point candidates, a combination in which a white portion does not exist near the position estimated from the model position information of the characteristic point is determined as an incorrect combination. However, when the subsequent comparison calculation is not performed, there is an advantage that the calculation can be efficiently performed while avoiding useless calculation.

【0080】また本発明によれば、ベクトルを用いて位
置比較をするようにしたので、任意の形状の電子部品や
不規則な形状の電子部品についても簡便に位置比較を行
うことができる利益がある。
Further, according to the present invention, since the position comparison is performed using the vector, there is an advantage that the position comparison can be easily performed even for the electronic parts having an arbitrary shape and the electronic parts having an irregular shape. is there.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明画像処理装置の実施の形態の例を示す概
略構成図である。
FIG. 1 is a schematic configuration diagram showing an example of an embodiment of an image processing apparatus of the present invention.

【図2】電子部品より得られる画像信号の一例を示す線
図である。
FIG. 2 is a diagram showing an example of an image signal obtained from an electronic component.

【図3】図2の画像信号を2値化した場合の画像信号の
例を示す線図である。
FIG. 3 is a diagram showing an example of an image signal when the image signal of FIG. 2 is binarized.

【図4】実際に撮像される画像信号の一例を示す線図で
ある。
FIG. 4 is a diagram showing an example of an image signal actually captured.

【図5】図4の画像信号を2値化して得られる特徴点候
補の例を示す線図である。
5 is a diagram showing an example of feature point candidates obtained by binarizing the image signal of FIG.

【図6】本発明画像処理方法の手順を示すフローチャー
トである。
FIG. 6 is a flowchart showing the procedure of the image processing method of the present invention.

【図7】電子部品のモデル位置情報算出の説明に供する
線図である。
FIG. 7 is a diagram for explaining model position information calculation of an electronic component.

【図8】2値化処理された画像信号の白部分の中心座標
の例を示す線図である。
FIG. 8 is a diagram showing an example of center coordinates of a white portion of a binarized image signal.

【図9】基準ベクトル候補算出の説明に供する線図であ
る。
FIG. 9 is a diagram for explaining calculation of reference vector candidates.

【図10】基準ベクトル候補についての自乗誤差計算の
説明に供する線図である。
FIG. 10 is a diagram provided for explaining a squared error calculation for a reference vector candidate.

【図11】従来の画像処理方法の説明に供する線図であ
る。
FIG. 11 is a diagram for explaining a conventional image processing method.

【符号の説明】[Explanation of symbols]

1,10・・・・電子部品、5・・・・ビデオカメラ、6・・・・画
像信号処理・制御部、7a・・・・画像メモリ部、7b・・・・
演算部、8・・・・モデル形状情報記憶装置、11,12,
13,14,15,16,17,18,19,20,2
1,22,23,24,25・・・・白部分(特徴点候
補)、13a・・・・基準ベクトル候補、31,32,3
3,34,35・・・・リード(特徴点)、31a・・・・基準
ベクトル、31a1・・・・リード部ベクトル、31a1
´,31a2´・・・・補正リード部ベクトル
1, 10 ... Electronic parts, 5 ... Video camera, 6 ... Image signal processing / control unit, 7a ... Image memory unit, 7b ...
Calculation unit, 8 ... Model shape information storage device, 11, 12,
13, 14, 15, 16, 17, 18, 19, 20, 2
1, 22, 23, 24, 25 ... White part (feature point candidate), 13a ... Reference vector candidate, 31, 32, 3
3, 34, 35 ...- Lead (feature point), 31a ...- Reference vector, 31a1 ...- Lead part vector, 31a1
', 31a2' ... Correction correction vector

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 H04N 7/18 W H05K 13/04 H05K 13/04 M Fターム(参考) 2F065 AA17 CC25 FF04 HH12 HH13 JJ03 LL46 PP01 QQ24 QQ31 RR05 UU05 5B057 AA03 CA08 CA12 CB06 CB12 CE12 CH01 CH11 DA07 DB02 DB09 DC02 5C054 CA04 CC03 CD03 EA01 EA05 FC05 FC12 HA01 HA05 5E313 AA04 CC04 DD13 EE02 EE03 EE24 FF24 FF26 FF28 FF33 FF34 5L096 BA20 FA09 FA14 FA62 FA69 LA05 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 7/18 H04N 7/18 WH H05K 13/04 H05K 13/04 MF term (reference) 2F065 AA17 CC25 FF04 HH12 HH13 JJ03 LL46 PP01 QQ24 QQ31 RR05 UU05 5B057 AA03 CA08 CA12 CB06 CB12 CE12 CH01 CH11 DA07 DB02 DB09 DC02 5C054 CA04 CC03 CD03 EA01 EA05 FC05 FC12 HA26 HAFF FF26 EE26FF24FF24FF24FF24EE24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24FF24EE24FF24FF24EE24FF24FF24FF24FF24EE24FF24FF23FF02FF24FF24FF24FF23FF23FF23 LA05

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 電子部品を撮像する撮像手段と、 前記電子部品のモデル形状情報を記憶するモデル形状情
報記憶手段と、 前記撮像手段で得られた前記電子部品の画像信号を処理
する画像処理手段とを有する画像処理装置において、 前記画像処理手段は、前記モデル形状情報記憶手段から
出力されるモデル形状の電子部品に関する複数の特徴点
のモデル位置情報と前記画像信号から得られる複数の特
徴点候補の位置情報とを比較し、 前記特徴点の相対位置関係と最も近い前記特徴点候補の
組み合わせを選択し、 選択された特徴点候補の組み合わせの位置情報から前記
電子部品の中心位置を算出するようにしたことを特徴と
する画像処理装置。
1. An image pickup unit for picking up an image of an electronic component, a model shape information storage unit for storing model shape information of the electronic component, and an image processing unit for processing an image signal of the electronic component obtained by the image pickup unit. In the image processing device having the above, the image processing means is a plurality of feature point candidates obtained from model position information of a plurality of feature points related to an electronic component of a model shape output from the model shape information storage means and the image signal. So as to calculate the center position of the electronic component from the position information of the selected combination of feature point candidates, by selecting the combination of the feature point candidates closest to the relative positional relationship of the feature points. An image processing device characterized in that
【請求項2】 請求項1に記載の画像処理装置におい
て、 前記電子部品の特徴点のモデル位置情報は、前記電子部
品に光を照射したときに反射する複数の検出対象とする
反射部の中心位置座標を用い、 前記特徴点候補の位置座標は、前記画像信号を2値化し
たときの複数の白部分の中心位置座標を用いるようにし
たことを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the model position information of the characteristic points of the electronic component is a center of a plurality of reflecting portions which are reflection targets when the electronic component is irradiated with light. An image processing apparatus, wherein position coordinates are used, and as the position coordinates of the feature point candidates, center position coordinates of a plurality of white portions when the image signal is binarized are used.
【請求項3】 請求項2に記載の画像処理装置におい
て、 前記複数の特徴点の中の最も距離の大きい2点に相当す
ると推定される2点の組み合わせを前記特徴点候補の中
から選択し、前記2点を含む特徴点候補の組み合わせに
ついてのみ、前記特徴点と前記特徴点候補との位置を比
較し画像処理を行なうようにしたことを特徴とする画像
処理装置。
3. The image processing apparatus according to claim 2, wherein a combination of two points estimated to correspond to the two points having the largest distance among the plurality of characteristic points is selected from the characteristic point candidates. An image processing apparatus, wherein the position of the feature point and the feature point candidate are compared and image processing is performed only for a combination of feature point candidates including the two points.
【請求項4】 請求項3に記載の画像処理装置におい
て、 前記特徴点と前記特徴点候補との位置比較時に、選択さ
れた前記2点の組み合わせを含む特徴点候補について、
前記特徴点のモデル位置情報から推定される位置近辺に
前記白部分が存在しない特徴点候補の組み合わせについ
ては間違った組み合わせと判断し、以降の比較計算を行
わないようにしたことを特徴とする画像処理装置。
4. The image processing device according to claim 3, wherein at the time of position comparison between the feature point and the feature point candidate, a feature point candidate including a combination of the two selected points,
An image characterized in that a combination of feature point candidates in which the white portion does not exist near the position estimated from the model position information of the feature point is determined as an incorrect combination and the subsequent comparison calculation is not performed. Processing equipment.
【請求項5】 請求項1に記載の画像処理装置におい
て、 前記複数の特徴点及びモデル特徴点候補に対して、ベク
トルを用いて位置を比較し画像処理を行うようにしたこ
とを特徴とする画像処理装置。
5. The image processing apparatus according to claim 1, wherein the plurality of feature points and model feature point candidates are subjected to image processing by comparing positions using vectors. Image processing device.
【請求項6】 電子部品を撮像する撮像手段と、 前記電子部品のモデル形状情報を記憶するモデル形状情
報記憶手段と、 前記撮像手段で得られた前記電子部品の画像信号を処理
する画像処理手段とを有し、 前記画像処理手段は、まず前記モデル形状情報記憶手段
から出力されるモデル形状の電子部品に関する複数の特
徴点のモデル位置情報と前記画像信号から得られる複数
の特徴点候補の位置情報とを比較し、 次に、前記特徴点の相対位置関係と最も近い前記特徴点
候補の組み合わせを選択し、 そして、選択された特徴点候補の組み合わせの位置情報
から前記電子部品の中心位置を算出するようにしたこと
を特徴とする画像処理方法。
6. An image pickup unit for picking up an image of an electronic component, a model shape information storage unit for storing model shape information of the electronic component, and an image processing unit for processing an image signal of the electronic component obtained by the image pickup unit. And the image processing means, first, the model position information of a plurality of feature points relating to the electronic component of the model shape output from the model shape information storage means and the position of a plurality of feature point candidates obtained from the image signal. Then, a combination of the feature point candidates closest to the relative positional relationship of the feature points is selected, and the center position of the electronic component is determined from the position information of the selected combination of feature point candidates. An image processing method characterized by being calculated.
【請求項7】 請求項6に記載の画像処理方法におい
て、 前記電子部品の特徴点のモデル位置情報は、前記電子部
品に光を照射したときに反射する複数の検出対象とする
反射部の中心位置座標を用い、 前記特徴点候補の位置座標は、前記画像信号を2値化し
たときの複数の白部分の中心位置座標を用いるようにし
たことを特徴とする画像処理方法。
7. The image processing method according to claim 6, wherein the model position information of the characteristic points of the electronic component is a center of a plurality of detection target reflection portions that are reflected when the electronic component is irradiated with light. An image processing method using position coordinates, wherein the position coordinates of the feature point candidates are center position coordinates of a plurality of white portions when the image signal is binarized.
【請求項8】 請求項7に記載の画像処理方法におい
て、 前記複数の特徴点の中の最も距離の大きい2点に相当す
ると推定される2点の組み合わせを前記特徴点候補の中
から選択し、前記2点を含む特徴点候補の組み合わせに
ついてのみ、前記特徴点と前記特徴点候補との位置を比
較し画像処理を行なうようにしたことを特徴とする画像
処理方法。
8. The image processing method according to claim 7, wherein a combination of two points estimated to correspond to the two points having the largest distance among the plurality of characteristic points is selected from the characteristic point candidates. The image processing method is characterized in that the positions of the feature points and the feature point candidates are compared and image processing is performed only for a combination of feature point candidates including the two points.
【請求項9】 請求項8に記載の画像処理方法におい
て、 前記特徴点と前記特徴点候補との位置比較時に、選択さ
れた前記2点の組み合わせを含む特徴点候補について、
前記特徴点のモデル位置情報から推定される位置近辺に
前記白部分が存在しない特徴点候補の組み合わせについ
ては間違った組み合わせと判断し、以降の比較計算を行
わないようにしたことを特徴とする画像処理方法。
9. The image processing method according to claim 8, wherein at the time of position comparison between the feature point and the feature point candidate, a feature point candidate including a combination of the two selected points,
An image characterized in that a combination of feature point candidates in which the white portion does not exist near the position estimated from the model position information of the feature point is determined as an incorrect combination and the subsequent comparison calculation is not performed. Processing method.
【請求項10】 請求項6に記載の画像処理方法におい
て、前記複数の特徴点及びモデル特徴点候補に対して、
ベクトルを用いて位置を比較し画像処理を行うようにし
たことを特徴とする画像処理方法。
10. The image processing method according to claim 6, wherein for the plurality of feature points and model feature point candidates,
An image processing method characterized in that positions are compared using vectors to perform image processing.
JP2002054103A 2002-02-28 2002-02-28 Image processor and image processing method Pending JP2003256809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002054103A JP2003256809A (en) 2002-02-28 2002-02-28 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002054103A JP2003256809A (en) 2002-02-28 2002-02-28 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2003256809A true JP2003256809A (en) 2003-09-12

Family

ID=28665347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002054103A Pending JP2003256809A (en) 2002-02-28 2002-02-28 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2003256809A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7724940B2 (en) 2005-09-30 2010-05-25 Samsung Techwin Co., Ltd. Method of accurately determining similarity between target image and reference image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7724940B2 (en) 2005-09-30 2010-05-25 Samsung Techwin Co., Ltd. Method of accurately determining similarity between target image and reference image

Similar Documents

Publication Publication Date Title
JP4190819B2 (en) Electronic component mounting apparatus and image recognition method selection method
JP2002298145A (en) Position detector and attitude detector
JP2011082506A (en) Device for inspecting or mounting component
JP4600019B2 (en) Imaging apparatus, image processing method, and program
JP2003256809A (en) Image processor and image processing method
JP2004140084A (en) Pick-up method and device for picking up semiconductor chip
JP4106301B2 (en) Component recognition method and apparatus
JP3632461B2 (en) Image recognition method
JP3681843B2 (en) Electronic component correction angle correction method and electronic component mounting apparatus using the same
JP4380864B2 (en) Component detection method and apparatus
JP2000194861A (en) Method and device for recognizing image
JP5522093B2 (en) Optical information reader
JP2006112930A (en) Object-shape discriminating method and apparatus
JP2003256808A (en) Image processor and image processing method
JP2003242483A (en) Image processor and image processing method
JP4686329B2 (en) Component recognition method and apparatus
JP2984267B1 (en) Object processing method
JP3342196B2 (en) Image recognition device and image recognition method
JP4832586B2 (en) Substrate recognition processing method
JP2012113494A (en) Instruction position detection device and instruction position detection method
JP2007059546A (en) Method and device for positioning part
JP4660205B2 (en) Component recognition method and apparatus
JP2005173845A (en) Parts recognition device
JP4620448B2 (en) Substrate recognition processing method
JP3680578B2 (en) Image recognition method and inspection method