JP4380864B2 - Component detection method and apparatus - Google Patents

Component detection method and apparatus Download PDF

Info

Publication number
JP4380864B2
JP4380864B2 JP35678199A JP35678199A JP4380864B2 JP 4380864 B2 JP4380864 B2 JP 4380864B2 JP 35678199 A JP35678199 A JP 35678199A JP 35678199 A JP35678199 A JP 35678199A JP 4380864 B2 JP4380864 B2 JP 4380864B2
Authority
JP
Japan
Prior art keywords
lead
electronic component
inclination
template
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35678199A
Other languages
Japanese (ja)
Other versions
JP2001174221A (en
Inventor
豊 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP35678199A priority Critical patent/JP4380864B2/en
Publication of JP2001174221A publication Critical patent/JP2001174221A/en
Application granted granted Critical
Publication of JP4380864B2 publication Critical patent/JP4380864B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、部品検出方法及び装置、更に詳細には、部品実装機において電子部品を実装する前に電子部品の所定部の位置と傾きを検出する部品検出方法及び装置に関する。
【0002】
【従来の技術】
従来、実装機において電子部品を回路基板に搭載する際、実装直前に画像認識部において部品の画像データをCCDカメラなどの撮像装置などで取得し画像処理を行って位置決めを行い、精度よく電子部品を実装していた。
【0003】
例えば、図1に示すようなコネクタは部品外形サイズ、リードの本数、リード長さ、リードピッチ、リード幅情報などが部品データとして、予め登録されており、この情報を元に画像認識装置は部品の位置決めを行っていた。例えば、図1(A)に示すようなコネクタ1はまず、実装機の吸着ノズルによりその中央部が吸着され、撮像装置部に移動し、部品のイメージが撮像され、その画像データが画像処理部に送られ、図1(B)に示すように、外周から順次画像データを走査し全ての辺においてリード1aが存在するであろうと思われる位置を検出し、部品の外接接点1bを求め、これを縦横共に2等分し、各辺毎にリード検出領域としておおまかな設定を行なっている。そして、リード1aの本数分の中心位置をエッジ検出をするなどとし、各々のリードの中心位置を検出し、各辺の中心を算出することにより部品1の中心位置を検出していた。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の部品認識におけるリード検出領域設定方法では各辺のリードは、リード本数が登録されリードピッチ、リード長さ、リード幅が同一であり、リード以外には何も無いという前提にて部品の外接接線を求めていたために、図2に示すようなコネクタ2などのように定義されたリード2a以外の金具2bやフレーム2cなどが存在すると、部品の外接接線は、リード以外の金具なども含んで探索し外接接線から縦横2等分すると、検出したいリード群が含まれず、正常に検査領域を設定することができず正しく電極を認識することができない、という問題があった。
【0005】
また、金具等のリード以外の物が存在しないものでも撮像時の傾きが大きいと同様に、リード群が含まれず正常に検査領域を設定することができず、正しく電極を認識することができない、という問題があった。また、リードピッチ、リード本数、リード幅、リード長などが異なるリードグループが存在する異型部品も正常に検査領域を設定することができず、正しく電極を認識することができない、という問題もあった。
【0006】
したがって、本発明は、このような問題点を解決するためになされたもので、電極以外の余計なものが存在する電子部品でも、また部品撮像時に電子部品の傾きが大きい場合でも高い信頼性をもって迅速に電子部品の所定部の位置と傾きを認識することができる部品検出方法及び装置を提供することをその課題とする。
【0007】
【課題を解決するための手段】
本発明は、リード部を有する電子部品の撮像画像をデータ処理して該電子部品の所定部の位置と傾きを検出する部品検出方法及び装置であってきが0°の状態のリード部のモデルテンプレートを、部品データから得られるリードピッチリード幅リード本数リード長さと1画素のピクセル値をパラメータとしリードピッチを1周期、画像濃度を振幅とするCOS関数を用いて成し、モデルテンプレート撮像画像とテンプレートマッチングして、電子部品の所定部が位置する領域を検出し、前記検出された領域内で前記電子部品の所定部の傾きを検出し、前記傾きが所定値以上である場合には、傾きを補正したリード部のモデルテンプレートを、部品データから得られるリードピッチリード幅リード本数リード長さと1画素のピクセル値をパラメータとしリードピッチを1周期、画像濃度を振幅とするCOS関数を用いて作成し、該傾きを補正モデルテンプレート撮像画像とテンプレートマッチングして、前記電子部品の所定部が位置する領域を検出し、前記検出された領域で部品データを用いて前記電子部品の所定部の位置と傾きを求めることを特徴としている。
【0010】
【発明の実施の形態】
以下、図面に示す実施の形態に基づいて本発明を詳細に説明する。
【0011】
図3には、本発明の一実施形態に係わる部品位置検出装置が図示されている。同図において符号11で示すものは電子部品で、この電子部品11は部品供給部(不図示)から供給され、吸着ノズル12により吸着される。部品の吸着姿勢を認識するために、電子部品11は4面にそれぞれ多数の照明ランプ13a、13b、13cを備えた照明装置13により照明され、撮影レンズ14を備えた撮像カメラ(CCDカメラなど)15で撮像され、画像入力が行なわれる。
【0012】
撮像カメラ15で撮像された電子部品の画像は、画像処理装置17のCPU18の制御の元にA/Dコンバータ19を介してデジタル信号に変換され、画像メモリ20に格納され、画像処理されて部品位置が認識され、部品中心と吸着中心のずれや部品の吸着傾きなどが演算される。また、画像処理装置17には、テンプレートメモリ21が設けられ、部品外形サイズ、リードの本数、リード長さ、リードピッチ、リード幅情報などの部品データに基づいて形成されたテンプレートが格納される。さらに、画像処理装置17には、モニタ22が接続されており、入力画像あるいは処理画像を表示できるようになっている。
【0013】
このような構成において、部品位置を検出する流れを図4の流れに沿って説明する。
【0014】
まず、ステップS1において実装すべき部品のデータが設定され、吸着ノズル12は実装機の部品供給部(不図示)より電子部品11を吸着し、撮像カメラ15の設置された部品検出部に移動する。電子部品11が撮像カメラ15の位置に移動完了すると、画像処理装置17は電子部品11の映像を入力するために照明装置13のランプ13a、13b、13cを点灯し、レンズ14を介し、撮像カメラ15で撮像が行なわれる(ステップS2)。この撮像された画像データはA/Dコンバータ19を経由し、画像メモリ20に格納される。
【0015】
ここで認識する電子部品11の部品諸元は予め登録されており(ステップS1)、画像処理装置17は、認識実行する際にはすでに実装機メインシステム(不図示)よりこれらのデータを通知されている。例えば、図2に示すようなコネクタであれば、コネクタの各辺のリード本数(各々12本)、リードピッチ(例として0.8mmと仮定)、リード長さ(例として2.0mmと仮定)、リード幅(例として、0.3mmと仮定)などが既知である。そこで、ステップS3において、既に登録されている電子部品11のリードに関するデータより、図5(B)で示すようなモデルリード(モデルテンプレート)30をCPU18で生成し、これをテンプレートメモリ21に格納する。このモデルテンプレートの生成は以下のようにして行われる。
【0016】
まず、部品検出を実施する際の画像の1画素のピクセル値、リードピッチ、リード幅、リード本数、リード長さが部品データからパラメータとして生成される。これらのパラメータを用いることにより傾きが0度の状態におけるリード部の1ラインの画素数と画像データは、以下の式にて表すことができる。また、傾きが存在するテンプレートの生成は以下の生成終了後にアフィン変換を行なうなどして生成することが可能となる。
【0017】
リード部画像データ=256−COS(2*π/(P/Rate)*Pos+1)*128/(Width/2*P)…▲1▼
水平画素数=(P/Rate)*(Num−1)+1…▲2▼
ここで、
P:リードピッチ
Rate:ピクセル値(1ピクセルが占める1辺の長さ)
Pos:書き込み画素位置
Width:リード幅
Num:リード本数
である。
【0018】
式▲1▼によるモデルリード生成は、COS関数を用いリードピッチを1周期とし、振幅を画像濃度として考え、リードピッチと1ピクセル値から1画素が占めるCOS関数の傾きを算出し、これらより、1リードピッチ間の各々の濃度を算出しこれを0から255の値に正規化する。また、COS関数をそのまま用いるとリード部と非リード部のデューティ比が1:1固定となるため、リード幅情報と2×リードピッチの比を係数としこれを掛けることによりリード幅情報を参照し、リード濃度データテーブルを作成する。例えばリードピッチ0.8mm、リード幅0.3mm、リード本数12本、1画素の値が0.1mmの場合、リードピッチ間に占める画素数は0.8/0.1=8画素となる。よってCOS関数の1周期を8分割しその振幅を濃度として換算すると、1画素値が占める傾きは、2×π/(0.8/0.1)=0.7853radとして表すことができる。この角度よりCOS関数にて画像濃度0〜255に正規化するためにCOS関数演算後に+1し、128を掛ける。また、リードピッチ/2に対するリード幅の比を掛ける事により1ピッチ間のデューティ比を可変させる。以上のような計算を行なうと、演算結果は、−85.3、−35.3、85.3、206.1、256.0、206.1、85.3、−35.3、…という結果が得られる。この時、負の数を0として扱うことにより図5(A)に示すように、リードデータを0〜255に正規化することができる。
【0019】
一方、式▲2▼による画素数演算は、リードピッチ/1ピクセル値から1ピッチ分の画素数が得られ、これにリード数−1を掛ける事により全リード数分の画素数が求められる。
【0020】
以上のように、リードのパラメータから1ライン分のリードデータを生成しリード長分のライン数をテンプレートメモリ21に生成することにより、リード部のテンプレートデータが生成される。このとき、リード長分のライン数はリード長/1ピクセル値にて演算される。また、リードのテンプレートを生成する際、リード先端部にはリード外の部分(背景)を書き込むなどの処理も加えるなどし図5(B)に示されるようなリードのモデルテンプレート(モデルパターン)30が生成される。
【0021】
続いて、メモリ20に格納されている電子部品11の画像データと、ステップS3で作成されたテンプレートによるテンプレートマッチングを行う(ステップS4)。このテンプレートマッチングでは、図6(A)に示すように、モデルテンプレート30を用いて対象となる部品の画像データ31に対し左上から順次走査し、正規化相関演算などの処理により最も類似度の高い位置を演算するなどの処理が行なわれる。
【0022】
後述するように、テンプレートサイズの縦横比が小さく、実験的に求められたしきい値(例えば1:3)を超えていない場合には、このテンプレートで、確実にリード部31aが存在する位置を検出することができると判断されるので(ステップS5の否定)、ステップS4のテンプレートマッチングで、リード部31aが位置する領域32をおおまかに検出し、リード部を認識できる状態になる(ステップS9)。尚、図6(A)に示す例では、ステップS10の判断で、2回のテンプレートマッチングを行なうことにより、もう一方のリード部31bが位置する領域を検出することが可能となる。
【0023】
すべてのリードグループが位置する領域の粗認識が終了すると、CPU18は、部品データからその登録されたリードの本数分の中心位置をエッジ検出するなどして中心位置を各々のリードに対し検出し、各辺の中心を算出することにより部品中心、部品の傾きを算出する(ステップS11)。このようにして、リード以外の金具等が存在する部品でもリード部を検出することができ、部品の中心位置を確実に検出することが可能となる。
【0024】
また、上述したアルゴリズムにより作成されたモデルテンプレートでは、リードの本数が多くなるとテンプレートの縦横比がおおきくなり、撮像された部品の傾きが大きい場合、図6(B)に図示したように、リード位置検出が若干ずれる場合が予想される。したがって、リード本数とリード長から決定されるテンプレートサイズの縦横比が、上記したしきい値を超える場合(ステップS5の肯定)、認識した領域内のリードデータを参照し、角度を付けた数パターンの投影データを取得し(ステップS6)、投影データよりおおまかな傾きを算出し(ステップS7)、再度この傾きに応じたモデルテンプレート30’を生成する(ステップS8)。そして、図6(C)に示すように、再びテンプレートマッチングを行なうことにより撮像された部品の傾きが大きい場合でも、リードが存在する領域を高い信頼性にて検出することができる。
【0025】
なお、ステップS7で行なわれるおおまかなリードの傾きは、検出した領域内にリードの長手方向にいくつかの異なった角度の線に沿って順次画像データを読み出し加算し、これらの加算された角度毎の投影データより角度を計算する(例えば、特公平2−46708号公報参照)。
【0026】
なお、上述した実施形態において、ステップS5の判断に代えて、あるいはそれに追加してステップS7の次に、算出された角度が所定のしきい値を超えているかを判断するステップを設け、算出された角度が所定のしきい値以下である場合は、ステップS9に移行し、そうでない場合はステップS8に移行するようにすることもできる。また、ステップS7で算出した角度が所定のしきい値より大きい第2のしきい値を超えるような場合には、警告を出して部品位置認識処理ないし部品搭載処理を中断するようにすることもできる。
【0027】
【発明の効果】
以上説明したように、本発明によれば、登録された部品のリードデータからリードのモデルテンプレート(モデルパターン)を生成しパターンマッチングを行なうことにより、リード以外の金具等がある部品でもリードが存在する領域を迅速且つ確実に検出することができる。また、部品の画像傾きが大きい場合でも、おおまかにリードが存在する領域を検出できるので、その領域でのリードの傾きを算出し傾きを補正したテンプレートを生成し、再度テンプレートマッチングを行なうことによりリードが存在する領域を迅速且つ確実に検出することが可能になる。
【図面の簡単な説明】
【図1】従来の電子部品の位置を検出する方法を示す説明図である。
【図2】リード以外にも金具などがある電子部品の平面図である。
【図3】本発明による部品位置検出装置の構成を示す構成図である。
【図4】部品位置検出の流れを示すフローチャート図である。
【図5】モデルテンプレートの生成を説明する説明図である。
【図6】モデルテンプレートを用いて部品の位置を検出する状態を示した説明図である。
【符号の説明】
11 電子部品
12 吸着ノズル
15 撮像カメラ
17 画像処理装置
21 テンプレートメモリ
30 モデルテンプレート
[0001]
BACKGROUND OF THE INVENTION
The present invention, parts Shinaken out method and apparatus, more particularly, to a method and apparatus out parts Shinaken for detecting the position and inclination of a predetermined portion of the electronic component before mounting the electronic component in the component mounting machine.
[0002]
[Prior art]
Conventionally, when an electronic component is mounted on a circuit board in a mounting machine, the image recognition unit acquires image data of the component with an imaging device such as a CCD camera immediately before mounting, performs image processing, and positions the electronic component with high accuracy. Was implemented.
[0003]
For example, a connector as shown in FIG. 1 has component external size, the number of leads, lead length, lead pitch, lead width information, etc. registered in advance as component data. Was positioning. For example, the connector 1 as shown in FIG. 1A is first sucked at the center by the suction nozzle of the mounting machine, moves to the image pickup device section, the image of the component is picked up, and the image data is the image processing section. As shown in FIG. 1B, the image data is sequentially scanned from the outer periphery to detect the position where the lead 1a is supposed to exist on all sides, and the external contact 1b of the component is obtained. Is divided into two equal parts both vertically and horizontally, and roughly set as a lead detection area for each side. The center positions of the parts 1 are detected by detecting the center positions of the leads 1a, detecting the center positions of the respective leads, and calculating the centers of the respective sides.
[0004]
[Problems to be solved by the invention]
However, in the conventional lead detection area setting method in component recognition, the lead on each side is registered on the assumption that the number of leads is registered, the lead pitch, lead length, and lead width are the same, and there is nothing other than the lead. Therefore, if there is a metal fitting 2b or a frame 2c other than the lead 2a defined as shown in FIG. 2 such as the connector 2 shown in FIG. If the search is included and the circumscribed tangent is divided into two equal parts in length and width, there is a problem that the lead group to be detected is not included, the inspection region cannot be set normally, and the electrode cannot be recognized correctly.
[0005]
In addition, even if there is no object other than the lead such as metal fittings, as the inclination at the time of imaging is large, the lead group is not included and the inspection area can not be set normally, and the electrode can not be recognized correctly, There was a problem. In addition, there is also a problem that the inspection area cannot be set correctly and the electrodes cannot be recognized correctly even for atypical parts having lead groups with different lead pitch, number of leads, lead width, lead length, etc. .
[0006]
Therefore, the present invention has been made to solve such a problem, and has high reliability even in an electronic component in which extra components other than electrodes exist, and even when the inclination of the electronic component is large during imaging of the component. quickly as its object to provide a method and apparatus out parts Shinaken which can recognize the position and inclination of a predetermined portion of the electronic component.
[0007]
[Means for Solving the Problems]
The present invention provides a method and apparatus out parts Shinaken for detecting the position and inclination of a predetermined portion of the electronic component of the captured image data processing to the electronic component having a lead portion, of the state of the tilting outs 0 ° the lead portion model template, lead pitch lead width, number of leads, lead obtained from the component data length and 1 pixel of pixel values as parameters, one round-life lead pitch, the image density COS function with amplitude created using, the model template template matching the captured image to detect an area of a predetermined unit is located in the electronic component, detecting the inclination of a predetermined portion of the electronic component in the detected region and, if the slope is greater than the predetermined value, a model template of the lead portion which corrects-out inclination, lead pitch, lead width, number of leads, lead obtained from the component data length and 1 The pixel value of the unit as a parameter, one round-life lead pitch, the image density was generated using a COS function with amplitude, by capturing an image with template matching model templates corrected for the inclination, the electronic An area where a predetermined part of the component is located is detected, and the position and inclination of the predetermined part of the electronic component are obtained using the component data within the detected area.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.
[0011]
FIG. 3 shows a component position detection apparatus according to an embodiment of the present invention. In the figure, reference numeral 11 denotes an electronic component. The electronic component 11 is supplied from a component supply unit (not shown) and is sucked by the suction nozzle 12. In order to recognize the suction posture of the component, the electronic component 11 is illuminated by an illuminating device 13 having a large number of illumination lamps 13a, 13b, and 13c on four surfaces, and an imaging camera (such as a CCD camera) having a photographing lens 14. 15 is picked up and image input is performed.
[0012]
The image of the electronic component imaged by the imaging camera 15 is converted into a digital signal via the A / D converter 19 under the control of the CPU 18 of the image processing device 17, stored in the image memory 20, and subjected to image processing and the component. The position is recognized, and the deviation between the component center and the suction center, the suction inclination of the component, and the like are calculated. Further, the image processing device 17 is provided with a template memory 21 and stores a template formed based on component data such as a component external size, the number of leads, a lead length, a lead pitch, and lead width information. Furthermore, a monitor 22 is connected to the image processing apparatus 17 so that an input image or a processed image can be displayed.
[0013]
In such a configuration, the flow of detecting the component position will be described along the flow of FIG.
[0014]
First, data of components to be mounted is set in step S1, and the suction nozzle 12 sucks the electronic component 11 from a component supply unit (not shown) of the mounting machine and moves to the component detection unit where the imaging camera 15 is installed. . When the movement of the electronic component 11 to the position of the imaging camera 15 is completed, the image processing device 17 turns on the lamps 13a, 13b, and 13c of the illumination device 13 to input the video of the electronic component 11, and the imaging camera via the lens 14 Imaging is performed at 15 (step S2). The captured image data is stored in the image memory 20 via the A / D converter 19.
[0015]
The component specifications of the electronic component 11 to be recognized here are registered in advance (step S1), and the image processing device 17 is already notified of these data from the mounting machine main system (not shown) when performing recognition. ing. For example, in the case of a connector as shown in FIG. 2, the number of leads on each side of the connector (each 12), the lead pitch (assuming 0.8 mm as an example), and the lead length (assuming 2.0 mm as an example) The lead width (assumed to be 0.3 mm as an example) is known. Therefore, in step S 3, a model lead (model template) 30 as shown in FIG. 5B is generated by the CPU 18 from the data related to the lead of the electronic component 11 already registered, and stored in the template memory 21. . This model template is generated as follows.
[0016]
First, the pixel value, lead pitch, lead width, number of leads, and lead length of one pixel of an image when performing component detection are generated as parameters from the component data. By using these parameters, the number of pixels in one line of the lead portion and the image data when the inclination is 0 degree can be expressed by the following expression. Further, a template having an inclination can be generated by performing affine transformation after the following generation is completed.
[0017]
Lead portion image data = 256-COS (2 * π / (P / Rate) * Pos + 1) * 128 / (Width / 2 * P) (1)
Number of horizontal pixels = (P / Rate) * (Num-1) +1 (2)
here,
P: Lead pitch Rate: Pixel value (length of one side occupied by one pixel)
Pos: writing pixel position Width: read width Num: number of leads.
[0018]
Model lead generation by equation (1) uses the COS function, the lead pitch is one period, the amplitude is considered as the image density, the slope of the COS function occupied by one pixel is calculated from the lead pitch and one pixel value, and from these, Each density between one lead pitch is calculated and normalized to a value from 0 to 255. If the COS function is used as it is, the duty ratio between the lead part and the non-lead part is fixed at 1: 1, so the lead width information is referred to by multiplying the ratio of the lead width information and the 2 × lead pitch as a coefficient. A lead density data table is created. For example, when the lead pitch is 0.8 mm, the lead width is 0.3 mm, the number of leads is 12, and the value of one pixel is 0.1 mm, the number of pixels occupied between the lead pitches is 0.8 / 0.1 = 8 pixels. Therefore, when one period of the COS function is divided into eight and the amplitude is converted as density, the gradient occupied by one pixel value can be expressed as 2 × π / (0.8 / 0.1) = 0.7853 rad. From this angle, in order to normalize the image density to 0 to 255 with the COS function, +1 is added after the COS function calculation and 128 is multiplied. Further, the duty ratio between one pitch is varied by multiplying the ratio of the lead width to the lead pitch / 2. When the above calculation is performed, the calculation results are -85.3, -35.3, 85.3, 206.1, 256.0, 206.1, 85.3, -35.3, and so on. Results are obtained. At this time, by treating the negative number as 0, the read data can be normalized to 0 to 255 as shown in FIG.
[0019]
On the other hand, in the calculation of the number of pixels by equation (2), the number of pixels for one pitch is obtained from the lead pitch / 1 pixel value, and the number of pixels for the total number of leads is obtained by multiplying this by the number of leads-1.
[0020]
As described above, read data for one line is generated from the read parameters, and the number of lines corresponding to the read length is generated in the template memory 21, thereby generating the template data of the lead portion. At this time, the number of lines corresponding to the read length is calculated by the read length / 1 pixel value. In addition, when generating a lead template, a lead model template (model pattern) 30 as shown in FIG. 5B is added to the lead tip by adding a process such as writing a portion outside the lead (background). Is generated.
[0021]
Subsequently, template matching is performed using the image data of the electronic component 11 stored in the memory 20 and the template created in step S3 (step S4). In this template matching, as shown in FIG. 6A, the model template 30 is used to sequentially scan the image data 31 of the target component from the upper left, and the highest similarity is obtained by processing such as normalized correlation calculation. Processing such as calculating the position is performed.
[0022]
As will be described later, when the aspect ratio of the template size is small and does not exceed an experimentally obtained threshold value (for example, 1: 3), the position where the lead portion 31a is surely present in this template is determined. Since it is determined that it can be detected (No in Step S5), the region 32 where the lead portion 31a is located is roughly detected by the template matching in Step S4, and the lead portion can be recognized (Step S9). . In the example shown in FIG. 6A, it is possible to detect the region where the other lead portion 31b is located by performing template matching twice in the determination of step S10.
[0023]
When the rough recognition of the area where all the lead groups are located is finished, the CPU 18 detects the center position for each lead by detecting the edge of the center position corresponding to the number of registered leads from the component data, and so on. The center of each part and the inclination of the part are calculated by calculating the center of each side (step S11). In this manner, the lead portion can be detected even in a component having a metal fitting or the like other than the lead, and the center position of the component can be reliably detected.
[0024]
Further, in the model template created by the algorithm described above, when the number of leads increases, the aspect ratio of the template increases, and when the imaged component has a large inclination, as shown in FIG. A case where the detection is slightly shifted is expected. Therefore, when the aspect ratio of the template size determined from the number of leads and the lead length exceeds the above-described threshold value (Yes in step S5), the number pattern with an angle by referring to the read data in the recognized area Projection data is acquired (step S6), a rough inclination is calculated from the projection data (step S7), and a model template 30 ′ corresponding to this inclination is generated again (step S8). Then, as shown in FIG. 6C, the region where the lead exists can be detected with high reliability even when the inclination of the imaged component is large by performing template matching again.
[0025]
The rough lead inclination performed in step S7 is performed by sequentially reading and adding image data along several different angle lines in the longitudinal direction of the lead in the detected area. The angle is calculated from the projection data (see, for example, Japanese Patent Publication No. 2-46708).
[0026]
In the above-described embodiment, instead of or in addition to the determination in step S5, a step for determining whether or not the calculated angle exceeds a predetermined threshold value is provided after step S7. If the angle is equal to or smaller than the predetermined threshold value, the process may proceed to step S9, and if not, the process may proceed to step S8. Further, when the angle calculated in step S7 exceeds the second threshold value that is larger than the predetermined threshold value, a warning is issued and the component position recognition process or the component mounting process may be interrupted. it can.
[0027]
【The invention's effect】
As described above, according to the present invention, by performing the generated pattern matching model templates read from Li Dodeta components registered (model pattern), there are also lead with parts that metal other than the lead It is possible to quickly and reliably detect the area to be performed. In addition, even if the image inclination of a part is large, it is possible to roughly detect the area where the lead exists. Therefore, by calculating the inclination of the lead in that area, generating a template with the inclination corrected, and performing template matching again to perform the lead It is possible to quickly and reliably detect the area where the noise exists.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a conventional method for detecting the position of an electronic component.
FIG. 2 is a plan view of an electronic component having metal fittings in addition to leads.
FIG. 3 is a configuration diagram showing a configuration of a component position detection apparatus according to the present invention.
FIG. 4 is a flowchart showing a flow of component position detection.
FIG. 5 is an explanatory diagram illustrating generation of a model template.
FIG. 6 is an explanatory diagram showing a state in which the position of a part is detected using a model template.
[Explanation of symbols]
11 Electronic Component 12 Suction Nozzle 15 Imaging Camera 17 Image Processing Device 21 Template Memory 30 Model Template

Claims (2)

リード部を有する電子部品の撮像画像をデータ処理して該電子部品の所定部の位置と傾きを検出する部品検出方法であって
きが0°の状態のリード部のモデルテンプレートを、部品データから得られるリードピッチリード幅リード本数リード長さと1画素のピクセル値をパラメータとしリードピッチを1周期、画像濃度を振幅とするCOS関数を用いて成し、
モデルテンプレート撮像画像とテンプレートマッチングして、電子部品の所定部が位置する領域を検出し、
前記検出された領域内で前記電子部品の所定部の傾きを検出し、
前記傾きが所定値以上である場合には、傾きを補正したリード部のモデルテンプレートを、部品データから得られるリードピッチリード幅リード本数リード長さと1画素のピクセル値をパラメータとしリードピッチを1周期、画像濃度を振幅とするCOS関数を用いて作成し、
傾きを補正モデルテンプレート撮像画像とテンプレートマッチングして、前記電子部品の所定部が位置する領域を検出し、
前記検出された領域で部品データを用いて前記電子部品の所定部の位置と傾きを求める
ことを特徴とする部品検出方法。
A part Shinaken out how the captured image of the electronic component data processing to detect the position and inclination of a predetermined portion of the electronic component having a lead portion,
Tilting the Kiga 0 ° model templates lead portion in a state of the lead pitch lead width, number of leads, lead length and 1 pixel of pixel values obtained from the component data as a parameter, one round-life lead pitch, the image created by using the COS function of the concentration and amplitude,
The model templates by capturing images and template matching, detects a region in which predetermined portions of the electronic components are located,
Detecting an inclination of a predetermined portion of the electronic component within the detected area;
If the slope is greater than the predetermined value, a model template of the lead portion which corrects-out tilting the lead pitch lead width, number of leads, lead obtained from the component data length and 1 pixel of pixel values as parameters , one round-life lead pitch, the image density was generated using a COS function with amplitude,
The model templates correcting the tilt by capturing images and template matching, detects a region in which predetermined portions of the electronic component is positioned,
Obtaining the position and inclination of the predetermined part of the electronic component using the component data in the detected area ;
Part Shinaken out wherein the.
リード部を有する電子部品の撮像画像をデータ処理して該電子部品の所定部の位置と傾きを検出する部品検出装置であって
きが0°の状態のリード部のモデルテンプレートを、部品データから得られるリードピッチリード幅リード本数リード長さと1画素のピクセル値をパラメータとしリードピッチを1周期、画像濃度を振幅とするCOS関数を用いて成する手段と、
モデルテンプレート撮像画像とテンプレートマッチングして、電子部品の所定部が位置する領域を検出する手段と、
前記検出された領域内で前記電子部品の所定部の傾きを検出する手段と、
前記傾きが所定値以上である場合には、傾きを補正したリード部のモデルテンプレートを、部品データから得られるリードピッチリード幅リード本数リード長さと1画素のピクセル値をパラメータとしリードピッチを1周期、画像濃度を振幅とするCOS関数を用いて作成し、該傾きを補正モデルテンプレート撮像画像とテンプレートマッチングして、前記電子部品の所定部が位置する領域を検出する手段と、
前記検出された領域で部品データを用いて前記電子部品の所定部の位置と傾きを算出する手段と、
を備えたことを特徴とする部品検出装置。
A part Shinaken detection apparatus for detecting the position and inclination of a predetermined portion of the electronic component of the captured image of the electronic component data processing to have a lead portion,
Tilting the Kiga 0 ° model templates lead portion in a state of the lead pitch lead width, number of leads, lead length and 1 pixel of pixel values obtained from the component data as a parameter, one round-life lead pitch, the image It means for creating with the COS function which the density and amplitude,
The model templates by capturing images and template matching, and means for detecting an area in which predetermined portions of the electronic components are located,
Means for detecting an inclination of a predetermined portion of the electronic component within the detected region;
If the slope is greater than the predetermined value, a model template of the lead portion which corrects-out tilting the lead pitch lead width, number of leads, lead obtained from the component data length and 1 pixel of pixel values as parameters , one round-life lead pitch, the image density was generated using a COS function with amplitude, a model template correcting the tilt by capturing images and template matching, a predetermined portion of the electronic component is positioned Means for detecting the region;
Means for calculating the position and inclination of a predetermined portion of the electronic component using component data within the detected area;
Part Shinaken out apparatus characterized by comprising a.
JP35678199A 1999-12-16 1999-12-16 Component detection method and apparatus Expired - Fee Related JP4380864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35678199A JP4380864B2 (en) 1999-12-16 1999-12-16 Component detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35678199A JP4380864B2 (en) 1999-12-16 1999-12-16 Component detection method and apparatus

Publications (2)

Publication Number Publication Date
JP2001174221A JP2001174221A (en) 2001-06-29
JP4380864B2 true JP4380864B2 (en) 2009-12-09

Family

ID=18450742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35678199A Expired - Fee Related JP4380864B2 (en) 1999-12-16 1999-12-16 Component detection method and apparatus

Country Status (1)

Country Link
JP (1) JP4380864B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4651466B2 (en) * 2005-07-04 2011-03-16 Juki株式会社 Component recognition method and apparatus
JP5318334B2 (en) * 2006-05-19 2013-10-16 Juki株式会社 Method and apparatus for detecting position of object
JP6644846B1 (en) * 2018-08-31 2020-02-12 株式会社トキワシステムテクノロジーズ Work position and orientation recognition device and picking system
CN113614488B (en) * 2019-03-19 2023-09-01 株式会社富士 Arithmetic device and input device

Also Published As

Publication number Publication date
JP2001174221A (en) 2001-06-29

Similar Documents

Publication Publication Date Title
JPH0572961B2 (en)
JP3711599B2 (en) Mounting component inspection equipment
JP4380864B2 (en) Component detection method and apparatus
JP3266429B2 (en) Pattern detection method
JP3164003B2 (en) Mounted parts inspection device
JP4106301B2 (en) Component recognition method and apparatus
JP4707423B2 (en) Component position detection method and apparatus
JP2007286930A (en) Method for detecting gravity center of object
JP3681843B2 (en) Electronic component correction angle correction method and electronic component mounting apparatus using the same
JP3632461B2 (en) Image recognition method
TW202215038A (en) Inspection of circuit boards for unauthorized modifications
JP4566686B2 (en) Method and apparatus for determining shape of object
JP3349292B2 (en) Component position recognition device
JP2005038178A (en) Inspection apparatus for reference mark of inspection object
JP4744234B2 (en) Component positioning method and apparatus
JP2000194861A (en) Method and device for recognizing image
JPH11132737A (en) Image processing method
JP3342171B2 (en) Component position recognition method and position recognition device
JP4681984B2 (en) Component positioning method and apparatus
JP4008722B2 (en) Method and apparatus for detecting floating electrode of electronic component
JP3586761B2 (en) Image binarization processing method and image processing apparatus equipped with this processing method
JP2006234793A (en) Part position detecting method and device
JP2007294624A (en) Method and apparatus for correcting sucking position of electronic component
JP3680578B2 (en) Image recognition method and inspection method
JP2694819B2 (en) Lead position detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070209

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090312

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4380864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees