JP4106301B2 - Component recognition method and apparatus - Google Patents

Component recognition method and apparatus Download PDF

Info

Publication number
JP4106301B2
JP4106301B2 JP2003117739A JP2003117739A JP4106301B2 JP 4106301 B2 JP4106301 B2 JP 4106301B2 JP 2003117739 A JP2003117739 A JP 2003117739A JP 2003117739 A JP2003117739 A JP 2003117739A JP 4106301 B2 JP4106301 B2 JP 4106301B2
Authority
JP
Japan
Prior art keywords
corner
component
terminal
detected
corner terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003117739A
Other languages
Japanese (ja)
Other versions
JP2004325146A (en
Inventor
公子 藤江
好晃 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2003117739A priority Critical patent/JP4106301B2/en
Priority to CNB2004100351305A priority patent/CN1319012C/en
Publication of JP2004325146A publication Critical patent/JP2004325146A/en
Application granted granted Critical
Publication of JP4106301B2 publication Critical patent/JP4106301B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、部品認識方法及び装置、更に詳細には、コーナー端子を有する部品を撮像し、その画像を処理することにより部品の吸着姿勢を認識する部品認識方法及び装置に関する。
【0002】
【従来の技術】
従来、部品実装機においてプリント基板に電子部品(以下単に部品という)を精度良く搭載するために、吸着ノズルにより吸着された部品をプリント基板に搭載する前にCCDカメラなどの撮像装置により部品を撮像して部品中心や部品傾きを求め、吸着ずれを計算しそれを補正することにより正確に部品をプリント基板に搭載している。このような部品実装機において部品を認識する場合、部品には各辺にリード端子が存在するので、特許文献1のように、リード端子の存在する辺毎に端子の検出を行い、その検出結果に基づいて部品中心並びに傾きを計算している。また、部品認識時、部品のコーナー部に存在する端子等のセンタリングには関係のないものに対しては認識を行わず、リード端子やボール端子のようなセンタリングに必要なものだけを検出して、部品中心や傾きを求めるときの計算精度を高めている。
【0003】
また、部品を基板に搭載する場合、部品に極性(方向性)がある場合には、その極性にあった向きに部品の一辺を向けて基板に実装しなければならない。そこで、部品の一辺の向きを吸着角度0°(上向き)、90°(右向き)、180°(下向き)、270°(左向き)として指定し、部品データを指定された吸着角度に合わせて回転させて部品認識を行っている。
【0004】
【特許文献1】
特開平6―223185号公報(請求項1)
【0005】
【発明が解決しようとする課題】
しかしながら、吸着角度の指定ミスや実際の部品吸着時のミスにより、実際の部品の向きが、指定された向き(吸着角度)と異なる場合があり、従来の認識方法では、各辺のリード端子の検出と部品データで指定されたリード端子情報が一致しているかどうかしか認識していなかったために、指定吸着角度と、実際に吸着された角度が異なっている場合には、誤搭載や認識エラーを引き起こす可能性がある。
【0006】
例えば、図11(A)に示したように、部品50、51が、それぞれ各辺にリード端子と、コーナー部にコーナー端子を有しており、各部品には所定の一辺が上向きとなるような方向性があるとする。部品50に対して吸着角度0°が指定された場合は、図11(B)の左側に図示したような部品の向きで部品データが作成され、その場合コーナー端子は無視されリード端子情報のみが記述されるので、部品データは右側に図示したようになる。このような状態で、実際の部品吸着時、例えば部品を供給するフィーダに誤って一部部品が指定された向きと異なって収納されている場合には、図11(C)の左側に示したように、部品が指定された向きと異なった向き(例えば右向き)で吸着される。認識時にはリード端子のデータは部品データと一致するので正常と認識され、その向きで基板に搭載される結果、指定された吸着角度(向き)と異なり誤搭載となる。
【0007】
また部品51に対して吸着角度0°が指定された場合は、図11(D)に図示したような部品の向きで部品データが作成される。このような状態で、実際の部品吸着時、図11(E)に示したように、部品が指定された向きと異なった向き(例えば右向き)で吸着されると、認識時にはリード端子のデータは部品データと不一致となり、同一部品であるのに、認識エラーとなってしまう。
【0008】
従って、本発明は、このような問題点に鑑みてなされたもので、実際の部品の吸着角度を検出することができ、指定された吸着角度とのずれを確実に検出することができる部品認識方法及び装置を提供することを課題とする。
【0009】
【課題を解決するための手段】
本発明は、上記課題を解決するために、
吸着された部品の画像を処理することにより部品の吸着姿勢を認識する部品認識方法において、
部品の一辺の向きが基準角度にあるとき部品のどのコーナー部にコーナー端子が存在するかを示す照合データを予め記録し、
部品の画像処により求められる部品コーナーを結ぶ対角線上に沿ったスキャンによりコーナー端子を検出し、
検出されたコーナー端子の重心位置を検出することでコーナー端子か否かを判定し、
判定されたコーナー部のコーナー端子の形状と、予め記録されたコーナー端子が存在するコーナー部のコーナー端子の形状とをテンプレートマッチングで照合し、
その照合結果に基づき部品の90°単位の方向を判別する構成を採用している。
【0010】
また、本発明では、
吸着された部品の画像を処理することにより部品の吸着姿勢を認識する部品認識装置において、
部品の一辺の向きが基準角度にあるとき部品のどのコーナー部にコーナー端子が存在するかを示す照合データを予め記録する記憶手段と、
部品を撮像する撮像装置と、
撮像された部品の画像を処理する画像処理装置と、
前記部品の画像処理により求められる部品コーナーを結ぶ対角線上に沿ったスキャンによりコーナー端子を検出するコーナー端子検出手段と、
検出されたコーナー端子の重心位置を検出することでコーナー端子か否かを判定する手段と、
判定されたコーナー部のコーナー端子の形状と、予め記録されたコーナー端子が存在するコーナー部のコーナー端子の形状とを照合するテンプレートマッチング手段と
その照合結果に基づき部品の90°単位の方向を判別する方向判別手段とを設ける構成も採用している。
【0011】
このような構成では、コーナー端子を検出し、その検出されたコーナー端子が存在するコーナー部と、予め記録されたコーナー端子が存在するコーナー部とを照合するようにしているので、指定された吸着角度と異なる角度で部品を吸着した場合に、これを確実に検知することができ、部品がその向きを誤って基板に搭載されるのを防止することができる。
【0012】
また、本発明では、コーナー端子が存在するとき、そのコーナー端子の形状も予め記録し、どのコーナー部にどのような形状のコーナー端子が存在しているかを検出するようにしているので、コーナー端子の配置(有無)ないしその形状が非対称な各種部品の吸着角度を検出することが可能になる。
【0013】
【発明の実施の形態】
以下、図面に示す実施の形態に基づき本発明を詳細に説明する。
【0014】
<部品実装装置と画像処理装置の構成>
図1は、本発明が適用される部品実装装置(部品実装機)の制御構成を示すブロック図であり、部品実装装置は、フィーダなどの部品供給装置(不図示)から供給される部品(電子部品)20を吸着する吸着ノズル3aを備えたヘッド部3を有している。このヘッド部3はCPUで構成されるコントローラ10により駆動されるX軸モータ11、Y軸モータ12により駆動されてXY軸方向に移動可能に構成される。またヘッド部3は、部品吸着並びに部品搭載時にZ軸モータ13によってZ軸方向に駆動されて昇降し、また吸着ノズル3aはθ軸モータ14によってノズル軸を中心に回転できるように構成される。
【0015】
また、部品実装装置には、部品20を撮像するCCDカメラのようなレンズ5aを備えた撮像装置5が配置され、ヘッド部3は、部品吸着後撮像装置5に移動して、照明装置15により照明された部品20が撮像装置5により撮像される。部品の撮影画像は、CPU7a、画像メモリ7b、A/D変換器7c、部品データメモリ7dを備えた画像処理装置7に入力される。画像処理装置7は、設定された領域の画像を取り込んで公知のアルゴリズムにより処理して部品の吸着姿勢を認識し、部品中心と吸着中心の位置ずれ、また部品傾きを演算する。コントローラ10は、X軸、Y軸、θ軸モータ11、12、14を駆動するときこの位置ずれを補正し、搬送されてくる基板(不図示)に部品20を搭載する。
【0016】
また、部品実装装置には、部品データを入力するためのキーボード21、マウス22などの入力装置が設けられ、生成された部品データが、ハードディスク、フラッシュメモリなどで構成される記憶装置23や画像認識装置7内の部品データメモリ7dに格納できるようになっている。部品データは、このように入力装置を介さず、部品実装装置に接続されたホストコンピュータ(不図示)から供給されるものを記憶装置23や部品データメモリ7dに格納しておくようにしてもよい。また、モニタ(表示器)24が設けられ、この画面には、部品データ、演算データや撮像装置5で撮像した部品画像が表示できるようになっている。
【0017】
図2には、吸着ノズル3aに吸着された部品20が、照明装置15により照明され、撮像装置5により撮像される状態が図示されている。CPU7aからの制御線7dにより撮像装置5は、設定された領域の画像を撮像する。撮像された画像は、信号線7eを介して画像処理装置7に入力され、A/D変換器7cを介してデジタル信号に変換された後、画像メモリ7bに格納され、画像処理されて部品の姿勢が認識される。また、処理される画像はモニタ24に表示させることができる。
【0018】
<部品認識の流れ>
以下に、部品の向き、すなわち吸着角度を検出して部品認識を行う流れを、画像処理装置のCPU7aの制御の元に実行される図3の流れに沿って説明する。
【0019】
矩形状の部品には、リード端子のほかに、コーナー部にコーナー端子が設けられているものがあり、図4(A)に示す部品20aでは、4つのコーナー部にあるコーナー端子の形状が全て異なっている(右下のコーナー端子は設けられていないが、コーナー端子がない場合には、無し(仮想)の形状が想定される)。図4(B)に示す部品20b、20c、20dでは、4つのコーナー端子のうち1つの形状が他と異なっており、また、図4(C)に示す部品20e、20fでは、4つのコーナー端子のうち2つずつが同一形状で、対角コーナーで形状が異なっており、図4(D)に示す部品20g、20hでは、4つのコーナー端子の形状がすべて同一であり、図4(E)に示す部品20i、20jでは、4つのコーナー端子のうち2つずつが同一形状で、対角コーナーで形状が同じになっている。
【0020】
このように、図4(A)、(B)、(C)に示す部品は、コーナー部に存在するコーナー端子の有無や形状を検出することで、部品の吸着角度を認識でき、図4(D)、(E)に該当する部品はコーナー端子の情報だけでは部品の吸着角度を認識することはできない。そこで、本発明では、図4(A)、(B)、(C)に示すような部品の吸着角度を判定するようにする。そのため、部品データを作成する場合、部品寸法や各辺の端子情報(端子本数・端子寸法・端子ピッチなど)と合わせて、どのコーナー部にコーナー端子が存在するかを記録し、コーナー端子が存在する場合には、そのコーナー端子の形状も記録するとともに、コーナー端子の存在位置や形状をパターン化し、そのパターンも指定するようにする。
【0021】
このコーナー端子形状のタイプに関しては、図5(A)に示されたような形状に従って分類しそれぞれの形状に対して分類コード(0)、(1)、.....を割り当ててコード化し、部品の向きが基準角度(例えば0°)であり上向きのときに、部品中心を原点にして、コーナー端子の存在位置を座標で指定し、そこに存在する端子の形状のタイプを分類コードで指定する。また、コーナー端子の存在位置や形状は、図5(B)に示したように、パターン化して、それぞれに分類コード(0)、(1)、.....を割り当てコード化し、部品毎にそのパターンタイプを分類コードで指定する。その場合、各コーナーに存在するコーナー端子の形状情報から、吸着角度の認識が可能な部品か、不可能な部品かの判断を行って、それも記録しておく。例えば、図5(B)で、上段に示された分類コード(0)〜(3)の部品は、コーナー端子が軸対称であるので、吸着角度の認識が不可能であり、下段に示された分類コード(4)〜(8)は、吸着角度の認識が可能な部品である。
【0022】
このように、部品寸法や各辺の端子情報、コーナー端子の有無の情報、コーナー端子形状のデータ、コーナー端子の存在位置や形状のパターンの分類コード、それに吸着角度の認識の可否などのデータは部品ごとに作成される。これらの部品データは、図2のキーボード21、マウス22などの入力手段で作成されるか、あるいはホストコンピュータ(不図示)で作成されて、記憶装置23に格納される。また、これらの部品データは画像処理装置7の部品データメモリ7dにロードされて部品IDごとに管理される。これが、図3のステップS1での部品データの受信(ロード)である。
【0023】
続いて、ステップS2で認識コマンドを取得する。認識コマンドでは、部品ID、部品種別、撮像条件(カメラ・照明等の指定)が指定される。通常は、吸着角度の指定も必要となるが、吸着角度の認識が可能である部品に限り省略することも可能である。部品の吸着角度を指定する場合は、部品データ作成時の状態を0°として、0°、90°、180°、270°の4つの指定となる。吸着角度0°は、矩形状部品の所定の一辺が、所定の向き、例えば上向きにある状態で、このときを基準角度として、部品データが作成されており、部品は上記所定の一辺が上向きで吸着されており、その向きで基板に搭載される。吸着角度90°では、部品は、上記所定の一辺を右向きにして吸着されており、その向きで基板に搭載される。同様に、吸着角度180°、270°では、部品は、それぞれ上記所定の一辺を下向き、左向きにして吸着されており、その向きで基板に搭載される。なお、部品が基準角度(上向き)で供給されてそれ以外の向きで吸着できない場合は、部品を基準角度で吸着した後、吸着ノズルを吸着角度に合わせて回転させ、部品の向きを吸着角度に変化させる。
【0024】
次に、ステップS3で、認識用の部品データ(以下、認識データ)の作成を行う。ステップS2で吸着角度を指定されている場合は、それに応じた認識データを作成する。例えば、吸着角度90°が指定されている場合は、部品は、部品の上記所定の一辺を右向きにして撮像され部品認識が行われるので、部品データも90°時計方向に回転させたものを認識データとする。吸着角度を指定されなかった場合は部品データの作成時と同じ向きで部品が吸着されたと判断し(吸着角度0°)、認識データを作成する。従って、認識データは部品データの作成時と同じデータとなる。
【0025】
次に、ステップS4でリード端子の検出を行う。これは、図6(A)に示したように、コーナー部にコーナー端子30a、30b、30cと各辺にリード端子30d(リード端子は各辺にそれぞれ5個あり、その一つに符号が付されている)を有する矩形状の部品30の場合、部品の画像の外側から内側に向かってスキャンを行い、部品の外接点を検出し、この結果から部品の大まかな位置を示す外接ウィンドウWを設定する。続いて、辺毎にリード列ウィンドウW1〜W4をかけ(図6(B))、端子の存在する領域に検査領域を設定する。そして、4辺それぞれについて、リード列ウィンドウ内にDOGフィルタ(Marr&PosioのDifference−Of−Gaussianフィルタ)をかけてリード端子のエッジを検出し、それを用いてリード先端(図6(C)で「+」印)の座標を検出する。このようなリード端子の検出は公知であり、例えば、特開平6−223185号公報に記載されている。
【0026】
続いて、ステップS5で、検出したリード先端座標から、リード先端を結んだリード列直線L1〜L4を求め(図6(D))、その交点C1〜C4を部品コーナー部としてその座標値を取得する。このとき、コーナー端子30a、30b、30cは、リード列直線の精度を低下させるので、例えば、検出された両端のエッジは除外するなどしてリード列直線を求めるようにする。
【0027】
<対角線スキャンによるコーナー端子の検出>
続いて、ステップS5で、上記求めた部品のコーナー座標から、部品の対角線を求めて、この対角線上をスキャンすることでコーナー部に端子が存在するかどうかを検出する。この流れが、図7に示されており、画像処理装置のCPU7aの制御の元に実行される。
【0028】
まず、部品画像のコーナーC1〜C4のコーナー座標を取得しているので(図6(D))、対角のコーナー間を結んだ対角線を取得し(ステップS21)、端子を検出するためのスキャンの方向と範囲を設定する(ステップS22)。スキャン方向は、図8(A)に示したように、検出感度を高めるために対角線の傾きとコーナー位置により異なるようにする。スキャン範囲は、図8(B)に示したように、コーナー座標前後にコーナー間距離の1/4の長さをとった範囲M1とM2を定め、スキャン開始点m1と終了点m2を設定する。
【0029】
このようにスキャンの方向とスキャン開始点と終了点を設定したらスキャンを開始する(ステップS23)。図8(C)に示したように、対角線の傾きが45°より緩やかな場合は、スキャン開始点から終了点まで対角線上の点と上下の点をスキャンし(y方向スキャン)、対角線の傾きが45°より急な場合は、対角線上の点と左右の点をx軸方向にスキャンする。
【0030】
ステップS24において、コーナー端子検出手段としてのCPU7aは、スキャン結果を判定し、コーナー端子の有無を検出する。コーナー端子用の所定のしきい値以上の点が検出できた時点で対角線スキャンは終了し、端子輪郭を取得するステップS25に進む。逆に、スキャン終了点までスキャンを行ってもしきい値以上の点が見つからなかった場合は、コーナー端子なしとする。
【0031】
ステップS24で端子が検出された場合は、検出点から輪郭を検出していく(ステップS25)。この輪郭を取得する状態が図9に図示されている。図9(A)において、Q1は対角線スキャンで検出された点で、その検出点Q1を除く周囲の8近傍を数字の順序で調査していく。Q2でしきい値以上となり輪郭が検出されるので、これを次の輪郭点とする。続いて、図9(B)に示したように、Q2を中心に8近傍の調査を開始し、同様な処理を最初のスタート点に戻るまで繰り返す。なお、8近傍の調査方向は、対角線スキャンの方向により決定するようにする。
【0032】
このようにして検出した輪郭点が図9(C)に図示されており、その情報は検出した順に配列へ格納していく。続いて、ステップS26、S27において、この輪郭点配列からX方向のエッジペア座標、y方向のエッジペア座標をそれぞれ求める(図9(D)、(E))。また、ステップS28において、このエッジペア座標から検出端子の重心Xg、Ygを求める(図9(F)、(G))。この重心の演算は、下記の式に従って求められる。
【0033】
Lsum(y)=Edge2(y)−Edge1(y)+1
Ladr_sum(y)=Lsum(y)×(Edge1(y)+Edge2(y))/2
SUM=ΣLsum(y)
Ymom=Σ(Lsum(y)×y)
Xmom=ΣLadr_sum(y)
Xg=Ymom/Sum
Yg=Xmom/Sum
求めた検出端子の重心が、対角線付近に存在する場合は、検出した端子はコーナー端子と見なし、逆に重心が対角線から離れている場合は、誤ってリード端子を検出した可能性もあるので、コーナー端子なしと見なす(ステップS29)。このように、しきい値以上で検出されたコーナー端子に対して、さらにその端子の輪郭を検出し端子の重心を求めて、検出した端子がコーナー端子かどうかの判断も行うようにしているので、対角線上に存在するノイズ等、コーナー端子ではないものをコーナー端子と誤検出するのを防止することができる。
【0034】
図8に示す対角線スキャンにより、図6に示した部品30の例では、コーナー部C1とC3を結ぶ対角線のスキャンにより、コーナー部C1とC3にコーナー端子30aと30cが検出され、また、コーナー部C2とC4を結ぶ対角線のスキャンにより、コーナー部C4にコーナー端子30bが検出され、コーナー部C2にコーナー端子なしが検出される。これにより、どのコーナー部にコーナー端子が存在するかを検出することができるので、吸着角度検出手段としてのCPU7aは、検出されたコーナー端子が存在するコーナー部と、予め記録されたコーナー端子が存在するコーナー部とを照合し、その照合結果に基づき部品の吸着角度の基準角度に対するずれを検出することができる。
【0035】
例えば、図6の部品30では、部品データが、基準角度(吸着角度0°)で作成されている場合、右上のコーナー部にコーナー端子なし、その他のコーナー部にコーナー端子が存在することが部品データメモリ7dに記録されているので、対角線スキャンにより、コーナー部C2にコーナー端子なし、その他のコーナー部にコーナー端子が検出された場合は、部品データと同じであるので、吸着角度0°が検出され、コーナー部C3にコーナー端子なし、その他のコーナー部にありが検出されると、吸着角度90°が検出され、また、コーナー部C4にコーナー端子なし、その他のコーナー部にありが検出されると、吸着角度180°が検出され、コーナー部C1にコーナー端子なし、その他のコーナー部にありが検出されると、吸着角度270°が検出される。従って、例えば、一部部品の向きが誤ってフィーダに収納されている場合などで、指定吸着角度と異なった向きで部品が吸着される場合には、部品認識の段階で吸着角度の相違(部品の向きの相違)が検出されるので、部品の搭載時に極性(搭載向き)を考慮して搭載を行わなければならないようなときには、吸着角度を補正することにより誤搭載を防止することができる。
【0036】
以上は、図3の処理でステップS9の段階である。この吸着角度は、図5(B)の分類コード(4)〜(8)に分類される部品のように、少なくとも部品の一辺の両コーナー部でのコーナー端子(その有無ないしその形状)が辺の中央垂直線に対して非対称になっているときに可能となる。しかしコーナー端子の有無ないしその形状に対称性がある分類コード(0)〜(3)の部品では、吸着角度が判定できないので、ステップS6の判定により吸着角度の取得はスキップされる。また、吸着角度取得に、コーナー端子の有無だけでなくコーナー端子の形状の判断も必要になるような部品の場合には(図4の部品20bなど)、コーナー端子の形状も検出する(ステップS7、S8)。
【0037】
このコーナー端子の形状の検出の流れが図10に図示されており、まず、図10(A)に示すように、ステップS25で取得された部品40のコーナー端子40aの輪郭からコーナー端子の外接接線を取得しその外接接線で囲まれた領域41を求める。また、ステップS4でリード座標が取得されているので、図10(B)に示したように、リード座標からおおまかな部品の傾きθを取得する。
【0038】
続いて、領域41の大きさと、部品傾きθを考慮して、指定されたコーナー端子形状に対応したテンプレート42、43を作成する(図10(C))。続いて、図10(D)に示したように、部品40の画像の各コーナー端子の外周にコーナー端子を含むウィンドウw1〜w4を設定して、作成したテンプレート42、43でテンプレートマッチングを行う。図10(E)に示したように、部品40のコーナー端子40a、40c、40dに対してはテンプレート42によるテンプレートマッチングのときに相関値が高くなり、また、コーナー端子40bでは、テンプレート43を用いたときに相関値が高くなるので、コーナー端子形状をそれぞれのテンプレートで既定される形状に特定することができる。
【0039】
これにより、CPU7aは、どのコーナー部にどの形状のコーナー端子が存在するかを検出することができるので、部品データで指定されたコーナー部の端子の形状と照らし合わせることで、部品の吸着角度が部品データに対して何度傾いているか(基準角度とのずれ)を取得することができる(ステップS9)。実際の吸着角度と指定された吸着角度が異なっていた場合は、吸着角度エラーとしてエラー終了とする。しかし、エラー終了せず認識を最後まで行い、吸着角度ずれを補正して部品を搭載することもできる。
【0040】
続いて、ステップS10では、ステップS9で求めた吸着角度に合わせて、認識データを補正する。例えば吸着角度に90°のずれが検出された場合、認識データを補正しないと、部品によっては、認識エラーを起こすので(図11(E)など)、実際の吸着角度に合わせて、認識データも90°回転させて認識データを補正する。
【0041】
続いて、補正した認識データを用いてリード検査を行い(ステップS11)、リード長異常、本数異常、ピッチ異常、リード曲り異常などの異常を検出する。このリード検査が正常であれば、検出リード座標を用いて部品中心と傾きを算出する(ステップS12)。
【0042】
部品中心と傾きが算出されたら、吸着中心と傾きを補正して部品を基板に搭載する。なお、このとき、上述したような吸着角度のずれが検出されている場合には、この吸着角度のずれを補正して搭載する。これにより、部品の向きを指定の向きにして基板に搭載しなければならないときで吸着角度のずれが検出された場合の誤搭載を防止することができる。
【0043】
なお、上述した実施形態では、矩形状の部品について説明されているが、その他の多角形の部品でコーナー部にコーナー端子があり、コーナー端子が非対称で配置されていて吸着角度を検出できる部品にも適用できることはもちろんである。
【0044】
【発明の効果】
以上説明したように、本発明では、部品のコーナー部に存在するコーナー端子を検出するようにしているので、検出されたコーナー端子が存在するコーナー部と、予め記録されたコーナー端子が存在するコーナー部とを照合することにより、部品の吸着角度を確実に検出することができる。従って、指定された吸着角度と異なる角度で部品を吸着した場合に、これを検知することができ、誤搭載を防止することができるとともに、認識実行時に指定していた吸着角度の指定を省略することができる。
【図面の簡単な説明】
【図1】部品実装装置の概略構成を示すブロック図である。
【図2】部品撮像装置並びに画像処理装置の構成を示した構成図である。
【図3】部品認識の流れを示したフローチャートである。
【図4】各種部品のリード端子並びにコーナー端子の種類を示した説明図である。
【図5】コーナー端子並びにその配置に従って形状のタイプ並びに配置パターンをコード化する状態を示した説明図である。
【図6】リード列直線並びにコーナー座標を求める流れを示した説明図である。
【図7】対角線スキャンにより部品にコーナー端子が存在するかどうかを検出する流れを説明したフローチャートである。
【図8】 (A)は対角線スキャンの方法を説明した表図、(B)と(C)は対角線スキャンの方法を説明した説明図である。
【図9】検出されたコーナー端子の輪郭を求める流れを示した説明図である。
【図10】コーナー端子の形状をテンプレートマッチングにより特定する流れを示した説明図である。
【図11】吸着角度が指定の角度と相違するときの問題点を説明した説明図である。
【符号の説明】
5 撮像装置
7 画像処理装置
7b 画像メモリ
7d 部品データメモリ
30 部品
30a、30b、30c コーナー端子
C1〜C4 コーナー部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a component recognition method and apparatus, and more particularly, to a component recognition method and apparatus for recognizing a suction posture of a component by imaging a component having a corner terminal and processing the image.
[0002]
[Prior art]
Conventionally, in order to accurately mount electronic components (hereinafter simply referred to as components) on a printed circuit board in a component mounting machine, the components are picked up by an image pickup device such as a CCD camera before the components sucked by the suction nozzle are mounted on the printed circuit board. Then, the component center and the component inclination are obtained, and the component is accurately mounted on the printed circuit board by calculating the suction deviation and correcting it. When recognizing a component in such a component mounting machine, since there is a lead terminal on each side of the component, the terminal is detected for each side where the lead terminal exists as in Patent Document 1, and the detection result Based on the above, the center of the part and the inclination are calculated. Also, when recognizing a part, it does not recognize anything that is not related to centering, such as a terminal that exists at the corner of the part, and only detects those necessary for centering such as lead terminals and ball terminals. , The calculation accuracy when finding the center and inclination of the parts is increased.
[0003]
In addition, when a component is mounted on a substrate, if the component has polarity (directionality), it must be mounted on the substrate with one side of the component facing in the direction corresponding to the polarity. Therefore, the orientation of one side of the component is specified as an adsorption angle of 0 ° (upward), 90 ° (rightward), 180 ° (downward), and 270 ° (leftward), and the component data is rotated according to the specified adsorption angle. Parts recognition.
[0004]
[Patent Document 1]
JP-A-6-223185 (Claim 1)
[0005]
[Problems to be solved by the invention]
However, the orientation of the actual part may differ from the specified orientation (suction angle) due to mistakes in the designation of the suction angle or mistakes during actual part pick-up. With the conventional recognition method, the lead terminals on each side Since it only recognizes whether or not the lead terminal information specified in the detection and the component data match, if the specified suction angle is different from the actually picked angle, an erroneous mounting or recognition error will occur. May cause.
[0006]
For example, as shown in FIG. 11A, the components 50 and 51 each have a lead terminal on each side and a corner terminal on the corner, and each component has a predetermined one side facing upward. Suppose there is a good direction. When a suction angle of 0 ° is specified for the component 50, component data is created with the component orientation shown on the left side of FIG. 11B. In this case, the corner terminal is ignored and only the lead terminal information is stored. Since it is described, the component data is as shown on the right side. In such a state, when an actual part is picked up, for example, when a part is mistakenly stored in the feeder that supplies the part in a direction different from the designated direction, the left side of FIG. In this way, the parts are attracted in a direction (for example, rightward) different from the designated direction. At the time of recognition, the lead terminal data coincides with the component data, so that it is recognized as normal, and as a result of being mounted on the board in that direction, it is erroneously mounted unlike the specified suction angle (direction).
[0007]
When the suction angle 0 ° is designated for the component 51, the component data is created with the component orientation as illustrated in FIG. In this state, when the actual component is picked up, as shown in FIG. 11E, if the component is picked up in a direction different from the specified direction (for example, rightward), the data of the lead terminal is recognized at the time of recognition. The data does not match the part data, and although it is the same part, a recognition error occurs.
[0008]
Accordingly, the present invention has been made in view of such problems, and can recognize an actual component suction angle, and can reliably detect a deviation from a specified suction angle. It is an object to provide a method and an apparatus.
[0009]
[Means for Solving the Problems]
  In order to solve the above problems, the present invention
  In the component recognition method for recognizing the suction posture of a component by processing the image of the sucked component,
  Which corner of a part has a corner terminal when the direction of one side of the part is at the reference angleMatching data indicatingIn advance,
  Parts drawingImage shopReasonBy scanning along the diagonal line connecting the component corners required byDetect corner terminals,
  Detected corner terminalIt is determined whether it is a corner terminal by detecting the center of gravity position of
  The shape of the corner terminal at the judged cornerAnd the corner where pre-recorded corner terminals existCorner terminal shapeAndWith template matchingMatch
  Based on the verification results,Determine the direction in 90 ° unitsThe structure to be adopted is adopted.
[0010]
  In the present invention,
  In the component recognition device that recognizes the suction posture of the component by processing the image of the sucked component,
  Which corner of a part has a corner terminal when the direction of one side of the part is at the reference angleMatching data indicatingStorage means for recording in advance,
  An imaging device for imaging a component;
  An image processing apparatus for processing an image of the imaged part;
  Image processing of the partsBy scanning along the diagonal line connecting the component corners required byA corner terminal detection means for detecting a corner terminal;
  Detected corner terminalMeans for determining whether or not it is a corner terminal by detecting the position of the center of gravity of
  The shape of the corner terminal at the judged cornerAnd the corner where pre-recorded corner terminals existCorner terminal shapeAndTemplate matching means to match,
  Based on the verification results,Determine the direction in 90 ° unitsDoDirection discriminationThe structure which provides a means is also employ | adopted.
[0011]
In such a configuration, the corner terminal is detected, and the corner portion where the detected corner terminal exists is collated with the corner portion where the pre-recorded corner terminal exists. When a component is sucked at an angle different from the angle, this can be reliably detected, and the component can be prevented from being mounted on the board by mistake in its orientation.
[0012]
Further, in the present invention, when a corner terminal exists, the shape of the corner terminal is recorded in advance, and what kind of corner terminal exists in which corner portion is detected. It is possible to detect the suction angle of various parts whose arrangement (presence / absence) or the shape thereof is asymmetric.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.
[0014]
<Configuration of component mounting apparatus and image processing apparatus>
FIG. 1 is a block diagram showing a control configuration of a component mounting apparatus (component mounting machine) to which the present invention is applied. The component mounting apparatus is a component (electronic) supplied from a component supply apparatus (not shown) such as a feeder. The head portion 3 having the suction nozzle 3a for sucking the component) 20 is provided. The head unit 3 is driven by an X-axis motor 11 and a Y-axis motor 12 driven by a controller 10 constituted by a CPU, and is configured to be movable in the XY-axis direction. Further, the head unit 3 is driven in the Z-axis direction by the Z-axis motor 13 at the time of component suction and component mounting and is moved up and down, and the suction nozzle 3a is configured to be rotated around the nozzle axis by the θ-axis motor 14.
[0015]
The component mounting apparatus includes an imaging device 5 including a lens 5a such as a CCD camera that captures an image of the component 20. The head unit 3 moves to the imaging device 5 after component adsorption, and the illumination device 15 The illuminated component 20 is imaged by the imaging device 5. The captured image of the component is input to an image processing apparatus 7 that includes a CPU 7a, an image memory 7b, an A / D converter 7c, and a component data memory 7d. The image processing device 7 captures an image of a set area, processes it by a known algorithm, recognizes the suction posture of the component, and calculates a position shift between the component center and the suction center and a component tilt. The controller 10 corrects this misalignment when driving the X-axis, Y-axis, and θ-axis motors 11, 12, and 14, and mounts the component 20 on the board (not shown) being conveyed.
[0016]
In addition, the component mounting apparatus is provided with input devices such as a keyboard 21 and a mouse 22 for inputting component data, and the generated component data is stored in a storage device 23 including a hard disk, a flash memory, or the like, or image recognition. It can be stored in the component data memory 7d in the apparatus 7. In this way, component data supplied from a host computer (not shown) connected to the component mounting apparatus may be stored in the storage device 23 or the component data memory 7d without using the input device. . In addition, a monitor (display device) 24 is provided, and component data, calculation data, and a component image captured by the imaging device 5 can be displayed on this screen.
[0017]
FIG. 2 illustrates a state in which the component 20 sucked by the suction nozzle 3 a is illuminated by the illumination device 15 and is imaged by the imaging device 5. The imaging device 5 captures an image of the set area by the control line 7d from the CPU 7a. The captured image is input to the image processing device 7 through the signal line 7e, converted into a digital signal through the A / D converter 7c, stored in the image memory 7b, and subjected to image processing to obtain a component signal. Posture is recognized. Further, the image to be processed can be displayed on the monitor 24.
[0018]
<Flow of parts recognition>
In the following, the flow of component recognition by detecting the orientation of a component, that is, the suction angle will be described along the flow of FIG. 3 executed under the control of the CPU 7a of the image processing apparatus.
[0019]
In addition to lead terminals, some rectangular parts have corner terminals at the corners. In the part 20a shown in FIG. 4 (A), the corner terminals at all four corners are all shaped. They are different (the lower right corner terminal is not provided, but if there is no corner terminal, the shape of none (virtual) is assumed). In the parts 20b, 20c, and 20d shown in FIG. 4B, one of the four corner terminals has a different shape from the other, and in the parts 20e and 20f shown in FIG. 2 each have the same shape and different shapes at the diagonal corners. In the parts 20g and 20h shown in FIG. 4D, all the four corner terminals have the same shape, and FIG. In the components 20i and 20j shown in FIG. 2, two of the four corner terminals have the same shape and the same shape at the diagonal corner.
[0020]
In this way, the components shown in FIGS. 4A, 4B, and 4C can recognize the suction angle of the components by detecting the presence or absence and shape of the corner terminals present in the corner portion, and FIG. For the parts corresponding to D) and (E), the suction angle of the parts cannot be recognized only by the information of the corner terminals. Therefore, in the present invention, the suction angle of the component as shown in FIGS. 4A, 4B, and 4C is determined. Therefore, when creating part data, record the corner terminal in which the corner terminal exists together with the part dimensions and terminal information (number of terminals, terminal dimensions, terminal pitch, etc.), and the corner terminal exists. When doing so, the shape of the corner terminal is also recorded, the existence position and shape of the corner terminal are patterned, and the pattern is also designated.
[0021]
The corner terminal shape type is classified according to the shape as shown in FIG. 5A, and the classification codes (0), (1),. . . . . When the orientation of the component is a reference angle (for example, 0 °) and upward, the position of the corner terminal is specified by coordinates with the component center as the origin, and the shape of the terminal present there Specify the type by classification code. Further, the existence positions and shapes of the corner terminals are patterned as shown in FIG. 5B, and the classification codes (0), (1),. . . . . Is assigned code, and the pattern type is specified by classification code for each part. In that case, it is determined from the shape information of the corner terminals existing at each corner whether the part is capable of recognizing the suction angle or not, and is recorded. For example, in FIG. 5B, the components of the classification codes (0) to (3) shown in the upper part cannot recognize the suction angle because the corner terminals are axisymmetric, and are shown in the lower part. The classification codes (4) to (8) are components capable of recognizing the suction angle.
[0022]
In this way, data such as component dimensions, terminal information on each side, information on presence / absence of corner terminals, corner terminal shape data, corner terminal existence position and shape pattern classification code, and whether or not suction angle can be recognized Created for each part. These component data are created by input means such as the keyboard 21 and mouse 22 in FIG. 2 or are created by a host computer (not shown) and stored in the storage device 23. These component data are loaded into the component data memory 7d of the image processing apparatus 7 and managed for each component ID. This is the reception (loading) of the component data in step S1 of FIG.
[0023]
Subsequently, a recognition command is acquired in step S2. In the recognition command, a component ID, a component type, and an imaging condition (designation of camera / lighting) are designated. Normally, it is necessary to specify the suction angle, but it can be omitted only for parts that can recognize the suction angle. When designating the suction angle of a component, the specification at the time of component data creation is 0 °, and there are four designations of 0 °, 90 °, 180 °, and 270 °. The suction angle of 0 ° is a state in which a predetermined side of the rectangular part is in a predetermined direction, for example, upward, and the part data is created using this time as a reference angle. It is adsorbed and mounted on the substrate in that direction. At an adsorption angle of 90 °, the component is adsorbed with the predetermined one side facing right and mounted on the substrate in that direction. Similarly, at the suction angles of 180 ° and 270 °, the components are sucked with the predetermined one side facing downward and leftward, and are mounted on the substrate in that direction. If the part is supplied at a reference angle (upward) and cannot be picked up in any other direction, the part is picked up at the reference angle, and then the suction nozzle is rotated according to the pick-up angle so that the direction of the part is adjusted Change.
[0024]
Next, in step S3, recognition component data (hereinafter, recognition data) is created. If the suction angle is designated in step S2, recognition data corresponding to that is created. For example, when a suction angle of 90 ° is specified, the component is imaged with the predetermined side of the component facing right and recognized, so that the component data is also recognized by being rotated 90 ° clockwise. Data. If the suction angle is not specified, it is determined that the part has been sucked in the same direction as the creation of the part data (suction angle 0 °), and recognition data is created. Therefore, the recognition data is the same data as when creating the component data.
[0025]
Next, lead terminals are detected in step S4. As shown in FIG. 6A, there are corner terminals 30a, 30b, 30c at the corner and lead terminals 30d at each side (there are five lead terminals at each side, one of which is assigned a reference numeral). In the case of a rectangular part 30 having a part), scanning is performed from the outside to the inside of the part image to detect an external contact of the part, and from this result, a circumscribed window W indicating a rough position of the part is obtained. Set. Subsequently, lead row windows W1 to W4 are set for each side (FIG. 6B), and an inspection area is set in an area where terminals exist. Then, for each of the four sides, a DOG filter (Marr & Posio's Difference-Of-Gaussian filter) is applied in the lead row window to detect the edge of the lead terminal, and using that, the lead tip ("+" ”)) Is detected. Such detection of the lead terminal is known and is described in, for example, Japanese Patent Laid-Open No. 6-223185.
[0026]
Subsequently, in step S5, lead row straight lines L1 to L4 connecting the lead tips are obtained from the detected lead tip coordinates (FIG. 6D), and the coordinate values are obtained using the intersections C1 to C4 as component corner portions. To do. At this time, since the corner terminals 30a, 30b, and 30c reduce the accuracy of the lead row straight line, for example, the lead row straight line is obtained by excluding the detected edges at both ends.
[0027]
<Detection of corner terminal by diagonal scan>
Subsequently, in step S5, a diagonal line of the part is obtained from the corner coordinates of the obtained part, and it is detected whether or not a terminal exists at the corner by scanning the diagonal line. This flow is shown in FIG. 7, and is executed under the control of the CPU 7a of the image processing apparatus.
[0028]
First, since the corner coordinates of the corners C1 to C4 of the component image are acquired (FIG. 6D), a diagonal line connecting diagonal corners is acquired (step S21), and a scan for detecting a terminal is performed. Direction and range are set (step S22). As shown in FIG. 8A, the scanning direction is made different depending on the slope of the diagonal line and the corner position in order to increase the detection sensitivity. As shown in FIG. 8B, the scan ranges are defined as ranges M1 and M2 having a length of 1/4 of the inter-corner distance before and after the corner coordinates, and the scan start point m1 and end point m2 are set. .
[0029]
When the scan direction, the scan start point, and the end point are thus set, the scan is started (step S23). As shown in FIG. 8C, when the diagonal slope is gentler than 45 °, the diagonal point and the upper and lower points are scanned from the scan start point to the end point (y-direction scan), and the diagonal slope is obtained. When the angle is steeper than 45 °, the diagonal point and the left and right points are scanned in the x-axis direction.
[0030]
In step S24, the CPU 7a as the corner terminal detection means determines the scan result and detects the presence or absence of the corner terminal. When a point equal to or greater than a predetermined threshold value for the corner terminal can be detected, the diagonal scan ends, and the process proceeds to step S25 to acquire the terminal outline. On the contrary, if a point equal to or higher than the threshold value is not found even after scanning to the end point of scanning, it is determined that there is no corner terminal.
[0031]
If a terminal is detected in step S24, a contour is detected from the detection point (step S25). The state of acquiring this contour is shown in FIG. In FIG. 9A, Q1 is a point detected by the diagonal scan, and the surrounding eight neighborhoods excluding the detected point Q1 are examined in numerical order. Since the threshold is detected at Q2 and the contour is detected, this is set as the next contour point. Subsequently, as shown in FIG. 9B, an investigation of 8 neighborhoods starting from Q2 is started, and the same processing is repeated until the initial start point is returned. Note that the survey direction in the vicinity of 8 is determined by the direction of the diagonal scan.
[0032]
The contour points thus detected are shown in FIG. 9C, and the information is stored in the array in the order of detection. Subsequently, in steps S26 and S27, the edge pair coordinates in the X direction and the edge pair coordinates in the y direction are obtained from the contour point array (FIGS. 9D and 9E). In step S28, centroids Xg and Yg of the detection terminal are obtained from the edge pair coordinates (FIGS. 9F and 9G). The calculation of the center of gravity is obtained according to the following formula.
[0033]
Lsum (y) = Edge2 (y) −Edge1 (y) +1
Ladr_sum (y) = Lsum (y) × (Edge1 (y) + Edge2 (y)) / 2
SUM = ΣLsum (y)
Ymom = Σ (Lsum (y) × y)
Xmom = ΣLadr_sum (y)
Xg = Ymom / Sum
Yg = Xmom / Sum
If the center of gravity of the detected detection terminal exists near the diagonal line, the detected terminal is regarded as a corner terminal, and conversely, if the center of gravity is far from the diagonal line, the lead terminal may have been detected by mistake, It is considered that there is no corner terminal (step S29). In this way, for the corner terminal detected above the threshold value, the contour of the terminal is further detected, the center of gravity of the terminal is obtained, and whether the detected terminal is a corner terminal is also determined. Further, it is possible to prevent erroneous detection of a non-corner terminal as a corner terminal, such as noise existing on a diagonal line.
[0034]
In the example of the component 30 shown in FIG. 6, the corner terminals 30a and 30c are detected at the corner portions C1 and C3 by the diagonal scan shown in FIG. 6 and the corner portions C1 and C3 are detected. By scanning a diagonal line connecting C2 and C4, the corner terminal 30b is detected at the corner portion C4, and no corner terminal is detected at the corner portion C2. As a result, it is possible to detect in which corner portion the corner terminal exists, so that the CPU 7a as the suction angle detection means has the corner portion where the detected corner terminal exists and the corner terminal recorded in advance. It is possible to collate with a corner portion to be detected, and detect a deviation of the suction angle of the component from the reference angle based on the collation result.
[0035]
For example, in the component 30 of FIG. 6, when the component data is created at a reference angle (suction angle 0 °), there is no corner terminal in the upper right corner portion, and there are corner terminals in other corner portions. Since it is recorded in the data memory 7d, when the corner terminal C2 is not detected at the corner C2 and the corner terminal is detected at the other corner by the diagonal scan, it is the same as the component data, so the suction angle 0 ° is detected. If the corner C3 is detected as having no corner terminal and is detected at the other corner, the suction angle 90 ° is detected, and the corner C4 is detected as having no corner terminal and is detected at the other corner. When the suction angle of 180 ° is detected, the corner portion C1 has no corner terminal and the other corner portions are detected, the suction angle 27 ° is detected. Therefore, for example, when a part is sucked in a different orientation from the specified suction angle, such as when the orientation of some part is wrongly stored in the feeder, the difference in suction angle (part Therefore, when mounting must be performed in consideration of the polarity (mounting direction) at the time of component mounting, it is possible to prevent erroneous mounting by correcting the suction angle.
[0036]
The above is the step S9 in the process of FIG. The suction angle is such that at least the corner terminals (the presence or absence or shape thereof) at both corners of one side of the part, as in the parts classified in the classification codes (4) to (8) in FIG. This is possible when it is asymmetric with respect to the central vertical line. However, in the parts of classification codes (0) to (3) having the presence or absence of corner terminals or symmetry in the shape, the suction angle cannot be determined, and therefore the acquisition of the suction angle is skipped by the determination in step S6. In addition, in the case of a component that needs to determine not only the presence / absence of the corner terminal but also the shape of the corner terminal (such as the component 20b in FIG. 4), the shape of the corner terminal is also detected (step S7). , S8).
[0037]
FIG. 10 shows the flow of detection of the shape of the corner terminal. First, as shown in FIG. 10A, the outer tangent of the corner terminal is obtained from the contour of the corner terminal 40a of the component 40 acquired in step S25. To obtain a region 41 surrounded by its circumscribed tangent line. In addition, since the lead coordinates are acquired in step S4, as shown in FIG. 10B, the rough inclination θ of the component is acquired from the lead coordinates.
[0038]
Subsequently, in consideration of the size of the region 41 and the component inclination θ, templates 42 and 43 corresponding to the designated corner terminal shape are created (FIG. 10C). Subsequently, as shown in FIG. 10D, windows w1 to w4 including corner terminals are set on the outer periphery of each corner terminal of the image of the component 40, and template matching is performed using the created templates 42 and 43. As shown in FIG. 10 (E), the corner terminal 40a, 40c, 40d of the component 40 has a high correlation value during template matching by the template 42, and the corner terminal 40b uses the template 43. Since the correlation value increases, the corner terminal shape can be specified as the shape defined by each template.
[0039]
As a result, the CPU 7a can detect which shape of the corner terminal exists in which corner portion. Therefore, by comparing with the shape of the terminal of the corner portion specified by the component data, the suction angle of the component can be determined. It can be acquired how many times the component data is tilted (deviation from the reference angle) (step S9). If the actual suction angle and the specified suction angle are different, the error ends as a suction angle error. However, it is also possible to carry out recognition until the end without error end, and to mount the component after correcting the suction angle deviation.
[0040]
Subsequently, in step S10, the recognition data is corrected in accordance with the suction angle obtained in step S9. For example, if a 90 ° shift is detected in the suction angle, if the recognition data is not corrected, a recognition error may occur depending on the part (FIG. 11E, etc.). Rotate 90 ° to correct the recognition data.
[0041]
Subsequently, a lead inspection is performed using the corrected recognition data (step S11), and abnormalities such as a lead length abnormality, a number abnormality, a pitch abnormality, a lead bending abnormality and the like are detected. If the lead inspection is normal, the component center and inclination are calculated using the detected lead coordinates (step S12).
[0042]
When the component center and inclination are calculated, the suction center and inclination are corrected and the component is mounted on the board. At this time, if a shift in the suction angle as described above is detected, the shift in the suction angle is corrected and mounted. Accordingly, it is possible to prevent erroneous mounting when a deviation in the suction angle is detected when the component must be mounted on the board in a specified direction.
[0043]
In the above-described embodiment, a rectangular part is described. However, other polygonal parts have corner terminals at the corners, and the corner terminals are arranged asymmetrically so that the suction angle can be detected. Of course, it is also applicable.
[0044]
【The invention's effect】
As described above, in the present invention, the corner terminal existing in the corner portion of the component is detected, so the corner portion where the detected corner terminal exists and the corner where the corner terminal recorded in advance exists. By collating with the part, it is possible to reliably detect the suction angle of the component. Therefore, when a part is picked up at an angle different from the specified picking angle, this can be detected, it is possible to prevent erroneous mounting, and the specification of the picking angle specified at the time of recognition execution is omitted. be able to.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a component mounting apparatus.
FIG. 2 is a configuration diagram illustrating configurations of a component imaging device and an image processing device.
FIG. 3 is a flowchart showing a flow of component recognition.
FIG. 4 is an explanatory view showing types of lead terminals and corner terminals of various components.
FIG. 5 is an explanatory diagram showing a state where a shape type and an arrangement pattern are coded according to the corner terminals and their arrangement.
FIG. 6 is an explanatory diagram showing a flow for obtaining lead row straight lines and corner coordinates.
FIG. 7 is a flowchart illustrating a flow of detecting whether or not a corner terminal exists in a component by diagonal scan.
8A is a table for explaining a diagonal scan method, and FIGS. 8B and 8C are explanatory diagrams for explaining a diagonal scan method. FIG.
FIG. 9 is an explanatory diagram showing a flow for obtaining a contour of a detected corner terminal.
FIG. 10 is an explanatory diagram showing a flow of specifying a corner terminal shape by template matching.
FIG. 11 is an explanatory diagram illustrating a problem when the suction angle is different from a specified angle.
[Explanation of symbols]
5 Imaging device
7 Image processing device
7b Image memory
7d Component data memory
30 parts
30a, 30b, 30c Corner terminal
C1-C4 corner

Claims (2)

吸着された部品の画像を処理することにより部品の吸着姿勢を認識する部品認識方法において、
部品の一辺の向きが基準角度にあるとき部品のどのコーナー部にコーナー端子が存在するかを示す照合データを予め記録し、
部品の画像処により求められる部品コーナーを結ぶ対角線上に沿ったスキャンによりコーナー端子を検出し、
検出されたコーナー端子の重心位置を検出することでコーナー端子か否かを判定し、
判定されたコーナー部のコーナー端子の形状と、予め記録されたコーナー端子が存在するコーナー部のコーナー端子の形状とをテンプレートマッチングで照合し、
その照合結果に基づき部品の90°単位の方向を判別することを特徴とする部品認識方法。
In the component recognition method for recognizing the suction posture of a component by processing the image of the sucked component,
When the direction of one side of the part is at the reference angle, the collation data indicating in which corner part of the part the corner terminal exists is recorded in advance,
The scanning along the diagonal line connecting the component corner determined by the part of the image Zosho sense detects corner terminals,
It is determined whether it is a corner terminal by detecting the center of gravity position of the detected corner terminal,
The shape of the corner terminal of the determined corner portion is compared with the shape of the corner terminal of the corner portion where the pre-recorded corner terminal exists by template matching ,
A component recognition method, comprising: discriminating a 90 ° unit direction of a component based on the collation result.
吸着された部品の画像を処理することにより部品の吸着姿勢を認識する部品認識装置において、
部品の一辺の向きが基準角度にあるとき部品のどのコーナー部にコーナー端子が存在するかを示す照合データを予め記録する記憶手段と、
部品を撮像する撮像装置と、
撮像された部品の画像を処理する画像処理装置と、
前記部品の画像処理により求められる部品コーナーを結ぶ対角線上に沿ったスキャンによりコーナー端子を検出するコーナー端子検出手段と、
検出されたコーナー端子の重心位置を検出することでコーナー端子か否かを判定する手段と、
判定されたコーナー部のコーナー端子の形状と、予め記録されたコーナー端子が存在するコーナー部のコーナー端子の形状とを照合するテンプレートマッチング手段と
その照合結果に基づき部品の90°単位の方向を判別する方向判別手段と、
を有することを特徴とする部品認識装置。
In the component recognition device that recognizes the suction posture of the component by processing the image of the sucked component,
Storage means for pre-recording collation data indicating which corner portion of the component has a corner terminal when the direction of one side of the component is at the reference angle;
An imaging device for imaging a component;
An image processing apparatus for processing an image of the imaged part;
Corner terminal detection means for detecting a corner terminal by scanning along a diagonal line connecting component corners obtained by image processing of the component ;
Means for determining whether the terminal is a corner terminal by detecting the position of the center of gravity of the detected corner terminal;
A template matching means for collating the shape of the corner terminal of the determined corner portion with the shape of the corner terminal of the corner portion where the pre-recorded corner terminal exists;
Direction discriminating means for discriminating the 90 ° unit direction of the parts based on the collation result;
A component recognition device comprising:
JP2003117739A 2003-04-23 2003-04-23 Component recognition method and apparatus Expired - Lifetime JP4106301B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003117739A JP4106301B2 (en) 2003-04-23 2003-04-23 Component recognition method and apparatus
CNB2004100351305A CN1319012C (en) 2003-04-23 2004-04-23 Part recognizing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003117739A JP4106301B2 (en) 2003-04-23 2003-04-23 Component recognition method and apparatus

Publications (2)

Publication Number Publication Date
JP2004325146A JP2004325146A (en) 2004-11-18
JP4106301B2 true JP4106301B2 (en) 2008-06-25

Family

ID=33497494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003117739A Expired - Lifetime JP4106301B2 (en) 2003-04-23 2003-04-23 Component recognition method and apparatus

Country Status (2)

Country Link
JP (1) JP4106301B2 (en)
CN (1) CN1319012C (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1484020A1 (en) 2003-06-06 2004-12-08 Kontron Medical AG Motorized multiplane transesophageal probe with coupling fluid
JP5730114B2 (en) * 2011-04-25 2015-06-03 富士機械製造株式会社 Component rotation angle detection device, image processing component data creation device, component rotation angle detection method, and image processing component data creation method
JP5939775B2 (en) * 2011-11-30 2016-06-22 キヤノン株式会社 Image processing apparatus, image processing program, robot apparatus, and image processing method
AT513747B1 (en) 2013-02-28 2014-07-15 Mikroelektronik Ges Mit Beschränkter Haftung Ab Assembly process for circuit carriers and circuit carriers
JP6427754B2 (en) * 2014-01-31 2018-11-28 パナソニックIpマネジメント株式会社 Component recognition data inspection system and component recognition data inspection method
TWI507678B (en) * 2014-04-09 2015-11-11 Inventec Energy Corp Device and method for identifying an object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282444A (en) * 1996-04-16 1997-10-31 Matsushita Electric Ind Co Ltd Visual recognition device
US6549683B1 (en) * 2000-05-02 2003-04-15 Institut National D'optique Method and apparatus for evaluating a scale factor and a rotation angle in image processing
JP3709800B2 (en) * 2001-03-14 2005-10-26 株式会社村田製作所 Mounting machine and component mounting method

Also Published As

Publication number Publication date
CN1319012C (en) 2007-05-30
JP2004325146A (en) 2004-11-18
CN1551036A (en) 2004-12-01

Similar Documents

Publication Publication Date Title
JP4106301B2 (en) Component recognition method and apparatus
JP5158686B2 (en) Adsorption part front / back determination device and adsorption part front / back determination method
JP4707249B2 (en) Component position detection method and apparatus
JP4778076B2 (en) Component recognition device and component transfer device
US5038380A (en) Method for recognizing position of component and apparatus therefor
JP4890904B2 (en) Component position detection method and apparatus
JP3322569B2 (en) Component image edge detection method and component shape recognition device
JP4744234B2 (en) Component positioning method and apparatus
JP4566686B2 (en) Method and apparatus for determining shape of object
JP4757701B2 (en) Electronic component suction position correction method and apparatus
JP4551651B2 (en) Component recognition method and apparatus
JP4380864B2 (en) Component detection method and apparatus
JP4686329B2 (en) Component recognition method and apparatus
JP4681984B2 (en) Component positioning method and apparatus
JP4150262B2 (en) Component recognition method and apparatus
JP2006234793A (en) Part position detecting method and device
WO2022224645A1 (en) Data creation system and installation system
JP3452201B2 (en) Component mounting equipment
JP3720476B2 (en) Component detection method
JP4642648B2 (en) Image processing method and apparatus for components mounted on mounting apparatus
JP4660205B2 (en) Component recognition method and apparatus
JP4226866B2 (en) Component recognition device for mounting machine
JPH07243810A (en) Method and apparatus for recognition of position of electric component
JP2001209792A (en) Method and device for detecting part position and method and device for storing part data
JP2008122259A (en) Method for discriminating object shape, and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070202

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080331

R150 Certificate of patent or registration of utility model

Ref document number: 4106301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

EXPY Cancellation because of completion of term