JP4546635B2 - Electronic component mounting method and apparatus - Google Patents

Electronic component mounting method and apparatus Download PDF

Info

Publication number
JP4546635B2
JP4546635B2 JP2000323430A JP2000323430A JP4546635B2 JP 4546635 B2 JP4546635 B2 JP 4546635B2 JP 2000323430 A JP2000323430 A JP 2000323430A JP 2000323430 A JP2000323430 A JP 2000323430A JP 4546635 B2 JP4546635 B2 JP 4546635B2
Authority
JP
Japan
Prior art keywords
electronic component
terminal
data
height
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000323430A
Other languages
Japanese (ja)
Other versions
JP2002134991A (en
Inventor
光正 岡林
純夫 後藤
好晃 安部
勝 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2000323430A priority Critical patent/JP4546635B2/en
Publication of JP2002134991A publication Critical patent/JP2002134991A/en
Application granted granted Critical
Publication of JP4546635B2 publication Critical patent/JP4546635B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、電子部品実装方法及び装置、更に詳細には、吸着された電子部品を撮像しその撮像データから電子部品を位置決めして基板上に実装する電子部品実装方法及び装置に関する。
【0002】
【従来の技術】
従来から、電子部品実装装置においては、部品供給部から供給される電子部品を吸着ヘッド部の吸着ノズルで吸着し、ヘッド部をプリント基板上に移動して電子部品を基板上の所定位置に実装している。その場合、電子部品が必ずしも正しい姿勢で吸着されるわけではないので、撮像装置(CCDカメラ)で電子部品を撮像し、その画像を処理して部品の位置決めデータを得ている。また、狭リードピッチ、狭リード幅のQFP、コネクタのような電子部品を実装する際には、プリント基板に装着する前に部品のリード端子に浮きがないかどうかを検査するのが一般的である。
【0003】
例えば、QFPのようなリード端子を有する電子部品を基板に実装する場合、リード端子が浮きを有していると、リード端子を基板の電極部にボンディングできないことから、従来、図16(A)に示すように、ノズル100に吸着された電子部品101のリード端子102a、102bに向って、リード浮きセンサ103のレーザ部104からレーザ光を照射し、リード端子からの反射光を受光部105で受光して、各々のリード端子102a、102bの基準面Sからの高さZ1、Z2.....を求めることにより、リード端子102の浮きを検出することが知られている。
【0004】
ところで、吸着された電子部品は図16(A)に示すように水平面Lに対して傾きθ1を有する。これは電子部品を吸着するノズル100の下面の傾斜誤差、更には電子部品のモールド体の上面の傾斜誤差によるものである。
【0005】
このような機械誤差があると、電子部品101は、水平面Lに対して角度θ1傾斜しているから、リード端子102aを測定後に反対側のリード端子102bを測定するために、ノズル100を180度回転させてリード端子102bをリード浮きセンサ103の上部に位置させたとき、図16(B)に示すようにレーザ光Rのようにリード端子102bに投光されないで逃げてしまうことが有る。またリード端子102bに投光されたとしてもリード先端部に少ししか投光されないことがある。このような場合、高さ誤差が生じて、リード端子102の浮きを誤判断する問題がある。
【0006】
さらには図16(C)に示すように、垂直線Vに対してノズル100の軸心にθ2の傾きがあるとリード端子102aの測定時に位置していた水平線Lに対してΔZの誤差が生じる。当然のことながら測定しようとするリード端子102bもΔZ変化している。ここでリード端子102bを測定すればΔZの誤差を含み、本来Z2であるべき高さがZ2−ΔZ(θ2が図と逆向きの時はZ2+ΔZとなる)となってしまい、リード端子102の浮きを誤判断する問題がある。
【0007】
その他の問題点として、リード浮きセンサー103でリード浮きの検査をする際には、センサー部をリード端子が走査するように、部品を吸着している大きなヘッド部を一定速度で移動させなければならないことに加えて、物理的な実装部品の4辺個別走査が必要となり、このための処理時間は通常1〜3秒程度になる。この処理時間はこのような部品の実装時間を長くさせる要因となる。これは特に、QFPやコネクターを数多く実装する場合には大きなデメリットとなる。
【0008】
【発明が解決しようとする課題】
本発明は、上記問題点を解決するためになされたもので、正確でしかも高速に電子部品のリード端子の高さデータを求めることができ、確実な端子浮き検査が可能な電子部品実装方法及び装置を提供することをその課題とする。
【0009】
【課題を解決するための手段】
本発明は、いずれも吸着された電子部品を撮像しその撮像データから電子部品を位置決めして基板上に実装する電子部品実装方法及び装置に関するもので、撮像データに基づいて電子部品の吸着角度ずれを補正する工程ないし手段と、前記角度ずれを補正された電子部品の端子に光切断線を投光する工程ないし手段を有し、それにより、撮像データを用いて電子部品の吸着角度ずれが補正され、角度ずれを補正された電子部品の端子に光切断線が投光される。
【0012】
また、本発明では、吸着ノズル軸の垂直軸に対する傾きがあると、正確な端子高さが求められないので、角度補正された電子部品並びにそれから更に90°回転させた電子部品の同一の端子を少なくとも含めてそれぞれ光切断線を投光して90°回転される前後の電子部品の端子高さをそれぞれ計算する工程ないし手段と、この90°回転される前後の電子部品の端子高さから電子部品を吸着するノズル軸の垂直軸に対する傾きを補正した端子高さのデータを求める工程ないし手段が設けられ、これにより傾き補正された端子高さのデータが求められ、端子の浮きが検査される。
【0013】
このような構成により、ノズル軸の傾斜により電子部品が垂直軸に対して傾斜していても、この傾斜が補正された高さデータに基づいて浮き検査が行なわれるので、リード浮きの誤判断を防止できる。
【0016】
【発明の実施の形態】
以下、図面に示す実施の形態に基づき本発明を詳細に説明する。
【0017】
[全体の構成]
図1には、電子部品実装装置11の外観が図示されており、本装置で実装される電子部品12は、部品供給部としてのトレー供給部14からトレー13に自動的に供給され、吸着ヘッド部17の吸着ノズル17aにより吸着される。ヘッド部17は、XYロボットの一部を構成するX軸側のロボット15(以下、X軸ロボットと略記する)によりx軸方向に移動され、また、XYロボットの一部を構成するY軸側のロボット16a、16b(以下、Y軸ロボットと略記する)によりy軸方向に移動される。ヘッド部17は、電子部品を吸着した後3次元センサ18に移動し、そこで電子部品が撮像され、位置決めのための2次元データ並びに高さデータからなる3次元データが取得される。なお、19は電子部品12が実装されるプリント基板である。
【0018】
[全体の工程]
このような構成で、トレー13に載っている電子部品12がX軸ロボット15およびY軸ロボット16a、16bによって移動され、ヘッド部17の吸着ノズル17aで吸着され3次元センサ18の上に移動される。そして3次元センサ18によって電子部品12の2次元画像が取込まれ、画像をソフトウエア処理して位置決め検査を行う。次に3次元センサ18によって電子部品12の3D(高さ)画像が取り込まれる。3次元センサ18によって得られた(高さ)画像をソフトウェア処理して、電子部品12のリード浮きなどの3D形状検査を行い、位置決め情報に従って、電子部品12がプリント基板19の上の所定の位置に装着される。
【0019】
図3には、上記工程が更に詳細に図示されており、図3(A)に示す工程では、電子部品12はトレー13からヘッド部17の吸着ノズル17aでピックアップ(吸着)される。図3(B)に示す工程では、電子部品12が3次元センサ18の上に位置するようにヘッド部17が移動される。そして位置決め画像撮像用照明光源が点灯されて、照明光束が電子部品12に投光され、電子部品12の底面部12’の撮像を行い、この2次元画像を画像処理装置G内の画像メモリMに取り込み、これを画像処理することで、位置決め検査を行う。次に3次元センサ18から発せられるレーザライン光18aによる走査で、吸着されている電子部品12のリード端子部の3次元画像を、画像処理装置G内の画像メモリMに取り込み、これを画像処理することで、電子部品12の3次元形状検査を行う。図3(C)に示す工程では、画像処理装置Gの画像処理により求まった位置決め情報をもとに、プリント基板19の上に電子部品12を実装する。
【0020】
図2(A)〜(C)はQFP等のリード端子の3次元画像取り込みを行なう状態を概略示したものである。図2において、12はXYロボットによって3次元センサ18の上部に移動配置された電子部品、25aは後述するリニアアクチュエータによって走査されるレーザライン光、12aは電子部品12のリード端子の一つである。
【0021】
図2(A)は電子部品12が3次元センサの位置に配置された状態を示す。位置決め画像用照明光源を点灯して電子部品12の底面の2次元画像を取込み、ソフト処理によりリード端子の有無、リード端子の配列の重心と吸着ノズル中心とのずれ、リード端子の配列の傾きを算出する。
【0022】
次に、図2(B)に図示したように、上記算出した配列の傾きから吸着ノズル軸を回転させて角度と位置の補正をし、リード端子の配列がxy軸に平行となるようにするとともにリード端子の配列の重心が3次元センサの視野のほぼ中心に位置するようにする。そして図2(C)に示したように、角度と位置が補正された電子部品12にレーザライン光25aがパルス点灯して順次投光され光切断線が引かれる。レーザライン光は、それと平行にのびるリード端子配列に対しては一つおきに投光し、一回の撮像で複数のリード端子配列に複数のライン光を投光する。ソフト処理は投光したリード端子配列の部分のみを切出して処理するので前記二本のレーザライン光の中間部分は処理されず影響を及ぼさない。つぎに未投光のリード端子配列に対しても前記と同様にレーザライン光を走査して撮像し、2つの画像からリード端子の高さデータを得ることができる。
【0023】
[3次元センサの構成]
図4は、3次元センサの詳細な構成を示すもので、電子部品の3次元画像データを取得する場合、レーザダイオード21が点灯され、このレーザダイオードからの光はコリメートレンズ22で集光されて平行光となり、フォーカスレンズ23はこの平行光をスポット光となるように絞り込む。フォーカスレンズ23からの光は、投光ミラー24により垂直軸とほぼ45度の角度をなすように曲げられ、この曲げられた光路のすぐ後に配置されたラインジェネレータレンズ25は、入射光を、幅30μm、長さ40mmのライン光25aにしてヘッド部17の吸着ノズル17aに吸着された電子部品12のリード端子12aに投光し、端子部に光切断線を形成する。フォーカスレンズ23、投光ミラー24、ラインジェネレータレンズ25は投光ユニット27を構成し、この投光ユニット27はリニアモータ(アクチュエータ)28により2重矢印線で示したように往復動され、それにより電子部品12のリード端子12aはライン光により走査される。コリメータレンズ22で形成された平行光線に向かってリニアモータ28が前後直線運動を行っても、フォーカスレンズ23の結像作用には影響を及ぼさないから、電子部品12には常に一定の幅のライン光が結像される。
【0024】
電子部品12の下方には、視野が36mm×36mmで、ノンインターレースのCCDカメラ(撮像装置)26が配置され、またリニアモータ28は45mmのストロークで移動され、投光ユニット27が図4において右端から左に、一定速度700mm/secで移動させる。CCDカメラ26の視野内の所定の個所に投光出来る位置に来た時に、レーザダイオード21が50μsec間点灯され、このように所定のピッチでフレーム内に複数のライン光が引かれその像が撮像される。この撮像から、後述するように、リード端子12aの浮き、電子部品の底面の平坦度などを測定するための3次元データが取得される。
【0025】
また、電子部品12は、2次元画像データを取得する場合、LED照明光源31が点灯され、この光源により30°〜45°の角度で周囲から照明される。LED照明光源31により照明された電子部品の画像は、同様にCCDカメラ26で撮像され、吸着中心と部品中心間のずれ、基準角度に対する吸着角度のずれなどの位置決めデータを得るための2次元データが取得される。
【0026】
[制御系の構成]
図5は電子部品実装置の制御系の構成を表すブロック図であり、本装置はLANボード40を通じて部品実装制御部41と通信を行う。レーザコントロールボード42はLED照明光源31の点灯消灯の制御を行い、またレーザドライバ43を介してレーザダイオード21のパルス点灯制御を行い、更にモータドライバ44を介してリニアモータ28の制御を行う。これらの制御はリニアモータ28に取付けられた位置エンコーダ45からの信号をエンコーダアンプ46を介してレーザコントロールボード42に取り込むことによって行われる。CCDカメラ26で撮像された画像は画像キャプチャーボード47で取込まれ、PCIバス49を介してPCマザーボード48の画像メモリMに送られる。このPCIバス49は、その他LANボード40、レーザコントロールボード42間を結合する。
【0027】
図6はレーザコントロールボード42の詳細ブロック図である。位置カウンタ51は位置エンコーダアンプ46よりのA相、B相、Z相信号が入力されて、アップダウンカウントを行い、リニアモータ28の位置情報が、比較器53、CCDトリガデコーダ54に出力される。CCDトリガデコーダ54は位置カウンタ51からのリニアモータ28の位置情報により、CCDカメラ26の画像取込み位置に来たら画像取込み信号を発生し、ワンショット55はその信号を受けて一定のパルス巾の信号を出力する。同期タイミング発生器56は、ワンショット55のパルスを受けて、内部で発生する水平同期信号HDに立ち上がり立ち下がりタイミングを合せた垂直同期信号VDを発生する。このHD、VD信号はCCDカメラ26に入力されて、レーザ走査に合せた画像取込みが行われる。これはリスタート・リセットモードというVD信号に同期してCCDのリセット、画像読み出しを行うモードである。
【0028】
比較器53には位置カウンタ51からリニアモータ28の位置情報とCPU52よりのレーザダイオード21のON位置信号が入力される。この二つの入力が一致したらワンショット57をトリガし、レーザダイオードONパルスが出力され、レーザドライバ43の基板に伝えられ、レーザダイオード21がパルス点灯する。同時に比較器53の出力は、一致F/F58をセットし、その出力がCPU52に伝えられ、レーザダイオードON位置をすでに通過したことがCPU52に伝えられる。一致F/F58のリセットは、CPU52により比較器53にレーザダイオードON位置出力と同時に行われる。
【0029】
これにより一つの画面内に複数のレーザライン光を引く場合は、まず第1のレーザダイオードON位置を比較器53に入力し、同時に一致F/F58をリセットし、レーザダイオードON位置でレーザダイオード21をパルス点灯し、一致F/F58出力がHに変わったら、CPU52から第2のレーザダイオードON位置を出力し、同時に一致F/F58をリセットする。そして、第2のレーザダイオードON位置でレーザダイオード21をパルス点灯し、一致F/F58出力がHに変わったら、CPU52から第3のレーザダイオードON位置を出力し、同時に一致F/F58をリセットする。これらの処理を一画面内のレーザライン光の本数分だけ繰り返す。
【0030】
D/A変換器59はCPU52からのレーザパワーレベル信号(デジタル)をアナログ信号に変換し、レーザドライバ43の基板に伝える。それにより電子部品の種類によりレーザパワーの調整が可能である。CPU52からリニアモータドライバ44の基板へは起動/停止、正転/逆転、リセット、D/A変換器61を介してのスピード指令信号がそれぞれ出力され、レーザライン光走査を行う。
また、PCIバスインターフェース60を介して、PCマザーボード48より、走査回数、レーザダイオードON位置、レーザダイオードパワーレベル等のコマンドが受信され、逆にCPU52からはレーザライン走査終了、各種のエラーメッセージ等の信号がPCマザーボード48に伝えられる。
【0031】
以下、このように構成された電子部品実装装置の動作を図7の流れに沿って説明する。
【0032】
[画像処理]
まず、ステップS1において、部品実装制御部41から電子部品に関する情報、例えば電子部品の種類(BGAかQFPなのか)、端子のピッチと配列等の情報をLANボード40、PCIバス49を介して受信する。電子部品12は、図3(A)に示すように、トレー13からヘッド部17の吸着ノズル17aによりピックアップ(吸着)され、図3(B)に示したように、3次元センサ18の上に電子部品12が位置するようにヘッド部17がX軸ロボット15及びY軸ロボット16a、16bにより移動される。そこで、ステップS2でLED照明光源31が点灯され、それにより電子部品12の底面部12’が照明され、その画像がCCDカメラ26により撮像され、画像キャプチャーボード47を介してPCマザーボード48の画像メモリMに取り込まれ(ステップS3)、続いて、LED照明光源31が消灯される(ステップS4)。
【0033】
電子部品がQFPの場合、画像メモリMに取りこまれた2次元の画像が図2(A)に図示されており、その画像が画像処理装置Gで画像処理され、電子部品12のリード端子12aの有無、リード端子12aの配列の重心と吸着ノズル中心とのずれ、電子部品12の吸着傾きを算出し、位置決めデータが算出される(ステップS5)。
【0034】
なお、端子配列計算の処理には、種々の方法(アルゴリズム)があり、ここでは代表的なものを説明すると次の通りである。まず、QFPなどの四角形の電子部品12の1つの辺のリードの傾きを粗く検出し、次いで、検出されたリードの中から任意に選択された2つのリードの位置を大まかに検出し、最後に、大まかに検出されたリード位置を基にリード位置を精度良く検出する。このようにして、QFPのような四角形の電子部品の1つの辺のリードの位置が検出されれば、このリード位置を基に、他の辺のリードについては、リード位置を精度良く検出すればよい。
【0035】
続いて、ステップS6で端子の有無、リードピッチが適正か否かを判断し、適正でなければステップS7で端子配置エラーを出力し、一方、適正であれば、ステップS8で端子配列の重心位置、端子配列の傾き(角度)等電子部品検査結果を部品実装制御部41へ送信する。部品実装制御部41は、電子部品12を吸着している吸着ノズル17aを回転させてリード端子配列がXY方向に向くように角度補正を行い、ステップS9で電子部品12の角度補正完了を受信する。このように角度補正された状態が図2(B)に図示されており、リード端子配列がXY方向に向くようになっており、またリード端子配列の重心がCCDカメラ26の視野の中心に位置している。
【0036】
[高さデータの取得]
次に、電子部品12の3次元形状検査が行われる。端子配列計算処理により端子位置は既知であるからステップS10で必要なリード端子位置にレーザ光を走査パルス点灯させてライン光走査画像を取込み、ステップS11でリード端子の高さを求め、ステップS12、S13でリード端子の浮きを検査してその平坦度検査を行なう。
【0037】
なお、電子部品のリード端子平坦度検出においてはリード端子高さのばらつきが分かれば良いので、例えばパッケージ底面からリード端子最下面迄の高さのような絶対高さのデータを必要としない。そこで、CCDカメラ26のフォーカス位置と、レーザライン光25aのフォーカス位置は一致していることから、この位置に平面を置き、この平面からの高さをもとめる。そのために、リード配列の位置(リニアモータのエンコーダのm番目パルスの位置)にライン光を点灯するときに引かれる線を仮想基準線とし、仮想基準線を用いて高さ測定を行なう。
【0038】
すなわち、図8に示したように、リード配列の位置(リニアモータのエンコーダのm番目パルスの位置)にライン光を点灯したとき前記平面(フォーカス面)に仮想基準線74を引き、この仮想基準線から該ライン光によるリード端子12aの映像までの画素数をもってリード端子の高さを計算する。高さ計算上リード端子映像位置に対して仮想基準線が近すぎる場合は、仮想基準線をシフトさせてこのシフトされた仮想基準線74’からリード端子の映像までの画素数をもって高さ計算を行なう。
【0039】
本発明では、リード端子の高さ(浮き)をレーザライン光を照射して光切断線を引くとき、一つの目標個所に対して引いた光切断線の前後に光切断線をさらに引き、計3本の光切断線を引く。このときのレーザライン光の光切断線のピッチは80μmとする。
【0040】
例えば、図9(A)に示したように、電子部品12のリード端子列bとdにはリード端子の伸びる方向と直角にレーザライン光を照射して光切断線を引き、またリード端子列aとcにはリードの伸びる方向と平行であって、しかも各リード列の両端のリード端子だけにレーザライン光を照射し光切断線を引く。まず、1回目は電子部品の一つの画像にL1−1,L1−2,L1−3,L1−4の4本の光切断線が引かれた画像を撮像し、次に2回目以降も同様にしてL2−1,L2−2,L2−3,L2−4の引かれた画像、続いてL3−1,L3−2,L3−3,L3−4の引かれた画像というように3つの画像を撮像する。
【0041】
次に図9(B)に図示したように、電子部品12を右に90°回転させ、リード端子列aとcにリード端子の伸びる方向と直角に光切断線を引き、1回目は一つの画像にL4−1,L4−2の2本の光切断線が引かれた画像を撮像し、2回目は同様にしてL5−1,L5−2の引かれた画像、3回目はL6−1,L6−2の引かれた画像というように3つの画像を撮像する。
【0042】
以上のように合計6つの画像を撮像し、各光切断線ごとに18個の画像を切り出す。続いて、以下に述べる方法を用いて、一つの目標個所及びその近傍に引いた3つの光切断線の中でどれが一番適切であるかを判定して適切な画像データで高さ計算を行う。例えば図9(A)のリード端子列dではL1−1,L2−1,L3−1の中から最適な画像を抽出する。またリードの伸びる方向と平行な光切断線であるリード端子列aとcのような場合は端子列ごとに行う。すなわち端子列aではL1−2,L2−2,L3−2の中から最適な画像を抽出し、端子列cではL1−2,L2−2,L3−2の中から最適な画像を抽出する。
【0043】
[最適画像の抽出]
上述した最適な画像の抽出は次のような手順によって行う。まず、切り出した画像に対して空間一次微分を行い、その場合、Rosenfeldの近似式を用いる。そのために、表1に示したように、注目画素を中心にした3×3画素W(n、n)の窓内の周辺画素間の差分計算を数1を用いて行い、計算値Gを求め、これを注目画素の値に置換えて、元の画素データとは別のメモリ空間に配列する。
【0044】
【表1】

Figure 0004546635
【0045】
【数1】
Figure 0004546635
図10(A)は画像データの一部である一つのリード端子12a(図9(A))近辺の画素データであり、ライン光の切断線は、図で上から下に伸びている。数値は輝度値を表しており、輝度値が大きいところがリード端子部である。図10(B)は、その画像データを上記数1を用いて差分計算した結果であり、数値は差分計算値Gを表している。この差分計算値は空間一次微分に相当するので、リード端子のエッジ部分でG値が大きくなっている。
【0046】
次にリード端子ごとに差分計算値Gの最大値を取り出す。リード端子の伸びる方向と平行な光切断線では、取り出したG値の最も大きな画像データを採用する。例えば端子列aにおける一つのリード端子においては、L1−2によるGの最大値とL2−2によるGの最大値とL3−2によるGの最大値とを比較して、最も大きなG値の光切断線の画像データを最適な画像として採用する。
【0047】
これに対して、リードの伸びる方向と直角な光切断線では、一つの光切断線が複数のリード端子を走査するので、光切断線ごとに各リード端子の差分計算値Gの最大値を取り出し、各リード端子ごとに最も大きなG値を選び、このG値を有した光切断線にマーク付けを行う。そしてマーク数の多い光切断線を抽出する。次に抽出した光切断線のG値データ群と、抽出した光切断線前後の光切断線でリード先端に近い方の光切断線の値データ群を統計的に比較してデータ群に違いが有れば抽出した光切断線の画像を採用し、違いが無ければ、端子をパッドに接した時、リード先端が始めに接地するので、先端ほどデータの品質がよく、従って、リード先端に近い光切断線の画像を採用する。
【0048】
例えば図11において、左側はライン光が当たるリード端子ごとの差分計算値Gの最大値が示されている。図9(A)では、各光切断線が切断する端子は7個しか示されていないが、端子が13個あるものとして示されている。(光切断線L1−1,端子番号1)では取出した差分計算値Gの最大値は394であり、(光切断線L2−1,端子番号1)では取出した差分計算値Gの最大値は469であり、(光切断線L3−1,端子番号1)では取出した差分計算値Gの最大値は354である。前記3つの数値で最も大きなのは469であり、この数値を有していたのはL2−1であるから、図11の右側(光切断線L2−1,端子番号1)にマーク1を付ける。以上のようにすべての端子番号について比較マーク付けを行う。図11において最も多いマーク数10を有するL2−1が選ばれる。
【0049】
次に光切断線L2−1のG値データ群とリード先端に近い光切断線L1−1のG値データ群を統計的に比較する。ここでは2つの対になっているデータの差の検定を用いる。すなわち、対になっているデータの差を
【0050】
【数2】
Figure 0004546635
とし、
【0051】
【数3】
Figure 0004546635
を求め、
【0052】
【数4】
Figure 0004546635
から、t0を求め、t0が限界値t(φ、P)より大きくなれば優位さがあることになる。
【0053】
図12は上記計算の実施例であり、t0=1.425は限界値t(12,0.05)=2.179以下であるからL1−1のデータ群とL2−1のデータ群に違いが有るとはいえない。従って、より先端の光切断線L1−1の画像を採用する。自由度φはデータ数に依存するから、前記限界値もデータ数によって変る。
従って、t表の数値はあらかじめ記憶させおく。
【0054】
[ノズル軸の傾き補正]
以上より最適な画像を抽出することができるので、この抽出された画像から既述の方法により各リード端子の高さ(リード浮き)計算を行う。その場合、従来技術で説明したように、垂直線に対してノズル軸の傾きがある場合には、図9(A)の高さデータと電子部品を90°回転した図9(B)の高さデータは同一に扱うことは出来ず、補正計算を行う必要が有る。
【0055】
そのため、まず図9(A)で端子列aの両端の高さが得られているので、この2つのデータより高さ方向をZとすればZ=AX+Bの直線式が得られる。次に図9(B)で得られた高さデータからリード列aの両端の2つのデータを用いてZ=CX+Dを計算する。図9(B)で得られたリード列aの各リード端子の高さデータHn1からZ=CX+Dを減算してHn0を計算する。次にHn0にZ=AX+Bを加算してHn2を計算する。Hn2は図9(A)の状態に角度補正された高さデータであるから、図9(A)の高さデータと一緒に取り扱うことが出来る。
【0056】
[高さ計算]
このように、高さデータに対して垂直線に対するノズル軸の傾き補正を行なった後、前述のRosenfeldの近似式により差分計算したデータからエッジ検出をして高さ計算を行なう。図13は図10(B)と同一のデータであり、差分計算値Gを示している。上部1〜17の連番は画素の列番号、左側1〜23の連番は画素の行番号である。図で上下方向に走る光切断線と直角方向で互いに反対方向からピーク点を検出して、2つのピーク点のピクセル番号の平均値から高さを計算する。四角で囲ってある数値はピーク点であり、(行1,列7)の228は左側から走査して検出したピーク点H1であり、(行1,列12)の458は右側から走査して検出したピーク点H2である。高さはH=(H1+H2)/2となる。Hの最下部の数値10は高さHの平均値である。(行,列)が1画素(ピクセル)に相当するから撮像倍率から計算されるピクセルレートをHの平均値に乗算すればリード端子の高さを計算することが出来る。この処理において、リード端子には2つのエッジがあり、ピーク値が2つ現れることから、ピーク値が一つしかない行のデータと120以下のデータは採用しない。図14は図13の22行と23行のデータをグラフに示したものである。行22はピーク値を2つ持っているが、行23はピーク値が1つしかない。従って、行23のデータは採用されないこととなる。
【0057】
ここで再び図7の流れに戻って、以上のような処理で各リード端子について端子高さを計算し(ステップS11)、続いて、このようにして得られた高さデータをもとにステップS12で、最小二乗平面の計算を行う。これは多重線形回帰により平面近似式a+bx+cy=zを求める。下記の式から平面式を求めることができる。
【0058】
【数5】
Figure 0004546635
上記より求めた最小二乗平面から各端子の距離を計算し、ステップS13で端子浮きの検査(端子平坦度検査)を行い、各端子の高さが適正か否か判断する。適正でなければ、ステップS14において端子高さエラーを出力する。一方、適正と判断された場合は、ステップS5で得られた位置決め情報に従って、図3(C)に図示したように、電子部品12がプリント基板19の上の所定の位置に搭載される。
【0059】
[他の実施形態]
上述した実施形態では、差分計算は縦方向、横方向同時に行ったが、最適画像抽出の場合は一方向のみでよい。ただし光切断線と直行する方向で行う。光切断線が縦方向の場合は以下のいずれかのフィルタ処理を行えば良い。
【0060】
【表2】
Figure 0004546635
また、最適画像抽出はエッジデータに対するしきい値と、エッジ間の距離のしきい値で判定することも可能である。この場合、図15(A)に示したように、ライン光の投光位置が適正で光切断線が適正な場合は、リード端子のエッジデータはしきい値200以上であり、エッジ間はしきい値3画素以上である。また図15(B)に示したように、ライン光がリード端子の端部に投光される場合には、エッジデータはしきい値200以上であるが、エッジ間はしきい値3画素以下で不適となり、最適画像としては抽出できない。また、図15(C)に示したように、ライン光がリード端子にわずかにしか投光されない場合には、エッジデータはしきい値200以下であり不適となる。
【0061】
上記判定は一つのリード端子においては差分計算値の最大値を有する、光切断線と直行するデータ列を用いて行う。そして判定はエッジデータがしきい値以上であり、エッジ間距離が最大のものを採用する。この場合、より高解像度の画素であればエッジ間の距離は判定しやすくなる。
【0063】
【発明の効果】
発明では、吸着角度が補正された電子部品並びにそれから更に90°回転させた電子部品の同一の端子を少なくとも含めてそれぞれ光切断線を投光して90°回転される前後の電子部品の端子高さをそれぞれ計算し、これらの端子高さデータから吸着ノズル軸の垂直軸に対する傾きを補正した端子高さのデータを求めているので、ノズル軸の傾斜により電子部品が垂直軸に対して傾斜していても、リード浮き検査時の誤判断を防止できる。
【図面の簡単な説明】
【図1】本発明の電子部品実装装置の外観を示す斜視図である。
【図2】電子部品の傾き補正を行なった後ライン光を投光する状態を示した説明図である。
【図3】電子部品の搭載の過程を示した説明図である。
【図4】ライン光を用いて電子部品を撮像する3次元センサの構成図である。
【図5】電子部品実装装置の制御系の構成を示すブロック図である。
【図6】レーザコントロールボードの詳細な構成を示すブロック図である。
【図7】本発明の電子部品の実装過程を示すフローチャート図である。
【図8】仮想基準線を用いて高さ測定を行なう状態を示した説明図である。
【図9】目標位置に光切断線として複数のライン光を投光する状態を示した説明図である。
【図10】光切断線による画像データを示した表図である。
【図11】画像データの差分値の最大値を端子ごとに示した表図である。
【図12】対になった画像データの差分値の検定を示した表図である。
【図13】空間一次微分に対応する電子部品の端子エッジのデータを示した表図である。
【図14】端子のエッジデータを示した線図である。
【図15】リードの種々の部分にライン光を投光した場合のエッジデータを示した線図である。
【図16】従来の電子部品の端子浮きを測定する状態を示した説明図である。
【符号の説明】
17 吸着ヘッド部
17a 吸着ノズル
18 3次元センサ
19 プリント基板
21 レーザダイオード
25 ラインジェネレータレンズ
26 CCDカメラ
28 リニアモータ
31 LED照明光源[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic component mounting method and apparatus, and more particularly, to an electronic component mounting method and apparatus for imaging an adsorbed electronic component, positioning the electronic component from the captured image data, and mounting the electronic component on a substrate.
[0002]
[Prior art]
Conventionally, in an electronic component mounting apparatus, an electronic component supplied from a component supply unit is sucked by a suction nozzle of a suction head unit, and the head unit is moved onto a printed board to mount the electronic component at a predetermined position on the substrate. is doing. In this case, since the electronic component is not necessarily picked up in the correct posture, the electronic component is imaged by an imaging device (CCD camera), and the image is processed to obtain component positioning data. Also, when mounting electronic components such as narrow lead pitch, narrow lead width QFP, and connectors, it is common to inspect the lead terminals of components before they are mounted on a printed circuit board. is there.
[0003]
For example, when an electronic component having a lead terminal such as QFP is mounted on a substrate, if the lead terminal has a float, the lead terminal cannot be bonded to the electrode portion of the substrate. As shown in FIG. 2, laser light is emitted from the laser unit 104 of the lead floating sensor 103 toward the lead terminals 102a and 102b of the electronic component 101 adsorbed to the nozzle 100, and reflected light from the lead terminal is received by the light receiving unit 105. Receiving light, heights Z1, Z2,. . . . . It is known that the floating of the lead terminal 102 is detected by obtaining the above.
[0004]
By the way, the sucked electronic component has an inclination θ1 with respect to the horizontal plane L as shown in FIG. This is due to a tilt error of the lower surface of the nozzle 100 that sucks the electronic component, and further, a tilt error of the upper surface of the mold body of the electronic component.
[0005]
If there is such a mechanical error, the electronic component 101 is inclined by the angle θ1 with respect to the horizontal plane L. Therefore, in order to measure the lead terminal 102b on the opposite side after measuring the lead terminal 102a, the nozzle 100 is moved 180 degrees. When the lead terminal 102b is positioned above the lead floating sensor 103 by being rotated, the lead terminal 102b may escape without being projected onto the lead terminal 102b as shown in FIG. 16B. Further, even if light is projected onto the lead terminal 102b, it may be slightly projected onto the lead tip. In such a case, a height error occurs and there is a problem that the floating of the lead terminal 102 is erroneously determined.
[0006]
Further, as shown in FIG. 16C, if the axis of the nozzle 100 has an inclination of θ2 with respect to the vertical line V, an error of ΔZ occurs with respect to the horizontal line L that was positioned when the lead terminal 102a was measured. . As a matter of course, the lead terminal 102b to be measured also changes by ΔZ. If the lead terminal 102b is measured here, it includes an error of ΔZ, and the height that should originally be Z2 becomes Z2−ΔZ (Z2 + ΔZ when θ2 is opposite to the figure), and the lead terminal 102 is lifted. There is a problem of misjudging.
[0007]
As another problem, when inspecting the lead floating with the lead floating sensor 103, the large head portion adsorbing the components must be moved at a constant speed so that the lead terminal scans the sensor portion. In addition, four-side individual scanning of the physical mounting component is required, and the processing time for this is usually about 1 to 3 seconds. This processing time becomes a factor that increases the mounting time of such components. This is a big demerit especially when many QFPs and connectors are mounted.
[0008]
[Problems to be solved by the invention]
The present invention has been made to solve the above-described problems. An electronic component mounting method capable of obtaining accurate and high-speed lead terminal height data of an electronic component and performing a reliable terminal floating inspection, and An object is to provide an apparatus.
[0009]
[Means for Solving the Problems]
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic component mounting method and apparatus for imaging an adsorbed electronic component, positioning the electronic component from the imaged data, and mounting the electronic component on a substrate. And a step or means for projecting an optical cutting line to a terminal of the electronic component in which the angle deviation is corrected, thereby correcting the adsorption angle deviation of the electronic component using the imaging data. Then, the light cutting line is projected onto the terminal of the electronic component whose angle deviation is corrected.
[0012]
  Further, in the present invention, if the suction nozzle axis is inclined with respect to the vertical axis, an accurate terminal height cannot be obtained. Therefore, the angle-corrected electronic component and the electronic component rotated by 90 ° from the angle are also required.SameTerminalIncluding at leastEach of the steps or means for calculating the terminal height of the electronic component before and after being rotated 90 ° by projecting a light cutting line, and the electronic component is sucked from the terminal height of the electronic component before and after being rotated 90 ° There is provided a step or means for obtaining terminal height data in which the inclination of the nozzle axis relative to the vertical axis is corrected, whereby the terminal height data corrected in inclination is obtained, and the floating of the terminal is inspected.
[0013]
With such a configuration, even if the electronic component is inclined with respect to the vertical axis due to the inclination of the nozzle axis, the floating inspection is performed based on the height data in which the inclination is corrected. Can be prevented.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.
[0017]
[Overall configuration]
FIG. 1 shows an external appearance of an electronic component mounting apparatus 11, and an electronic component 12 mounted by this apparatus is automatically supplied from a tray supply unit 14 as a component supply unit to a tray 13, and a suction head. It is sucked by the suction nozzle 17a of the part 17. The head unit 17 is moved in the x-axis direction by an X-axis side robot 15 (hereinafter, abbreviated as X-axis robot) that constitutes a part of the XY robot, and the Y-axis side that constitutes a part of the XY robot. The robots 16a and 16b (hereinafter abbreviated as Y-axis robots) move in the y-axis direction. The head unit 17 moves to the three-dimensional sensor 18 after attracting the electronic component, where the electronic component is imaged, and three-dimensional data including two-dimensional data for positioning and height data is acquired. Reference numeral 19 denotes a printed circuit board on which the electronic component 12 is mounted.
[0018]
[Whole process]
With such a configuration, the electronic component 12 placed on the tray 13 is moved by the X-axis robot 15 and the Y-axis robots 16 a and 16 b, and is sucked by the suction nozzle 17 a of the head unit 17 and moved onto the three-dimensional sensor 18. The Then, a two-dimensional image of the electronic component 12 is taken in by the three-dimensional sensor 18, and the image is processed by software to perform a positioning inspection. Next, a 3D (height) image of the electronic component 12 is captured by the three-dimensional sensor 18. The (height) image obtained by the three-dimensional sensor 18 is processed by software to perform 3D shape inspection such as lead floating of the electronic component 12, and the electronic component 12 is positioned on the printed circuit board 19 according to the positioning information. It is attached to.
[0019]
FIG. 3 shows the above process in more detail. In the process shown in FIG. 3A, the electronic component 12 is picked up (sucked) from the tray 13 by the suction nozzle 17 a of the head portion 17. In the step shown in FIG. 3B, the head unit 17 is moved so that the electronic component 12 is positioned on the three-dimensional sensor 18. Then, the illumination light source for positioning image capturing is turned on, the illumination light beam is projected onto the electronic component 12, the bottom surface portion 12 'of the electronic component 12 is imaged, and this two-dimensional image is stored in the image memory M in the image processing apparatus G. And inspecting it by image processing. Next, by scanning with the laser line light 18a emitted from the three-dimensional sensor 18, a three-dimensional image of the lead terminal portion of the sucked electronic component 12 is taken into the image memory M in the image processing apparatus G, and this is processed by image processing. Thus, the three-dimensional shape inspection of the electronic component 12 is performed. In the step shown in FIG. 3C, the electronic component 12 is mounted on the printed circuit board 19 based on the positioning information obtained by the image processing of the image processing apparatus G.
[0020]
2A to 2C schematically show a state in which a three-dimensional image is taken in a lead terminal such as a QFP. In FIG. 2, 12 is an electronic component moved and arranged above the three-dimensional sensor 18 by an XY robot, 25a is a laser line beam scanned by a linear actuator described later, and 12a is one of lead terminals of the electronic component 12. .
[0021]
FIG. 2A shows a state in which the electronic component 12 is arranged at the position of the three-dimensional sensor. The illumination light source for the positioning image is turned on and a two-dimensional image of the bottom surface of the electronic component 12 is captured. calculate.
[0022]
Next, as shown in FIG. 2B, the suction nozzle shaft is rotated from the calculated inclination of the array to correct the angle and position so that the lead terminal array is parallel to the xy axis. At the same time, the center of gravity of the array of lead terminals is set to be approximately at the center of the field of view of the three-dimensional sensor. Then, as shown in FIG. 2C, the laser line light 25a is pulsed on the electronic component 12 whose angle and position have been corrected, sequentially projected, and an optical cutting line is drawn. The laser line light is projected every other lead terminal array extending in parallel therewith, and a plurality of line lights are projected onto the plurality of lead terminal arrays in one imaging. Since the soft processing cuts out and processes only the portion of the projected lead terminal array, the intermediate portion of the two laser line lights is not processed and has no effect. Next, the laser light is scanned and imaged on the unprojected lead terminal array in the same manner as described above, and the lead terminal height data can be obtained from the two images.
[0023]
[Configuration of 3D sensor]
FIG. 4 shows a detailed configuration of a three-dimensional sensor. When acquiring three-dimensional image data of an electronic component, a laser diode 21 is turned on, and light from the laser diode is condensed by a collimator lens 22. The focus lens 23 narrows the parallel light into spot light. The light from the focus lens 23 is bent by the light projecting mirror 24 so as to form an angle of approximately 45 degrees with the vertical axis, and the line generator lens 25 disposed immediately after the bent optical path converts the incident light into the width. A line light 25a having a length of 30 μm and a length of 40 mm is projected onto the lead terminal 12a of the electronic component 12 sucked by the suction nozzle 17a of the head portion 17, and an optical cutting line is formed at the terminal portion. The focus lens 23, the light projecting mirror 24, and the line generator lens 25 constitute a light projecting unit 27, and this light projecting unit 27 is reciprocated by a linear motor (actuator) 28 as indicated by a double arrow line. The lead terminal 12a of the electronic component 12 is scanned with line light. Even if the linear motor 28 moves back and forth linearly toward the parallel light beam formed by the collimator lens 22, it does not affect the image forming action of the focus lens 23, so a line with a constant width is always provided on the electronic component 12. Light is imaged.
[0024]
Below the electronic component 12, a non-interlaced CCD camera (imaging device) 26 having a field of view of 36 mm × 36 mm is disposed, and the linear motor 28 is moved with a stroke of 45 mm. From left to left at a constant speed of 700 mm / sec. When it reaches a position where light can be projected at a predetermined location in the field of view of the CCD camera 26, the laser diode 21 is turned on for 50 μsec. Thus, a plurality of line lights are drawn into the frame at a predetermined pitch, and the image is captured. Is done. As will be described later, three-dimensional data for measuring the floating of the lead terminal 12a, the flatness of the bottom surface of the electronic component, and the like is acquired from this imaging.
[0025]
Further, when the electronic component 12 acquires two-dimensional image data, the LED illumination light source 31 is turned on, and the electronic component 12 is illuminated from the periphery at an angle of 30 ° to 45 °. The image of the electronic component illuminated by the LED illumination light source 31 is similarly captured by the CCD camera 26, and is two-dimensional data for obtaining positioning data such as a deviation between the adsorption center and the component center, and a deviation of the adsorption angle with respect to the reference angle. Is acquired.
[0026]
[Control system configuration]
FIG. 5 is a block diagram showing the configuration of the control system of the electronic component actual device. This device communicates with the component mounting control unit 41 through the LAN board 40. The laser control board 42 controls the lighting of the LED illumination light source 31, performs pulse lighting control of the laser diode 21 via the laser driver 43, and further controls the linear motor 28 via the motor driver 44. These controls are performed by taking a signal from a position encoder 45 attached to the linear motor 28 into the laser control board 42 via an encoder amplifier 46. The image captured by the CCD camera 26 is captured by the image capture board 47 and sent to the image memory M of the PC motherboard 48 via the PCI bus 49. The PCI bus 49 couples the LAN board 40 and the laser control board 42 together.
[0027]
FIG. 6 is a detailed block diagram of the laser control board 42. The position counter 51 receives the A-phase, B-phase, and Z-phase signals from the position encoder amplifier 46, counts up and down, and outputs the position information of the linear motor 28 to the comparator 53 and the CCD trigger decoder 54. . Based on the position information of the linear motor 28 from the position counter 51, the CCD trigger decoder 54 generates an image capture signal when it reaches the image capture position of the CCD camera 26, and the one-shot 55 receives the signal and receives a signal with a constant pulse width. Is output. The synchronization timing generator 56 receives the one-shot 55 pulse and generates a vertical synchronization signal VD in which the rising and falling timing is synchronized with the internally generated horizontal synchronization signal HD. The HD and VD signals are input to the CCD camera 26, and image capture is performed in accordance with laser scanning. This is a restart / reset mode in which the CCD is reset and the image is read out in synchronization with the VD signal.
[0028]
The position information of the linear motor 28 from the position counter 51 and the ON position signal of the laser diode 21 from the CPU 52 are input to the comparator 53. When these two inputs match, a one-shot 57 is triggered, a laser diode ON pulse is output, transmitted to the substrate of the laser driver 43, and the laser diode 21 is lit in pulses. At the same time, the output of the comparator 53 sets the coincidence F / F 58, the output is transmitted to the CPU 52, and the CPU 52 is notified that the laser diode ON position has already been passed. The coincidence F / F 58 is reset simultaneously with the laser diode ON position output to the comparator 53 by the CPU 52.
[0029]
Thus, when a plurality of laser line lights are drawn in one screen, first, the first laser diode ON position is input to the comparator 53, and the coincidence F / F 58 is reset at the same time. When the coincidence F / F 58 output changes to H, the CPU 52 outputs the second laser diode ON position and simultaneously resets the coincidence F / F 58. Then, when the laser diode 21 is pulse-lit at the second laser diode ON position and the coincidence F / F 58 output changes to H, the CPU 52 outputs the third laser diode ON position and simultaneously resets the coincidence F / F 58. . These processes are repeated for the number of laser line lights in one screen.
[0030]
The D / A converter 59 converts the laser power level signal (digital) from the CPU 52 into an analog signal and transmits it to the substrate of the laser driver 43. Thereby, the laser power can be adjusted depending on the type of electronic component. The CPU 52 outputs start / stop, forward / reverse rotation, reset, and speed command signals via the D / A converter 61 to the substrate of the linear motor driver 44, and performs laser line light scanning.
In addition, commands such as the number of scans, the laser diode ON position, and the laser diode power level are received from the PC motherboard 48 via the PCI bus interface 60. Conversely, the CPU 52 completes the laser line scan, various error messages, etc. A signal is transmitted to the PC motherboard 48.
[0031]
Hereinafter, the operation of the electronic component mounting apparatus configured as described above will be described along the flow of FIG.
[0032]
[Image processing]
First, in step S1, information on the electronic component, for example, information on the type of electronic component (whether it is BGA or QFP), terminal pitch and arrangement, etc. is received via the LAN board 40 and the PCI bus 49 from the component mounting control unit 41. To do. The electronic component 12 is picked up (sucked) from the tray 13 by the suction nozzle 17a of the head unit 17 as shown in FIG. 3A, and is placed on the three-dimensional sensor 18 as shown in FIG. 3B. The head unit 17 is moved by the X-axis robot 15 and the Y-axis robots 16a and 16b so that the electronic component 12 is positioned. Therefore, in step S2, the LED illumination light source 31 is turned on, whereby the bottom surface portion 12 'of the electronic component 12 is illuminated, and the image is captured by the CCD camera 26, and the image memory of the PC motherboard 48 is captured via the image capture board 47. Then, the LED illumination light source 31 is turned off (step S4).
[0033]
When the electronic component is QFP, a two-dimensional image captured in the image memory M is shown in FIG. 2A, and the image is processed by the image processing apparatus G, and the lead terminal 12a of the electronic component 12 is processed. Presence / absence, the deviation between the center of gravity of the arrangement of the lead terminals 12a and the suction nozzle center, and the suction inclination of the electronic component 12 are calculated, and positioning data is calculated (step S5).
[0034]
Note that there are various methods (algorithms) for the terminal array calculation processing, and typical ones will be described as follows. First, the inclination of the lead on one side of the quadrangular electronic component 12 such as QFP is roughly detected, then the positions of two leads arbitrarily selected from the detected leads are roughly detected, and finally The lead position is accurately detected based on the roughly detected lead position. In this way, if the position of a lead on one side of a quadrangular electronic component such as QFP is detected, based on this lead position, the lead position can be accurately detected for leads on the other side. Good.
[0035]
Subsequently, in step S6, it is determined whether or not the terminal is present and the lead pitch is appropriate. If it is not appropriate, a terminal placement error is output in step S7. The electronic component inspection result such as the inclination (angle) of the terminal arrangement is transmitted to the component mounting control unit 41. The component mounting control unit 41 rotates the suction nozzle 17a that sucks the electronic component 12 to perform angle correction so that the lead terminal array faces in the XY direction, and receives the completion of angle correction of the electronic component 12 in step S9. . The angle corrected state is shown in FIG. 2B, the lead terminal array is oriented in the XY direction, and the center of gravity of the lead terminal array is positioned at the center of the visual field of the CCD camera 26. is doing.
[0036]
[Get height data]
Next, a three-dimensional shape inspection of the electronic component 12 is performed. Since the terminal position is known by the terminal arrangement calculation processing, the scanning light is turned on at the necessary lead terminal position in step S10 to scan the line light scan image, the height of the lead terminal is obtained in step S11, step S12, In S13, the floating of the lead terminal is inspected and the flatness thereof is inspected.
[0037]
In addition, in detecting the flatness of the lead terminal of the electronic component, it is only necessary to know the variation in the height of the lead terminal. For this reason, absolute height data such as the height from the bottom surface of the package to the bottom surface of the lead terminal is not required. Therefore, since the focus position of the CCD camera 26 and the focus position of the laser line light 25a coincide with each other, a plane is placed at this position, and the height from this plane is obtained. For this purpose, the line drawn when the line light is turned on at the position of the lead array (the position of the mth pulse of the encoder of the linear motor) is used as a virtual reference line, and the height is measured using the virtual reference line.
[0038]
That is, as shown in FIG. 8, when the line light is turned on at the lead arrangement position (m-th pulse position of the encoder of the linear motor), a virtual reference line 74 is drawn on the plane (focus plane). The height of the lead terminal is calculated from the number of pixels from the line to the image of the lead terminal 12a by the line light. If the virtual reference line is too close to the lead terminal image position in height calculation, the virtual reference line is shifted and the height calculation is performed with the number of pixels from the shifted virtual reference line 74 ′ to the lead terminal image. Do.
[0039]
In the present invention, when the optical cutting line is drawn by irradiating the height (floating) of the lead terminal with the laser line light, the optical cutting line is further drawn before and after the optical cutting line drawn with respect to one target portion. Draw three light cutting lines. At this time, the pitch of the optical cutting lines of the laser line light is 80 μm.
[0040]
For example, as shown in FIG. 9A, the lead terminal rows b and d of the electronic component 12 are irradiated with laser line light at right angles to the direction in which the lead terminals extend to draw an optical cutting line. A and c are parallel to the direction in which the leads extend, and only the lead terminals at both ends of each lead row are irradiated with laser line light to draw optical cutting lines. First, the first image is taken of one image of the electronic component with four light cutting lines L1-1, L1-2, L1-3, and L1-4, and then the second and subsequent images are the same. Then, L2-1, L2-2, L2-3, and L2-4 are drawn, and then L3-1, L3-2, L3-3, and L3-4 are drawn. Take an image.
[0041]
Next, as shown in FIG. 9B, the electronic component 12 is rotated 90 ° to the right, and an optical cutting line is drawn on the lead terminal arrays a and c at right angles to the direction in which the lead terminals extend. An image in which two light cutting lines L4-1 and L4-2 are drawn on the image is picked up. The second time is the same as the image in which L5-1 and L5-2 are drawn, and the third time is L6-1. , L6-2 are taken and three images are taken.
[0042]
As described above, a total of 6 images are taken, and 18 images are cut out for each light cutting line. Subsequently, using the method described below, it is determined which one of the three light cutting lines drawn at one target location and its vicinity is most appropriate, and the height calculation is performed with appropriate image data. Do. For example, in the lead terminal row d in FIG. 9A, an optimum image is extracted from L1-1, L2-1, and L3-1. In the case of the lead terminal rows a and c, which are optical cutting lines parallel to the direction in which the leads extend, this is performed for each terminal row. That is, an optimum image is extracted from L1-2, L2-2, and L3-2 at the terminal row a, and an optimum image is extracted from L1-2, L2-2, and L3-2 at the terminal row c. .
[0043]
[Optimal image extraction]
The above-described optimal image extraction is performed by the following procedure. First, spatial first-order differentiation is performed on the cut-out image, and in that case, Rosenfeld approximation is used. For this purpose, as shown in Table 1, a difference calculation between peripheral pixels in a window of 3 × 3 pixels W (n, n) centering on the pixel of interest is performed using Equation 1 to obtain a calculation value G. This is replaced with the value of the pixel of interest and arranged in a memory space different from the original pixel data.
[0044]
[Table 1]
Figure 0004546635
[0045]
[Expression 1]
Figure 0004546635
FIG. 10A shows pixel data in the vicinity of one lead terminal 12a (FIG. 9A) which is a part of the image data, and the line light cutting line extends from the top to the bottom in the figure. The numerical value represents a luminance value, and a portion having a large luminance value is a lead terminal portion. FIG. 10B shows the result of the difference calculation for the image data using Equation 1 above, and the numerical value represents the difference calculation value G. Since this difference calculation value corresponds to the spatial first derivative, the G value is large at the edge portion of the lead terminal.
[0046]
Next, the maximum difference calculation value G is extracted for each lead terminal. For the optical cutting line parallel to the direction in which the lead terminal extends, the extracted image data having the largest G value is employed. For example, in one lead terminal in the terminal row a, the maximum G value by L1-2, the maximum G value by L2-2, and the maximum G value by L3-2 are compared, and the light having the largest G value is obtained. The image data of the cutting line is adopted as the optimum image.
[0047]
On the other hand, in the optical cutting line perpendicular to the direction in which the lead extends, one optical cutting line scans a plurality of lead terminals, so the maximum value of the difference calculation value G of each lead terminal is extracted for each optical cutting line. The largest G value is selected for each lead terminal, and the optical cutting line having this G value is marked. Then, a light cutting line with a large number of marks is extracted. Next, a statistical comparison is made between the G value data group of the extracted optical cutting line and the value data group of the optical cutting line closer to the lead tip in the optical cutting lines before and after the extracted optical cutting line. If there is an image of the extracted optical section line, if there is no difference, the tip of the lead will be grounded first when the terminal is in contact with the pad, so the tip has better data quality and therefore closer to the tip of the lead Adopt an image of the light section line.
[0048]
For example, in FIG. 11, the left side shows the maximum value of the difference calculation value G for each lead terminal to which the line light hits. In FIG. 9A, although only seven terminals are shown that each light cutting line cuts, it is shown that there are 13 terminals. In (optical cutting line L1-1, terminal number 1), the maximum value of the difference calculation value G taken out is 394, and in (optical cutting line L2-1, terminal number 1), the maximum value of the difference calculation value G taken out is 469, and the maximum value of the difference calculation value G taken out is (354) in (light cutting line L3-1, terminal number 1). The largest of the three values is 469, and since L2-1 has this value, mark 1 is attached to the right side of FIG. 11 (optical cutting line L2-1, terminal number 1). . As described above, comparison marking is performed for all terminal numbers. In FIG. 11, L2-1 having the largest number of marks 10 is selected.
[0049]
Next, the G value data group of the optical section line L2-1 and the G value data group of the optical section line L1-1 near the lead tip are statistically compared. Here, a test for the difference between two pairs of data is used. That is, the difference between the paired data
[0050]
[Expression 2]
Figure 0004546635
age,
[0051]
[Equation 3]
Figure 0004546635
Seeking
[0052]
[Expression 4]
Figure 0004546635
From this, t0 is obtained, and if t0 becomes larger than the limit value t (φ, P), there is an advantage.
[0053]
FIG. 12 shows an example of the above calculation. Since t0 = 1.425 is the limit value t (12,0.05) = 2.179 or less, the difference is between the L1-1 data group and the L2-1 data group. It cannot be said that there is. Therefore, an image of the light cutting line L1-1 at the front end is adopted. Since the degree of freedom φ depends on the number of data, the limit value also changes depending on the number of data.
Therefore, the numerical values in the t table are stored in advance.
[0054]
[Nozzle axis tilt correction]
Since the optimum image can be extracted as described above, the height (lead floating) of each lead terminal is calculated from the extracted image by the method described above. In that case, as described in the prior art, when there is an inclination of the nozzle axis with respect to the vertical line, the height data in FIG. 9A and the height in FIG. The data cannot be handled in the same way, and it is necessary to perform correction calculation.
[0055]
For this reason, first, the heights at both ends of the terminal row a are obtained in FIG. 9A, and if the height direction is Z from these two data, a linear equation of Z = AX + B is obtained. Next, Z = CX + D is calculated from the height data obtained in FIG. 9B using the two data at both ends of the lead string a. Hn0 is calculated by subtracting Z = CX + D from the height data Hn1 of each lead terminal of the lead row a obtained in FIG. 9B. Next, Hn2 is calculated by adding Z = AX + B to Hn0. Since Hn2 is height data that has been angle-corrected in the state of FIG. 9A, it can be handled together with the height data of FIG. 9A.
[0056]
[Height calculation]
As described above, after correcting the inclination of the nozzle axis with respect to the vertical line with respect to the height data, the height is calculated by detecting an edge from the data calculated by the above-described Rosenfeld approximation. FIG. 13 is the same data as FIG. 10B and shows the difference calculation value G. The serial numbers of the upper parts 1 to 17 are the pixel column numbers, and the serial numbers of the left to 23 are the pixel row numbers. In the figure, peak points are detected from opposite directions perpendicular to the light cutting line running in the vertical direction, and the height is calculated from the average value of the pixel numbers of the two peak points. The numerical value enclosed by a square is a peak point, 228 in (Row 1, Column 7) is a peak point H1 detected by scanning from the left side, and 458 in (Row 1, Column 12) is scanned from the right side. This is the detected peak point H2. The height is H = (H1 + H2) / 2. The numerical value 10 at the bottom of H is an average value of the height H. Since (row, column) corresponds to one pixel (pixel), the height of the lead terminal can be calculated by multiplying the average value of H by the pixel rate calculated from the imaging magnification. In this process, since the lead terminal has two edges and two peak values appear, data of a row having only one peak value and data of 120 or less are not adopted. FIG. 14 is a graph showing the data on lines 22 and 23 of FIG. Row 22 has two peak values, while row 23 has only one peak value. Therefore, the data in row 23 is not adopted.
[0057]
Returning to the flow of FIG. 7 again, the terminal height is calculated for each lead terminal by the above processing (step S11), and then the step is performed based on the height data thus obtained. In S12, the least square plane is calculated. This obtains a plane approximation formula a + bx + cy = z by multiple linear regression. A plane equation can be obtained from the following equation.
[0058]
[Equation 5]
Figure 0004546635
The distance of each terminal is calculated from the least square plane obtained from the above, and the terminal floating inspection (terminal flatness inspection) is performed in step S13 to determine whether or not the height of each terminal is appropriate. If not appropriate, a terminal height error is output in step S14. On the other hand, if it is determined as appropriate, the electronic component 12 is mounted at a predetermined position on the printed circuit board 19 as shown in FIG. 3C according to the positioning information obtained in step S5.
[0059]
[Other Embodiments]
In the embodiment described above, the difference calculation is performed simultaneously in the vertical direction and the horizontal direction. However, in the case of optimum image extraction, only one direction is required. However, it is performed in a direction perpendicular to the light section line. When the light section line is in the vertical direction, any of the following filter processes may be performed.
[0060]
[Table 2]
Figure 0004546635
Optimal image extraction can also be determined by a threshold value for edge data and a threshold value for the distance between edges. In this case, as shown in FIG. 15A, when the light projection position of the line light is appropriate and the light cutting line is appropriate, the edge data of the lead terminal is equal to or more than the threshold value 200, and the gap between the edges is set. The threshold value is 3 pixels or more. As shown in FIG. 15B, when line light is projected to the end of the lead terminal, the edge data is the threshold value 200 or more, but the threshold value is 3 pixels or less between the edges. And cannot be extracted as an optimal image. Further, as shown in FIG. 15C, when the line light is projected only slightly to the lead terminal, the edge data is not suitable because it is equal to or less than the threshold value 200.
[0061]
The determination is performed using a data string orthogonal to the optical section line having the maximum difference calculation value in one lead terminal. For the determination, the edge data is equal to or greater than the threshold value and the distance between the edges is maximum. In this case, it is easier to determine the distance between the edges if the pixel has a higher resolution.
[0063]
【The invention's effect】
BookIn the invention, the electronic component whose suction angle is corrected and the electronic component rotated by 90 ° from the electronic componentSameTerminalIncluding at leastTerminal height data obtained by calculating the terminal height of each electronic component before and after being rotated 90 ° by projecting a light cutting line, and correcting the inclination of the suction nozzle axis with respect to the vertical axis from these terminal height data Therefore, even when the electronic component is inclined with respect to the vertical axis due to the inclination of the nozzle axis, it is possible to prevent erroneous determination during the lead float inspection.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external appearance of an electronic component mounting apparatus according to the present invention.
FIG. 2 is an explanatory diagram showing a state in which line light is projected after correcting the inclination of the electronic component.
FIG. 3 is an explanatory view showing a process of mounting an electronic component.
FIG. 4 is a configuration diagram of a three-dimensional sensor that images an electronic component using line light.
FIG. 5 is a block diagram illustrating a configuration of a control system of the electronic component mounting apparatus.
FIG. 6 is a block diagram showing a detailed configuration of a laser control board.
FIG. 7 is a flowchart showing a mounting process of the electronic component of the present invention.
FIG. 8 is an explanatory diagram showing a state in which height measurement is performed using a virtual reference line.
FIG. 9 is an explanatory diagram showing a state in which a plurality of line lights are projected as light cutting lines at a target position.
FIG. 10 is a table showing image data by light cutting lines.
FIG. 11 is a table showing the maximum difference value of image data for each terminal.
FIG. 12 is a table showing a test of a difference value of paired image data.
FIG. 13 is a table showing terminal edge data of an electronic component corresponding to spatial first-order differentiation.
FIG. 14 is a diagram showing terminal edge data;
FIG. 15 is a diagram showing edge data when line light is projected onto various portions of a lead.
FIG. 16 is an explanatory view showing a state in which the terminal floating of a conventional electronic component is measured.
[Explanation of symbols]
17 Suction head
17a Suction nozzle
18 3D sensor
19 Printed circuit board
21 Laser diode
25 Line generator lens
26 CCD camera
28 Linear motor
31 LED lighting source

Claims (2)

吸着された電子部品を撮像しその撮像データから電子部品を位置決めして基板上に実装する電子部品実装方法において、
撮像データを用いて電子部品の吸着角度ずれを補正し、
前記角度ずれを補正された電子部品の端子に光切断線を投光して得られる画像データから端子高さを計算し、
前記角度ずれ補正後更に90°回転させた電子部品の前記端子を少なくとも含めて光切断線を投光して得られる画像データから端子高さを計算し、
90°回転される前後の電子部品の端子高さから電子部品を吸着するノズル軸の垂直軸に対する傾きを補正した端子高さのデータを求め、
この傾き補正された端子高さのデータに基づいて端子の浮きを検査し電子部品を実装することを特徴とする電子部品実装方法。
In the electronic component mounting method of imaging the adsorbed electronic component, positioning the electronic component from the imaging data, and mounting on the substrate,
Using the imaging data to correct the suction angle deviation of the electronic component,
Calculate the terminal height from the image data obtained by projecting a light cutting line to the terminal of the electronic component whose angle deviation is corrected,
The angular deviation corrected further at least including the terminal of the electronic component is rotated 90 ° to calculate the terminal height from image data obtained by projecting the light section line,
Obtain terminal height data that corrects the inclination of the nozzle axis that sucks the electronic component from the vertical height of the electronic component before and after being rotated by 90 °,
An electronic component mounting method comprising: mounting an electronic component by inspecting terminal floating based on the tilt-corrected terminal height data.
吸着された電子部品を撮像しその撮像データから電子部品を位置決めして基板上に実装する電子部品実装装置において、
撮像データを用いて電子部品の吸着角度ずれを補正する手段と、
角度補正された電子部品並びにそれから更に90°回転させた電子部品の同一の端子を少なくとも含めてそれぞれ光切断線を投光して90°回転される前後の電子部品の端子高さをそれぞれ計算する手段と、
90°回転される前後の電子部品の端子高さから電子部品を吸着するノズル軸の垂直軸に対する傾きを補正した端子高さのデータを求める手段とを有し、
この傾き補正された端子高さのデータに基づいて端子の浮きを検査し電子部品を実装することを特徴とする電子部品実装装置。
In an electronic component mounting apparatus that images an adsorbed electronic component, positions the electronic component from the imaging data, and mounts the electronic component on a substrate,
Means for correcting the suction angle deviation of the electronic component using the imaging data;
The terminal heights of the electronic parts before and after being rotated by 90 ° are calculated by projecting the optical cutting line including at least the same terminal of the electronic component whose angle is corrected and the electronic component further rotated by 90 °. Means,
Means for obtaining terminal height data obtained by correcting the inclination of the nozzle axis for sucking the electronic component with respect to the vertical axis from the terminal height of the electronic component before and after being rotated by 90 °;
An electronic component mounting apparatus characterized in that an electronic component is mounted by inspecting terminal floating based on the terminal height data corrected for inclination.
JP2000323430A 2000-10-24 2000-10-24 Electronic component mounting method and apparatus Expired - Fee Related JP4546635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000323430A JP4546635B2 (en) 2000-10-24 2000-10-24 Electronic component mounting method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000323430A JP4546635B2 (en) 2000-10-24 2000-10-24 Electronic component mounting method and apparatus

Publications (2)

Publication Number Publication Date
JP2002134991A JP2002134991A (en) 2002-05-10
JP4546635B2 true JP4546635B2 (en) 2010-09-15

Family

ID=18801096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000323430A Expired - Fee Related JP4546635B2 (en) 2000-10-24 2000-10-24 Electronic component mounting method and apparatus

Country Status (1)

Country Link
JP (1) JP4546635B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083686A (en) * 2019-12-27 2021-07-07 (주) 인텍플러스 Apparatus for inspecting exterior of battery using slit beam

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7830528B2 (en) 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
JP4800134B2 (en) * 2006-07-10 2011-10-26 Juki株式会社 Electronic component terminal height measurement method
JP4804295B2 (en) * 2006-09-21 2011-11-02 ヤマハ発動機株式会社 Component recognition method, component recognition device, surface mounter and component inspection device
JP4821647B2 (en) * 2007-02-23 2011-11-24 パナソニック電工株式会社 Electronic component terminal position detection method
JP6092602B2 (en) * 2012-12-04 2017-03-08 株式会社安永 Defect inspection apparatus and defect inspection method
JP7437654B2 (en) 2020-06-08 2024-02-26 パナソニックIpマネジメント株式会社 Component mounting equipment and lead terminal height measurement method
CN112184677B (en) * 2020-09-30 2022-10-04 青岛思锐自动化工程有限公司 Terminal connecting piece detection method based on industrial vision

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05196424A (en) * 1992-01-20 1993-08-06 Matsushita Electric Ind Co Ltd Pattern recognition method
JPH07208955A (en) * 1994-01-21 1995-08-11 Yamagata Casio Co Ltd Lead measuring apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05196424A (en) * 1992-01-20 1993-08-06 Matsushita Electric Ind Co Ltd Pattern recognition method
JPH07208955A (en) * 1994-01-21 1995-08-11 Yamagata Casio Co Ltd Lead measuring apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083686A (en) * 2019-12-27 2021-07-07 (주) 인텍플러스 Apparatus for inspecting exterior of battery using slit beam
KR102274922B1 (en) * 2019-12-27 2021-07-08 (주) 인텍플러스 Apparatus for inspecting exterior of battery using slit beam

Also Published As

Publication number Publication date
JP2002134991A (en) 2002-05-10

Similar Documents

Publication Publication Date Title
JP4315536B2 (en) Electronic component mounting method and apparatus
US6144452A (en) Electronic component mounting apparatus
US6610991B1 (en) Electronics assembly apparatus with stereo vision linescan sensor
JP2937785B2 (en) Component state detection device for mounting machine
US6141040A (en) Measurement and inspection of leads on integrated circuit packages
EP1062853B1 (en) Component recognizing method and apparatus
JP4546635B2 (en) Electronic component mounting method and apparatus
JP3578588B2 (en) Electronic component mounting equipment
JP2010147401A (en) Electronic component mounting apparatus and image distortion correcting method
JP2007048921A (en) Electronic component image acquiring method and apparatus thereof
JP2004235671A (en) Electronic component mounting device
JP2930746B2 (en) Parts inspection equipment
JP2008151687A (en) Method of measuring terminal height of electronic component
JP2899121B2 (en) Method for obtaining cross-sectional image of lead wire of electronic component
JP3922608B2 (en) Height measuring method and apparatus
JP3923168B2 (en) Component recognition method and component mounting method
JPH11241916A (en) Height measuring method, height data processing method, and height measuring device
JPH11251797A (en) Method and apparatus for component recognizing
JP4401210B2 (en) Electronic component mounting equipment
JPH08195599A (en) Method and apparatus for detecting component mounting state in mounting apparatus
JP2884581B2 (en) Teaching method of reference data in inspection device of mounted printed circuit board
JP2694819B2 (en) Lead position detector
JP4332714B2 (en) Electronic component mounting equipment
JP2569883B2 (en) Coplanarity measuring device
JP2001036299A (en) Apparatus and method for mounting electronic component

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070207

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees