JP3883279B2 - Electronic component mounting method and apparatus - Google Patents

Electronic component mounting method and apparatus Download PDF

Info

Publication number
JP3883279B2
JP3883279B2 JP04784998A JP4784998A JP3883279B2 JP 3883279 B2 JP3883279 B2 JP 3883279B2 JP 04784998 A JP04784998 A JP 04784998A JP 4784998 A JP4784998 A JP 4784998A JP 3883279 B2 JP3883279 B2 JP 3883279B2
Authority
JP
Japan
Prior art keywords
height
electronic component
joint
component
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04784998A
Other languages
Japanese (ja)
Other versions
JPH11251797A (en
Inventor
正通 森本
栄一 蜂谷
敦 田邉
章 納土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP04784998A priority Critical patent/JP3883279B2/en
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to EP00126696A priority patent/EP1089608B1/en
Priority to EP99909178A priority patent/EP1062853B1/en
Priority to EP00126692A priority patent/EP1089607B1/en
Priority to SG200005491A priority patent/SG91884A1/en
Priority to DE69933870T priority patent/DE69933870T2/en
Priority to DE69934103T priority patent/DE69934103T2/en
Priority to US09/623,085 priority patent/US6606788B1/en
Priority to SG200005492A priority patent/SG108814A1/en
Priority to PCT/JP1999/000874 priority patent/WO1999044408A1/en
Priority to CNB998032751A priority patent/CN1205847C/en
Priority to DE69934116T priority patent/DE69934116T2/en
Publication of JPH11251797A publication Critical patent/JPH11251797A/en
Application granted granted Critical
Publication of JP3883279B2 publication Critical patent/JP3883279B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、電子部品をプリント基板又は液晶やプラズマディスプレイパネル基板などに自動的に実装する電子部品実装において実装すべき電子部品の装着面に存在するリードや電極などの接合部の位置検出を行う部品認識により検出された、上記電子部品の装着面に存在するリードや電極などの接合部の位置情報に基づき、上記電子部品を基板上に実装するようにした電子部品実装方法、及び上記部品認識により検出された、上記電子部品の装着面に存在するリードや電極などの接合部の位置情報に基づき、上記電子部品を基板上に実装するようにした電子部品実装装置に関する。
【0002】
【従来の技術】
従来、この種の部品認識方法としては種々の構造のものが知られている。例えば、電子部品に対して可視光を照射し、対象物で反射した反射光をCCDカメラで受けて、電子部品の装着面に存在するリードや電極などの接合部の位置検出を行うようにしたものが考えられている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記構造のものでは、電子部品の装着面に存在するリードや電極等の付近に突起などが存在して可視光を該突起で反射されると、リードや電極等からの反射光のほかに突起等からの反射光もCCDカメラに入り、突起などがリードや電極等の認識すべき接合部に対してノイズとなり、突起が誤ってリード又は電極として認識されてしまうといった問題があった。
従って、本発明の目的は、上記問題を解決することにあって、電子部品の装着面に存在するリードや電極等の接合部の付近の突起などを誤って接合部として認識することなく、上記電子部品の接合部の位置情報を正確に得ることができ、正確に得られた上記接合部の位置情報に基づき上記電子部品をより正確に実装することができる電子部品実装方法及び装置を提供することにある。
【0004】
【課題を解決するための手段】
上記目的を達成するために、本発明は以下のように構成する。
本発明の第1態様によれば、電子部品の装着面に存在するリードや電極などの接合部に光を照射し、上記接合部からの反射光を基に高さ検出部で上記接合部の位置検出を行う部品認識により検出された、上記電子部品の上記接合部の位置情報に基づき、上記電子部品を基板上に実装する電子部品実装方法であって、
ヘッド部の部品保持部材で上記電子部品を保持し、
上記接合部の背後あるいは近接位置に存在しかつ上記光を反射するノイズ物体となり得るノイズリードが上記高さ検出部で検出する上記反射光の高さ計測領域外となるように上記高さ検出部の上記高さ計測領域を狭くすべく上記高さ計測領域の調整を行ったのち、上記調整後の高さ計測領域に基づき、制御部の部品形状情報記憶部内に格納されかつ実装プログラムに必要な実装情報の中の部品形状情報を参照して、上記制御部によりサーボコントローラを制御して上記部品保持部材の高さを調整して、上記ノイズリードを除去し、
上記制御部の制御の下に、上記実装プログラムに必要な実装情報の部品形状情報中から上記部品の高さデータを取り込み、
上記取り込まれた高さデータに基づき、上記高さ検出部により上記電子部品の位置を検出し、
上記高さ検出部により検出された上記電子部品の位置の情報に基づき、上記ヘッド部を駆動して上記部品保持部材により上記電子部品を上記基板の所定の位置に装着するようにしたことを特徴とする電子部品実装方法を提供する。
本発明の第2態様によれば、上記高さ検出部は、高さ検出センサーとして半導体位置検出素子により上記接合部の高さを検出する第1態様に記載の電子部品実装方法を提供する。
本発明の第3態様によれば、上記ノイズ除去は、高さ計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる上記高さ計測領域を予め設定しておき、この高さ計測領域の範囲内でのみ上記接合部の高さ検出を行うようにした第1又は2態様に記載の電子部品実装方法を提供する。
本発明の第4態様によれば、上記ノイズ除去は、上記計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる上記高さ計測領域を高さ変換テーブルとして予め設定しておき、上記高さ変換テーブルにより、上記接合部の高さデータのうち上記高さ計測領域外にある高さデータを無効な高さデータとして取り扱い、上記高さ計測領域の範囲内にある高さデータを有効な高さデータとして取り扱い、上記有効な高さデータを基に上記接合部の高さ検出を行うようにした第1〜3態様のいずれかに記載の電子部品実装方法を提供する。
本発明の第5態様によれば、高さ計測領域の範囲内でのみ検出された上記電子部品の画像に対して上記電子部品の大きさから処理エリアを決定し、
上記電子部品の画像において上記決定された処理エリアのウィンドウ内をサンプリングして上記電子部品の中心及び傾きを大まかに検出し、
上記部品の大きさと上記電子部品の大まかな位置とを基に、上記電子部品の画像において全ての上記接合部の位置を検出し、
全ての上記接合部の位置から上記電子部品の画像における上記電子部品の正確な位置を検出するようにした第1〜4態様のいずれかに記載の電子部品実装方法を提供する。
本発明の第6態様によれば、電子部品の装着面に存在するリードや電極などの接合部に光を照射する照射装置と、
上記照射装置から照射された光が上記接合部で反射した反射光を基に上記接合部の位置検出をする高さ検出部と、
部品保持部材で上記電子部品を保持するとともに、上記反射光の高さ計測領域に基づき上記部品保持部材の高さを調整するヘッド部と、
実装プログラムに必要な実装情報が格納された部品形状情報記憶部と接続される制御部 と、
上記接合部の背後あるいは近接位置に存在しかつ上記光を反射するノイズ物体となり得るノイズリードが上記高さ検出部で検出する上記反射光の上記高さ計測領域外となるように上記高さ検出部の上記高さ計測領域を狭くすべく上記高さ計測領域の調整を行ったのち、上記調整後の高さ計測領域に基づき、上記制御部の上記部品形状情報記憶部内に格納されかつ上記実装プログラムに必要な上記実装情報の中の部品形状情報を参照して、上記制御部によりサーボコントローラを制御して上記部品保持部材の高さを調整して、上記ノイズリードを除去するノイズ除去部とを備え、
上記制御部は、上記実装プログラムに必要な実装情報の部品形状情報中から上記部品の高さデータを取り込み、上記取り込まれた高さデータに基づき、上記高さ検出部により上記電子部品の位置を検出し、上記高さ検出部により検出された上記電子部品の位置の情報に基づき、上記ヘッド部を駆動して上記部品保持部材により上記電子部品を上記基板の所定の位置に装着するように制御するようにしたことを特徴とする電子部品実装装置を提供する。
本発明の第7態様によれば、上記高さ検出部は、高さ検出センサーとして半導体位置検出素子により上記接合部の位置を検出する第6態様に記載の電子部品実装装置を提供する。
本発明の第8態様によれば、上記ノイズ除去部は、高さ計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる高さ計測領域を予め設定しておき、この高さ計測領域の範囲内でのみ上記接合部の高さ検出を行うようにした第6又は7態様に記載の電子部品実装装置を提供する。
本発明の第9態様によれば、上記ノイズ除去部は、上記計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる上記高さ計測領域を高さ変換テーブルとして予め設定しておき、上記高さ変換テーブルにより、上記接合部の高さデータのうち上記高さ計測領域外にある高さデータを無効な高さデータとして取り扱い、上記高さ計測領域の範囲内にある高さデータを有効な高さデータとして取り扱い、上記有効な高さデータを基に上記接合部の高さ検出を行うようにした第6〜8態様のいずれかに記載の電子部品実装装置を提供する。
本発明の第10態様によれば、高さ計測領域の範囲内でのみ検出された上記電子部品の画像に対して上記電子部品の大きさから処理エリアを決定する処理エリア決定手段と、
上記電子部品の画像において上記決定された処理エリアのウィンドウ内をサンプリングして上記電子部品の中心及び傾きを大まかに検出する重心及び傾き検出手段と、
上記部品の大きさと上記電子部品の大まかな位置とを基に、上記電子部品の画像において全ての上記接合部の位置を検出する接合部位置検出手段と、
全ての上記接合部の位置から上記電子部品の画像における上記電子部品の正確な位置を検出する接合部中心及び傾き検出手段とを備えるようにした第6〜9態様のいずれかに記載の電子部品実装装置を提供する。
【0005】
【発明の実施の形態】
以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
本発明にかかる第1実施形態の部品認識方法は、電子部品の装着面に存在するリードや電極などの接合部の位置情報を正確に得るために、高さ検出センサーで検出できる高さ計測領域を上記接合部のみ検出し、他のノイズ物体は検出しないように限定するものである。すなわち、第1実施形態としては、上記接合部に対して高さ検出したい計測領域が予めわかっている場合に、高さデータ入力時に、計測領域外にある高さデータを、高さ変換テーブルで、正常な高さデータとして認識されない特定の値に変換するようにしている。具体的には、例として、8ビットで表す高さ計測領域内にノイズとなる物体が含まれている場合に適用する。なお、事前に高さ位置関係を算出して、高さ計測領域を限定しておくのが好ましい。
【0006】
図1は本発明の第1実施形態にかかる部品認識方法を実施することができる部品認識装置を備えた電子部品実装装置の全体概略図であり、対象物の一例として電子部品2をノズル7aで吸着したヘッド部7が、電子部品2の装着面に存在するリード2aや電極等の接合部の高さを検出する高さ検出部602の高さ検出センサー8上をX軸方向に等速で移動することにより電子部品2の高さデータを得る状態を示している。すなわち、図1,14において、1は電子部品実装装置の実装装置本体、2は本装置で実装される電子部品(以下、部品と略記する)、3は部品2が載っているトレー、4はトレー3に載った部品2を自動供給する部品供給部としてのトレー供給部、7は実装時に部品2をノズル7aで吸着したのちノズル7aを支持するノズル高さ軸をノズル高さ軸上下用サーボモーター7mにより駆動して上下動させて上記吸着した部品2を基板に装着するヘッド部、5はヘッド部7をx軸方向に移動させるものであって、XYロボット600の一部を構成するx軸側のロボット(以下、x軸ロボットと略記する)、6a及び6bはヘッド部7をx軸ロボット5とともにy軸方向に移動させるXYロボット600の一部を構成するy軸側のロボット(以下、y軸ロボットと略記する)、8は図14の高さ検出部602の高さ検出センサーの一例としての3次元(以下、3Dと略記する)センサーであり、部品2の高さ画像を撮像する。9は部品2が実装されるプリント基板である。
【0007】
トレー3に載っている部品2がヘッド部7で吸着され3Dセンサー8上をx軸ロボット5に沿って移動するときに、3Dセンサー8によって部品2の3D(高さ)画像が取り込まれる。3Dセンサー8によって得られた(高さ)画像をソフトウェア処理して、部品2のリード等の高さ(位置)検査を行い、位置決め情報に従って、部品2がプリント基板9上の所定の位置に装着される。
【0008】
次に、上記3Dセンサー8の構成と働きについて、以下に詳細に説明する。
図2は3Dセンサー8の検出素子として半導体位置検出素子(Position Sensitive Detector)(以下、PSDと略記する)17a,17bが2系統設置されていることを示すものであって、3Dセンサー8をx軸方向に見た構成図(断面図)であり、図3はレーザー光を反射するポリゴンミラー12の反射面が変わる毎に受光素子19にレーザー光が入射してポリゴン面原点信号20を発生させる状態を示すものであって、3Dセンサー8をy軸方向に見た構成図(断面図)である。図2および図3において、5はx軸ロボット、7はヘッド部、2は吸着された部品、10はレーザー光を発光する半導体レーザー、11はこのレーザー光を集光整形する集光整形レンズ、12はミラー面に当たったレーザー光を機械的回転によって走査させるポリゴンミラー、13はレーザー光の一部を通過させ一部を反射させるハーフミラー、14は光を反射させるミラーである。
【0009】
また、15はポリゴンミラー12で機械的に振られたレーザー光を被写体である部品2に垂直に投射させるように光路変換させるF−θレンズ、16a,16bは部品2に当たったレーザー光の反射(散乱光)を結像させる結像レンズ、17a,17bは部品2に当たったレーザー光の反射光が結像レンズ16a、16bを通して結像される位置検出素子としてのPSDであり、結像した光の位置と相関のある電気信号を発生する機能を有する。18a,18bはPSD17a,17bの出力信号である。
【0010】
ここで、半導体レーザー10で発光されたレーザー光は、集光整形レンズ11でビーム形状を集光整形された後、ハーフミラー13を通過し、ミラー14を反射して、ポリゴンミラー12に当たる。ポリゴンミラー12は定速回転運動をしており、ミラー面に当たったレーザー光は振られることとなる。更に、F−θレンズ15で光路変換されたレーザー光は部品2に垂直に当てられ、この反射光が結像レンズ16a,16bを介してPSD17a,17bに結像され、PSD17a,17bが部品2のレーザー反射面の高さを計測し得る出力信号18a,18bを発生する。
【0011】
また、19は光が入力されたことを感知する受光素子(光センサー)、20は光センサー19に光が入力されたことを外部に知らせる信号であり、この信号はポリゴンミラー12の各ミラー面が所定の角度に来たとき変化するもので、いわば、ポリゴンミラー12の各面の原点信号(面原点)にあたる。更に、例えば18面のポリゴンミラー12であれば一回転に18回の信号が、各々等間隔(18面であれば20度毎)の角度だけ回転したとき出力されることとなる。これをポリゴンミラー12の回転量信号と呼ぶ。
【0012】
上記第1実施形態における3Dセンサー8は、2系統のPSD回路を有しているが、これは1系統ではレーザー光が部品に当たったときに、角度的にPSDに反射光が帰ってこない場合があるため、これを補うのが主な目的で設けている。3系統以上設けるほうが有効な場合もあるが、技術的には同じことであり、ここでは2系統で説明する。
ここで、前記の半導体位置検出素子(PSD)17a,17bによる計測対象物である部品2上の高さの測定方法の一例を、半導体位置検出素子17aの場合について代表して、図5に基づいて説明する。
図5において、F−θレンズ15から紙面に垂直方向に走査して部品2上に投射されるレーザビームは、部品2から乱反射する。この場合、投射された点が、部品2の底面上の高さ0のA1点と前記底面から高さHのB1点とであるとすると、乱反射したレーザビームは結像レンズ16aによって集光され、それぞれが半導体位置検出素子17a上のA2点とB2点とに結像する。その結果、A2点とB2点とに起電力が発生し、それぞれC点から電流I1,I2、D点から電流I3,I4が取り出される。電流I1,I3は、A2点とC点との間の距離xAとA2点とD点との間の距離に比例する抵抗成分によって決まり、電流I2,I4は、B2点とC点との間の距離xBとB2点とD点との間の距離とに比例する抵抗成分によって決まるので、半導体位置検出素子17aの長さをLとすると、図5のxA,xBは次式のようにして決まる。
A=LI3/(I1+I3
B=LI4/(I2+I4
従って、図5の半導体位置検出素子17a上でのA2点とB2点との間の距離H’は次式で決まる。
H’=xA−xB
このようにして求められたPSD上の高さH’に基づいて前記高さHが決定される。
【0013】
次に、上記第1実施形態の電子部品認識装置における3D画像を撮像する仕組みについて、図4を用いて説明する。
図4は上記第1実施形態の電子部品認識装置の3Dセンサー8からの出力信号の説明図である。図4において、2は部品、5はx軸ロボット、7はヘッド部、8は3Dセンサー、18a,18bはPSD出力、20はポリゴン面原点信号(回転量信号)、21は画像処理制御部、22はx軸ロボット5上で3D画像の撮像のための基準位置を画像処理制御部21に知らせる基準位置センサー、23はヘッド部7がこの基準位置センサー22を通過したときに、これを画像処理制御部21に知らせる基準位置信号、24はx軸ロボット5を移動させるサーボモーター、24aはサーボモーター24のエンコーダー、601はサーボモーター24を制御するサーボコントローラー、25はエンコーダー24aの出力するエンコーダー信号である。又、図14において、200は電子部品認識装置の主制御部である。
なお、y軸ロボット6a,6bもそれぞれ基本的にはx軸ロボット5と同様な構造となっており、y軸ロボット駆動用のサーボモーターを駆動してヘッド部7の代わりにx軸ロボット5を移動させ、このサーボモーターはサーボコントローラー601で動作制御される。また、公知のように、ヘッド部7のノズル7aをその中心軸回りにθ方向に回転させるときも、サーボコントローラー601でθ方向回転用サーボモーターを動作制御する。また、公知のように、ヘッド部7のノズル7aの高さ調整のためノズル7aを支持するノズル高さ軸を上下動させるときも、サーボコントローラー601で上下動用のサーボモーター7mを動作制御する。
【0014】
トレー3からピックアップされた部品2がx軸ロボット5上を移動するとき、エンコーダー24aは常にエンコーダー信号(AB相、Z相またはこれと等価な信号)25を画像処理制御部21に与えており、基準位置センサー22を部品2が通過するとき、基準位置信号23が画像処理制御部21に与えられることから、この両方の信号で部品2のx軸ロボット5上の基準位置からの相対位置を画像処理制御部21が算出できる。
【0015】
一方、3Dセンサー8内にあるポリゴンミラー12の回転量は、これが回転している間、ポリゴン面原点信号(回転量信号)20として常に画像処理制御部21に与えられており、これと基準位置信号23とからポリゴンミラー12の基準位置通過後の回転量を算出することができる。
【0016】
ここで、ポリゴンミラー12の回転量はその速度に比例して増加し、x軸ロボット5の移動量も同様のことが言える。一方、上記第1実施形態における3Dセンサー8では、ポリゴンミラー12と3D画像撮像時のx軸ロボット5は各々等速に回転・直進することを前提としている。もしも、この条件が乱れる場合には、撮像される3D画像の水平・垂直方向の一画素当たりの分解能(画素サイズ)が速度ムラに応じてバラつくこととなる。これは、計測精度上の誤差要因である。そこで上記第1実施形態の電子部品認識装置では、上記構成の3Dセンサー8で3D画像を画像処理制御部21内にある画像メモリ(図14参照)に取り込むとともに、基本的に等速回転運動しているポリゴンミラー12と、サーボモーター24等のモーターで駆動されているヘッド部7の間の動作の整合性を監視・制御するために、ポリゴンミラー12のポリゴン面原点信号(回転量信号)20とモーターのエンコーダー信号25とを用いるものである。
【0017】
図6は、上記第1実施形態である電子部品認識方法において3次元センサー8を使用して位置検出することが有効な電子部品の斜視図である。この電子部品2は、ボディ2pから横方向に突出して下方に屈曲して延びる左右4本ずつのリード2aを備え、平面的に見れば、右側の4本のリード2aのうち手前から1本目と2本目のリード2aの間及び2本目と3本目のリード2aにそれぞれ突起2cが横方向に突出しており、かつ、後端のリード2aの上方に上下方向に重なるように大きな突起2bが横方向に突出しているものである。このような電子部品2は、通常の電子部品の組立では、ごくまれにしか装着しない特殊な部品と考えることができる。しかし、問題は、このような電子部品2を装着しなければならなくなったとき、どれくらい短時間で実現可能にするかということである。例えば、携帯電話やパーソナルコンピュータに代表されるように3カ月〜6カ月程度の短い寿命の商品に使用する基板では、通常は、特殊な部品対応のために、新たに画像処理プログラムを作成して使用するといった1週間以上の時間を要するような対応は許されないものである。よって、このような図6に示すような部品2でもそのリード2aの位置を正確に検出することが要求されるようになってきている。
【0018】
図7は、図6の電子部品2のリード2a及びノイズとなる突起2b,2cの位置と上記第1実施形態である電子部品認識方法における高さ計測領域との関係を説明するための図である。この上記第1実施形態では、8ビット画像処理を採用しているため、高さデータとしては0〜255までの256通りの数値を扱うことができる。上記第1実施形態では、便宜上、レーザー光のビーム径が最小となる位置である高さ計測の基準面を128の数値の位置とし、この128の数値を基準にして、高さの座標軸を上下方向において電子部品2から3Dセンサー8の方向に取り、上端の0から高さ計測の基準面を128の数値を通過して下端の255までの数値を与えて、高さ計測可能領域を0から255までの256通りの数値の位置として表し、高さ計測中心位置を128で表すようにする。また、高さデータとして0や255などの値は、「高さデータが正しく得られなかった」などのエラーを表現するために使用している。尚、3Dセンサーの高さ計測可能領域及びその中心位置は、3Dセンサーの光学系設計によって物理的に決まる。通常、電子部品を認識させるときには、電子部品の装着面が、3Dセンサーの高さ計測中心位置になるように、高さ方向の位置決めをして、電子部品の高さ画像を取り込むようにしている。本実施形態では、高さ方向の分解能を10μmにとるようにすれば、高さ計測可能領域は約±1.2mmとなる。従って、電子部品のノイズリードがこの領域外にある場合には、高さ計測領域の範囲を調整する必要はない。一方、後記するように高さ計測領域の範囲を調整する必要があるのは、ノイズ物体がこの約±1.2mm内に入り込んでしまい、接合部と異なる高さを持つときである。
【0019】
図9は、上記第1実施形態にかかる電子部品認識方法を使用して電子部品を装着する手順を示すフローチャートである。
まず、ステップS1において、主制御部200の制御の下にヘッド部7のノズル7aでトレー3から電子部品2を吸着する。
次いで、ステップS2において、高さ計測領域の調整が必要か否かを作業者が部品形状などを見て判断する。高さ検出したい高さ計測領域が予めわかっており、高さ計測領域の調節が必要な場合には、ステップS3に進む。高さ計測領域の調整が不要ならばステップS4に進む。 ステップS3においては、高さ検出したい高さ計測領域が予めわかっている場合のみ実施し、高さ計測領域の調整を行う。この高さ計測領域の調整は、例えば、作業者が電子部品2のリード2aとノイズ物体となり得る突起2b,2cとの距離を見て、リード2aの高さ計測領域内に突起2b,2cが入り込むとステップS2で判断した場合に、突起2b,2cがリード2aの高さ計測領域外となるように高さ計測領域を狭くすることにより行う。
【0020】
次いで、ステップS4においては、高さ計測領域に基づき、主制御部200によりサーボコントローラ601を制御してノズル7aの高さを調整する。ノズル7aの高さをどの程度の高さに調整するかは、電子部品2の形状から作業者が判断して、主制御部200の部品形状情報記憶部620内に格納されかつ実装プログラムに必要な実装情報の中の部品形状情報内に事前に組み込んでおけばよい(なお、部品形状情報については、図14の説明を参照。)。通常の部品2の場合には、調整量ゼロ、つまり高さ計測領域の高さ計測基準面と電子部品2の実装面とが一致するように、主制御部200を介してサーボコントローラー601の制御によりノズル高さ軸上下用サーボモーター7mを駆動してノズル7aを支持するノズル高さ軸を、上下動させてノズル7aの下端の高さを調整して部品装着面を高さ計測領域の高さ計測基準面に位置決めし、高さ計測を行うことが好ましい。一般には、高さ調整が必要な部品は、図6に示されるような特殊な部品のみであると考えられる。
次いで、ステップS5において、主制御部200の制御の下に、実装プログラムに必要な実装情報の部品形状情報中から部品2の高さデータを図14に示す画像メモリ305に取り込む。この画像メモリ305には、8ビットの高さデータが格納されるようになっており、X軸側のとY軸側のアドレスを別々に指定することにより、特定の位置の高さデータを画像メモリ305から読み出すことができるようになっている。
【0021】
次いで、ステップS6において、3Dセンサー8により部品2の位置を検出する。詳しくは、下記する図10のステップS6AからステップS6Eに示す。
次いで、ステップS7において、主制御部200の制御の下に、3Dセンサー8により認識された高さ位置情報に基づき、部品2をプリント基板9の所定の位置に装着する。
【0022】
図10は図9のステップS6において、高さデータからの部品2の位置検出手順を詳細に示すものである。
まず、ステップS6Aでは、部品形状情報の中に格納されている部品2の大きさから処理エリアを決定する。たとえば、処理エリアのX及びY方向のサイズを、画面上での部品2の大きさの2倍に設定する。図11(A)に、一例として、部品2の大きさから決定された処理エリアを矩形のウィンドウ500で示す。図11(A)によれば、処理エリアである矩形のウィンドウ500が、部品2の画像202に対してその大きさの大略2倍に設定することにより、部品2のリード2aの画像202aがウィンドウ500内に余裕を持って入ることを示している。
【0023】
次いで、ステップS6Bにおいて、図17に示すような処理エリア内をサンプリングして各位置での高さデータを示す輝度を基に図18に示すように輝度ヒストグラムを作成したのち、この輝度ヒストグラムにおいて、高さ検出すべき対象物である接合部例えばリード2aの高さデータとノイズ物体の高さデータとを分離させるためにしきい値をヒストグラム法を用いて算出して設定する。ここで、ヒストグラムのしきい値より左側の棒グラフ部分としきい値より右側の棒グラフ部分の面積の割合は、図17の処理エリアの背景領域の面積と対象物の面積の割合に等しくなる。よって、ヒストグラム法によるしきい値の算出は以下のように行っている。まず、画像メモリ内で、対象物が含まれる領域を定める。次に、X方向、Y方向、それぞれ等間隔にサンプリングして、画像データを読み出し、画像データのヒストグラムを作成する。対象物の接合部のように、相対的に高い値を持つ画像データの出現率は、予め定めたサンプリング領域(ここでは、この面積を面積Aとする。)に占める接合部(ここでは、この面積を面積Bとする。)の、面積の割合(S%=100*B/A)に等しい。従って、輝度ヒストグラムを右端の頻度から順に加算し、ヒストグラムの面積のS%になるところまでがリードに相当する画像データを表している。従って、S%を示す画像データの値をしきい値とする。
【0024】
次いで、ステップS6Cにおいて、処理エリアのウィンドウ500内をサンプリングして、上記しきい値を使用して高さ計測領域内で検出される有効な高さデータを基に部品2の中心及び傾き(処理エリア内のウィンドウの横軸のX軸と縦軸のY軸に対する傾斜角度)を大まかに検出する。たとえば、以下の(数1)及び(数2)の算出式に従うことで部品2の中心及び傾きを求めることができる。図11(B)は上記処理エリア500内をサンプリングして部品2の大まかな中心と傾きが求めることを示す図である。サンプリングの例としては、X軸方向に1画素おきに高さデータをサンプリングしてX軸方向の最後の画素の高さデータまで取り込むと、次にY軸方向に1画素を飛ばして2画素目まで進み、先ほどと同様にX軸方向に1画素おきに高さデータをサンプリングしてX軸方向の最後の画素の高さデータまで取り込むことをウィンドウ500内の全てのエリアに対して行う。
【0025】
ここでは、まず、部品2の中心を大まかに求めるためには、処理エリア500内をサンプリングして高さデータH(x,y)を画像メモリ305から読み出す。前述したように、画像メモリ305には、8ビットの高さデータが格納されており、X,Yアドレスを別々に指定することにより、特定の位置の高さデータを画像メモリ305から読み出すことができる。そして、次の(数1)によって中心位置(Xc,Yc)を算出する。
【数1】

Figure 0003883279
ただし、H(x,y)>THLのとき、ρ(x,y)=1とする。
また、H(x,y)≦THLのとき、ρ(x,y)=0とする。
ここで、THLは、各位置での高さデータを示す輝度を基に、図15のプログラムメモリ301に格納されているしきい値算出手段408により輝度ヒストグラムを作成したのち、この輝度ヒストグラムにおいて高さ検出すべき接合部例えばリード2aとノイズ物体とを分離させるためにしきい値算出手段408内に設定するしきい値であり、処理エリアであるウィンドウ500内をサンプリングして、認識対象物と思われるリード2aの高さを推定し、それよりも若干低い値に設定する。あるいは、固定値を設定しても良い。例えば、上記第1実施形態では、高さ計測の基準面の128の数値が部品2の装着面に相当するので、しきい値THLは80の数値(装着面から0.48mm上の位置)とする。
【0026】
また、傾きθ1の検出は以下の(数式2)により求める。
【数2】
Figure 0003883279
ただし、H(x,y)>THLのとき、ρ(x,y)=1とする。
また、H(x,y)≦THLのとき、ρ(x,y)=0とする。
【0027】
次いで、ステップS6Dにおいて、部品形状情報と部品2の大まかな位置とを基にリード2aの位置を検出する。すなわち、図12(A)に示すように、ステップS6Cで求めた上記部品2の大まかな中心及び傾きと、メインコントローラ200から送られてきた部品形状情報のうちのボディ2pの幅と奥行きとを使用して、個々のリード2aが存在する位置を推定し、各リード2aを包含する小さな小ウィンドウ501を設定する。この小ウィンドウ501は、例えば、リード2aの画像202aに対してその大きさの大略2倍に設定する。この小ウィンドウ501内をサンプリングして、各リード2aの中心位置502を検出する。サンプリングの例としては、X軸方向に1画素おきに高さデータをサンプリングしてX軸方向の最後の画素の高さデータまで取り込むと、次にY軸方向に1画素を飛ばして2画素目まで進み、先ほどと同様にX軸方向に1画素おきに高さデータをサンプリングしてX軸方向の最後の画素の高さデータまで取り込むことを小ウィンドウ501内の全てのエリアに対して行う。上記部品形状情報には、部品2の2pの大きさ(ボディ高さ、ボディ幅、ボディ奥行き)、リード本数、リード長さ、リード幅、リードピッチなど、個々のリード2aが存在する位置を計算するのに必要な情報を予め格納しておく。
【0028】
次いで、ステップS6Eにおいて、全てのリード位置(リード中心位置の座標)から部品2の正確な位置を検出する。図12(B)は全てのリード位置から部品2の正確な中心と傾きを算出する状態を説明するための図である。例えば、中心位置は、全てのリード位置の加算平均で求め、傾きは、ボディ2pを挟んで向かい合うリード2aの各リード中心位置間の中点を算出し、4つの中点を近似する十字の直線503で表すことができる。図13は、このようにして求めた部品2の正確な中心と傾きの算出結果の例を示す。図13において、直線504は部品2の傾きを示し、直線504と直交する4本の直線505と左右4個ずつのリード2aの画像202aの中心線との交点506がリード2aの中心位置座標となる。
【0029】
ここで、上記第1実施形態と従来技術との比較のため、図6の電子部品2を従来技術であるCCDカメラで撮影したときの画像102を図8(A)に模式的に示す。突起2cに対応するノイズ102cが2本のリード2aの画像102aの間に存在するため、リード2aの画像102aを検出するときに、ノイズ102cの影響を受けないようにノイズ102cを除去する「ノイズリード除去処理」を施す必要がある。また、最後端のリード2aの画像102aが突起2bに対応するノイズ102bに完全に包含されるため、最後端のリード2aの位置検出を行うためには「低コントラストリード検出処理」(画像強調処理)が必要になる。また、「ノイズリード除去処理」や「低コントラストリード検出処理」の能力によっては、認識位置ずれや認識不可などの事態も予想され、信頼性も低下するといった問題がある。ただし、ここでは、ノイズ102cもノイズ102bもリード2aの画像102aと同じくらい明るい物体であると想定している。
【0030】
これに対して、上記第1実施形態では、高さ計測可能領域内において高さ計測基準面である128の数値を中心にリード2aの高さ位置を検出しうる高さ計測領域を予め設定しておき、この高さ計測領域の範囲内でのみ高さ検出を行うようにするので、高さ計測領域内に位置するリード2aの高さのみ検出することができ、高さ計測領域外の突起2b,2cの高さを検出しないため、図8(B)に示すように、リード2aの画像202aのみを持つ電子部品2の画像202を取り込むことができる。すなわち、従来技術で検出されてしまったノイズ102cとノイズ102bが、上記第1実施形態の部品認識方法では3Dセンサー8の高さ計測領域外にあるため、3Dセンサー8では、ノイズ102cとノイズ102bが全く検出されない。つまり、従来技術で必要だった、「ノイズリード除去処理」や、「低コントラストリード検出処理」は全く必要はない。したがって、従来の方法に比べて、上記第1実施形態によれば、画像処理時間を短縮できるだけでなく、認識の信頼性も大幅に向上するという効果がある。
【0031】
従って、上記第1実施形態にかかる部品認識方法によれば、高さ計測可能領域内において高さ計測基準面を中心にリード2aの高さ位置を検出しうる高さ計測領域を予め設定しておき、この高さ計測領域の範囲内でのみ高さ検出を行うようにしたので、高さ計測領域内に位置するリード2aの高さのみ検出することができ、高さ計測領域外の突起2b,2cの高さを検出することがない。よって、電子部品2の装着面に存在するリード2aや電極等の付近にノイズとなる突起2b,2cなどが存在しても、突起2b,2cなどを誤ってリード2aや電極等として認識することなく正確に認識することができて、上記電子部品2の装着面に存在するリード2aや電極などの接合部の位置情報を正確に得ることができる。よって、この正確に得られた上記接合部の位置情報に基づき上記電子部品2の実装を行えば、電子部品2をより一層正確に実装することができる。
【0032】
図14は上記上記第1実施形態の部品認識方法を実施するための部品認識装置の詳細なブロック図である。
図14において、主制御部200は、図1に示される電子部品実装装置全体の動作を制御する。たとえば、サーボコントローラー601を介して電子部品実装装置のヘッド部7の位置を制御し、電子部品2の吸着、移動、プリント基板9への装着を行う。また、装着を行う電子部品2の部品形状情報(部品ボディ2pの大きさ(ボディ高さ、ボディ幅、ボディ奥行き)、リード本数、リード長さ、リード幅、リードピッチなど)を主制御部200の部品形状情報記憶部620からシステムバス201及び2ポートメモリ306を介して部品認識装置のワークメモリ302に転送し、電子部品2の高さ画像入力、電子部品2の位置検出を行わせる。また、電子部品2の位置検出結果は、画像処理制御部21からその2ポートメモリ306を介して主制御部200に入力し、主制御部200により電子部品実装装置全体の動作を制御して、電子部品2をプリント基板9に装着する際のX,Y,θ方向の位置補正計算に用いる。そして、位置(X,Y,θ)補正計算結果に基づいて、主制御部200により、ノズル7aをθ方向に回転させて電子部品2の回転位置を補正するとともに、XY方向については電子部品2の装着位置に補正計算結果を加味して、ヘッド部7をXY方向に移動させ、電子部品2をプリント基板9の所定位置に装着する。
【0033】
一方、上記したように、上記x軸ロボット5では、電子部品2を吸着したヘッド部7は、サーボモーター24の回転によりX軸5上を移動する。電子部品2の高さデータ入力は、電子部品2を吸着したヘッド部7が、基準位置センサー22の左側から右側に向かって、3Dセンサー8上を等速で移動することでなされる。ヘッド部7が基準位置センサー22を通過すると基準位置信号23が出力されて、画像処理制御部21に通知される。 このx軸ロボット5を含むXYロボット600では、サーボコントローラ601が、X軸・Y軸・θ軸・ノズル高さ軸の位置制御を行う。特に、X軸のモータエンコーダ信号は、ヘッド部7のX軸上での位置を教えるため、また、X軸からの基準位置信号は、ヘッド部7が高さ計測開始位置に来たことを教えるため、それぞれ、画像処理制御部21のタイミング制御部307に入力され、タイミング制御部307において高さデータを画像メモリ305に取り込むスタートタイミングを測るのに用いられる。
【0034】
上記したように、上記高さ検出部602の高さ検出センサー8では、対象物から反射してきたレーザー光を計測する受光系は、レーザー光の反射ばらつきを考慮して2系統(チャネルAとチャネルB)設け、信頼性を確保している。各受光系では、PSD17a,17bで検出した微弱な信号を、プリアンプ310a,310bで増幅し、ADコンバーター(アナログ?デジタルコンバーター)311a,311bで12ビットのデジタルデータに変換し(高さ演算の精度を確保するため、ここでは12ビットのデジタルデータに変換している)、画像処理制御部21の高さ演算部312a,312bへ入力している。また、ポリゴンミラー12は常時回転しており、図5で示される機構によって、ポリゴン面原点信号をクロック発生部309に入力している。クロック発生部309では、高さデータをメモリに書き込む際に必要になる基準クロック(CLK)を発生させると共に、ポリゴン面原点信号20を基にして、高さデータ取り込みに必要な水平同期信号(HCLR)を発生させ、それぞれ画像処理制御部21のタイミング制御部307に入力している。
【0035】
高さ検出部602の3Dセンサー8からプリアンプ310a,310b及びADコンバーター311a,311bによりデジタル化されたPSD信号は、高さ演算部312a,312bで8ビットの高さデータに変換される。チャネル選択部303は、2系統(チャネルAとチャネルB)ある高さデータをリアルタイムで比較し、それぞれのタイミングで確からしい方の高さデータを選択している。たとえば、チャネルAの高さ計算時にゼロによる割り算が発生すれば、チャネルAの高さデータには異常を表す255が与えられるので、このような場合には、チャネルBの値を選択する。もし両チャネルが255の異常値を示せば、高さデータとして255が出力される。また、両チャネルの高さデータが正常値であれば、両チャネルの高さデータの加算平均値が出力される。チャネル選択部303から出力された高さデータは、高さ変換部304で高さ計測領域外にある高さデータを無効値(例えばゼロ)に変換して画像メモリ305に格納される。高さデータの画像メモリ305への格納は、タイミング制御部307によって制御されており、タイミング制御部307では、XYロボット600から基準位置信号を受けた後、予め定めておいたヘッド部移動距離としてエンコーダ信号25をカウントしたのち垂直同期信号(VCLR)を生成し、高さデータ取り込み開始信号として画像メモリ305へ入力している。垂直同期信号(VCLR)を生成するのに、基準位置信号を受けた後、予め定めておいたヘッド部移動距離をエンコーダ信号でカウントするのは、通常基準位置センサー22を高さデータ取り込み開始位置に正確に取り付けるのは不可能なためである。画像メモリ305に格納された高さデータは、プログラムに従って動作するCPU300によって画像処理され、認識対象物である電子部品2の位置検出などが行われる。プログラムは、プログラムメモリ301に格納されている。電子部品2の幾何特徴を格納している部品形状情報記憶部620の部品形状情報(部品のボディの大きさ(ボディ高さ、ボディ幅、ボディ奥行き)、リード本数、リード長さ、リード幅など)は、高さ画像入力に先立ち、2ポートメモリ306を介して主制御部200側から事前に送られてくる。認識対象物の位置検出は、上記したように、この部品形状情報を基に行われる。尚、ワークメモリ302は、認識対象物の位置検出を行う上で、中間結果を格納する場所として使用される。このように、ノイズ除去部の例としての高さ変換部304において高さ変換テーブルを使用した場合、変換速度が速く、部品認識速度を向上させることができる。
【0036】
図15は図14のプログラムメモリ301に含まれる機能的な手段を示しており、処理エリア決定手段401と、重心検出手段402と、傾き検出手段403と、接合部位置検出手段として機能するリード位置検出手段404と、接合部中心及び傾き検出手段として機能する対象物中心・傾き検出手段405と、高さデータクリップ手段406と、高さ変換テーブル設定手段407と、しきい値算出手段408とを備えている。これらは、通常はソフトウェアでそれぞれ構成される。
処理エリア決定手段401は、図10のステップS6Aの動作を行うものであって、部品2の大きさから画像メモリ305中の処理エリアを決定する。
重心検出手段402は、図10のステップS6Cの中心算出を行う。
傾き検出手段403は、図10のステップS6Cの傾き算出式を行う。
リード位置検出手段404は、図10のステップS6Dの動作を行うものであって、与えられた中心及び傾きと対象物の部品形状情報からからリード2aの存在する位置を計算し、リード2aの中心位置を検出する。
【0037】
対象物中心・傾き検出手段405は、図10のステップS6Eの動作を行うものであって、全てのリード位置から、正確な対象物の中心・傾きを算出する。
高さデータクリップ手段406は、ある領域をサーチしてクリップする高さレベルを算出する手段である。例えば、図12(A)に示されるリード2aを含む小ウィンドウ501内で、リード2aを検出する前に、高さデータクリップ手段406によりクリップ値を求めておく。そうすると、このクリップ値を用いてノイズ高さを除去することで、リード位置を正確に検出することができる。ここで、クリップする高さレベル算出はリード毎に行うので、クリップレベルはリード毎で異なる値を持つ。したがって、各リード2aに応じた最適なノイズ高さ除去を行うことができる。
高さ変換テーブル設定手段407は、作業者からの指示に基づき、高さ変換部304内の高さ変換テーブルを書き換えるものである。
しきい値算出手段408は、上記したように、各位置での高さデータを示す輝度を基に輝度ヒストグラムを作成したのち、この輝度ヒストグラムにおいて高さ検出すべき接合部例えばリード2aとノイズ物体とを分離させるためにしきい値を設定する。
【0038】
図16は、図14の高さ変換部304の検出範囲の設定例を示す高さ変換テーブルである。ここで、部品形状情報には、高さ検出領域の調整に関した検出高さデータが格納されている。CPU300は、この情報に基づいて高さ変換テーブルを書き換えることができるCPU300からみれば、高さ変換テーブルはメモリと同じようにみるとができ、CPU300がアドレスを指定しながら8ビットのデータを書き込むことにより、高さ変換テーブルを設定することができる。よって、高さ変換部304は、高さ計測可能領域内において高さ計測基準面を中心にリード2aの高さ位置を検出しうる高さ計測領域を予め設定しておくことができ、この高さ計測領域の範囲内を通過する高さデータのみを後続の処理に出力するようにして、高さ計測領域の範囲内のみでの高さ検出を行うようにするものである。ここでは、8ビット画像処理なので、高さデータとしては0〜255までの256通りの数値を扱うことができる。上記第1実施形態では便宜上、高さ計測の基準面の数値を128として高さ座標軸を対象物から3Dセンサー方向に取っており、高さ方向の分解能を10μmとすると、計測可能な領域は約±1.2mmとなる。図16では、この条件で高さ計測領域を例えば±0.5mmに限定する高さ変換部304の設定を表している。すなわち、図16においては、高さデータとしての78から178の間の数値(デジタル値)が高さ変換部304に入力されると、入力値と同じ値に変換されて78から178の間の数値(デジタル値)がそれぞれ出力される。しかしながら、高さデータとしての0以上78未満の数値(デジタル値)及び178を超えて255以下の数値(デジタル値)が高さ変換部304にそれぞれ入力されると、変換されて0の数値がそれぞれ出力されることを示している。よって、図9のステップS3において、高さ検出したい高さ計測領域が予めわかっている場合に高さ計測領域の調整を行うときには、この高さ変換テーブルを変更すればよい。具体的には、例えば、図9のステップS2で高さ計測領域内にノイズ物体が入り込むと作業者が判断した場合に、ステップS3でノイズ物体が高さ計測領域外から外れるように高さ計測領域を狭くするように調整することが必要になる。このため、高さ計測領域を狭くするように作業者が、高さ変換部304内の高さ変換テーブルの入力値に対する出力値を変更する指示を操作盤650から部品形状情報記憶部620内に格納しておき、主制御部200及び2ポートメモリ306を介して、図15のプログラムメモリ301内の高さ変換テーブル設定手段407が部品形状情報記憶部620内の上記調整指示に基づき、高さ変換部304内の高さ変換テーブルを書き換えるようにすればよい。
【0039】
従って、上記第1実施形態にかかる部品認識装置によれば、高さ変換部304により、高さ計測可能領域内において高さ計測基準面を中心にリード2aの高さ位置を検出しうる高さ計測領域を予め設定しておき、この高さ計測領域の範囲内でのみ高さ検出を行うようにしたので、高さ計測領域内に位置するリード2aの高さのみ検出することができ、高さ計測領域外の突起2b,2cの高さを検出することがない。よって、電子部品2の装着面に存在するリード2aや電極等の付近にノイズとなる突起2b,2cなどが存在しても、突起2b,2cなどを誤ってリード2aや電極等として認識することなく正確に認識することができて、上記電子部品2の装着面に存在するリード2aや電極などの接合部の位置情報を正確に得ることができる。よって、この正確に得られた上記接合部の位置情報に基づき上記電子部品2の実装を行えば、電子部品2をより一層正確に実装することができる。
【0040】
なお、本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施できる。例えば、第1実施形態において、高さ変換部304をソフトウェアで実施するのではなく、高さ変換部を回路的な構成、例えば、2種類の比較器で構成するようにしてもよい。この場合、2種類の比較器のうちの一方の比較器ではリード2aとノイズ物体とを分離するためのしきい値よりノイズ物体側の高さデータはすべて無効とする一方、他方の比較器では上記しきい値以下のリード側の高さデータはすべて有効として取り扱うことにより同様な機能を発揮するようにしてもよい。
また、第1実施形態の代わりに、本発明の第2実施形態として、高さ検出したい計測領域を予め決めておくことができない場合には、高さデータを一旦、画像メモリに格納した後、高さデータを解析して高さ計測領域を設定し、計測領域外にある高さデータを特定の値に置き換える方法がある。具体的には、例として、8ビットで表す高さ計測領域内にノイズとなる物体が含まれているが、ノイズの高さが安定しないために、第1実施形態が採用されない場合に適用する。 又、本発明の第3実施形態として、高さ変換部304を備える代わりに、計測可能な範囲内にノイズとなる物体が入らないようにPSD17a,17bに結像させる受光系のレンズ16a,16bの倍率を変更して高さ計測領域の幅を狭くして、リード2aからの反射光のみを結像させ、ノイズとなる突起2b,2cからの反射光は結像させないようにする。ただし、この第3実施形態では、対象物に合わせてフレキシブルに高さ計測領域を設定するためには、特別な調整機構が必要となる。
【0041】
【発明の効果】
本発明の電子部品実装方法によれば、上記接合部の背後あるいは近接位置に存在しかつ上記光を反射するノイズ物体となり得るノイズリードが上記高さ検出部で検出する上記反射光の高さ計測領域外となるように上記高さ検出部の上記高さ計測領域を狭くすべく上記高さ計測領域の調整を行ったのち、上記調整後の高さ計測領域に基づき、制御部の部品形状情報記憶部内に格納されかつ実装プログラムに必要な実装情報の中の部品形状情報を参照して、上記制御部によりサーボコントローラを制御して上記部品保持部材の高さを調整して、上記ノイズリードを除去するようにしているので、高さ計測領域内に位置する接合部の高さのみ検出することができ、高さ計測領域外の突起等のノイズ物体の高さを検出することがない。よって、電子部品の装着面に存在するリードや電極等の接合部の付近にノイズ物体となる突起などが存在しても、突起などを誤って接合部として認識することなく接合部を正確に認識することができて、上記電子部品の装着面の接合部の位置情報を正確に得ることができる。よって、この正確に得られた上記接合部の位置情報に基づき上記電子部品の実装を行うことにより、電子部品をより一層正確に実装することができる。
また、本発明の電子部品実装装置によれば、ノイズ除去部により、上記接合部の背後あるいは近接位置に存在しかつ上記光を反射するノイズ物体となり得るノイズリードが上記高さ検出部で検出する上記反射光の上記高さ計測領域外となるように上記高さ検出部の上記高さ計測領域を狭くすべく上記高さ計測領域の調整を行ったのち、上記調整後の高さ計測領域に基づき、上記制御部の上記部品形状情報記憶部内に格納されかつ上記実装プログラムに必要な上記実装情報の中の部品形状情報を参照して、上記制御部によりサーボコントローラを制御して上記部品保持部材の高さを調整して、上記ノイズリードを除去するようにしているので、高さ計測領域内に位置する接合部の高さのみ検出することができ、高さ計測領域外の突起などのノイズ物体の高さを検出することがない。よって、電子部品の装着面に存在するリードや電極等の接合部の付近にノイズ物体などが存在しても、ノイズ物体などを誤って接合部として認識することなく正確に認識することができて、上記電子部品の装着面に存在するリードや電極などの接合部の位置情報を正確に得ることができる。よって、この正確に得られた上記接合部の位置情報に基づき上記電子部品の実装を行うことにより、電子部品をより一層正確に実装することができる。
【図面の簡単な説明】
【図1】 本発明の上記第1実施形態である電子部品認識方法を実施することができる電子部品実装機の外観図である。
【図2】 上記第1実施形態の電子部品認識方法に使用する高さ検出センサーのY軸方向に見た側面図である。
【図3】 図2の高さ検出センサーのX軸方向に見た側面図である。
【図4】 上記第1実施形態における3Dセンサーからの出力信号の説明図である。
【図5】 上記第1実施形態における高さ測定方法の例を示す説明図である。
【図6】 上記第1実施形態である電子部品認識方法において3次元センサーを使用して位置検出することが有効な電子部品の斜視図である。
【図7】 図6の電子部品のリードの位置及びノイズとなる突起の位置と上記第1実施形態である電子部品認識方法における高さ計測領域との関係を説明するための図である。
【図8】 (A),(B)は、それぞれ、図6の電子部品を従来技術であるCCDカメラで撮影したときの画像の模式的な説明図及び上記第1実施形態による電子部品認識方法で認識したときの電子部品の画像の模式的な説明図である。
【図9】 上記第1実施形態にかかる電子部品認識方法を使用して電子部品を装着する手順を示すフローチャートである。
【図10】 図9のステップS6において、高さデータからの部品の位置検出手順を詳細に示すフローチャートである。
【図11】 (A),(B)は、それぞれ、図10の位置検出手順において部品の大きさから決定された処理エリアをウィンドウで示す模式的な説明図及び上記処理エリア内をサンプリングして部品の大まかな中心と傾きを求めることを示す模式的な説明図である。
【図12】 (A),(B)は、それぞれ、図10の位置検出手順において、上記部品の大まかな中心及び傾きとメインコントローラから送られてきた部品形状情報を使って、個々のリードが存在する位置を推定し、リードを包含する小さなウィンドウを設定し、このウィンドウ内をサンプリングして、リードの中心位置を検出する状態を示す模式的な説明図及び全てのリード位置から部品の正確な中心と傾きを算出する状態を示す模式的な説明図である。
【図13】 図10の位置検出手順において部品の正確な中心と傾きの算出結果の例を示す模式的な説明図である。
【図14】 上記第1実施形態の部品認識方法を実施するための部品認識装置のブロック図である。
【図15】 図14の部品認識装置のプログラムメモリに含まれるソフトウェアの機能的な手段のブロック図である。
【図16】 図15の高さ変換部の検出範囲の設定例を示すテーブルの図である。
【図17】 輝度ヒストグラムを作成する対象となる処理エリアを示す図である。
【図18】 図17の処理エリアの輝度ヒストグラムの図である。
【符号の説明】
1…電子部品実装装置の実装装置本体、2…電子部品、2a…リード、2b…突起、2c…突起、3…トレー、4…トレー供給部、5…x軸側のロボット、6a,6b…y軸側のロボット、7…ヘッド部、7a…ノズル、7m…ノズル高さ軸上下用サーボモーター、8…3次元(3D)センサー、9…プリント基板、10…半導体レーザー、11…集光整形レンズ、12…ポリゴンミラー、13…ハーフミラー、14…ミラー、15…F−θレンズ、16a,16b…結像レンズ、17a,17b…半導体位置検出素子(PSD)、18a,18b…PSD17a,17bの出力信号、19…受光素子(光センサー)、20…ポリゴン面原点信号、21…電子部品認識装置の画像処理制御部、22…基準位置センサー、23…基準位置信号、24…サーボモータ、24a…エンコーダー、25…エンコーダー信号、102,202…部品の画像、102a,202a…リード部分の画像、102b,102c…ノイズとなる突起の画像、128…高さ計測の基準面、200…主制御部、201…システムバス、300…CPU、301…プログラムメモリ、302…ワークメモリ、303…チャンネル選択部、304…高さ変換部、305…画像メモリ、306…2ポートメモリ、307…タイミング制御部、309…クロック発生部、310a,310b…プリアンプ、311a,311b…ADコンバーター、312a,312b…高さ演算部、401…処理エリア決定手段、402…重心検出手段、403…傾き検出手段、404…リード位置検出手段、405…対象物中心・傾き検出手段、406…高さデータクリップ手段、407…高さ変換テーブル設定手段、408…しきい値算出手段、500…処理エリアのウィンドウ、501…小ウィンドウ、502…中心位置、503,504,505…直線、506…交点、600…XYロボット、601…サーボコントローラー、602…高さ検出部、620…部品形状情報記憶部。[0001]
BACKGROUND OF THE INVENTION
  The present invention detects positions of joints such as leads and electrodes existing on a mounting surface of an electronic component to be mounted in electronic component mounting in which the electronic component is automatically mounted on a printed circuit board, a liquid crystal display, a plasma display panel substrate, or the like. Parts approvalIntellectThe electronic component mounting method for mounting the electronic component on the substrate based on the detected positional information of the joints such as leads and electrodes existing on the mounting surface of the electronic component, and the component recognitionIntellectThe present invention relates to an electronic component mounting apparatus in which the electronic component is mounted on a substrate based on the detected positional information of joints such as leads and electrodes existing on the mounting surface of the electronic component.
[0002]
[Prior art]
Conventionally, various types of component recognition methods are known. For example, visible light is irradiated onto an electronic component, and the reflected light reflected by the object is received by a CCD camera to detect the position of a joint portion such as a lead or electrode existing on the mounting surface of the electronic component. Things are being considered.
[0003]
[Problems to be solved by the invention]
  However, in the above structure, if there is a protrusion near the lead or electrode existing on the mounting surface of the electronic component and the visible light is reflected by the protrusion, in addition to the reflected light from the lead or electrode In addition, the reflected light from the projections also enters the CCD camera, and the projections become noise to the joints to be recognized such as leads and electrodes, and the projections are erroneously recognized as leads or electrodes.
  Accordingly, an object of the present invention is to solve the above-described problem, and without erroneously recognizing a protrusion near the joint portion such as a lead or electrode existing on the mounting surface of the electronic component as the joint portion. It is possible to obtain the position information of the joint part of electronic parts accurately.TheIt is an object of the present invention to provide an electronic component mounting method and apparatus capable of mounting the electronic component more accurately based on the position information of the joint portion obtained accurately.
[0004]
[Means for Solving the Problems]
  In order to achieve the above object, the present invention is configured as follows.
  According to the first aspect of the present invention, light is applied to a joint such as a lead or an electrode existing on the mounting surface of the electronic component, and the height detection unit based on the reflected light from the joint serves to Component recognition for position detectionAn electronic component mounting method for mounting the electronic component on a substrate based on positional information of the joint portion of the electronic component detected byBecause
  Hold the electronic component with the component holding member of the head,
  A noise object that is behind or near the joint and reflects the lightPossible noise leadIs detected by the above height detectorthe aboveThe height detector should be positioned outside the height measurement area of the reflected light.the aboveHeight measurement areaAfter adjusting the height measurement area to make it narrower, based on the height measurement area after adjustment, the part shape in the mounting information stored in the part shape information storage unit of the control unit and necessary for the mounting program Refer to the information, adjust the height of the component holding member by controlling the servo controller by the control unit,the aboveNoise leadRemoveAnd
  Under the control of the control unit, the height data of the component is fetched from the component shape information of the mounting information necessary for the mounting program,
Based on the captured height data, the height detector detects the position of the electronic component,
Based on the position information of the electronic component detected by the height detection unit, the head unit is driven and the electronic component is mounted at a predetermined position on the substrate by the component holding member.It is characterized byElectronic component mounting methodI will provide a.
  According to a second aspect of the present invention, in the first aspect, the height detection unit detects the height of the joint by a semiconductor position detection element as a height detection sensor.Electronic component mounting methodI will provide a.
  According to the third aspect of the present invention, in the noise removal, the height measurement region in which the height position of the joint can be detected around the height measurement reference plane in the height measurement possible region is set in advance. According to the first or second aspect, the height of the joint is detected only within the range of the height measurement region.Electronic component mounting methodI will provide a.
  According to the fourth aspect of the present invention, the noise removal may be performed by converting the height measurement region in which the height position of the joint portion can be detected around the height measurement reference plane within the measurable region into a height conversion table.AndIn advance, the height conversion table treats height data outside the height measurement area among the height data of the joint as invalid height data, and sets the height measurement area. The height data in the range is handled as effective height data, and the height of the joint is detected based on the effective height data.Electronic component mounting methodI will provide a.
  According to the fifth aspect of the present invention, the processing area is determined from the size of the electronic component with respect to the image of the electronic component detected only within the height measurement area,
  Sampling the window of the determined processing area in the image of the electronic component to roughly detect the center and inclination of the electronic component,
  Based on the size of the component and the approximate position of the electronic component, detect the positions of all the joints in the image of the electronic component,
  5. The method according to any one of the first to fourth aspects, wherein an accurate position of the electronic component in the image of the electronic component is detected from the positions of all the joint portions.Electronic component mounting methodI will provide a.
  According to a sixth aspect of the present invention,An irradiation device for irradiating light to a joint such as a lead or an electrode existing on a mounting surface of the electronic component;
A height detector that detects the position of the joint based on the reflected light reflected from the joint by the light emitted from the irradiation device;
A head unit that holds the electronic component by a component holding member and adjusts the height of the component holding member based on a height measurement region of the reflected light;
Control unit connected to the component shape information storage unit that stores the mounting information required for the mounting program When,
The height detection so that a noise lead that is behind or near the joint and can be a noise object that reflects the light is outside the height measurement region of the reflected light detected by the height detection unit. After adjusting the height measurement area to narrow the height measurement area of the part, based on the height measurement area after the adjustment, it is stored in the part shape information storage unit of the control unit and mounted. A noise removing unit that refers to the component shape information in the mounting information necessary for the program, controls the servo controller by the control unit to adjust the height of the component holding member, and removes the noise lead; With
The control unit captures the height data of the component from the component shape information of the mounting information necessary for the mounting program, and based on the captured height data, the height detection unit determines the position of the electronic component. Based on the position information of the electronic component detected and detected by the height detection unit, the head unit is driven and the electronic component is mounted at a predetermined position on the substrate by the component holding member. Electronic component mounting apparatus characterized byI will provide a.
  According to the seventh aspect of the present invention,The electronic component mounting apparatus according to the sixth aspect, wherein the height detection unit detects the position of the joint by a semiconductor position detection element as a height detection sensor.I will provide a.
  According to the eighth aspect of the present invention,The noise removing unit sets in advance a height measurement area in which the height position of the joint can be detected around the height measurement reference plane in the height measurement possible area, and the range of the height measurement area The electronic component mounting apparatus according to the sixth or seventh aspect, wherein the height of the joint is detected only within the interior.I will provide a.
  According to the ninth aspect of the present invention,The noise removing unit presets the height measurement region capable of detecting the height position of the joint with a height measurement reference plane as a center within the measurable region as a height conversion table. The height conversion table treats the height data outside the height measurement area among the height data of the joint as invalid height data, and the height data within the range of the height measurement area is valid. The electronic component mounting apparatus according to any one of the sixth to eighth aspects, which is handled as height data and detects the height of the joint portion based on the effective height data.I will provide a.
  According to a tenth aspect of the present invention,A processing area determining means for determining a processing area from the size of the electronic component with respect to the image of the electronic component detected only within a height measurement region;
A center of gravity and inclination detecting means for sampling the inside of the window of the determined processing area in the image of the electronic component and roughly detecting the center and inclination of the electronic component;
Based on the size of the component and the approximate position of the electronic component, the joint position detection means for detecting the positions of all the joints in the image of the electronic component,
The electronic component according to any one of the sixth to ninth aspects, comprising a joint center and an inclination detection means for detecting an accurate position of the electronic component in an image of the electronic component from all the positions of the joint. A mounting apparatus is provided.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described below in detail with reference to the drawings.
The component recognition method according to the first embodiment of the present invention is a height measurement region that can be detected by a height detection sensor in order to accurately obtain position information of joints such as leads and electrodes existing on a mounting surface of an electronic component. Is limited to detect only the above-mentioned joint and not other noise objects. That is, as a first embodiment, when a measurement area whose height is to be detected with respect to the joint is known in advance, the height data outside the measurement area can be converted into a height conversion table when the height data is input. , It is converted to a specific value that is not recognized as normal height data. Specifically, as an example, the present invention is applied to a case where an object that causes noise is included in a height measurement region represented by 8 bits. It is preferable to calculate the height positional relationship in advance and limit the height measurement region.
[0006]
FIG. 1 is an overall schematic diagram of an electronic component mounting apparatus equipped with a component recognition apparatus capable of performing the component recognition method according to the first embodiment of the present invention. As an example of an object, an electronic component 2 is connected by a nozzle 7a. The adsorbed head portion 7 moves at a constant speed in the X-axis direction on the height detection sensor 8 of the height detection portion 602 that detects the height of the joint portion such as the lead 2a or the electrode existing on the mounting surface of the electronic component 2. A state in which the height data of the electronic component 2 is obtained by moving is shown. That is, in FIGS. 1 and 14, 1 is a mounting apparatus main body of an electronic component mounting apparatus, 2 is an electronic component (hereinafter abbreviated as “component”) mounted on the apparatus, 3 is a tray on which the component 2 is mounted, 4 is A tray supply unit as a component supply unit that automatically supplies the component 2 placed on the tray 3 is a servo for vertically moving the nozzle height axis that supports the nozzle 7a after the component 2 is sucked by the nozzle 7a during mounting. A head unit 5 that is driven by a motor 7m and moves up and down to mount the adsorbed component 2 on the substrate, 5 moves the head unit 7 in the x-axis direction, and is a part of the XY robot 600. Axial robots (hereinafter abbreviated as x-axis robots) 6a and 6b are y-axis robots (hereinafter referred to as XY robots 600) that move the head unit 7 together with the x-axis robot 5 in the y-axis direction. 14 is a three-dimensional (hereinafter abbreviated as 3D) sensor as an example of the height detection sensor of the height detection unit 602 in FIG. 14, and takes a height image of the component 2. . Reference numeral 9 denotes a printed circuit board on which the component 2 is mounted.
[0007]
When the component 2 placed on the tray 3 is adsorbed by the head unit 7 and moves on the 3D sensor 8 along the x-axis robot 5, a 3D (height) image of the component 2 is captured by the 3D sensor 8. The (height) image obtained by the 3D sensor 8 is processed by software to inspect the height (position) of the lead of the component 2, and the component 2 is mounted at a predetermined position on the printed circuit board 9 according to the positioning information. Is done.
[0008]
Next, the configuration and operation of the 3D sensor 8 will be described in detail below.
FIG. 2 shows that two positions of semiconductor position detection elements (Position Sensitive Detectors) (hereinafter abbreviated as PSDs) 17a and 17b are installed as detection elements of the 3D sensor 8. FIG. 3 is a structural view (cross-sectional view) viewed in the axial direction. FIG. 3 shows that a polygon surface origin signal 20 is generated by the incidence of laser light on the light receiving element 19 every time the reflection surface of the polygon mirror 12 that reflects the laser light changes. It shows a state and is a configuration diagram (cross-sectional view) of the 3D sensor 8 viewed in the y-axis direction. 2 and 3, 5 is an x-axis robot, 7 is a head unit, 2 is a sucked component, 10 is a semiconductor laser that emits laser light, 11 is a condensing shaping lens that condenses and shapes this laser light, A polygon mirror 12 scans the laser light striking the mirror surface by mechanical rotation, 13 is a half mirror that passes a part of the laser light and reflects a part thereof, and 14 is a mirror that reflects the light.
[0009]
Reference numeral 15 denotes an F-θ lens that changes the optical path so that the laser beam mechanically shaken by the polygon mirror 12 is vertically projected onto the component 2 that is the subject, and 16a and 16b reflect the laser beam that has hit the component 2. The imaging lenses 17a and 17b for imaging (scattered light) are PSDs as position detecting elements on which the reflected light of the laser light hitting the component 2 is imaged through the imaging lenses 16a and 16b. It has a function of generating an electrical signal correlated with the position of light. Reference numerals 18a and 18b denote output signals from the PSDs 17a and 17b.
[0010]
Here, the laser light emitted from the semiconductor laser 10 is condensed and shaped by the condensing shaping lens 11, passes through the half mirror 13, reflects off the mirror 14, and strikes the polygon mirror 12. The polygon mirror 12 is rotating at a constant speed, and the laser light hitting the mirror surface is shaken. Further, the laser light whose optical path has been changed by the F-θ lens 15 is applied perpendicularly to the component 2, and the reflected light is imaged on the PSDs 17 a and 17 b via the imaging lenses 16 a and 16 b, and the PSDs 17 a and 17 b are imaged on the component 2. The output signals 18a and 18b that can measure the height of the laser reflecting surface are generated.
[0011]
Reference numeral 19 denotes a light receiving element (light sensor) that senses that light has been input. Reference numeral 20 denotes a signal that informs the outside that light has been input to the light sensor 19. Changes when the angle reaches a predetermined angle, that is, it corresponds to the origin signal (surface origin) of each surface of the polygon mirror 12. Further, for example, in the case of the polygon mirror 12 with 18 surfaces, 18 signals per rotation are output when they are rotated by an angle of equal intervals (every 20 degrees for 18 surfaces). This is called a rotation amount signal of the polygon mirror 12.
[0012]
The 3D sensor 8 in the first embodiment has two PSD circuits. In one system, when the laser light hits a component, the reflected light does not return to the PSD in terms of angle. Therefore, the main purpose is to make up for this. Although it may be more effective to provide three or more systems, this is technically the same, and here, two systems will be described.
Here, an example of a method of measuring the height on the component 2 which is a measurement object by the semiconductor position detecting elements (PSD) 17a and 17b is described with reference to FIG. I will explain.
In FIG. 5, the laser beam projected from the F-θ lens 15 in the direction perpendicular to the paper surface and projected onto the component 2 is irregularly reflected from the component 2. In this case, the projected point is A with a height of 0 on the bottom surface of the component 2.1B with height H from point and bottom1If it is a point, the irregularly reflected laser beam is condensed by the imaging lens 16a, and each of them is A on the semiconductor position detecting element 17a.2Point and B2It forms an image on a point. As a result, A2Point and B2An electromotive force is generated at each point, and current I from each point C1, I2, Current I from point DThree, IFourIs taken out. Current I1, IThreeIs A2Distance x between point and point CAAnd A2Determined by the resistance component proportional to the distance between point D and point I2, IFourIs B2Distance x between point and point CBAnd B2Since it is determined by a resistance component proportional to the distance between the point and the point D, if the length of the semiconductor position detecting element 17a is L, x in FIG.A, XBIs determined as follows:
xA= LIThree/ (I1+ IThree)
xB= LIFour/ (I2+ IFour)
Therefore, A on the semiconductor position detecting element 17a of FIG.2Point and B2The distance H ′ between the points is determined by the following equation.
H ′ = xA-XB
The height H is determined based on the height H ′ on the PSD thus obtained.
[0013]
Next, a mechanism for capturing a 3D image in the electronic component recognition apparatus of the first embodiment will be described with reference to FIG.
FIG. 4 is an explanatory diagram of an output signal from the 3D sensor 8 of the electronic component recognition apparatus according to the first embodiment. In FIG. 4, 2 is a component, 5 is an x-axis robot, 7 is a head unit, 8 is a 3D sensor, 18a and 18b are PSD outputs, 20 is a polygon plane origin signal (rotation amount signal), 21 is an image processing control unit, Reference numeral 22 denotes a reference position sensor that informs the image processing control unit 21 of a reference position for capturing a 3D image on the x-axis robot 5, and reference numeral 23 denotes image processing when the head unit 7 passes the reference position sensor 22. A reference position signal to be notified to the control unit 21, 24 is a servo motor for moving the x-axis robot 5, 24a is an encoder for the servo motor 24, 601 is a servo controller for controlling the servo motor 24, and 25 is an encoder signal output by the encoder 24a. is there. In FIG. 14, reference numeral 200 denotes a main control unit of the electronic component recognition apparatus.
Each of the y-axis robots 6a and 6b has basically the same structure as that of the x-axis robot 5, and the y-axis robot 5 is driven instead of the head unit 7 by driving a servo motor for driving the y-axis robot. The servo motor is controlled by a servo controller 601. As is well known, when the nozzle 7a of the head section 7 is rotated around the central axis in the θ direction, the servo controller 601 controls the operation of the servo motor for rotating in the θ direction. As is well known, when the height axis of the nozzle 7a supporting the nozzle 7a is moved up and down to adjust the height of the nozzle 7a of the head unit 7, the servo controller 601 controls the servo motor 7m for vertical movement.
[0014]
When the component 2 picked up from the tray 3 moves on the x-axis robot 5, the encoder 24a always gives an encoder signal (AB phase, Z phase, or an equivalent signal) 25 to the image processing control unit 21, Since the reference position signal 23 is given to the image processing control unit 21 when the part 2 passes through the reference position sensor 22, the relative position of the part 2 from the reference position on the x-axis robot 5 is imaged by both signals. The process control unit 21 can calculate.
[0015]
On the other hand, the rotation amount of the polygon mirror 12 in the 3D sensor 8 is always given to the image processing control unit 21 as the polygon surface origin signal (rotation amount signal) 20 while the polygon mirror 12 is rotating. The amount of rotation of the polygon mirror 12 after passing through the reference position can be calculated from the signal 23.
[0016]
Here, the rotation amount of the polygon mirror 12 increases in proportion to the speed, and the same can be said for the movement amount of the x-axis robot 5. On the other hand, the 3D sensor 8 in the first embodiment is based on the premise that the polygon mirror 12 and the x-axis robot 5 at the time of 3D image capturing rotate and move straight at a constant speed. If this condition is disturbed, the resolution (pixel size) per pixel in the horizontal and vertical directions of the captured 3D image varies depending on the speed unevenness. This is an error factor in measurement accuracy. Therefore, in the electronic component recognition apparatus according to the first embodiment, the 3D sensor 8 having the above-described configuration captures a 3D image into an image memory (see FIG. 14) in the image processing control unit 21 and basically rotates at a constant speed. In order to monitor and control the operation consistency between the polygon mirror 12 and the head unit 7 driven by a motor such as the servo motor 24, a polygon surface origin signal (rotation amount signal) 20 of the polygon mirror 12 is used. And the encoder signal 25 of the motor.
[0017]
FIG. 6 is a perspective view of an electronic component that is effective for position detection using the three-dimensional sensor 8 in the electronic component recognition method according to the first embodiment. The electronic component 2 includes four left and right leads 2a that protrude laterally from the body 2p and bend and extend downward. When viewed in plan, the electronic component 2 is the first of the right four leads 2a from the front. A protrusion 2c protrudes in the horizontal direction between the second lead 2a and on the second and third leads 2a, and a large protrusion 2b extends in the horizontal direction above the rear lead 2a in the vertical direction. It is something that protrudes. Such an electronic component 2 can be considered as a special component that is rarely mounted in normal assembly of electronic components. However, the problem is how quickly it can be realized when such an electronic component 2 must be mounted. For example, for a board used for a product having a short life of about 3 to 6 months, as represented by a mobile phone or a personal computer, a new image processing program is usually created for special parts. A response that requires more than a week of use is not allowed. Therefore, it is required to accurately detect the position of the lead 2a even in the component 2 as shown in FIG.
[0018]
FIG. 7 is a diagram for explaining the relationship between the positions of the leads 2a and noise projections 2b and 2c of the electronic component 2 in FIG. 6 and the height measurement region in the electronic component recognition method according to the first embodiment. is there. In the first embodiment, since 8-bit image processing is adopted, 256 kinds of values from 0 to 255 can be handled as height data. In the first embodiment, for convenience, the height measurement reference plane, which is the position where the beam diameter of the laser beam is minimized, is set to a position of a numerical value of 128, and the coordinate axis of the height is moved up and down with reference to the numerical value of 128. Taking the direction from the electronic component 2 to the 3D sensor 8 in the direction, passing the numerical value of 128 from the upper end 0 to the height measurement reference plane and giving the numerical value from the lower end 255 to the height measuring range from 0 The position is represented by 256 numerical values up to 255, and the height measurement center position is represented by 128. Further, values such as 0 and 255 are used as height data to express errors such as “height data could not be obtained correctly”. Note that the height measurable region of the 3D sensor and its center position are physically determined by the optical system design of the 3D sensor. Normally, when recognizing an electronic component, the height of the electronic component is captured by positioning in the height direction so that the mounting surface of the electronic component is at the height measurement center position of the 3D sensor. . In this embodiment, if the resolution in the height direction is 10 μm, the height measurable area is about ± 1.2 mm. Therefore, when the noise lead of the electronic component is outside this region, it is not necessary to adjust the range of the height measurement region. On the other hand, as described later, it is necessary to adjust the range of the height measurement region when a noise object enters within about ± 1.2 mm and has a height different from that of the joint portion.
[0019]
FIG. 9 is a flowchart showing a procedure for mounting an electronic component using the electronic component recognition method according to the first embodiment.
First, in step S <b> 1, the electronic component 2 is sucked from the tray 3 by the nozzle 7 a of the head unit 7 under the control of the main control unit 200.
Next, in step S2, the operator determines whether or not the height measurement area needs to be adjusted by looking at the part shape or the like. If the height measurement area to be detected in height is known in advance and the height measurement area needs to be adjusted, the process proceeds to step S3. If adjustment of the height measurement area is unnecessary, the process proceeds to step S4. In step S3, it is performed only when the height measurement area to be detected in height is known in advance, and the height measurement area is adjusted. This adjustment of the height measurement area is performed by, for example, checking the distance between the lead 2a of the electronic component 2 and the protrusions 2b and 2c that can be noise objects, so that the protrusions 2b and 2c are within the height measurement area of the lead 2a. If it is determined in step S2 that it has entered, the height measurement region is narrowed so that the protrusions 2b and 2c are outside the height measurement region of the lead 2a.
[0020]
Next, in step S4, based on the height measurement area, the main controller 200 controls the servo controller 601 to adjust the height of the nozzle 7a. The height of the nozzle 7a to be adjusted is determined by the operator based on the shape of the electronic component 2, stored in the component shape information storage unit 620 of the main control unit 200, and necessary for the mounting program. May be incorporated in advance into the component shape information in the mounting information (refer to the description of FIG. 14 for the component shape information). In the case of the normal component 2, the servo controller 601 is controlled via the main control unit 200 so that the adjustment amount is zero, that is, the height measurement reference surface of the height measurement region and the mounting surface of the electronic component 2 coincide. The nozzle height axis up and down servo motor 7m is driven to move the nozzle height axis that supports the nozzle 7a up and down to adjust the height of the lower end of the nozzle 7a to adjust the component mounting surface to the height measurement area height. It is preferable that the height is measured by positioning on the measurement reference plane. In general, it is considered that the parts requiring height adjustment are only special parts as shown in FIG.
Next, in step S5, under the control of the main control unit 200, the height data of the component 2 is taken into the image memory 305 shown in FIG. 14 from the component shape information of the mounting information necessary for the mounting program. The image memory 305 stores 8-bit height data. By specifying the addresses on the X-axis side and the Y-axis side separately, the height data at a specific position is stored in the image memory 305. It can be read from the memory 305.
[0021]
Next, in step S <b> 6, the position of the component 2 is detected by the 3D sensor 8. The details are shown in steps S6A to S6E in FIG.
Next, in step S <b> 7, the component 2 is mounted at a predetermined position on the printed circuit board 9 based on the height position information recognized by the 3D sensor 8 under the control of the main control unit 200.
[0022]
FIG. 10 shows in detail the procedure for detecting the position of the component 2 from the height data in step S6 of FIG.
First, in step S6A, a processing area is determined from the size of the component 2 stored in the component shape information. For example, the size of the processing area in the X and Y directions is set to twice the size of the component 2 on the screen. FIG. 11A shows a processing area determined from the size of the component 2 as a rectangular window 500 as an example. According to FIG. 11A, the rectangular window 500 which is the processing area is set to approximately twice the size of the image 202 of the component 2, so that the image 202a of the lead 2a of the component 2 is a window. It shows that it can enter 500 with a margin.
[0023]
Next, in step S6B, after processing the inside of the processing area as shown in FIG. 17 and creating a luminance histogram as shown in FIG. 18 based on the luminance indicating the height data at each position, in this luminance histogram, A threshold value is calculated and set using a histogram method in order to separate the height data of the joint, for example, the lead 2a, which is an object to be detected, from the height data of the noise object. Here, the ratio of the area of the bar graph portion on the left side of the threshold value of the histogram and the area of the bar graph portion on the right side of the threshold value is equal to the ratio of the area of the background region and the area of the object in the processing area of FIG. Therefore, the calculation of the threshold value by the histogram method is performed as follows. First, an area including an object is determined in the image memory. Next, sampling is performed at equal intervals in the X direction and the Y direction, image data is read, and a histogram of the image data is created. The appearance rate of image data having a relatively high value, such as a joint portion of an object, is a joint portion (here, this area is referred to as an area A) that occupies a predetermined sampling region (here, this area A). Equal to the area ratio (S% = 100 * B / A). Accordingly, the luminance histogram is added in order from the frequency at the right end, and the image data corresponding to the lead is represented up to the point of S% of the area of the histogram. Therefore, the value of image data indicating S% is set as a threshold value.
[0024]
Next, in step S6C, the processing area window 500 is sampled, and the center and inclination (processing) of the part 2 based on the effective height data detected in the height measurement region using the threshold value. The angle of inclination of the horizontal axis of the window in the area with respect to the X axis and the vertical axis with respect to the Y axis is roughly detected. For example, the center and inclination of the component 2 can be obtained by following the following formulas (Equation 1) and (Equation 2). FIG. 11B is a diagram showing that the rough center and inclination of the component 2 are obtained by sampling the inside of the processing area 500. As an example of sampling, if the height data is sampled every other pixel in the X-axis direction and the height data of the last pixel in the X-axis direction is taken in, then the second pixel is skipped by one pixel in the Y-axis direction. In the same way as before, the height data is sampled every other pixel in the X-axis direction and the height data of the last pixel in the X-axis direction is taken in all areas in the window 500.
[0025]
Here, first, in order to roughly obtain the center of the component 2, the processing area 500 is sampled and the height data H (x, y) is read from the image memory 305. As described above, the 8-bit height data is stored in the image memory 305, and the height data at a specific position can be read from the image memory 305 by specifying the X and Y addresses separately. it can. Then, the center position (Xc, Yc) is calculated by the following (Equation 1).
[Expression 1]
Figure 0003883279
However, when H (x, y)> THL, ρ (x, y) = 1.
When H (x, y) ≦ THL, ρ (x, y) = 0.
Here, THL creates a luminance histogram by the threshold value calculation means 408 stored in the program memory 301 of FIG. 15 on the basis of the luminance indicating the height data at each position, and then the THL shows the high luminance histogram. This is a threshold value set in the threshold value calculation means 408 in order to separate the joint 2 to be detected, for example, the lead 2a and the noise object. The height of the lead 2a to be measured is estimated and set to a value slightly lower than that. Alternatively, a fixed value may be set. For example, in the first embodiment, since the numerical value 128 of the height measurement reference surface corresponds to the mounting surface of the component 2, the threshold value THL is 80 (position 0.48 mm above the mounting surface). To do.
[0026]
In addition, the inclination θ1Is detected by the following (Equation 2).
[Expression 2]
Figure 0003883279
However, when H (x, y)> THL, ρ (x, y) = 1.
When H (x, y) ≦ THL, ρ (x, y) = 0.
[0027]
Next, in step S6D, the position of the lead 2a is detected based on the component shape information and the approximate position of the component 2. That is, as shown in FIG. 12A, the rough center and inclination of the component 2 obtained in step S6C and the width and depth of the body 2p in the component shape information sent from the main controller 200 are obtained. Use to estimate the position where each lead 2a is present and set a small small window 501 that contains each lead 2a. For example, the small window 501 is set to approximately twice the size of the image 202a of the lead 2a. The inside of this small window 501 is sampled to detect the center position 502 of each lead 2a. As an example of sampling, if the height data is sampled every other pixel in the X-axis direction and the height data of the last pixel in the X-axis direction is taken in, then the second pixel is skipped by one pixel in the Y-axis direction. In the same way as before, the height data is sampled every other pixel in the X-axis direction and the height data of the last pixel in the X-axis direction is taken in for all areas in the small window 501. In the above part shape information, the position where each lead 2a exists such as 2p size (body height, body width, body depth), number of leads, lead length, lead width, lead pitch of the part 2 is calculated. Information necessary for this is stored in advance.
[0028]
Next, in step S6E, the exact position of the component 2 is detected from all the lead positions (coordinates of the lead center position). FIG. 12B is a diagram for explaining a state in which the accurate center and inclination of the component 2 are calculated from all the lead positions. For example, the center position is obtained by the average of all the lead positions, and the inclination is calculated by calculating the midpoint between the lead center positions of the leads 2a facing each other across the body 2p, and approximating the four midpoints. 503. FIG. 13 shows an example of the calculation result of the accurate center and inclination of the component 2 obtained in this way. In FIG. 13, the straight line 504 indicates the inclination of the component 2, and the intersection point 506 between the four straight lines 505 orthogonal to the straight line 504 and the center lines of the left and right four lead 2 a images 202 a is the center position coordinate of the lead 2 a. Become.
[0029]
Here, for comparison between the first embodiment and the prior art, an image 102 when the electronic component 2 of FIG. 6 is photographed by a CCD camera as a prior art is schematically shown in FIG. Since noise 102c corresponding to the protrusion 2c exists between the images 102a of the two leads 2a, the noise 102c is removed so as not to be affected by the noise 102c when detecting the image 102a of the lead 2a. It is necessary to perform “lead removal processing”. Further, since the image 102a of the lead 2a at the end is completely included in the noise 102b corresponding to the protrusion 2b, the “low contrast lead detection process” (image enhancement process) is performed in order to detect the position of the lead 2a at the end. ) Is required. In addition, depending on the ability of “noise lead removal processing” and “low contrast lead detection processing”, a situation such as a recognition position shift or recognition failure is expected, and there is a problem that reliability is lowered. However, here, it is assumed that both the noise 102c and the noise 102b are objects as bright as the image 102a of the lead 2a.
[0030]
On the other hand, in the first embodiment, a height measurement region in which the height position of the lead 2a can be detected around the numerical value 128, which is a height measurement reference plane, is set in advance in the height measurement possible region. Since the height detection is performed only within the range of the height measurement region, only the height of the lead 2a located in the height measurement region can be detected, and the protrusion outside the height measurement region can be detected. Since the heights 2b and 2c are not detected, as shown in FIG. 8B, the image 202 of the electronic component 2 having only the image 202a of the lead 2a can be captured. That is, since the noise 102c and the noise 102b that have been detected by the conventional technique are outside the height measurement region of the 3D sensor 8 in the component recognition method of the first embodiment, the noise 102c and the noise 102b are detected by the 3D sensor 8. Is not detected at all. In other words, the “noise lead removal processing” and the “low contrast lead detection processing” required in the prior art are not required at all. Therefore, compared with the conventional method, according to the first embodiment, not only the image processing time can be shortened but also the reliability of recognition is greatly improved.
[0031]
Therefore, according to the component recognition method according to the first embodiment, a height measurement region in which the height position of the lead 2a can be detected around the height measurement reference plane in the height measurement possible region is set in advance. In addition, since the height detection is performed only within the range of the height measurement area, only the height of the lead 2a located in the height measurement area can be detected, and the protrusion 2b outside the height measurement area. , 2c is not detected. Therefore, even if there are protrusions 2b and 2c that cause noise near the leads 2a and electrodes existing on the mounting surface of the electronic component 2, the protrusions 2b and 2c are erroneously recognized as leads 2a and electrodes and the like. The position information of the joints such as the leads 2a and the electrodes existing on the mounting surface of the electronic component 2 can be accurately obtained. Therefore, if the electronic component 2 is mounted based on the accurately obtained position information of the joint, the electronic component 2 can be mounted more accurately.
[0032]
FIG. 14 is a detailed block diagram of a component recognition apparatus for implementing the component recognition method of the first embodiment.
In FIG. 14, the main control unit 200 controls the operation of the entire electronic component mounting apparatus shown in FIG. For example, the position of the head part 7 of the electronic component mounting apparatus is controlled via the servo controller 601, and the electronic component 2 is sucked, moved, and mounted on the printed circuit board 9. In addition, the main control unit 200 stores component shape information (the size of the component body 2p (body height, body width, body depth), number of leads, lead length, lead width, lead pitch, etc.) of the electronic component 2 to be mounted. Are transferred from the component shape information storage unit 620 to the work memory 302 of the component recognition apparatus via the system bus 201 and the 2-port memory 306, and the height image of the electronic component 2 is input and the position of the electronic component 2 is detected. Further, the position detection result of the electronic component 2 is input from the image processing control unit 21 to the main control unit 200 via the 2-port memory 306, and the main control unit 200 controls the operation of the entire electronic component mounting apparatus, This is used for position correction calculation in the X, Y, and θ directions when the electronic component 2 is mounted on the printed circuit board 9. Then, based on the position (X, Y, θ) correction calculation result, the main control unit 200 rotates the nozzle 7a in the θ direction to correct the rotational position of the electronic component 2, and the electronic component 2 in the XY direction. In consideration of the correction calculation result in the mounting position, the head unit 7 is moved in the XY directions, and the electronic component 2 is mounted at a predetermined position on the printed circuit board 9.
[0033]
On the other hand, as described above, in the x-axis robot 5, the head unit 7 that has attracted the electronic component 2 moves on the X-axis 5 by the rotation of the servo motor 24. The height data of the electronic component 2 is input by the head unit 7 that has attracted the electronic component 2 moving on the 3D sensor 8 at a constant speed from the left side to the right side of the reference position sensor 22. When the head unit 7 passes the reference position sensor 22, a reference position signal 23 is output and notified to the image processing control unit 21. In the XY robot 600 including the x-axis robot 5, the servo controller 601 performs position control of the X axis, the Y axis, the θ axis, and the nozzle height axis. In particular, the X-axis motor encoder signal indicates the position of the head unit 7 on the X-axis, and the reference position signal from the X-axis indicates that the head unit 7 has reached the height measurement start position. Therefore, each is input to the timing control unit 307 of the image processing control unit 21 and is used to measure the start timing at which the height data is taken into the image memory 305 in the timing control unit 307.
[0034]
As described above, in the height detection sensor 8 of the height detection unit 602, the light receiving system for measuring the laser light reflected from the object has two systems (channel A and channel) in consideration of the reflection variation of the laser light. B) It is provided to ensure reliability. In each light receiving system, weak signals detected by PSDs 17a and 17b are amplified by preamplifiers 310a and 310b, and converted to 12-bit digital data by AD converters (analog-digital converters) 311a and 311b (accuracy of height calculation). In this case, it is converted into 12-bit digital data), and is input to the height calculation units 312a and 312b of the image processing control unit 21. The polygon mirror 12 is always rotating, and a polygon plane origin signal is input to the clock generator 309 by the mechanism shown in FIG. The clock generation unit 309 generates a reference clock (CLK) necessary for writing height data into the memory, and also generates a horizontal synchronization signal (HCLR) required for taking in height data based on the polygon plane origin signal 20. ) And are respectively input to the timing control unit 307 of the image processing control unit 21.
[0035]
The PSD signals digitized by the preamplifiers 310a and 310b and the AD converters 311a and 311b from the 3D sensor 8 of the height detector 602 are converted into 8-bit height data by the height calculators 312a and 312b. The channel selection unit 303 compares height data of two systems (channel A and channel B) in real time, and selects the most likely height data at each timing. For example, if division by zero occurs when calculating the height of channel A, 255 indicating the abnormality is given to the height data of channel A. In such a case, the value of channel B is selected. If both channels show an abnormal value of 255, 255 is output as height data. Further, if the height data of both channels is a normal value, an average value of the height data of both channels is output. The height data output from the channel selection unit 303 is stored in the image memory 305 after the height data outside the height measurement region is converted into an invalid value (for example, zero) by the height conversion unit 304. The storage of the height data in the image memory 305 is controlled by the timing control unit 307. The timing control unit 307 receives the reference position signal from the XY robot 600 and then determines a predetermined head unit movement distance. After counting the encoder signal 25, a vertical synchronizing signal (VCLR) is generated and input to the image memory 305 as a height data capturing start signal. In order to generate the vertical synchronization signal (VCLR), after receiving the reference position signal, the predetermined head movement distance is counted by the encoder signal. This is because it is impossible to attach it accurately. The height data stored in the image memory 305 is subjected to image processing by the CPU 300 that operates according to the program, and the position of the electronic component 2 that is the recognition target is detected. The program is stored in the program memory 301. Part shape information (part body size (body height, body width, body depth), number of leads, lead length, lead width, etc.) in the part shape information storage unit 620 storing the geometric characteristics of the electronic component 2 ) Is sent in advance from the main control unit 200 side via the 2-port memory 306 prior to the height image input. As described above, the position of the recognition object is detected based on the component shape information. Note that the work memory 302 is used as a place for storing the intermediate results when detecting the position of the recognition target object. As described above, when the height conversion table 304 is used in the height conversion unit 304 as an example of the noise removal unit, the conversion speed is high and the component recognition speed can be improved.
[0036]
FIG. 15 shows functional means included in the program memory 301 of FIG. 14, and processing area determination means 401, gravity center detection means 402, inclination detection means 403, and lead position that functions as joint position detection means. Detection means 404, object center / inclination detection means 405 that functions as a joint center and inclination detection means, height data clip means 406, height conversion table setting means 407, and threshold value calculation means 408 I have. These are usually configured by software.
The processing area determination unit 401 performs the operation of step S6A in FIG. 10 and determines the processing area in the image memory 305 from the size of the component 2.
The center-of-gravity detection unit 402 performs center calculation in step S6C of FIG.
The inclination detection unit 403 performs the inclination calculation formula in step S6C of FIG.
The lead position detecting means 404 performs the operation of step S6D in FIG. 10, and calculates the position where the lead 2a exists from the given center and inclination and the part shape information of the object, and the center of the lead 2a. Detect position.
[0037]
The object center / inclination detecting means 405 performs the operation of step S6E in FIG. 10, and calculates the accurate center / inclination of the object from all the lead positions.
The height data clipping means 406 is a means for calculating a height level for clipping by searching a certain area. For example, before the lead 2a is detected in the small window 501 including the lead 2a shown in FIG. Then, the lead position can be accurately detected by removing the noise height using the clip value. Here, since the height level to be clipped is calculated for each read, the clip level has a different value for each read. Therefore, the optimum noise height removal according to each lead 2a can be performed.
The height conversion table setting unit 407 rewrites the height conversion table in the height conversion unit 304 based on an instruction from the operator.
As described above, the threshold value calculation means 408 creates a luminance histogram based on the luminance indicating the height data at each position, and then, for example, the lead 2a and the noise object to be detected in the luminance histogram. Set a threshold to separate
[0038]
FIG. 16 is a height conversion table showing a setting example of the detection range of the height conversion unit 304 in FIG. Here, in the part shape information, detected height data relating to the adjustment of the height detection region is stored. The CPU 300 can rewrite the height conversion table based on this information. From the viewpoint of the CPU 300, the height conversion table can be viewed in the same way as the memory, and the CPU 300 writes 8-bit data while designating the address. Thus, the height conversion table can be set. Therefore, the height conversion unit 304 can set in advance a height measurement area in which the height position of the lead 2a can be detected around the height measurement reference plane within the height measurement possible area. Only the height data that passes through the range of the height measurement region is output to the subsequent processing, and the height detection is performed only within the range of the height measurement region. Here, since 8-bit image processing is performed, 256 numerical values from 0 to 255 can be handled as height data. In the first embodiment, for convenience, the height measurement reference plane value is 128, the height coordinate axis is taken from the object in the 3D sensor direction, and the resolution in the height direction is 10 μm, the measurable area is about ± 1.2 mm. FIG. 16 illustrates the setting of the height conversion unit 304 that limits the height measurement region to, for example, ± 0.5 mm under these conditions. That is, in FIG. 16, when a numerical value (digital value) between 78 and 178 as height data is input to the height converter 304, it is converted to the same value as the input value and between 78 and 178. Numerical values (digital values) are output. However, when a numerical value (digital value) of 0 or more and less than 78 as height data and a numerical value (digital value) of more than 178 and less than 255 are input to the height conversion unit 304, the converted value is converted to a numerical value of 0. Each output is shown. Therefore, in step S3 in FIG. 9, when the height measurement region is adjusted when the height measurement region to be detected in height is known in advance, this height conversion table may be changed. Specifically, for example, when the operator determines that a noise object enters the height measurement area in step S2 of FIG. 9, the height measurement is performed so that the noise object moves out of the height measurement area in step S3. It is necessary to adjust so as to narrow the area. For this reason, the operator gives an instruction to change the output value for the input value of the height conversion table in the height conversion unit 304 from the operation panel 650 to the part shape information storage unit 620 so as to narrow the height measurement region. The height conversion table setting means 407 in the program memory 301 of FIG. 15 is stored on the basis of the adjustment instruction in the component shape information storage unit 620 via the main control unit 200 and the 2-port memory 306. The height conversion table in the conversion unit 304 may be rewritten.
[0039]
Therefore, according to the component recognition apparatus according to the first embodiment, the height converting unit 304 can detect the height position of the lead 2a around the height measurement reference plane in the height measurable region. Since the measurement area is set in advance and the height is detected only within the range of the height measurement area, only the height of the lead 2a located in the height measurement area can be detected. The heights of the protrusions 2b and 2c outside the measurement area are not detected. Therefore, even if there are protrusions 2b and 2c that cause noise near the leads 2a and electrodes existing on the mounting surface of the electronic component 2, the protrusions 2b and 2c are erroneously recognized as leads 2a and electrodes and the like. The position information of the joints such as the leads 2a and the electrodes existing on the mounting surface of the electronic component 2 can be accurately obtained. Therefore, if the electronic component 2 is mounted based on the accurately obtained position information of the joint, the electronic component 2 can be mounted more accurately.
[0040]
In addition, this invention is not limited to the said embodiment, It can implement with another various aspect. For example, in the first embodiment, the height converting unit 304 may not be implemented by software, but the height converting unit may be configured by a circuit configuration, for example, two types of comparators. In this case, one of the two types of comparators invalidates all the height data on the noise object side from the threshold value for separating the lead 2a and the noise object, while the other comparator The same function may be exhibited by treating all the height data on the lead side below the threshold value as valid.
Further, instead of the first embodiment, as the second embodiment of the present invention, when the measurement area to be detected in height cannot be determined in advance, the height data is temporarily stored in the image memory, There is a method of setting the height measurement region by analyzing the height data and replacing the height data outside the measurement region with a specific value. Specifically, as an example, an object that becomes noise is included in the height measurement area represented by 8 bits, but this is applied when the first embodiment is not adopted because the height of noise is not stable. . Further, as a third embodiment of the present invention, instead of providing the height converting unit 304, the light receiving system lenses 16a and 16b that form images on the PSDs 17a and 17b so that no object that becomes noise falls within the measurable range. Thus, the width of the height measurement region is narrowed so that only the reflected light from the lead 2a is imaged, and the reflected light from the protrusions 2b and 2c, which becomes noise, is not imaged. However, in the third embodiment, a special adjustment mechanism is required to set the height measurement region flexibly according to the object.
[0041]
【The invention's effect】
  Of the present inventionElectronicpartsImplementationAccording to the methodThe height detection unit such that a noise lead that is behind or near the joint and can be a noise object that reflects the light is outside the height measurement region of the reflected light detected by the height detection unit. After the height measurement area is adjusted to narrow the height measurement area, the height measurement area after adjustment is stored in the part shape information storage unit of the control unit and necessary for the mounting program. With reference to the component shape information in the mounting information, the control unit controls the servo controller to adjust the height of the component holding member so as to remove the noise lead.Only the height of the joint located in the height measurement region can be detected, and the height of a noise object such as a protrusion outside the height measurement region is not detected. Therefore, even if there is a protrusion that becomes a noise object near the joint such as a lead or electrode on the mounting surface of the electronic component, the joint is accurately recognized without erroneously recognizing the protrusion as a joint. Thus, the position information of the joint portion of the mounting surface of the electronic component can be obtained accurately. Therefore, the electronic component is mounted based on the position information of the joint portion obtained accurately.ByThus, it is possible to more accurately mount the electronic component.
  In addition, the present inventionElectronicpartsImplementationAccording to the device, the noise removerThe height detection so that a noise lead that is behind or near the joint and can be a noise object that reflects the light is outside the height measurement region of the reflected light detected by the height detection unit. After adjusting the height measurement area to narrow the height measurement area of the part, based on the height measurement area after the adjustment, it is stored in the part shape information storage unit of the control unit and mounted. With reference to the component shape information in the mounting information necessary for the program, the servo controller is controlled by the control unit to adjust the height of the component holding member so as to remove the noise lead. SoOnly the height of the joint located in the height measurement region can be detected, and the height of a noise object such as a protrusion outside the height measurement region is not detected. Therefore, even if there is a noise object in the vicinity of the joint such as a lead or electrode on the mounting surface of the electronic component, it can be accurately recognized without erroneously recognizing the noise object as a joint. Thus, it is possible to accurately obtain the position information of the joints such as leads and electrodes existing on the mounting surface of the electronic component. Therefore, the electronic component is mounted based on the position information of the joint portion obtained accurately.ByThus, it is possible to more accurately mount the electronic component.
[Brief description of the drawings]
FIG. 1 is an external view of an electronic component mounting machine capable of implementing an electronic component recognition method according to the first embodiment of the present invention.
FIG. 2 is a side view of a height detection sensor used in the electronic component recognition method according to the first embodiment when viewed in the Y-axis direction.
3 is a side view of the height detection sensor of FIG. 2 viewed in the X-axis direction.
FIG. 4 is an explanatory diagram of an output signal from the 3D sensor in the first embodiment.
FIG. 5 is an explanatory diagram showing an example of a height measuring method in the first embodiment.
FIG. 6 is a perspective view of an electronic component that is effective for position detection using a three-dimensional sensor in the electronic component recognition method according to the first embodiment.
7 is a diagram for explaining the relationship between the position of the lead of the electronic component in FIG. 6 and the position of the protrusion that becomes noise and the height measurement region in the electronic component recognition method according to the first embodiment.
FIGS. 8A and 8B are a schematic explanatory view of an image when the electronic component of FIG. 6 is photographed by a conventional CCD camera, and the electronic component recognition method according to the first embodiment. It is typical explanatory drawing of the image of an electronic component when it recognizes by.
FIG. 9 is a flowchart showing a procedure for mounting an electronic component using the electronic component recognition method according to the first embodiment.
FIG. 10 is a flowchart showing in detail a procedure for detecting the position of a part from height data in step S6 of FIG.
FIGS. 11A and 11B are a schematic explanatory view showing a processing area determined from the size of a part in the position detection procedure of FIG. 10 as a window and a sampling in the processing area, respectively. It is typical explanatory drawing which shows calculating | requiring the rough center and inclination of components.
12 (A) and 12 (B) show the respective leads by using the rough center and inclination of the component and the component shape information sent from the main controller in the position detection procedure of FIG. Estimate the existing position, set up a small window containing the lead, sample in this window, and show a schematic illustration showing the state of detecting the center position of the lead and the accurate part of all lead positions It is typical explanatory drawing which shows the state which calculates a center and inclination.
13 is a schematic explanatory diagram illustrating an example of a calculation result of an accurate center and inclination of a part in the position detection procedure of FIG.
FIG. 14 is a block diagram of a component recognition apparatus for implementing the component recognition method of the first embodiment.
15 is a block diagram of functional means of software included in the program memory of the component recognition apparatus in FIG. 14;
16 is a table showing an example of setting a detection range of the height conversion unit in FIG. 15;
FIG. 17 is a diagram illustrating a processing area that is a target for creating a luminance histogram;
FIG. 18 is a luminance histogram of the processing area of FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Mounting device main body of electronic component mounting apparatus, 2 ... Electronic component, 2a ... Lead, 2b ... Projection, 2c ... Projection, 3 ... Tray, 4 ... Tray supply part, 5 ... Robot on the x-axis side, 6a, 6b ... Robot on the y-axis side, 7 ... head, 7a ... nozzle, 7m ... nozzle height axis servo motor, 8 ... three-dimensional (3D) sensor, 9 ... printed circuit board, 10 ... semiconductor laser, 11 ... condensing shaping Lens: 12 ... Polygon mirror, 13 ... Half mirror, 14 ... Mirror, 15 ... F-theta lens, 16a, 16b ... Imaging lens, 17a, 17b ... Semiconductor position detection element (PSD), 18a, 18b ... PSD17a, 17b Output signal 19, light receiving element (light sensor), 20 polygon surface origin signal, 21 image processing control unit of electronic component recognition device, 22 reference position sensor, 23 reference position signal, 4 ... Servo motor, 24a ... Encoder, 25 ... Encoder signal, 102, 202 ... Parts image, 102a, 202a ... Lead image, 102b, 102c ... Noise projection image, 128 ... Height measurement reference plane , 200 ... main control unit, 201 ... system bus, 300 ... CPU, 301 ... program memory, 302 ... work memory, 303 ... channel selection unit, 304 ... height conversion unit, 305 ... image memory, 306 ... 2-port memory, 307: Timing control unit, 309: Clock generation unit, 310a, 310b ... Preamplifier, 311a, 311b ... AD converter, 312a, 312b ... Height calculation unit, 401 ... Processing area determination means, 402 ... Center of gravity detection means, 403 ... Inclination Detection means, 404 ... lead position detection means, 405 ... object center Inclination detection means, 406... Height data clip means, 407... Height conversion table setting means, 408... Threshold value calculation means, 500... Processing area window, 501. 505 ... Line, 506 ... Intersection, 600 ... XY robot, 601 ... Servo controller, 602 ... Height detection unit, 620 ... Part shape information storage unit.

Claims (10)

電子部品(2)の装着面に存在するリード(2a)や電極などの接合部に光を照射し、上記接合部からの反射光を基に高さ検出部(8)で上記接合部の位置検出を行う部品認識により検出された、上記電子部品の上記接合部の位置情報に基づき、上記電子部品を基板上に実装する電子部品実装方法であって、
ヘッド部(7)の部品保持部材(7a)で上記電子部品を保持し(S1)、
上記接合部の背後あるいは近接位置に存在しかつ上記光を反射するノイズ物体となり得るノイズリード(2b,2c)が上記高さ検出部で検出する上記反射光の高さ計測領域外となるように上記高さ検出部の上記高さ計測領域を狭くすべく上記高さ計測領域の調整を行ったのち(S2,S3)、上記調整後の高さ計測領域に基づき、制御部(200)の部品形状情報記憶部(620)内に格納されかつ実装プログラムに必要な実装情報の中の部品形状情報を参照して、上記制御部によりサーボコントローラ(601)を制御して上記部品保持部材の高さを調整して、上記ノイズリードを除去し(S4)、
上記制御部の制御の下に、上記実装プログラムに必要な実装情報の部品形状情報中から上記部品の高さデータを取り込み(S5)、
上記取り込まれた高さデータに基づき、上記高さ検出部により上記電子部品の位置を検出し(S6)、
上記高さ検出部により検出された上記電子部品の位置の情報に基づき、上記ヘッド部を駆動して上記部品保持部材により上記電子部品を上記基板の所定の位置に装着する(S7)ようにしたことを特徴とする電子部品実装方法
Light is irradiated to the joints such as the leads (2a) and the electrodes existing on the mounting surface of the electronic component (2), and the position of the joint is detected by the height detector (8) based on the reflected light from the joint. An electronic component mounting method for mounting the electronic component on a substrate based on positional information of the joint portion of the electronic component detected by component recognition for detection ,
The electronic component is held by the component holding member (7a) of the head portion (7) (S1),
There behind or close position of the joint and noise lead which can be a noise object reflecting the light (2b, 2c) are formed so that the height measurement region outside of said reflected light detected by the height detecting unit after performing adjustment of the height measurement region so as to narrow the height measurement region of the height detecting section (S2, S3), based on the height measurement region after the adjustment, the control unit of the (200) component With reference to the component shape information stored in the shape information storage unit (620) and necessary for the mounting program, the control unit controls the servo controller (601) to control the height of the component holding member. To remove the noise lead (S4),
Under the control of the control unit, the height data of the component is fetched from the component shape information of the mounting information necessary for the mounting program (S5),
Based on the captured height data, the height detector detects the position of the electronic component (S6),
Based on the position information of the electronic component detected by the height detection unit, the head unit is driven and the electronic component is mounted at a predetermined position on the substrate by the component holding member (S7) . An electronic component mounting method characterized by the above.
上記高さ検出部は、高さ検出センサー(8)として半導体位置検出素子により上記接合部の高さを検出する請求項1に記載の電子部品実装方法2. The electronic component mounting method according to claim 1, wherein the height detection unit detects the height of the joint by a semiconductor position detection element as a height detection sensor. 上記ノイズ除去は、高さ計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる上記高さ計測領域を予め設定しておき、この高さ計測領域の範囲内でのみ上記接合部の高さ検出を行うようにした請求項1又は2に記載の電子部品実装方法In the noise removal, the height measurement area in which the height position of the joint can be detected around the height measurement reference plane in the height measurement possible area is set in advance, and the range of the height measurement area The electronic component mounting method according to claim 1, wherein the height of the joint is detected only within the interior. 上記ノイズ除去は、上記計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる上記高さ計測領域を高さ変換テーブルとして予め設定しておき、上記高さ変換テーブルにより、上記接合部の高さデータのうち上記高さ計測領域外にある高さデータを無効な高さデータとして取り扱い、上記高さ計測領域の範囲内にある高さデータを有効な高さデータとして取り扱い、上記有効な高さデータを基に上記接合部の高さ検出を行うようにした請求項1〜3のいずれかに記載の電子部品実装方法The noise removal is previously set by capable of detecting height position of the joint around the height measurement reference plane above the height measurement region as a height translation table in the measurable region, With the height conversion table, the height data outside the height measurement area among the height data of the joint is treated as invalid height data, and the height data within the height measurement area is handled. The electronic component mounting method according to claim 1, wherein the electronic component mounting method is handled as effective height data, and the height of the joint is detected based on the effective height data. 高さ計測領域の範囲内でのみ検出された上記電子部品の画像に対して上記電子部品の大きさから処理エリアを決定し(S6A)、
上記電子部品の画像において上記決定された処理エリアのウィンドウ(500)内をサンプリングして上記電子部品の中心及び傾きを大まかに検出し(S6B,S6C)、
上記部品の大きさと上記電子部品の大まかな位置とを基に、上記電子部品の画像において全ての上記接合部の位置を検出し(S6D)、
全ての上記接合部の位置から上記電子部品の画像における上記電子部品の正確な位置を検出する(S6E)ようにした請求項1〜4のいずれかに記載の電子部品実装方法
A processing area is determined from the size of the electronic component for the image of the electronic component detected only within the height measurement area (S6A),
In the image of the electronic component, the inside of the window (500) of the determined processing area is sampled to roughly detect the center and inclination of the electronic component (S6B, S6C),
Based on the size of the component and the rough position of the electronic component, the positions of all the joints are detected in the image of the electronic component (S6D),
The electronic component mounting method according to any one of claims 1 to 4, wherein an accurate position of the electronic component in an image of the electronic component is detected from the positions of all the joint portions (S6E).
電子部品(2)の装着面に存在するリードや電極などの接合部(2a)に光を照射する照射装置(10)と、An irradiation device (10) for irradiating light to a joint (2a) such as a lead or an electrode existing on the mounting surface of the electronic component (2);
上記照射装置から照射された光が上記接合部で反射した反射光を基に上記接合部の位置検出をする高さ検出部(602)と、  A height detector (602) for detecting the position of the joint based on the reflected light reflected by the joint at the light irradiated from the irradiation device;
部品保持部材(7a)で上記電子部品を保持するとともに、上記反射光の高さ計測領域に基づき上記部品保持部材の高さを調整するヘッド部(7)と、  A head portion (7) for holding the electronic component by a component holding member (7a) and adjusting the height of the component holding member based on a height measurement region of the reflected light;
実装プログラムに必要な実装情報が格納された部品形状情報記憶部(620)と接続される制御部(200)と、  A control unit (200) connected to a component shape information storage unit (620) in which mounting information necessary for the mounting program is stored;
上記接合部の背後あるいは近接位置に存在しかつ上記光を反射するノイズ物体となり得  It can be a noise object that is behind or close to the joint and reflects the light. るノイズリード(2b,2c)が上記高さ検出部で検出する上記反射光の上記高さ計測領域外となるように上記高さ検出部の上記高さ計測領域を狭くすべく上記高さ計測領域の調整を行ったのち(S2,S3)、上記調整後の高さ計測領域に基づき、上記制御部(200)の上記部品形状情報記憶部(620)内に格納されかつ上記実装プログラムに必要な上記実装情報の中の部品形状情報を参照して、上記制御部によりサーボコントローラ(601)を制御して上記部品保持部材の高さを調整して、上記ノイズリードを除去するノイズ除去部(304)とを備え、The height measurement to narrow the height measurement region of the height detection unit so that the noise lead (2b, 2c) is outside the height measurement region of the reflected light detected by the height detection unit. After adjusting the area (S2, S3), it is stored in the part shape information storage unit (620) of the control unit (200) based on the height measurement area after adjustment and is necessary for the mounting program. Referring to the component shape information in the mounting information, the control unit controls the servo controller (601) to adjust the height of the component holding member to remove the noise lead ( 304),
上記制御部は、上記実装プログラムに必要な実装情報の部品形状情報中から上記部品の高さデータを取り込み、上記取り込まれた高さデータに基づき、上記高さ検出部により上記電子部品の位置を検出し、上記高さ検出部により検出された上記電子部品の位置の情報に基づき、上記ヘッド部を駆動して上記部品保持部材により上記電子部品を上記基板の所定の位置に装着するように制御するようにしたことを特徴とする電子部品実装装置。  The control unit captures the height data of the component from the component shape information of the mounting information necessary for the mounting program, and based on the captured height data, the height detection unit determines the position of the electronic component. Based on the position information of the electronic component detected and detected by the height detection unit, the head unit is driven and the electronic component is mounted at a predetermined position on the substrate by the component holding member. An electronic component mounting apparatus characterized by being configured to do so.
上記高さ検出部は、高さ検出センサー(8)として半導体位置検出素子により上記接合部の位置を検出する請求項6に記載の電子部品実装装置。The electronic component mounting apparatus according to claim 6, wherein the height detection unit detects the position of the joint by a semiconductor position detection element as a height detection sensor (8). 上記ノイズ除去部は、高さ計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる高さ計測領域を予め設定しておき、この高さ計測領域の範囲内でのみ上記接合部の高さ検出を行うようにした請求項6又は7に記載の電子部品実装装置。The noise removing unit sets in advance a height measurement area in which the height position of the joint can be detected around the height measurement reference plane in the height measurement possible area, and the range of the height measurement area The electronic component mounting apparatus according to claim 6 or 7, wherein the height of the joint portion is detected only inside. 上記ノイズ除去部は、上記計測可能領域内において高さ計測基準面を中心に上記接合部の高さ位置を検出しうる上記高さ計測領域を高さ変換テーブルとして予め設定しておき、上記高さ変換テーブルにより、上記接合部の高さデータのうち上記高さ計測領域外にある高さデータを無効な高さデータとして取り扱い、上記高さ計測領域の範囲内にある高さデータを有効な高さデータとして取り扱い、上記有効な高さデータを基に上記接合部の高さ検出を行うようにした請求項6〜8のいずれかに記載の電子部品実装装置。The noise removing unit presets the height measurement region capable of detecting the height position of the joint with a height measurement reference plane as a center within the measurable region as a height conversion table. The height conversion table treats the height data outside the height measurement area among the height data of the joint as invalid height data, and the height data within the range of the height measurement area is valid. The electronic component mounting apparatus according to claim 6, wherein the electronic component mounting apparatus is handled as height data, and the height of the joint is detected based on the effective height data. 高さ計測領域の範囲内でのみ検出された上記電子部品の画像に対して上記電子部品の大きさから処理エリアを決定する処理エリア決定手段(401)と、A processing area determining means (401) for determining a processing area from the size of the electronic component for the image of the electronic component detected only within the height measurement region;
上記電子部品の画像において上記決定された処理エリアのウィンドウ(500)内をサンプリングして上記電子部品の中心及び傾きを大まかに検出する重心及び傾き検出手段(402,403)と、  Centroid and inclination detection means (402, 403) for sampling the inside of the window (500) of the determined processing area in the image of the electronic component to roughly detect the center and inclination of the electronic component;
上記部品の大きさと上記電子部品の大まかな位置とを基に、上記電子部品の画像において全ての上記接合部の位置を検出する接合部位置検出手段(404)と、  A joint position detection means (404) for detecting the positions of all the joints in the image of the electronic component based on the size of the component and the approximate position of the electronic component;
全ての上記接合部の位置から上記電子部品の画像における上記電子部品の正確な位置を検出する接合部中心及び傾き検出手段(405)とを備えるようにした請求項6〜9のいずれかに記載の電子部品実装装置。  The joint part center and inclination detection means (405) which detects the exact position of the said electronic component in the image of the said electronic component from the position of all the said junction parts is provided in any one of Claims 6-9 provided with it. Electronic component mounting equipment.
JP04784998A 1998-02-27 1998-02-27 Electronic component mounting method and apparatus Expired - Fee Related JP3883279B2 (en)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP04784998A JP3883279B2 (en) 1998-02-27 1998-02-27 Electronic component mounting method and apparatus
SG200005492A SG108814A1 (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus
EP00126692A EP1089607B1 (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus
SG200005491A SG91884A1 (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus
DE69933870T DE69933870T2 (en) 1998-02-27 1999-02-25 Component recognition method and apparatus
DE69934103T DE69934103T2 (en) 1998-02-27 1999-02-25 Component recognition method and apparatus
EP00126696A EP1089608B1 (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus
EP99909178A EP1062853B1 (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus
PCT/JP1999/000874 WO1999044408A1 (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus
CNB998032751A CN1205847C (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus
DE69934116T DE69934116T2 (en) 1998-02-27 1999-02-25 Component recognition method and apparatus
US09/623,085 US6606788B1 (en) 1998-02-27 1999-02-25 Component recognizing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04784998A JP3883279B2 (en) 1998-02-27 1998-02-27 Electronic component mounting method and apparatus

Publications (2)

Publication Number Publication Date
JPH11251797A JPH11251797A (en) 1999-09-17
JP3883279B2 true JP3883279B2 (en) 2007-02-21

Family

ID=12786825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04784998A Expired - Fee Related JP3883279B2 (en) 1998-02-27 1998-02-27 Electronic component mounting method and apparatus

Country Status (1)

Country Link
JP (1) JP3883279B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6639239B2 (en) 1998-10-30 2003-10-28 Cyberoptics Corporation Angle rejection filter
KR100378488B1 (en) * 2000-12-22 2003-03-29 삼성테크윈 주식회사 Apparatus for aligning component for chip mounter using mirror
US6909515B2 (en) 2001-01-22 2005-06-21 Cyberoptics Corporation Multiple source alignment sensor with improved optics
US6762847B2 (en) 2001-01-22 2004-07-13 Cyberoptics Corporation Laser align sensor with sequencing light sources
JP5534919B2 (en) * 2010-04-22 2014-07-02 富士機械製造株式会社 Electronic component imaging determination method and component mounter

Also Published As

Publication number Publication date
JPH11251797A (en) 1999-09-17

Similar Documents

Publication Publication Date Title
EP1062853B1 (en) Component recognizing method and apparatus
EP0897657B1 (en) Electronic component mounting apparatus
JP3883279B2 (en) Electronic component mounting method and apparatus
JP3926347B2 (en) Electronic component mounting equipment
JP3578588B2 (en) Electronic component mounting equipment
JP3949257B2 (en) Component recognition method, component inspection, and mounting method
JP4546635B2 (en) Electronic component mounting method and apparatus
JP2008151687A (en) Method of measuring terminal height of electronic component
JP3923168B2 (en) Component recognition method and component mounting method
JP3554264B2 (en) Three-dimensional image generation apparatus and method
JP3296705B2 (en) Generating device for standard data for component recognition
JPH06265320A (en) Outer shape inspection method
JP2003130619A (en) Method and apparatus for detecting defective lead terminal of electronic parts
JP2523420B2 (en) Image processing method in optical measuring device
JP3399468B2 (en) Inspection device for mounted printed circuit boards
JP3006566B2 (en) Lead bending inspection equipment
JP3232821B2 (en) Inspection method of mounted printed circuit board
JP3011640B2 (en) Method and apparatus for measuring tail clearance of shield machine
JP2002250625A (en) Beam evaluation method of laser marker and its device
JP3055864B2 (en) Electronic component mounting method and device
JPH0553225B2 (en)
JP2003172613A (en) Shape-measuring method
JP2568125B2 (en) Bonding device tool / camera offset amount detection mechanism and method
JP3664799B2 (en) 3D shape measuring device
JPH0625654B2 (en) Measuring method and device for three-dimensional curved surface shape

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061114

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091124

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131124

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees