JP4150448B2 - Component recognition apparatus and method - Google Patents

Component recognition apparatus and method Download PDF

Info

Publication number
JP4150448B2
JP4150448B2 JP26295198A JP26295198A JP4150448B2 JP 4150448 B2 JP4150448 B2 JP 4150448B2 JP 26295198 A JP26295198 A JP 26295198A JP 26295198 A JP26295198 A JP 26295198A JP 4150448 B2 JP4150448 B2 JP 4150448B2
Authority
JP
Japan
Prior art keywords
component
nozzle
suction nozzle
tip
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26295198A
Other languages
Japanese (ja)
Other versions
JP2000088522A (en
Inventor
泰行 石谷
士朗 大路
尚三 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP26295198A priority Critical patent/JP4150448B2/en
Publication of JP2000088522A publication Critical patent/JP2000088522A/en
Application granted granted Critical
Publication of JP4150448B2 publication Critical patent/JP4150448B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、部品吸着ノズルの先端に部品を吸着保持した状態で、上記部品に部品認識用照射光を照射し、該照射光が上記部品で反射拡散した反射拡散光又は上記部品を透過した透過光に基づき上記部品の位置認識を行うとき、上記ノズルの中心位置を検出し、その中心位置の情報を考慮して上記位置認識を行う部品認識装置及び方法に関する。
【0002】
【従来の技術】
従来、この種の部品認識装置及び方法は種々の構造のものが知られている。例えば、図17(A),(C)に示すように、予め決められた所定寸法以下の部品801の場合、例えば、一辺が6mmの正方形の半導体チップや小型トランジスタなどの場合には、小型部品用の部品吸着ノズル800の先端に部品801を吸着した状態で、上記部品801に下方から小型部品用の照射光照射装置802により部品認識用照射光を照射し、該照射光が上記部品吸着ノズル800の反射拡散板803で反射拡散し、その反射拡散光が部品吸着ノズル800に吸着された部品801のリード端子を透過した透過光を鏡筒808を介して小型部品用の小カメラ804で受光して上記部品801の位置認識を行うように構成したものがある。
【0003】
これに対して、上記所定寸法を超える部品806の場合、例えば、一辺が32mmの正方形の大型QFP(Quad Flat Package)や一辺が30mmの正方形の大型PLCC(Plastic Leaded Chip Carrier)の場合には、上記部品認識装置においては、図17(A),(B)に示すように、大型部品用の部品吸着ノズル805の先端に部品806を吸着した状態で、上記部品806に下方から大型部品用の照射光照射装置807により部品認識用照射光を照射し、該照射光が上記部品806のリード端子で反射拡散した反射拡散光を鏡筒808を介して大型部品用の大カメラ809で受光して上記部品806の位置認識を行うように構成している。
【0004】
しかしながら、大型部品806であって大型部品用の部品吸着ノズル805の外径に対して大きい場合には、上記部品806のリードが吸着ノズル805から大きく横方向に張り出しているため、それらのリードに対して照射光を照射すると、照射光が部品吸着ノズル805の外側近傍の吸着ノズル支持部分などの金属部分にも照射されて反射拡散されてしまい、リードからの反射拡散光と、上記吸着ノズル支持部分などの金属部分からの反射拡散光との両方が大型部品用の大カメラ809で受光されてしまい、上記部品806の位置認識を正確に行うことができないことがあった。
【0005】
これを防止するため、このような大型の部品806の場合には、図17(B)に示すように、吸着ノズル805により吸着された部品806の上方を覆うように反射拡散防止シャッター810を突出させて、上記吸着ノズル支持部分などの金属部分を反射拡散防止シャッター810により覆い、照射光が上記吸着ノズル支持部分などの金属部分に照射されるのを防止したのち、照射光を部品806に照射して、部品806のリードからの反射拡散光のみを大型部品用の大カメラ809で受光できるようにして、上記部品506の位置認識を正確に行うようにしている。
【0006】
【発明が解決しようとする課題】
しかしながら、吸着ノズル805により吸着された部品806を照射光の照射位置に停止させたのち、反射拡散防止シャッター810を駆動して上記吸着ノズル支持部分などの金属部分を覆うとき、反射拡散防止シャッター810が退避位置から上記金属部分を覆う位置まで移動して停止した直後では、反射拡散防止シャッター810が振動しており、その振動が停止するまで、少なくとも0.2〜0.3秒程度の間、待機する必要があり、部品の認識工程全体の時間が長くなり、部品実装全体の生産効率が低下することになるといった問題があった。
【0007】
さらに、位置認識を行う前にノズル中心位置を検出する場合においても、同様に、シャッターを駆動させるため、ノズルの吸引孔を認識して中心位置を検出するのに時間がかかり、部品実装全体の生産効率が低下することになるといった問題があった。
【0008】
従って、本発明の目的は、上記問題を解決することにあって、反射拡散防止シャッターを必要とせず、短時間でノズル中心位置を検出できて短時間で部品認識を行うことができ、部品実装の生産効率を高めることができる部品認識装置及び方法を提供することにある。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明は以下のように構成する。
【0010】
本発明の第1態様によれば、部品吸着ノズルの先端に部品を吸着した状態で、上記部品に部品認識用照射光を照射し、該照射光が上記部品で反射拡散した拡散光又は該照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光に基づき上記部品の位置認識を行うようにした部品認識装置において、
上記ノズルの中心位置検出時には上記部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射光を上記部品吸着ノズルの先端に向けて照射するとともに、上記部品認識時には上記部品吸着ノズルの先端に吸着された上記部品に向けて上記照射光を照射する照射装置と、
上記部品を吸着する上記部品吸着ノズルの先端の吸引孔の周囲に配置されて上記照射光を拡散する吸着ノズル中心位置認識用拡散リングと、
上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域の上記照射光を吸収する黒色の照射光吸収部と、
上記ノズルの中心位置検出時に、上記ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射装置から照射された上記照射光が上記部品吸着ノズルの先端の上記吸着ノズル中心位置認識用拡散リングで反射拡散した反射拡散光を受光するとともに、上記部品認識時には、上記部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光を受光する受光装置と、
上記ノズルの中心位置検出時に、上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記部品吸着ノズルの先端の画像を上記ノズルの回転角度毎に記憶するとともに、上記部品認識時には、上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記部品吸着ノズルの先端の画像を記憶する画像メモリと、
上記ノズルの中心位置検出時に、上記画像メモリに取り込まれた画像情報を基に、上記ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記ノズルの中心候補位置をそれぞれ演算して求め、求められた上記ノズルの回転角度毎の上記ノズルの中心候補位置から上記ノズルの中心位置を求めるとともに、上記部品認識時に、上記求められた上記ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行う演算装置と、
を備えるようにしたことを特徴とする部品認識装置を提供する。
【0011】
本発明の第2態様によれば、上記照射光吸収部が配置される、上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域とは、上記部品吸着ノズルの上記吸引孔及び上記吸着ノズル中心位置認識用拡散リング以外の先端部分及び上記部品吸着ノズルを上下動可能に支持する吸着ノズル保持装置の上記部品吸着ノズルの先端部分の周囲の部分である第1態様に記載の部品認識装置を提供する。
【0012】
本発明の第3態様によれば、上記吸着ノズル中心位置認識用拡散リングと上記黒色の照射光吸収部とを先端に有する上記吸着ノズルは大型部品を吸着する大型部品用吸着ノズルである一方、上記大型部品用吸着ノズルとは別に配置されかつ上記大型部品よりも小さい小型部品を吸着する小型部品用吸着ノズルの先端の吸引孔の周囲に配置されて上記照射光を反射拡散する吸着ノズル中心位置認識用兼小型部品認識用反射拡散リングをさらに備え、
上記受光装置は、上記各ノズルの中心位置検出時に、上記各ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記各部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射装置から照射された上記照射光が上記各部品吸着ノズルの先端の上記吸着ノズル中心位置認識用拡散リングで反射拡散した反射拡散光を受光するとともに、上記部品認識時には、上記各部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記各部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記各部品吸着ノズルで反射拡散されて上記部品を透過した透過光を受光し、
上記画像メモリは、上記各ノズルの中心位置検出時に、上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記各部品吸着ノズルの先端の画像を上記各ノズルの回転角度毎に記憶するとともに、上記部品認識時には、上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記各部品吸着ノズルの先端の画像を記憶し、
上記演算装置は、上記各ノズルの中心位置検出時に、上記画像メモリに取り込まれた画像情報を基に、上記各ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記各ノズルの中心候補位置をそれぞれ演算して求め、求められた上記各ノズルの回転角度毎の上記各ノズルの中心候補位置から上記各ノズルの中心位置を求めるとともに、上記部品認識時に、上記求められた上記各ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行うようにした第1又は2態様に記載の部品実装装置を提供する。
【0013】
本発明の第4態様によれば、上記吸着ノズル中心位置認識用拡散リングの表面は、上記照射光の拡散させるように粗く仕上げられている第1〜3のいずれかの態様に記載の部品認識装置を提供する。
【0014】
本発明の第5態様によれば、部品吸着ノズルの先端に部品を吸着した状態で、上記部品に部品認識用照射光を照射し、該照射光が上記部品で反射拡散した拡散光又は該照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光に基づき上記部品の位置認識を行うようにした部品認識方法において、
上記ノズルの中心位置検出時に、上記ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記部品吸着ノズルの先端に上記部品を吸着しない状態で照射装置から上記照射光を上記部品吸着ノズルの先端に向けて照射し、
上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域の上記照射光を黒色の照射光吸収部により吸収する状態で、上記部品を吸着する上記部品吸着ノズルの先端の吸引孔の周囲に配置された吸着ノズル中心位置認識用拡散リングにより上記照射光を反射拡散し、その反射拡散光を受光装置で受光し、
上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記部品吸着ノズルの先端の画像を上記ノズルの回転角度毎に画像メモリに記憶し、
上記画像メモリに取り込まれた画像情報を基に、上記ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記ノズルの中心候補位置をそれぞれ演算して求め、求められた上記ノズルの回転角度毎の上記ノズルの中心候補位置から上記ノズルの中心位置を求める一方、
上記部品位置認識時には、上記部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光を上記受光装置で受光し、
上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記部品吸着ノズルの先端の画像を上記画像メモリに記憶し、
上記求められた上記ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行うようにしたことを特徴とする部品認識方法を提供する。
【0015】
本発明の第6態様によれば、上記照射光吸収部が配置される、上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域とは、上記部品吸着ノズルの上記吸引孔及び上記吸着ノズル中心位置認識用拡散リング以外の先端部分及び上記部品吸着ノズルを上下動可能に支持する吸着ノズル保持装置の上記部品吸着ノズルの先端部分の周囲の部分である第5態様に記載の部品認識方法を提供する。
【0016】
本発明の第7態様によれば、大型部品を吸着するときには、上記吸着ノズル中心位置認識用拡散リングと上記黒色の照射光吸収部とを先端に有する上記吸着ノズルを大型部品用吸着ノズルとして使用する一方、上記大型部品よりも小さい小型部品を吸着するときには、吸引孔の周囲に上記照射光を反射拡散する吸着ノズル中心位置認識用兼小型部品認識用拡散リングを有する小型部品用吸着ノズルを使用し、
上記各ノズルの中心位置検出時に、上記各ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記各部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射装置から照射された上記照射光が上記各部品吸着ノズルの先端の上記吸着ノズル中心位置認識用拡散リングで反射拡散した反射拡散光を上記受光装置により受光するとともに、上記部品認識時には、上記各部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記各部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記各部品吸着ノズルで反射拡散されて上記部品を透過した透過光を上記受光装置により受光し、
上記各ノズルの中心位置検出時に、上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記各部品吸着ノズルの先端の画像を上記各ノズルの回転角度毎に上記画像メモリで記憶するとともに、上記部品認識時には、上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記各部品吸着ノズルの先端の画像を上記画像メモリで記憶し、
上記各ノズルの中心位置検出時に、上記演算装置により、上記画像メモリに取り込まれた画像情報を基に、上記各ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記各ノズルの中心候補位置をそれぞれ演算して求め、求められた上記各ノズルの回転角度毎の上記各ノズルの中心候補位置から上記各ノズルの中心位置を求めるとともに、上記部品認識時に、上記演算装置により、上記求められた上記各ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行うようにした第5又は6態様に記載の部品実装方法を提供する。
【0017】
本発明の第8態様によれば、上記吸着ノズル中心位置認識用拡散リングの表面は粗く仕上げられて、上記照射光を拡散させるようにしている第5〜7のいずれかの態様に記載の部品認識方法を提供する。
【0018】
【発明の実施の形態】
以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
【0019】
本発明の一実施形態にかかる部品認識装置及び方法は、図1に示すように、部品吸着ノズルの先端に部品を吸着した状態で、上記部品に部品認識用照射光を照射し、該照射光が上記部品で反射拡散した反射拡散光又は上記部品を透過した透過光を受光装置の一例としての大視野カメラ652と小視野カメラ651で受光して上記部品の位置認識を行うとともに、部品の位置認識前のノズル中心位置検出も行うように構成している。以下に、この部品認識装置及び方法を使用する部品装着装置について詳述する。
【0020】
まず、図1,2を参照して部品装着装置の全体構成を説明すると、1は支持基板でその上に、回転駆動するモータ2aと該モータ2aに連結されて間欠回転位置を位置決めするインデックス装置2bとを有する間欠回転駆動装置2が配置され、その回転主軸3が支持基板1の下部に突出されるとともに支持基板1の下面に固定された支持筒体4にて軸受5を介して回転自在に支持されている。
【0021】
回転主軸3の下端部には回転枠6が固定され、この回転枠6の外周部に間欠回転駆動装置2の間欠回転位置を位置決めする割り出し回転角に対応する角度ピッチで、複数の吸着ノズル7、例えばこの実施形態では5本の吸着ノズル7、すなわち第1〜第5吸着ノズル71,72,73,74,75を有する吸着ノズル保持装置の一例としての装着ヘッド100が昇降可能に所定数例えば10個配設されている。各装着ヘッド100には、5本の第1〜第5吸着ノズル71,72,73,74,75が円環状に配置されており、吸着ノズル7の吸引孔7aとして、吸着すべき部品801,806の大きさに対応して、5種類の内径を有する吸引孔71a,72a,73a,74a,75aを配置するようにしている。
【0022】
8は各吸着ノズル7から上方に延出されたリニアガイドであり、回転枠6に装着された支持ブロック9にて昇降自在に支持されている。リニアガイド8の上端部にはカムフォロア10が取付けられ、支持筒体4の外周面に形成された昇降用溝カム11に係合されている。
【0023】
回転枠6の間欠回転に伴う各吸着ノズル7の停止位置には、部品供給ステーション12や部品装着ステーション13が配設されている。
【0024】
かくして、間欠回転駆動装置2にて回転枠6が間欠回転するのに伴って吸着ノズル7が各ステーションを順次移動するとともに、昇降用溝カム11とカムフォロア10の係合によりリニアガイド8を介して吸着ノズル7は各ステーションに応じた高さに位置する。
【0025】
なお、図示していないが、部品供給ステーション12及び部品装着ステーション13では、部品の吸着及び装着のために吸着ノズル7を所定ストローク下降操作できるように構成されている。
【0026】
次に、図1〜図3を参照して吸着ノズル7の構成を説明する。14はヘッド本体で、その内部に回転体15が軸受16a、16bを介して鉛直な軸芯回りに回転可能に配設されている。ヘッド本体14の下端には、回転体15の下方部の周囲を取り囲むように、下端にカム面17aを形成された端面カム17が取付けられている。回転体15の外周部には、同一円周上に等間隔に位置させて複数の言いかえれば第1〜第5吸着ノズルに対応して5本の外筒18が鉛直方向に貫通して配設され、それぞれ軸受19a、19bを介して回転自在に支持されている。また、回転体15の上端部外周には歯車20が固定されている。
【0027】
各外筒18の上端にはノズル回転用第3モータ603に対するV字溝状の係合部21が形成されている。各外筒18内には各吸着ノズル7の各ノズル軸22が昇降自在に挿通され、各ノズル軸22の下端部にそれぞれ種類の異なる吸着ノズル本体23が所定範囲内で上下移動自在に装着されている。24は吸着ノズル本体23を退入可能に突出付勢するばねである。
【0028】
各ノズル軸22の上端部には直径方向に貫通する係合ピン25が設けられ、その両端部が各外筒18の上端大径部18aに形成された軸芯方向の係合溝26に係合され、かつ上端大径部18aの内周段面18bと係合ピン25の間にノズル軸22を上方に付勢するばね27が介装されている。
【0029】
ノズル軸22の外筒18下端より突出した下端部に下端大径部22aが形成され、その外周段面22b上に端面カム17に対する係合手段28が係合されている。端面カム17のカム面17aは、図3に示すように、所定の選択位置で係合手段28をばね27の付勢力に抗して所定ストロークだけ強制的に下降させるように形成されている。
【0030】
かくして回転体15を回転させて外筒18を介してノズル軸22を回動すると、端面カム17にてノズル軸22が上下移動し、5本の吸着ノズル7のうちの任意の吸着ノズル7のノズル軸22が所定の選択位置に位置すると下降位置となり、他の回転位置では上昇位置となる。
【0031】
係合手段28は、ノズル軸22に外嵌した結合筒体29とその一側に突設したカムフォロア30にて構成されている。結合筒体29はノズル軸22に一定以上の外力が作用したときに相対回転可能に摩擦係合状態で外嵌され、外筒18を回転操作することによって係合ピン25を介してノズル軸22を強制的に任意の回転位置に回転させることができるように構成されている。
【0032】
カムフォロア30には、端面カム17に係合するローラ31とその外側のローラ32とが設けられている。外側のローラ32は、回転体15の下端から垂下された支柱33に取付けられたガイド筒体34に各係合手段28に対向して形成された上下方向のガイド溝35に係合し、カムフォロア30を回転体15と一体的に回転させ、かつ外筒18の軸芯回りに回転するのを防止している。
【0033】
また、ヘッド本体14の外周面の適所に歯車20に係合及び係合離脱可能な係合爪36が水平な支軸37回りに揺動可能に配設されるとともに係合爪36を係合位置に向けて付勢するばね38が設けられ、回転体15を解除可能に回転規制するように成されている。
【0034】
上記5種類の部品吸着ノズル7は部品の大きさにより適宜切り換えて適切なものを選択して使用するようにしている。
【0035】
所定寸法以下の小型部品801、例えば、一辺が6mmの正方形の半導体チップや小型トランジスタなどの場合には、図4,5に示すように、第5吸着ノズル75の吸引孔75aの周囲のノズル本体下端面には照射光が反射拡散する白い反射拡散リング103を設けるとともに、第4吸着ノズル74の吸引孔74aの周囲のノズル本体下端面には照射光が反射拡散する白い反射拡散リング104を設ける。一方、吸引孔75a及び74aの内部は図4,5に示すように暗くなっている。よって、図10に示すように、第5吸着ノズル75の吸引孔75a又は74aに吸着された小型部品801に、上記小型部品801の下方から小型部品用の照射光照射装置であるハロゲン光照射装置402から部品認識用照射光であるハロゲン光が照射されると、上記吸引孔75a又は74aの周囲のノズル本体下端面の白い反射拡散リング103又は104により反射拡散され、その反射拡散光が部品吸着ノズル75又は74に吸着された小型部品801のリードを透過した透過光を鏡筒650を介して小型部品用の小視野カメラ651で受光して上記小型部品801の位置認識を行うようにしている。
【0036】
これに対して、上記所定寸法を超える大型部品806の場合、例えば、一辺が32mmの正方形の大型QFPや一辺が30mmの正方形の大型PLCC(Plastic Leaded Chip Carrier)などの場合には、図4〜8,11に示すように、第1から第3吸着ノズル71〜73の吸引孔71a〜73aのそれぞれの周囲のノズル本体下端面に照射光が反射拡散せず吸収されるような照射光吸収部の一例としての黒い反射拡散防止リング101を構成するように、黒い円筒部材(図8参照)を各ノズル下端にそれぞれ嵌合固定している。また、上記装着ヘッド100の下端面において第1から第5吸着ノズル71〜75、好ましくはそれらの吸引孔71a〜75a、以外の部分には、黒く塗装するか又は黒い反射拡散防止板をはめ込むことにより(図4ではクロスハッチングにより当該部分を黒い部分として表示している。)、照射光吸収部の一例としての反射拡散防止部107を形成する。なお、図5では各部材との関係を明瞭に示すため、図4のようにクロスハッチングにより黒い部分を表示することを省略している。よって、図10に示すように、例えば、第2吸着ノズル72の吸引孔72aに吸着された大型部品806に、上記部品806の下方から大型部品用の照射光照射装置であるLED408から部品認識用照射光が照射されると、大型部品806のリード806bよりも上方には何ら反射拡散する部分がなく、黒い反射拡散防止リング101又は反射拡散防止部107が存在するため、上記照射光により反射拡散するのはリード806bのみとなり、そのリード806bから反射拡散された反射拡散光のみが鏡筒650を介して大型部品用の大視野カメラ652で受光して上記大型部品806の位置認識を行うようにしている。
【0037】
また、第1〜第3吸着ノズル71〜73の吸引孔71a〜73aのそれぞれの周囲に設けられた反射拡散防止リング101の中心部近傍には白い、吸着ノズル中心位置認識用反射拡散リング102を設けている.この各白い反射拡散リング102は、第1〜第3吸着ノズル71〜73の中心軸を算出するために使用するものであり、各ノズル中心軸と同心に配置されており、部品806を第1〜第3吸着ノズル71〜73にそれぞれ吸着したときには、部品本体806aにより覆われて照射光により照射されて反射拡散されないようにしている。
【0038】
上記各反射拡散リング102,103,104の表面は、図12(A)に代表例として反射拡散リング102で示すように、例えば粗度が0.3μmの凹凸などとして上記照射光の拡散させるように粗く仕上げて、各反射拡散リング102,103,104の輪郭を浮き上がらせるようにするのが好ましい。また、図12(B)に代表例として反射拡散リング102で示すように、反射拡散リング102を他の部分から若干、例えば0.3mm程度、突出させて、反射拡散リング102の側面でも照射光を反射拡散するようにして、より明確に、反射拡散リング102,103,104の輪郭を浮き上がらせるようにしてもよい。
【0039】
また、図12(C)に示すように、1つの吸着ノズル7において、小型部品と大型部品の両方の位置認識を行わせるようにするため、ノズル本体23の周囲は黒色の照射光吸収部101aとし、その周囲を白い反射拡散リング103aとするようにしてもよい。この例では、小型部品は透過光で位置認識する一方、大型部品は反射拡散光で位置認識する図4とは異なり、大型部品は白い反射拡散リング103aで照射光が反射拡散した透過光で位置認識する一方、小型部品は黒色の照射光吸収部101aを背景とした状態での小型部品からの反射拡散光で位置認識するようにすることができる。
【0040】
また、制御装置(主マシンコントローラ)700は、各ノズル中心位置検出動作、部品認識動作及び装着動作を制御するものである。具体的には、上記制御装置700は、第1ドライバ701を介して上記間欠回転駆動装置2(モータ2aとインデックス装置2b)を駆動制御し、第2ドライバ702を介して上記吸着ノズル選択用モータ600を回転駆動制御し、第3ドライバ703を介して上記ノズル回転用第3モータ603を回転制御する。また、制御装置700は、上記認識装置の認識処理部500を構成する、演算装置の一例としてのCPU502と画像メモリ503とを有する認識制御部501、不反転LUT505と反転LUT506とを有するLUT選択部504、カメラ切換部507の各駆動を制御している。また、制御装置700にはメモリ520が接続されており、このメモリ520には、検出対象の吸着ノズル7の種類により、大視野カメラ652と小視野カメラ651とのいずれのカメラを使用するかなどの位置認識情報や部品装着順序などの部品装着情報などが予め記憶されている。また、制御装置700にはLED408とハロゲン光照射装置402が接続されて駆動制御される。
【0041】
以上の構成において、間欠回転駆動装置2により回転枠6が間欠回転されて、歯車20を回転駆動する駆動手段例えば吸着ノズル選択用モータ600(図1参照)が配設された適当なステーション例えばノズル切換用ステーションに任意の装着ヘッド100が停止すると、このノズル切換用ステーションにおいて吸着ノズル本体23の変更の必要に応じ、係合爪36を押圧揺動させて歯車20との係合を解除し、上記制御装置700の制御の下に第2ドライバ702を介して上記吸着ノズル選択用モータ600が回転駆動されて歯車601にて歯車20を回転させて回転体15を回転させる。すると、外筒18を介して5本の吸着ノズル7のノズル軸22が回転体15の軸芯回りに回転し、ノズル軸22の下端部に配設した係合手段28と端面カム17の係合により5本の吸着ノズル71〜75の各ノズル軸22が順次所定の選択位置で突出下降する。所望の吸着ノズル本体23を取付けた吸着ノズル7のノズル軸22が突出すると、上記吸着ノズル選択用モータ600を停止させ、係合爪36の押圧を解除して係合爪36を歯車20に係合させ、回転体15を固定する。
【0042】
この状態で、間欠回転駆動装置2により回転枠6が間欠回転して再び上記装着ヘッド100の吸着ノズル7が移動し、部品供給ステーション12に達すると、上記カム機構の作用により、リニアガイド8が所定量押し下げ操作され、吸着ノズル本体23が部品を吸着する。このとき、吸着ノズル本体23の先端が部品に当接すると、吸着ノズル本体23はばね24にて退入可能に突出付勢されているので円滑に退入して吸着時の衝撃を無くすことができ、部品が確実に吸着される。
【0043】
部品を吸着した吸着ノズル7は間欠回転駆動装置2による回転枠6の間欠回転によって再び移動する。部品装着ステーション13の手前の回転手段例えばノズル回転用モータ603(図1参照)が配設された回転位置補正ステーションで吸着ノズル7が停止すると、部品の位置認識を行った後、位置認識結果に基づき吸着している部品の回転位置補正の必要に応じて外筒17の上端の係合部21に上記ノズル回転用モータ603が係合して外筒17を回転させ、係合溝26、係合ピン25、及びノズル軸22を介して吸着ノズル本体23を回転させ、吸着している部品の回転姿勢を調整する。部品が所望の回転姿勢になると、上記ノズル回転用モータ603の回転が停止され、係合部21との係合が解除される。この部品の回転姿勢は、ノズル軸22が結合筒体29に一定以上の外力が作用しない限り回転しないように嵌合しているのでそのまま保持される。
【0044】
その後、間欠回転駆動装置2による回転枠6の間欠回転によって吸着ノズル7が部品装着ステーション13に移動すると、リニアガイド8が所定量押し下げ操作され、部品が回路基板等の基板に押し付けられ、吸着が解除されることにより部品が装着される。このときも、吸着ノズル本体23がばね24に抗して退入することにより装着時の衝撃を無くすことができる。
【0045】
以上の動作を回転枠6に設置された各装着ヘッド100の各吸着ノズル7が順次繰り返して行うことにより、最適な種類の吸着ノズル本体23を用いて部品供給ステーション12で部品を吸着し、位置認識ステーションで各部品の回転姿勢を調整した後、部品装着ステーション13でこの部品を装着することができる。以下に、上記部品の位置認識について詳細に説明する。通常は、部品の位置認識を行う前に、吸着ノズル中心位置検出を行い、受光装置の例である大視野カメラ652及び小視野カメラ651の各視野における各吸着ノズル7の中心位置を求める。その後、各部品の位置認識を行って位置補正量を求める。
【0046】
まず、上記装着装置での吸着ノズル中心検出方法について図14を参照しながら説明する。
【0047】
(第1工程)
ステップ#1において、間欠回転駆動装置2による回転枠6の間欠回転によって、吸着ノズル中心位置の検出の対象となる吸着ノズル7であって部品を吸着していない吸着ノズル7を、回転位置補正ステーションであって、大視野カメラ652と小視野カメラ651とを備える鏡筒650上の所定の認識位置に移動させて静止させる。ここで、上記したように、検出対象の吸着ノズル7の種類により、大視野カメラ652と小視野カメラ651とのいずれのカメラを使用するかの情報が制御装置700のメモリ520に予め記憶されている。よって、この情報に基づき制御装置700からカメラ切換部507に切換情報が伝達されてカメラ切換部507によりカメラが切り換えられる。例えば、小型部品用の吸着ノズルの場合には小視野カメラ651に切り換えられ、大型部品用の吸着ノズルの場合には小視野カメラ651よりも視野が大きい大視野カメラ652に切り換えられる。
【0048】
(第2工程)
ステップ#2において、回転位置補正ステーションに位置決めされた装着ヘッド100の吸着ノズル7に対して、照射装置であるLED408から照射光が照射され、第1〜第3吸着ノズル71〜73のいずれかのノズルでは各先端の白い反射拡散リング102により照射光が反射拡散され、その反射拡散光が大視野カメラ652により受光される一方、第4吸着ノズル74ではその先端の白い反射拡散リング104又は第5吸着ノズル75ではその先端の白い反射拡散リング103により照射光が反射拡散され、その反射拡散光が小型部品用の小視野カメラ651により受光される。この受光された吸着ノズル先端の画像情報のそれぞれにおいて、吸着ノズル7の吸引孔7aがその周囲すなわち反射拡散リング103若しくは反射拡散防止リング101よりも明るい輝度となるように、LUT選択部504で画像輝度の反転LUT(Look-Up Tables)506又は不反転LUT(Look-Up Tables)505により輝度処理を行ったのち、大視野カメラ652又は小視野カメラ651からの画像データを認識制御部501の画像メモリ503に記憶させる。上記LUT選択部504では、大視野カメラ652又は小視野カメラ651からの画像情報に基づき、吸着ノズル7の吸引孔7aの輝度が該吸引孔7aの周囲すなわち反射拡散リング103若しくは反射拡散防止リング101よりも明るい輝度か否か判断する。もし、吸引孔7aの輝度がその周囲の輝度よりも暗いときには、反転LUT(Look-Up Tables)506により、輝度反転用2値化回路を利用したり輝度反転用2値化テーブルを参照するなどしたりして画像輝度の反転を行いつつ2値化し、吸引孔7aの輝度がその周囲の輝度よりも明るくなるようにする。一方、吸引孔7aの輝度がその周囲の輝度よりも明るいときには、不反転LUT(Look-Up Tables)505により、画像輝度の反転を行うことなくそのままの輝度を2値化回路を利用したり2値化テーブルを参照したりして2値化する。2値化されたデータが、吸着ノズル7の吸引孔7a及びその周囲の輝度情報として画像メモリ503に記憶される。
【0049】
一例として、図9に第5吸着ノズル75の先端付近の図を示す。図9において、400は大視野カメラ652で認識する大視野の領域であり、401は小視野カメラ651で認識する小視野の領域である。第5吸着ノズル75は大型部品用であるため大視野400で第5吸着ノズル75の先端付近の画像情報を検出し、第5吸着ノズル75の吸引孔75aがその周囲すなわち反射拡散リング103よりも明るい輝度となるように輝度を反転させた状態を示している。
【0050】
(第3工程)
ステップ#3において、上記したようにノズル先端付近の画像情報は上記画像メモリ503に記憶された2値化されたデータすなわち画素情報となっており、例えば図15に示すように、入力画像の中央の画素PCを開始点として、この中央の画素PCから上方向に1画素だけ進み、白画素か否か判断する。白画素ならば、さらに同一方向すなわち上方向に1画素だけ進み、白画素か否か判断する。白画素ならば、さらに同一方向すなわち上方向に1画素だけ進み、白画素か否か判断する。これを繰り返し、ある画素P1で次の画素が白画素でない、すなわち、黒画素であると判断したとき、その1つ手前の白画素であるP1を境界第1点とする。この境界第1点P1は、ノズル吸引孔75aの輪郭検出を開始するための開始点である。
【0051】
(第4工程)
引き続き、ステップ#3において、上記求められた境界第1点P1の画素の回りの周囲8近傍画素を例えば矢印440のように時計回りに読み出し、黒画素から白画素に変わる手前の白画素を次の第2境界点P2とする。次に、上記求められた境界第2点P2の画素の回りの周囲8近傍画素を例えば矢印440のように時計回りに読み出し、黒画素から白画素に変わる手前の白画素を次の第3境界点P3とする。次に、上記求められた境界第3点P3の画素の回りの周囲8近傍画素を例えば矢印440のように時計回りに読み出し、黒画素から白画素に変わる手前の白画素を次の第4境界点P4とする。この工程を次の境界点が境界第1点P1に戻るまで繰り返し、境界点列を求める。このステップ#4の作業も、認識処理部501のCPU502により行われる。
【0052】
なお、ステップ#3の作業において、ノイズPNを誤って境界第1点P1として検出してしまった場合、言いかえれば、ステップ#4の作業において境界第1点P1の画素の回りの周囲8近傍画素を例えば矢印440のように時計回りに読み出し、黒画素から白画素に変わる手前の白画素を検出しようしても、検出できなかった場合には、CPU502により、ノイズであるとして先に求めた境界第1点P1を無視する。そして、CPU502により、再び、ステップ#3の作業を行うため、中央の画素PCに戻り、別の方向にステップ#3の作業を行い、境界第1点を求めたのち、ステップ#4の作業を行う。
【0053】
(第5工程)
ステップ#4において、CPU502により、第4工程の処理の過程で求められた境界点列の座標を参照し、座標の水平及び垂直方向の最小値及び最大値を記録する変数を更新する。境界点を全て検出し終わると、これらの変数には境界点列の水平及び垂直方向の最外点の座標が得られる。そして、CPU502により、境界点列の水平及び垂直方向の最外点の座標の中点をもって、吸着ノズル75の現在の回転角の中心座標とする。
【0054】
(第6工程)
ステップ#5において、小視野カメラ651と大視野カメラ652の両方について第2工程から第5工程までを行ったか否か判断する。上記の場合、大視野カメラ652について中心位置検出処理を行ったが、小視野カメラ651についての処理はまだ行っていないため、ステップ#10でカメラ切換部507により大視野カメラ652から小視野カメラ651に切り替えてステップ#2に戻り、第2工程から第5工程まで繰り返す。もし、大視野カメラ652と小視野カメラ651との両方について第2工程から第5工程までを行っている場合には、ステップ#6に進む。また、小視野カメラ651についてのみ行い、大視野カメラ652についてはまだ行っていない場合には、ステップ#10で小視野カメラ651をカメラ切換部507により大視野カメラ652に切り替えてステップ#2に戻り、第2工程から第5工程まで繰り返す。
【0055】
なお、このように、大視野カメラ652と小視野カメラ651とを切換えて、視野の大きさの異なる2つのカメラで中心計測をそれぞれ行うのは、大視野カメラ652と小視野カメラ651の取付け位置に誤差があるとすると、大視野カメラ652と小視野カメラ651の両方のカメラにて各ノズルについて中心計測を行った結果を元に、上記取付け位置の誤差による中心位置の誤差を補正する必要があるためである。また、中心計測対象の部品に対していずれのノズルで吸着するかが決まっているのは標準部品といわれるものだけであり、このような標準部品以外の部品も実装すべき部品としては多数存在する。よって、各ノズルはどのような大きさの部品を吸着するか未定であるため、大視野カメラ652と小視野カメラ651との両方のカメラで各ノズルにおいて中心計測が行えるようにする必要がある。このためにも、大視野カメラ652と小視野カメラ651とを切換えて、視野の大きさの異なるカメラで中心計測を2回行うことが好ましい。
【0056】
(第7工程)
ステップ#6において、上記位置認識ステーションに位置している上記1つの装着ヘッド100に搭載している吸着ノズル7の台数分だけ、第1工程から第6工程を行ったか否かCPU502により判断する。すなわち、CPU502により、すべての吸着ノズルについて第1工程から第6工程を行ったか否か判断し、まだ行っていない場合にはステップ#1に戻り、その未処理の吸着ノズルについて第1工程から第6工程を行う。これは、上記ヘッド100に搭載している吸着ノズル7のすべてについて第1工程から第6工程を繰り返すためである。上記例では、第5吸着ノズル75の中心位置検出のみ行ったため、次に、第1〜第4吸着ノズル71〜74についての中心位置検出をそれぞれ同様に行うことになる。
【0057】
(第8工程)
ステップ#7において、CPU502により、吸着ノズル7を所定角度ずつ回転させて所望数の吸着ノズル中心位置候補の座標を検出したか否か判断する。所望数の吸着ノズル中心位置候補の座標を検出していない場合には、CPU502により、所望数の吸着ノズル中心位置候補の座標を検出するまで上記第1工程から第7工程の作業を繰り返し行う。ここで、所望の角度ずつ回転させたか否かとは、例えば、45度若しくは90度若しくは180度ごとに回転して合計360度回転させたか否か判断する。吸着ノズルを360度回転していない場合には、ステップ#11において吸着ノズルを45度若しくは90度若しくは180度ごとに回転させたのち、ステップ#1に戻り、第1工程から第7工程までを繰り返す。
【0058】
上記例では、第5吸着ノズル75から始まり、第1〜第4吸着ノズル71〜74についての中心位置検出をそれぞれ同様に行うとき、それぞれのノズルについては回転させていなかったので、第1〜第5吸着ノズル71〜75の中心位置検出がなされて中心位置候補が求められると、それらの中心位置候補を回転角度0度のときの中心位置候補とし、次いで、第3ドライバ703を介してノズル回転用モータ603を回転させてノズルをその軸回りに90度だけ回転させる。そして、この回転角度90度について、第1〜第7工程の作業を繰り返し行い、第1〜第5吸着ノズル71〜75において回転角度90度のときの中心位置候補をそれぞれ求める。次いで、第3ドライバ703を介してノズル回転用モータ603を回転させてノズルをその軸回りにさらに90度だけ回転させる。そして、この回転角度180度について、第1〜第7工程の作業を繰り返し行い、第1〜第5吸着ノズル71〜75において回転角度180度のときの中心位置候補をそれぞれ求める。次いで、第3ドライバ703を介してノズル回転用モータ603を回転させてノズルをその軸回りにさらに90度だけ回転させる。そして、この回転角度270度について、第1〜第7工程の作業を繰り返し行い、第1〜第5吸着ノズル71〜75において回転角度270度のときの中心位置候補をそれぞれ求める。この結果、各ノズル7について回転角度0度、90度、180度、270度のときの4つの中心位置候補の座標が求まるので、これらのも4つの座標の中点をそのノズルの中心位置座標として、これをメモリ520に記憶させる。
【0059】
(第9工程)
ステップ#9において、全ての装着ヘッド100について第1〜第8工程までの処理がなされたか否かをCPU502により判断し、まだなされていない装着ヘッド100があれば、ステップ#12において装着ヘッド100を切り換えて、残りの装着ヘッド100全ての吸着ノズル7について第1〜第8工程までの処理を行う。上記装着装置では10台の装着ヘッド100を有しているので、10台全ての装着ヘッド100について第1〜第8工程までの処理を行うようにする。
【0060】
以上により、全ての装着ヘッド100の全ての吸着ノズル7についての中心位置が求められてメモリ520に記憶されている。
【0061】
その後、大型部品806については、部品供給ステーション12において第1から第3吸着ノズル71〜73のいずれか選択されたノズルにより大型部品806が吸着され、そのノズルが位置認識ステーションに到着すると、当該ノズルに吸着された大型部品806に対して、図10に示すように、LED408からの照射光を照射して、大型部品806のリード806bにより反射拡散された反射拡散光を大視野カメラ652で受光して位置認識を行う。このとき、大視野カメラ652の大視野内には、大型部品806のリード806b付近では、リード806b以外の反射拡散光が検出されていないので、リード806bを精度良く位置認識することができる。
【0062】
一方、小型部品801については、部品供給ステーション12において第4又は第5吸着ノズル74又は75のいずれか選択されたノズルにより小型部品801が吸着され、そのノズルが位置認識ステーションに到着すると、当該ノズルに吸着された小型部品801に対して、図10に示すように、ハロゲン光照射装置402からの照射光を照射して、当該ノズルの反射拡散リング104又は103からの反射拡散光が小型部品801のリードを透過し、その透過光を小視野カメラ651で受光して精度良く位置認識を行う。
【0063】
各部品での位置認識後、上記メモリ520に記憶されている当該ノズルの中心位置を考慮して、部品の位置補正量をCPU502により算出し、算出された補正量を考慮して、部品装着ステーション13において基板に部品を装着する。
【0064】
上記実施形態によれば、ノズル中心位置検出及び部品位置認識において、大型部品用の部品吸着ノズルの先端には、上記照射光を反射拡散する吸着ノズル中心位置認識用反射拡散リング102を備えるとともに、上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域の上記照射光を吸収する黒色の照射光吸収部101,107を備え、照射光により反射拡散させたい部分のみからの反射拡散光又は透過光を受光装置で受光することができる。よって、従来のように反射拡散防止シャッターを必要とせず、短時間でノズル中心位置を検出できて短時間で部品認識を行うことができ、部品実装の生産効率を高めることができる。
【0065】
なお、本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施できる。
【0066】
例えば、上記実施形態では、吸着ノズル7全体を昇降用溝カム11で所定量昇降動作させる例を示したが、各吸着ノズル7を同一高さ上に設置してもよい。また、上記実施形態では端面カム17にカムフォロア30のローラ31を係合させたが、ピンガイドやリングを端面カム17に係合させてもよい。さらに、上記実施形態では吸着ノズル7を回転枠6に設置した例を示したが、直線往復移動等の任意の経路に沿って移動する吸着ノズルに設置してもよい。
【0067】
【発明の効果】
本発明によれば、ノズル中心位置検出及び部品位置認識において、部品吸着ノズルの先端には上記照射光を反射拡散する吸着ノズル中心位置認識用反射拡散リングを備えるとともに、上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域の上記照射光を吸収する黒色の照射光吸収部を備え、照射光により反射拡散させたい部分のみからの反射拡散光又は透過光を受光装置で受光することができる。よって、従来のように反射拡散防止シャッターを必要とせず、短時間でノズル中心位置を検出できて短時間で部品認識を行うことができ、部品実装の生産効率を高めることができる。
【図面の簡単な説明】
【図1】 本発明の一実施形態にかかる部品認識装置及び方法を使用する部品装着装置の概略構成図である。
【図2】 図1の部品装着装置の概略構成を示す縦断面図である。
【図3】 図1の部品装着装置における1つの吸着ノズルの縦断面図である。
【図4】 図1の部品装着装置の1つの装着ヘッドの下端面の図であって、クロスハッチング部分は黒色部分である。
【図5】 図4の装着ヘッドの5本の吸着ノズルのうちの第2吸着ノズルに大型部品を吸着した状態での装着ヘッドの下端面の図であって、理解しやすくするため、黒色部分であるクロスハッチング部分を省略した図である。
【図6】 図1の部品装着装置における1つの吸着ノズルの下端の拡大縦断面図である。
【図7】 図1の部品装着装置における別の吸着ノズルの下端の拡大縦断面図である。
【図8】 上記ノズルの下端に配置される反射拡散リングを有する反射拡散防止リングの拡大縦断面図である。
【図9】 図1の部品装着装置の大視野カメラの大視野と小視野カメラの小視野を示す説明図である。
【図10】 図1の部品装着装置の位置認識装置の照明装置関係の概略説明図である。
【図11】 図1の部品装着装置の1つの吸着ノズル先端の拡大模式図である。
【図12】 (A),(B),(C)はそれぞれ図1の部品装着装置のノズルの先端の反射拡散リング部分の拡大断面図、(A)の変形例にかかる反射拡散リング部分の拡大断面図、図1の部品装着装置のさらに別の変形例の吸着ノズルの先端の拡大断面模式図である。
【図13】 図1の部品装着装置の制御装置と他の装置との関係を示すブロック図である。
【図14】 図1の部品装着装置のノズル中心位置検出方法を示すフローチャートである。
【図15】 上記ノズル中心位置検出方法における入力画像の例を示す図であり、黒色部分は黒色画素、白色部分は白色画素を示す。
【図16】 図15の入力画像の一部拡大図である。
【図17】 (A),(B),(C)はそれぞれ従来の位置認識装置の斜視図、大型部品を位置認識するときの説明図、小型部品を位置認識するときの説明図である。
【符号の説明】
1…支持基板、2…間欠回転駆動装置、2a…モータ、2b…インデックス装置、3…回転主軸、4…支持筒体、6…回転枠(移動体)、7(71,72,73,74,75)…吸着ノズル(第1〜第5吸着ノズル)、7a(71a,72a,73a,74a,75a)…吸引孔、8…リニアガイド、9…支持ブロック、10…カムフォロア、11…昇降用溝カム、12…部品供給ステーション、13…部品装着ステーション、14…ヘッド本体、15…回転体、16a,16b…軸受、17…端面カム、17a…カム面、18…外筒、18a…上端大径部、18b…内周段面、19a、19b…軸受、20…歯車、21…係合部、22…ノズル軸、22a…下端大径部、22b…外周段面、23…吸着ノズル本体、24…ばね、25…係合ピン、26…係合溝、27…ばね、28…係合手段、29…結合筒体、30…カムフォロア、31…ローラ、32…ローラ、33…支柱、34…ガイド筒体、35…ガイド溝、36…係合爪、37…支軸、38…ばね、100…装着ヘッド、101…反射拡散防止リング、102…白い反射拡散リング、103,104…反射拡散リング、107…反射拡散防止部、400…大視野、401…小視野、402…ハロゲン光照射装置、408…LED、500…認識処理部、501…認識制御部、502…CPU、503…画像メモリ、504…LUT選択部、505…不反転LUT、506…反転LUT、507…カメラ切換部、520…メモリ、600…吸着ノズル選択用モータ、601…歯車、603…ノズル回転用モータ、650…鏡筒、651…小視野カメラ、652…大視野カメラ、700…制御装置、701…第1ドライバ、702…第2ドライバ、703…第3ドライバ、801…小型部品、806…大型部品、806a…部品本体、806b…リード。
[0001]
BACKGROUND OF THE INVENTION
The present invention irradiates the component with irradiation light for component recognition in a state where the component is sucked and held at the tip of the component suction nozzle, and the irradiated light is reflected diffused light reflected and diffused by the component or transmitted through the component. The present invention relates to a component recognition apparatus and method for detecting the center position of the nozzle and performing the position recognition in consideration of information on the center position when the position of the component is recognized based on light.
[0002]
[Prior art]
Conventionally, this type of component recognition apparatus and method have various structures. For example, as shown in FIGS. 17A and 17C, in the case of a component 801 having a predetermined dimension or less, for example, in the case of a square semiconductor chip having a side of 6 mm or a small transistor, a small component In the state where the component 801 is adsorbed to the tip of the component adsorption nozzle 800, the component 801 is irradiated with irradiation light for component recognition from below by the irradiation light irradiation device 802 for small components, and the irradiation light is emitted from the component adsorption nozzle The reflected diffused light is reflected and diffused by the reflection diffuser plate 803 of 800, and the transmitted light transmitted through the lead terminal of the component 801 adsorbed by the component adsorption nozzle 800 is received by the small camera 804 for small components via the lens barrel 808. In some cases, the position of the component 801 is recognized.
[0003]
On the other hand, in the case of the component 806 exceeding the predetermined dimension, for example, in the case of a large QFP (Quad Flat Package) having a square of 32 mm on one side and a large PLCC (Plastic Leaded Chip Carrier) having a square having a side of 30 mm, In the component recognition device, as shown in FIGS. 17A and 17B, the component 806 is adsorbed to the tip of a component adsorption nozzle 805 for a large component, and the component 806 is used for a large component from below. The irradiation light for component recognition is irradiated by the irradiation light irradiation device 807, and the reflected diffused light that is reflected and diffused by the lead terminal of the component 806 is received by the large camera 809 for the large component through the lens barrel 808. The position of the component 806 is recognized.
[0004]
However, when the large component 806 is larger than the outer diameter of the component suction nozzle 805 for the large component, the lead of the component 806 protrudes greatly from the suction nozzle 805 in the lateral direction, so When the irradiation light is irradiated, the irradiation light is also applied to a metal portion such as a suction nozzle support portion near the outside of the component suction nozzle 805 to be reflected and diffused, and the reflected diffused light from the lead and the suction nozzle support Both the reflected diffused light from the metal part such as the part is received by the large camera 809 for the large part, and the position of the part 806 may not be accurately recognized.
[0005]
In order to prevent this, in the case of such a large component 806, as shown in FIG. 17B, the reflection / diffusion prevention shutter 810 protrudes so as to cover the upper portion of the component 806 sucked by the suction nozzle 805. Then, the metal part such as the suction nozzle support part is covered by the reflection / diffusion prevention shutter 810 to prevent the irradiation light from being applied to the metal part such as the suction nozzle support part, and then the irradiation light is applied to the component 806. Thus, only the reflected diffused light from the lead of the component 806 can be received by the large camera 809 for the large component so that the position of the component 506 is accurately recognized.
[0006]
[Problems to be solved by the invention]
However, when the component 806 sucked by the suction nozzle 805 is stopped at the irradiation position of the irradiation light and then the reflection / diffusion prevention shutter 810 is driven to cover the metal part such as the suction nozzle support part, the reflection / diffusion prevention shutter 810 is used. Immediately after moving from the retracted position to the position covering the metal part and stopping, the reflection / diffusion prevention shutter 810 vibrates, and for at least about 0.2 to 0.3 seconds until the vibration stops, There is a problem in that it is necessary to wait, and the time of the entire component recognition process becomes long, and the production efficiency of the entire component mounting is lowered.
[0007]
Further, when detecting the nozzle center position before performing position recognition, similarly, since the shutter is driven, it takes time to recognize the suction hole of the nozzle and detect the center position. There was a problem that the production efficiency would decrease.
[0008]
Accordingly, an object of the present invention is to solve the above-described problem, and it is possible to detect the center position of the nozzle in a short time without performing a reflection / diffusion prevention shutter, and to recognize the component in a short time. It is an object of the present invention to provide a component recognition apparatus and method capable of improving the production efficiency of a machine.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is configured as follows.
[0010]
According to the first aspect of the present invention, the component recognition irradiation light is irradiated to the component in a state where the component is sucked to the tip of the component suction nozzle, and the irradiation light is diffused or reflected by the component. In the component recognition apparatus in which the position of the component is recognized based on the transmitted light that is reflected and diffused by the component suction nozzle and transmitted through the component.
When the center position of the nozzle is detected, the irradiation light is irradiated toward the tip of the component suction nozzle without sucking the component at the tip of the component suction nozzle, and when the component is recognized, the tip is sucked to the tip of the component suction nozzle. An irradiating device for irradiating the irradiated light toward the component,
A suction ring center position diffusing ring arranged around the suction hole at the tip of the component suction nozzle for sucking the component and diffusing the irradiation light;
A black irradiation light absorbing portion that absorbs the irradiation light in the region near the component in the region irradiated when the irradiation light is irradiated toward the tip of the component suction nozzle;
At the time of detecting the center position of the nozzle, the irradiation device is configured such that the nozzle is rotated a plurality of times around the nozzle axis at predetermined rotation angles, and the components are not attracted to the tip of the component suction nozzle at each rotation angle. The irradiation light irradiated from the above is the tip of the component suction nozzle For recognition of suction nozzle center position Reflected and diffused by the diffuser ring Reflection The diffused light is received, and at the time of the component recognition, the irradiation light irradiated from the irradiation device is reflected and diffused by the component at the tip of the component suction nozzle while the component is sucked to the tip of the component suction nozzle. Reflection A light receiving device that receives the transmitted light that has been diffused or diffused by the component suction nozzle and transmitted through the component;
When the center position of the nozzle is detected, the light is received by the light receiving device. From the above suction nozzle center position diffusion ring the above Reflection An image of the tip of the component suction nozzle including diffused light is stored for each rotation angle of the nozzle, and at the time of component recognition, the component from the component received by the light receiving device is stored. Reflection An image memory for storing an image of the tip of the component suction nozzle obtained from the diffused light or the transmitted light;
When detecting the center position of the nozzle, based on the image information captured in the image memory, for each rotation angle of the nozzle, For recognition of suction nozzle center position A boundary of the diffusing ring is detected, the center candidate position of the nozzle is calculated based on the detected boundary, and the center position of the nozzle is determined from the center candidate position of the nozzle for each obtained rotation angle of the nozzle. And calculating the correction amount of the posture of the component by recognizing the position of the component based on the obtained center position of the nozzle and the image information captured in the image memory. Equipment,
There is provided a component recognition device characterized by comprising:
[0011]
According to the second aspect of the present invention, the irradiation light absorbing portion is disposed in an area irradiated when the irradiation light is irradiated toward the tip of the component suction nozzle and in the vicinity of the component. And the suction hole of the component suction nozzle and the above For recognition of suction nozzle center position The component recognition device according to the first aspect, which is a portion around the tip portion of the component suction nozzle of the suction nozzle holding device that supports the tip portion other than the diffusion ring and the component suction nozzle in a vertically movable manner, is provided.
[0012]
According to a third aspect of the present invention, the above Suction nozzle The suction nozzle having the diffusion ring for recognizing the center position and the black irradiation light absorbing portion at the tip is a suction nozzle for a large part that sucks a large part, and is arranged separately from the suction nozzle for the large part and the above For recognizing the center position of the suction nozzle that reflects and diffuses the irradiation light, which is arranged around the suction hole at the tip of the suction nozzle for small parts that sucks small parts that are smaller than large parts. Reflection A diffusion ring,
When detecting the center position of each nozzle, the light receiving device rotates the nozzle a plurality of times around the nozzle axis at a predetermined rotation angle, and the component is attached to the tip of the component suction nozzle for each rotation angle. The irradiation light irradiated from the irradiation device in a state in which the component suction nozzle is not sucked is the tip of each component suction nozzle. For recognition of suction nozzle center position Reflected and diffused by the diffuser ring Reflection The diffused light is received, and at the time of the component recognition, the irradiation light irradiated from the irradiation device is reflected by the component at the tip of each component suction nozzle while the component is sucked at the tip of each component suction nozzle. Diffused Reflection The diffused light or the irradiation light is reflected and diffused by each of the component suction nozzles to receive the transmitted light transmitted through the component,
The image memory receives the light received by the light receiving device when detecting the center position of each nozzle. From the diffusion ring for the suction nozzle center position recognition the above Reflection An image of the tip of each component suction nozzle including diffused light is stored for each rotation angle of each nozzle, and at the time of the component recognition, the component from the component received by the light receiving device is stored. Reflection Stores an image of the tip of each component suction nozzle obtained from diffused light or transmitted light,
The arithmetic unit detects the center position of each nozzle based on the image information captured in the image memory for each rotation angle of each nozzle. For recognition of suction nozzle center position Detecting the boundary of the diffusion ring, calculating the center candidate position of each nozzle based on the detected boundary, and obtaining each of the center candidate positions of the nozzles for each rotation angle of the nozzles obtained. The center position of the nozzle is determined, and at the time of the component recognition, the position of the component is recognized based on the determined center position of each nozzle and the image information captured in the image memory, and the amount of correction of the posture of the component A component mounting apparatus according to the first or second aspect is provided that performs the above calculation.
[0013]
According to a fourth aspect of the present invention, the above For recognition of suction nozzle center position The surface of the diffusion ring provides the component recognition device according to any one of the first to third aspects in which the surface of the diffusion ring is roughly finished so as to diffuse the irradiation light.
[0014]
According to the fifth aspect of the present invention, the component recognition irradiation light is irradiated to the component in a state where the component is sucked to the tip of the component suction nozzle, and the irradiation light is reflected or diffused by the component or diffused light. In the component recognition method in which the position of the component is recognized based on the transmitted light that is reflected and diffused by the component suction nozzle and transmitted through the component.
At the time of detecting the center position of the nozzle, the nozzle is rotated a plurality of times around the nozzle axis at a predetermined rotation angle, and the irradiation device does not suck the component at the tip of the component suction nozzle at each rotation angle. Irradiate the irradiation light toward the tip of the component suction nozzle,
In a state where the irradiation light in the region irradiated with the irradiation light toward the tip of the component suction nozzle is absorbed by the black irradiation light absorbing portion in the region near the component. The irradiation light is reflected and diffused by a suction nozzle center position diffusing ring arranged around the suction hole at the tip of the component suction nozzle to be sucked, Reflection The diffused light is received by the light receiving device,
Received by the light receiving device From the above suction nozzle center position diffusion ring the above Reflection An image of the tip of the component suction nozzle including diffused light is stored in an image memory for each rotation angle of the nozzle,
Based on the image information captured in the image memory, for each rotation angle of the nozzle, For recognition of suction nozzle center position A boundary of the diffusing ring is detected, the center candidate position of the nozzle is calculated based on the detected boundary, and the center position of the nozzle is determined from the center candidate position of the nozzle for each obtained rotation angle of the nozzle. While seeking
When the component position is recognized, the irradiation light irradiated from the irradiation device is reflected and diffused by the component at the tip of the component suction nozzle while the component is sucked at the tip of the component suction nozzle. Reflection The diffused light or the irradiation light is reflected and diffused by the component suction nozzle and transmitted through the component is received by the light receiving device,
The above-mentioned components received from the light-receiving device Reflection Store the image of the tip of the component suction nozzle obtained from the diffused light or the transmitted light in the image memory,
Component recognition, wherein the position of the component is recognized based on the obtained center position of the nozzle and the image information captured in the image memory, and the correction amount of the posture of the component is calculated. Provide a method.
[0015]
According to the sixth aspect of the present invention, the irradiation light absorbing portion is disposed in the region irradiated when the irradiation light is irradiated toward the tip of the component suction nozzle and in the vicinity of the component And the suction hole of the component suction nozzle and the above For recognition of suction nozzle center position The component recognition method according to the fifth aspect, which is a portion around the tip portion of the component suction nozzle of the suction nozzle holding device that supports the tip portion other than the diffusion ring and the component suction nozzle in a vertically movable manner.
[0016]
According to the seventh aspect of the present invention, when sucking a large part, Suction nozzle While the suction nozzle having the center position recognition diffusion ring and the black irradiation light absorbing portion at the tip is used as a suction nozzle for large parts, when sucking small parts smaller than the large parts, Use a suction nozzle for small parts having a diffusion ring for center position recognition and small part recognition for reflecting and diffusing the irradiation light,
At the time of detecting the center position of each nozzle, the nozzle is rotated a plurality of times around the nozzle axis at a predetermined rotation angle, and the component is not attracted to the tip of each component suction nozzle at each rotation angle. The irradiation light emitted from the irradiation device is the tip of each component suction nozzle. For recognition of suction nozzle center position Reflected and diffused by the diffuser ring Reflection The diffused light is received by the light receiving device, and at the time of the component recognition, the irradiation light irradiated from the irradiation device in a state where the component is adsorbed to the tip of each component suction nozzle is transmitted to the tip of each component suction nozzle. Reflected and diffused by the above parts Reflection The diffused light or the irradiation light is reflected and diffused by each component suction nozzle and transmitted through the component is received by the light receiving device,
When the center position of each nozzle is detected, the light is received by the light receiving device. From the above suction nozzle center position diffusion ring the above Reflection An image of the tip of each component suction nozzle including diffused light is stored in the image memory for each rotation angle of each nozzle, and at the time of component recognition, the component from the component received by the light receiving device is stored in the image memory. Reflection Store the image of the tip of each component suction nozzle obtained from the diffused light or the transmitted light in the image memory,
At the time of detecting the center position of each nozzle, the arithmetic unit calculates the above for each rotation angle of each nozzle based on the image information captured in the image memory. For recognition of suction nozzle center position Detecting the boundary of the diffusion ring, calculating the center candidate position of each nozzle based on the detected boundary, and obtaining each of the center candidate positions of the nozzles for each rotation angle of the nozzles obtained. The center position of the nozzle is obtained, and at the time of recognition of the part, the arithmetic unit recognizes the position of the part based on the obtained center position of each nozzle and the image information captured in the image memory. The component mounting method according to the fifth or sixth aspect is provided in which a calculation of the correction amount of the posture is performed.
[0017]
According to an eighth aspect of the present invention, For recognition of suction nozzle center position The surface of the diffusion ring is roughened to provide the component recognition method according to any one of the fifth to seventh aspects in which the irradiation light is diffused.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described below in detail with reference to the drawings.
[0019]
As shown in FIG. 1, the component recognition apparatus and method according to an embodiment of the present invention irradiates the component with irradiation light for component recognition in a state where the component is adsorbed to the tip of the component adsorption nozzle. The reflected diffused light reflected or diffused by the component or the transmitted light transmitted through the component is received by a large-field camera 652 and a small-field camera 651 as an example of a light receiving device, and the position of the component is recognized. The nozzle center position is also detected before recognition. Hereinafter, a component mounting apparatus using this component recognition apparatus and method will be described in detail.
[0020]
First, the overall structure of the component mounting apparatus will be described with reference to FIGS. 1 and 2. Reference numeral 1 denotes a support substrate on which a motor 2a that is rotationally driven and an index device that is connected to the motor 2a and positions an intermittent rotational position. 2b, an intermittent rotation drive device 2 having a rotating main shaft 3 protruding below the support substrate 1 and supported by a support cylinder 4 fixed to the lower surface of the support substrate 1 via a bearing 5. It is supported by.
[0021]
A rotating frame 6 is fixed to the lower end portion of the rotating spindle 3, and a plurality of suction nozzles 7 are arranged at an angular pitch corresponding to an indexing rotation angle for positioning the intermittent rotation position of the intermittent rotation driving device 2 on the outer peripheral portion of the rotating frame 6. In this embodiment, for example, a predetermined number of mounting heads 100 as an example of suction nozzle holding devices having five suction nozzles 7, that is, first to fifth suction nozzles 71, 72, 73, 74, and 75, can be moved up and down. Ten pieces are arranged. In each mounting head 100, five first to fifth suction nozzles 71, 72, 73, 74, and 75 are annularly arranged, and the parts 801 and 801 to be sucked are used as the suction holes 7 a of the suction nozzle 7. Corresponding to the size of 806, suction holes 71a, 72a, 73a, 74a, 75a having five types of inner diameters are arranged.
[0022]
A linear guide 8 extends upward from each suction nozzle 7 and is supported by a support block 9 attached to the rotary frame 6 so as to be movable up and down. A cam follower 10 is attached to the upper end portion of the linear guide 8 and is engaged with an elevating groove cam 11 formed on the outer peripheral surface of the support cylinder 4.
[0023]
A component supply station 12 and a component mounting station 13 are disposed at the stop position of each suction nozzle 7 that accompanies intermittent rotation of the rotary frame 6.
[0024]
Thus, as the rotary frame 6 rotates intermittently in the intermittent rotation driving device 2, the suction nozzle 7 sequentially moves through the stations, and the linear guide 8 is interposed by the engagement of the lift groove cam 11 and the cam follower 10. The suction nozzle 7 is located at a height corresponding to each station.
[0025]
Although not shown, the component supply station 12 and the component mounting station 13 are configured such that the suction nozzle 7 can be operated to descend by a predetermined stroke for sucking and mounting components.
[0026]
Next, the configuration of the suction nozzle 7 will be described with reference to FIGS. Reference numeral 14 denotes a head body, in which a rotating body 15 is rotatably arranged around a vertical axis via bearings 16a and 16b. An end face cam 17 having a cam surface 17 a formed at the lower end is attached to the lower end of the head body 14 so as to surround the periphery of the lower portion of the rotating body 15. In the outer peripheral portion of the rotator 15, five outer cylinders 18 are arranged in the vertical direction so as to correspond to a plurality of first to fifth suction nozzles at equal intervals on the same circumference. And are rotatably supported via bearings 19a and 19b, respectively. A gear 20 is fixed to the outer periphery of the upper end portion of the rotating body 15.
[0027]
At the upper end of each outer cylinder 18, a V-shaped groove-like engaging portion 21 for the third motor 603 for rotating the nozzle is formed. Each nozzle shaft 22 of each suction nozzle 7 is inserted into each outer cylinder 18 so as to be movable up and down, and different types of suction nozzle main bodies 23 are mounted on the lower ends of the nozzle shafts 22 so as to be movable up and down within a predetermined range. ing. A spring 24 projects and urges the suction nozzle body 23 so as to be retractable.
[0028]
Engagement pins 25 penetrating in the diametrical direction are provided at the upper end portion of each nozzle shaft 22, and both end portions thereof are engaged with axial engagement grooves 26 formed in the upper end large diameter portion 18 a of each outer cylinder 18. A spring 27 that biases the nozzle shaft 22 upward is interposed between the inner peripheral step surface 18 b of the upper end large diameter portion 18 a and the engagement pin 25.
[0029]
A lower end large diameter portion 22a is formed at the lower end portion of the nozzle shaft 22 protruding from the lower end of the outer cylinder 18, and an engagement means 28 for the end face cam 17 is engaged on the outer peripheral step surface 22b. As shown in FIG. 3, the cam surface 17 a of the end face cam 17 is formed to forcibly lower the engaging means 28 by a predetermined stroke against the urging force of the spring 27 at a predetermined selection position.
[0030]
Thus, when the rotating body 15 is rotated and the nozzle shaft 22 is rotated via the outer cylinder 18, the nozzle shaft 22 is moved up and down by the end face cam 17, and the arbitrary suction nozzle 7 of the five suction nozzles 7 is moved. When the nozzle shaft 22 is located at a predetermined selection position, it is in a lowered position, and at other rotational positions, it is in an elevated position.
[0031]
The engagement means 28 includes a coupling cylinder 29 that is externally fitted to the nozzle shaft 22 and a cam follower 30 that projects from one side thereof. The coupling cylinder 29 is fitted in a frictionally engaged state so as to be relatively rotatable when an external force of a certain level or more is applied to the nozzle shaft 22, and the nozzle shaft 22 is rotated via the engagement pin 25 by rotating the outer cylinder 18. Can be forcibly rotated to an arbitrary rotational position.
[0032]
The cam follower 30 is provided with a roller 31 that engages with the end face cam 17 and a roller 32 outside the roller 31. The outer roller 32 is engaged with a guide cylinder 34 attached to a support column 33 suspended from the lower end of the rotating body 15 in a vertical guide groove 35 formed opposite to each engagement means 28, and the cam follower 30 is rotated integrally with the rotating body 15 and is prevented from rotating around the axis of the outer cylinder 18.
[0033]
Further, an engagement claw 36 that can be engaged with and disengaged from the gear 20 is disposed at a suitable position on the outer peripheral surface of the head main body 14 so as to be swingable around a horizontal support shaft 37 and engages with the engagement claw 36. A spring 38 that biases the position toward the position is provided, and the rotation of the rotating body 15 is releasably restricted.
[0034]
The above-mentioned five types of component suction nozzles 7 are appropriately switched according to the size of the components, and appropriate ones are selected and used.
[0035]
In the case of a small component 801 having a predetermined dimension or less, for example, a square semiconductor chip having a side of 6 mm or a small transistor, a nozzle body around the suction hole 75a of the fifth suction nozzle 75 as shown in FIGS. A white reflection diffusing ring 103 for reflecting and diffusing irradiated light is provided on the lower end surface, and a white reflecting diffusing ring 104 for reflecting and diffusing irradiated light is provided on the lower end surface of the nozzle body around the suction hole 74a of the fourth suction nozzle 74. . On the other hand, the insides of the suction holes 75a and 74a are dark as shown in FIGS. Therefore, as shown in FIG. 10, a halogen light irradiation device which is an irradiation light irradiation device for a small component from below the small component 801 is applied to the small component 801 adsorbed to the suction hole 75a or 74a of the fifth suction nozzle 75. When halogen light, which is component recognition irradiation light, is irradiated from 402, it is reflected and diffused by the white reflective diffusion ring 103 or 104 on the lower end surface of the nozzle body around the suction hole 75a or 74a, and the reflected diffused light is absorbed by the component. The transmitted light that has passed through the lead of the small component 801 adsorbed by the nozzle 75 or 74 is received by the small-field camera 651 for the small component through the lens barrel 650, and the position of the small component 801 is recognized. .
[0036]
On the other hand, in the case of a large-sized component 806 exceeding the predetermined dimension, for example, in the case of a large-sized QFP having a square of 32 mm on one side or a large-sized PLCC (Plastic Leaded Chip Carrier) having a square of 30 mm on one side, FIG. As shown in FIGS. 8 and 11, the irradiation light absorbing portion is such that the irradiation light is absorbed without being reflected and diffused to the lower end surface of the nozzle body around each of the suction holes 71 a to 73 a of the first to third suction nozzles 71 to 73. A black cylindrical member (see FIG. 8) is fitted and fixed to the lower end of each nozzle so as to constitute a black antireflection / diffusion ring 101 as an example. Further, in the lower end surface of the mounting head 100, a portion other than the first to fifth suction nozzles 71 to 75, preferably the suction holes 71a to 75a, is painted black or fitted with a black antireflection diffusion plate. (In FIG. 4, the portion is displayed as a black portion by cross-hatching), and the reflection diffusion preventing portion 107 as an example of the irradiation light absorbing portion is formed. In FIG. 5, in order to clearly show the relationship with each member, the black portion is not displayed by cross hatching as shown in FIG. Therefore, as shown in FIG. 10, for example, a large component 806 sucked into the suction hole 72 a of the second suction nozzle 72 is used for component recognition from the LED 408 that is an irradiation light irradiation device for large components from below the component 806. When irradiated with irradiation light, there is no portion that reflects and diffuses above the lead 806b of the large component 806, and the black reflection diffusion prevention ring 101 or the reflection diffusion prevention portion 107 exists. Only the lead 806b is received, and only the reflected diffused light reflected and diffused from the lead 806b is received by the large-field camera 652 for the large component through the lens barrel 650 so that the position of the large component 806 is recognized. ing.
[0037]
In addition, a suction diffusion nozzle center position recognizing reflection diffusion ring 102 is provided in the vicinity of the center of the reflection diffusion prevention ring 101 provided around each of the suction holes 71a to 73a of the first to third suction nozzles 71 to 73. Provided. Each white reflection diffusion ring 102 is used to calculate the central axes of the first to third suction nozzles 71 to 73, and is arranged concentrically with each nozzle central axis. When being sucked by the third suction nozzles 71 to 73, they are covered with the component main body 806a so that they are irradiated with irradiation light and are not reflected and diffused.
[0038]
The surface of each of the reflection diffusion rings 102, 103, 104 is made to diffuse the irradiation light as unevenness having a roughness of 0.3 μm, for example, as shown by a reflection diffusion ring 102 as a representative example in FIG. It is preferable that the contour of each of the reflection diffusing rings 102, 103, and 104 is raised. In addition, as shown by a reflection diffusion ring 102 as a typical example in FIG. 12B, the reflection diffusion ring 102 is slightly protruded from other portions, for example, by about 0.3 mm, and the irradiation light is also irradiated on the side surface of the reflection diffusion ring 102. The contours of the reflection diffusion rings 102, 103, and 104 may be raised more clearly.
[0039]
Further, as shown in FIG. 12C, the periphery of the nozzle body 23 is a black irradiation light absorbing portion 101a so that the position of both the small component and the large component can be recognized in one suction nozzle 7. The surrounding area may be a white reflection diffusion ring 103a. In this example, the position of the small component is recognized by the transmitted light, while the position of the large component is recognized by the reflected diffused light. Unlike the case of FIG. 4, the large component is positioned by the transmitted light that is reflected and diffused by the white reflective diffusion ring 103a. On the other hand, the position of the small component can be recognized by reflected diffused light from the small component with the black irradiation light absorbing portion 101a as the background.
[0040]
The control device (main machine controller) 700 controls each nozzle center position detection operation, component recognition operation, and mounting operation. Specifically, the control device 700 controls the intermittent rotation drive device 2 (the motor 2a and the index device 2b) via the first driver 701, and the suction nozzle selection motor via the second driver 702. 600 is driven to rotate, and the third motor 603 for rotating the nozzle is controlled to rotate via the third driver 703. Further, the control device 700 constitutes the recognition processing unit 500 of the recognition device, and includes a recognition control unit 501 having a CPU 502 and an image memory 503 as an example of an arithmetic device, and an LUT selection unit having a non-inverted LUT 505 and an inverted LUT 506. Each drive of the camera switching unit 507 is controlled at 504. Further, a memory 520 is connected to the control device 700, and which memory 520 is used is selected from the large-field camera 652 and the small-field camera 651 depending on the type of the suction nozzle 7 to be detected. The component recognition information such as the position recognition information and the component mounting order is stored in advance. Further, the LED 408 and the halogen light irradiation device 402 are connected to the control device 700 and driven and controlled.
[0041]
In the above configuration, an appropriate station, for example, a nozzle, in which driving means, for example, a suction nozzle selection motor 600 (see FIG. 1), in which the rotating frame 6 is intermittently rotated by the intermittent rotation driving device 2 to rotationally drive the gear 20 is disposed. When an arbitrary mounting head 100 stops at the switching station, the engagement claw 36 is pressed and swayed to release the engagement with the gear 20 as required to change the suction nozzle body 23 at the nozzle switching station. Under the control of the control device 700, the suction nozzle selection motor 600 is rotationally driven via the second driver 702, and the gear 20 is rotated by the gear 601 to rotate the rotating body 15. Then, the nozzle shafts 22 of the five suction nozzles 7 rotate around the axis of the rotating body 15 via the outer cylinder 18, and the engagement means 28 and the end face cam 17 disposed at the lower end of the nozzle shaft 22 are engaged. As a result, the nozzle shafts 22 of the five suction nozzles 71 to 75 project and descend sequentially at a predetermined selection position. When the nozzle shaft 22 of the suction nozzle 7 to which the desired suction nozzle body 23 is attached protrudes, the suction nozzle selection motor 600 is stopped, the pressure of the engagement claw 36 is released, and the engagement claw 36 is engaged with the gear 20. And the rotating body 15 is fixed.
[0042]
In this state, when the rotary frame 6 is intermittently rotated by the intermittent rotation driving device 2 and the suction nozzle 7 of the mounting head 100 moves again and reaches the component supply station 12, the linear guide 8 is moved by the action of the cam mechanism. The suction nozzle body 23 sucks the component by being pushed down by a predetermined amount. At this time, if the tip of the suction nozzle main body 23 comes into contact with the component, the suction nozzle main body 23 is urged so as to be retractable by the spring 24, so that it can be smoothly retracted to eliminate the shock during suction. And parts are reliably adsorbed.
[0043]
The suction nozzle 7 that picks up the component moves again by the intermittent rotation of the rotary frame 6 by the intermittent rotation driving device 2. When the suction nozzle 7 is stopped at a rotation position correction station provided with a rotating means, for example, a nozzle rotation motor 603 (see FIG. 1), in front of the component mounting station 13, the position of the component is recognized and the position recognition result is displayed. The nozzle rotation motor 603 engages with the engaging portion 21 at the upper end of the outer cylinder 17 as necessary to correct the rotational position of the adsorbed component, and the outer cylinder 17 is rotated. The suction nozzle body 23 is rotated via the coupling pin 25 and the nozzle shaft 22 to adjust the rotation posture of the sucked component. When the component is in the desired rotation posture, the rotation of the nozzle rotation motor 603 is stopped and the engagement with the engagement portion 21 is released. The rotation posture of this component is maintained as it is because the nozzle shaft 22 is fitted so as not to rotate unless an external force of a certain level or more is applied to the coupling cylinder 29.
[0044]
Thereafter, when the suction nozzle 7 is moved to the component mounting station 13 by intermittent rotation of the rotary frame 6 by the intermittent rotation driving device 2, the linear guide 8 is pushed down by a predetermined amount, the component is pressed against a substrate such as a circuit board, and suction is performed. The parts are mounted by being released. Also at this time, the suction nozzle main body 23 is retracted against the spring 24, so that the impact at the time of mounting can be eliminated.
[0045]
By performing the above operation repeatedly for each suction nozzle 7 of each mounting head 100 installed on the rotary frame 6, the parts are picked up by the component supply station 12 using the optimum type of suction nozzle body 23, After adjusting the rotational posture of each component at the recognition station, the component can be mounted at the component mounting station 13. Hereinafter, the position recognition of the component will be described in detail. Normally, before the position recognition of the component, the suction nozzle center position is detected, and the center position of each suction nozzle 7 in each field of view of the large-field camera 652 and the small-field camera 651 which are examples of the light receiving device is obtained. Thereafter, the position correction amount is obtained by recognizing the position of each component.
[0046]
First, the suction nozzle center detection method in the mounting apparatus will be described with reference to FIG.
[0047]
(First step)
In step # 1, the suction nozzle 7 that is the target of detection of the suction nozzle center position by the intermittent rotation of the rotary frame 6 by the intermittent rotation drive device 2 and that does not pick up the component is moved to the rotational position correction station. In this case, the lens is moved to a predetermined recognition position on a lens barrel 650 including the large-field camera 652 and the small-field camera 651 and is stopped. Here, as described above, depending on the type of the suction nozzle 7 to be detected, information indicating which of the large-field camera 652 and the small-field camera 651 is used is stored in the memory 520 of the control device 700 in advance. Yes. Therefore, the switching information is transmitted from the control device 700 to the camera switching unit 507 based on this information, and the camera switching unit 507 switches the camera. For example, in the case of a suction nozzle for small parts, the small-field camera 651 is switched, and in the case of a suction nozzle for large parts, the large-field camera 652 having a larger field of view than the small-field camera 651 is switched.
[0048]
(Second step)
In step # 2, irradiation light is irradiated from the LED 408 which is an irradiation device to the suction nozzle 7 of the mounting head 100 positioned at the rotational position correction station, and any one of the first to third suction nozzles 71 to 73 is irradiated. In the nozzle, the irradiation light is reflected and diffused by the white reflection diffusion ring 102 at each tip, and the reflection diffusion light is received by the large-field camera 652, while in the fourth suction nozzle 74, the white reflection diffusion ring 104 or fifth in the tip is received. In the suction nozzle 75, the irradiation light is reflected and diffused by the white reflective diffusion ring 103 at the tip, and the reflected diffused light is received by the small field camera 651 for small parts. In each of the received image information at the tip of the suction nozzle, the LUT selection unit 504 makes an image so that the suction hole 7a of the suction nozzle 7 has a brighter brightness than that of the suction hole 7a, that is, the reflection diffusion ring 103 or the reflection diffusion prevention ring 101. After the luminance processing is performed by the luminance inversion LUT (Look-Up Tables) 506 or the non-inversion LUT (Look-Up Tables) 505, the image data from the large-field camera 652 or the small-field camera 651 is used as the image of the recognition control unit 501. Store in the memory 503. In the LUT selection unit 504, based on image information from the large-field camera 652 or the small-field camera 651, the luminance of the suction hole 7a of the suction nozzle 7 is around the suction hole 7a, that is, the reflection diffusion ring 103 or the reflection diffusion prevention ring 101. It is determined whether the brightness is brighter than that. If the luminance of the suction hole 7a is darker than the surrounding luminance, an inversion LUT (Look-Up Tables) 506 is used to use a luminance inversion binarization circuit or to refer to the luminance inversion binarization table. Then, binarization is performed while reversing the image brightness so that the brightness of the suction hole 7a is higher than the surrounding brightness. On the other hand, when the luminance of the suction hole 7a is brighter than the surrounding luminance, a non-inverted LUT (Look-Up Tables) 505 is used to change the luminance as it is without using the binarization circuit without reversing the image luminance. It is binarized by referring to the binarization table. The binarized data is stored in the image memory 503 as the luminance information of the suction hole 7a of the suction nozzle 7 and its surroundings.
[0049]
As an example, FIG. 9 shows a view near the tip of the fifth suction nozzle 75. In FIG. 9, reference numeral 400 denotes a large visual field area recognized by the large visual field camera 652, and 401 denotes a small visual field area recognized by the small visual field camera 651. Since the fifth suction nozzle 75 is for a large component, image information near the tip of the fifth suction nozzle 75 is detected from the large visual field 400, and the suction hole 75a of the fifth suction nozzle 75 is closer to the periphery, that is, than the reflection diffusion ring 103. A state in which the luminance is inverted so that the luminance is bright is shown.
[0050]
(Third step)
In step # 3, as described above, the image information near the nozzle tip is binarized data, that is, pixel information stored in the image memory 503. For example, as shown in FIG. Starting from this pixel PC, the center pixel PC is advanced upward by one pixel to determine whether it is a white pixel. If it is a white pixel, it further advances by one pixel in the same direction, that is, upward, and it is determined whether or not it is a white pixel. If it is a white pixel, it further advances by one pixel in the same direction, that is, upward, and it is determined whether or not it is a white pixel. This process is repeated, and when it is determined that the next pixel is not a white pixel at a certain pixel P1, that is, a black pixel, P1 that is the previous white pixel is set as the first boundary point. The boundary first point P1 is a start point for starting the contour detection of the nozzle suction hole 75a.
[0051]
(4th process)
Subsequently, in step # 3, the surrounding eight neighboring pixels around the pixel of the obtained boundary first point P1 are read clockwise as indicated by an arrow 440, for example, and the white pixel before the black pixel changed to the white pixel is next. The second boundary point P2. Next, the surrounding eight neighboring pixels around the pixel of the obtained boundary second point P2 are read clockwise, for example, as indicated by an arrow 440, and the white pixel in the foreground that changes from the black pixel to the white pixel is read out as the next third boundary. Let it be point P3. Next, the surrounding eight neighboring pixels around the pixel of the third boundary point P3 obtained as described above are read clockwise, for example, as indicated by an arrow 440, and the white pixel in the foreground that changes from the black pixel to the white pixel is read out as the next fourth boundary. Let it be point P4. This process is repeated until the next boundary point returns to the boundary first point P1, and a boundary point sequence is obtained. The operation of step # 4 is also performed by the CPU 502 of the recognition processing unit 501.
[0052]
If the noise PN is mistakenly detected as the boundary first point P1 in the work of step # 3, in other words, the vicinity of the periphery 8 around the pixel of the boundary first point P1 in the work of step # 4. For example, when the pixel is read clockwise as indicated by an arrow 440 and the previous white pixel that changes from the black pixel to the white pixel is detected, but cannot be detected, the CPU 502 previously obtained it as noise. The first boundary point P1 is ignored. Then, the CPU 502 returns to the central pixel PC to perform the operation of step # 3 again, performs the operation of step # 3 in another direction, obtains the first boundary point, and then performs the operation of step # 4. Do.
[0053]
(5th process)
In step # 4, the CPU 502 refers to the coordinates of the boundary point sequence obtained in the process of the fourth step, and updates the variables for recording the minimum and maximum values in the horizontal and vertical directions of the coordinates. When all the boundary points have been detected, the coordinates of the outermost point in the horizontal and vertical directions of the boundary point sequence are obtained in these variables. Then, the CPU 502 sets the midpoint of the horizontal and vertical outermost coordinates of the boundary point sequence as the center coordinate of the current rotation angle of the suction nozzle 75.
[0054]
(6th process)
In step # 5, it is determined whether or not the second to fifth steps have been performed for both the small-field camera 651 and the large-field camera 652. In the above case, the center position detection process is performed for the large-field camera 652, but the process for the small-field camera 651 has not yet been performed, and therefore the camera switching unit 507 performs the small-field camera 651 from the large-field camera 652 in Step # 10. To step # 2 and repeat from the second step to the fifth step. If the second step to the fifth step are performed for both the large-field camera 652 and the small-field camera 651, the process proceeds to step # 6. If only the small-field camera 651 is performed and the large-field camera 652 is not yet performed, the small-field camera 651 is switched to the large-field camera 652 by the camera switching unit 507 in step # 10 and the process returns to step # 2. Repeat from the second step to the fifth step.
[0055]
As described above, the large-field camera 652 and the small-field camera 651 are switched to perform center measurement with the two cameras having different field sizes. If there is an error, it is necessary to correct the error of the center position due to the error of the mounting position based on the result of the center measurement for each nozzle by both the large-field camera 652 and the small-field camera 651. Because there is. In addition, it is only what is said to be a standard part that determines which nozzle to attract to the central measurement target part, and there are many parts other than the standard part to be mounted. . Therefore, since it is undecided what size component each nozzle will pick up, it is necessary to be able to measure the center of each nozzle with both the large-field camera 652 and the small-field camera 651. For this purpose, it is preferable to switch between the large-field camera 652 and the small-field camera 651 and perform center measurement twice with cameras having different field sizes.
[0056]
(Seventh step)
In step # 6, the CPU 502 determines whether or not the first to sixth steps have been performed for the number of suction nozzles 7 mounted on the one mounting head 100 located at the position recognition station. That is, the CPU 502 determines whether or not the first to sixth steps have been performed for all the suction nozzles. If not, the process returns to step # 1, and the unprocessed suction nozzles from the first step to the first step. 6 steps are performed. This is because the first to sixth steps are repeated for all the suction nozzles 7 mounted on the head 100. In the above example, since only the center position of the fifth suction nozzle 75 is detected, the center positions of the first to fourth suction nozzles 71 to 74 are then similarly detected.
[0057]
(8th step)
In Step # 7, the CPU 502 determines whether or not the suction nozzle 7 has been rotated by a predetermined angle to detect the desired number of suction nozzle center position coordinates. If the coordinates of the desired number of suction nozzle center position candidates are not detected, the CPU 502 repeats the operations from the first step to the seventh step until the CPU 502 detects the coordinates of the desired number of suction nozzle center position candidates. Here, whether or not it is rotated by a desired angle is determined, for example, by whether or not it is rotated every 45 degrees, 90 degrees, or 180 degrees and rotated 360 degrees in total. If the suction nozzle is not rotated 360 degrees, the suction nozzle is rotated every 45 degrees, 90 degrees, or 180 degrees in step # 11, and then the process returns to step # 1, and the first to seventh steps are performed. repeat.
[0058]
In the above example, when the center positions of the first to fourth suction nozzles 71 to 74 are similarly detected starting from the fifth suction nozzle 75, the respective nozzles are not rotated. When the center positions of the five suction nozzles 71 to 75 are detected and the center position candidates are obtained, the center position candidates are set as the center position candidates when the rotation angle is 0 degree, and then the nozzle rotation is performed via the third driver 703. The motor 603 is rotated to rotate the nozzle 90 degrees around its axis. And about this rotation angle 90 degree | times, the operation | work of a 1st-7th process is repeated, and the center position candidate in case the rotation angle is 90 degree | times is each calculated | required in the 1st-5th adsorption nozzles 71-75. Next, the nozzle rotating motor 603 is rotated via the third driver 703 to rotate the nozzle further by 90 degrees around its axis. And about this rotation angle 180 degree | times, the operation | work of a 1st-7th process is repeated, and the center position candidate in case the rotation angle is 180 degree | times is calculated | required in the 1st-5th adsorption nozzles 71-75, respectively. Next, the nozzle rotating motor 603 is rotated via the third driver 703 to rotate the nozzle further by 90 degrees around its axis. And about this rotation angle 270 degree | times, the operation | work of a 1st-7th process is repeated, and the center position candidate at the time of a rotation angle 270 degree | times is each calculated | required in the 1st-5th adsorption nozzles 71-75. As a result, the coordinates of the four center position candidates at the rotation angles of 0 degrees, 90 degrees, 180 degrees, and 270 degrees are obtained for each nozzle 7, so that the midpoint of these four coordinates is the center position coordinates of the nozzle. This is stored in the memory 520.
[0059]
(9th step)
In step # 9, the CPU 502 determines whether or not all of the mounting heads 100 have been processed in the first to eighth steps. If there is a mounting head 100 that has not been processed, the mounting head 100 is removed in step # 12. By switching, the processes from the first to the eighth steps are performed for all the suction nozzles 7 of the remaining mounting heads 100. Since the mounting apparatus has ten mounting heads 100, the processing from the first to the eighth steps is performed for all the ten mounting heads 100.
[0060]
As described above, the center positions of all the suction nozzles 7 of all the mounting heads 100 are obtained and stored in the memory 520.
[0061]
After that, when the large component 806 is sucked by the nozzle selected from the first to third suction nozzles 71 to 73 in the component supply station 12 and the nozzle reaches the position recognition station, the nozzle As shown in FIG. 10, the large component 806 adsorbed by the LED irradiates the irradiation light from the LED 408, and the reflected diffused light reflected and diffused by the lead 806b of the large component 806 is received by the large-field camera 652. Position recognition. At this time, in the large visual field of the large visual field camera 652, no reflected diffused light other than the lead 806b is detected in the vicinity of the lead 806b of the large component 806, so that the position of the lead 806b can be accurately recognized.
[0062]
On the other hand, for the small component 801, when the small component 801 is sucked by the nozzle selected from the fourth or fifth suction nozzle 74 or 75 in the component supply station 12, and the nozzle arrives at the position recognition station, the nozzle As shown in FIG. 10, the small component 801 adsorbed on the surface is irradiated with irradiation light from the halogen light irradiation device 402, and the reflected diffused light from the reflection diffusion ring 104 or 103 of the nozzle is reflected on the small component 801. And the transmitted light is received by the small-field camera 651 and the position is recognized with high accuracy.
[0063]
After the position of each component is recognized, the position correction amount of the component is calculated by the CPU 502 in consideration of the center position of the nozzle stored in the memory 520, and the component mounting station in consideration of the calculated correction amount. In step 13, components are mounted on the board.
[0064]
According to the embodiment, in the nozzle center position detection and component position recognition, the tip of the component suction nozzle for large components is provided with the suction nozzle center position recognition reflection diffusion ring 102 for reflecting and diffusing the irradiation light, and Provided with black irradiation light absorbing portions 101 and 107 for absorbing the irradiation light in the region irradiated when the irradiation light is irradiated toward the tip of the component suction nozzle and in the vicinity of the component Reflected diffused light or transmitted light from only a portion that is desired to be reflected and diffused by light can be received by the light receiving device. Therefore, unlike the prior art, a reflection / diffusion prevention shutter is not required, the nozzle center position can be detected in a short time, and component recognition can be performed in a short time, thereby improving the production efficiency of component mounting.
[0065]
In addition, this invention is not limited to the said embodiment, It can implement with another various aspect.
[0066]
For example, in the above-described embodiment, an example in which the suction nozzle 7 is moved up and down by a predetermined amount using the lifting groove cam 11 has been described, but each suction nozzle 7 may be installed at the same height. In the above embodiment, the roller 31 of the cam follower 30 is engaged with the end face cam 17, but a pin guide or a ring may be engaged with the end face cam 17. Furthermore, although the example which installed the suction nozzle 7 in the rotating frame 6 was shown in the said embodiment, you may install in the suction nozzle which moves along arbitrary paths, such as a linear reciprocation.
[0067]
【The invention's effect】
According to the present invention, in nozzle center position detection and component position recognition, the tip of the component suction nozzle is provided with a reflection diffusion ring for suction nozzle center position recognition that reflects and diffuses the irradiation light, and at the tip of the component suction nozzle. A black irradiation light absorbing portion that absorbs the irradiation light in the region irradiated near the component in the region irradiated when the irradiation light is directed toward, and from only the portion that is desired to be reflected and diffused by the irradiation light Reflected diffused light or transmitted light can be received by the light receiving device. Therefore, unlike the prior art, a reflection / diffusion prevention shutter is not required, the nozzle center position can be detected in a short time, and component recognition can be performed in a short time, thereby improving the production efficiency of component mounting.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a component mounting apparatus using a component recognition apparatus and method according to an embodiment of the present invention.
2 is a longitudinal sectional view showing a schematic configuration of the component mounting apparatus of FIG. 1;
FIG. 3 is a longitudinal sectional view of one suction nozzle in the component mounting apparatus of FIG. 1;
4 is a view of a lower end surface of one mounting head of the component mounting apparatus of FIG. 1, and a cross-hatched portion is a black portion. FIG.
5 is a view of the lower end surface of the mounting head in a state in which a large component is sucked by the second suction nozzle among the five suction nozzles of the mounting head of FIG. 4, and a black portion is shown for easy understanding. It is the figure which abbreviate | omitted the cross hatching part which is.
6 is an enlarged vertical sectional view of the lower end of one suction nozzle in the component mounting apparatus of FIG. 1;
7 is an enlarged vertical cross-sectional view of the lower end of another suction nozzle in the component mounting apparatus of FIG. 1;
FIG. 8 is an enlarged vertical sectional view of a reflection / diffusion prevention ring having a reflection / diffusion ring disposed at the lower end of the nozzle.
9 is an explanatory diagram showing a large field of view of a large field camera and a small field of view of a small field camera of the component mounting apparatus of FIG. 1;
10 is a schematic explanatory diagram of the illumination device of the position recognition device of the component mounting device in FIG. 1; FIG.
FIG. 11 is an enlarged schematic view of one suction nozzle tip of the component mounting apparatus of FIG. 1;
12 (A), (B), and (C) are enlarged sectional views of the reflection diffusion ring portion at the tip of the nozzle of the component mounting device of FIG. 1, and FIG. 12 (A) is a reflection diffusion ring portion according to the modification of FIG. It is an expanded sectional view and the expanded sectional schematic diagram of the front-end | tip of the suction nozzle of another modification of the component mounting apparatus of FIG.
13 is a block diagram showing the relationship between the control device of the component mounting device of FIG. 1 and other devices.
14 is a flowchart showing a nozzle center position detection method of the component mounting apparatus of FIG. 1;
FIG. 15 is a diagram illustrating an example of an input image in the nozzle center position detection method, where a black portion indicates a black pixel and a white portion indicates a white pixel.
16 is a partially enlarged view of the input image of FIG.
FIGS. 17A, 17B, and 17C are a perspective view of a conventional position recognition device, an explanatory diagram when recognizing the position of a large component, and an explanatory diagram when recognizing the position of a small component, respectively.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Support substrate, 2 ... Intermittent rotation drive device, 2a ... Motor, 2b ... Index device, 3 ... Rotation main shaft, 4 ... Supporting cylinder, 6 ... Rotating frame (moving body), 7 (71, 72, 73, 74) 75) ... Suction nozzle (first to fifth suction nozzles), 7a (71a, 72a, 73a, 74a, 75a) ... Suction hole, 8 ... Linear guide, 9 ... Support block, 10 ... Cam follower, 11 ... For lifting Groove cam, 12 ... part supply station, 13 ... part mounting station, 14 ... head body, 15 ... rotor, 16a, 16b ... bearing, 17 ... end face cam, 17a ... cam face, 18 ... outer cylinder, 18a ... large upper end Diameter part, 18b ... Inner peripheral step surface, 19a, 19b ... Bearing, 20 ... Gear, 21 ... Engagement part, 22 ... Nozzle shaft, 22a ... Lower end large diameter part, 22b ... Outer peripheral step surface, 23 ... Adsorption nozzle body, 24 ... spring, 25 ... engagement pin 26 ... engaging groove, 27 ... spring, 28 ... engaging means, 29 ... coupling cylinder, 30 ... cam follower, 31 ... roller, 32 ... roller, 33 ... column, 34 ... guide cylinder, 35 ... guide groove, 36 ... engaging claw, 37 ... spindle, 38 ... spring, 100 ... mounting head, 101 ... reflection diffusion prevention ring, 102 ... white reflection diffusion ring, 103, 104 ... reflection diffusion ring, 107 ... reflection diffusion prevention part, 400 ... Large field of view, 401 ... Small field of view, 402 ... Halogen light irradiation device, 408 ... LED, 500 ... Recognition processing unit, 501 ... Recognition control unit, 502 ... CPU, 503 ... Image memory, 504 ... LUT selection unit, 505 ... Non-inverted LUT, 506... Inverting LUT, 507 .. camera switching unit, 520... Memory, 600 .. suction nozzle selection motor, 601... Gear, 603 .. nozzle rotation motor, 650. DESCRIPTION OF SYMBOLS 51 ... Small view camera, 652 ... Large view camera, 700 ... Control apparatus, 701 ... 1st driver, 702 ... 2nd driver, 703 ... 3rd driver, 801 ... Small component, 806 ... Large component, 806a ... Component main body, 806b ... Lead.

Claims (8)

部品吸着ノズル(7)の先端に部品(801,806)を吸着した状態で、上記部品に部品認識用照射光を照射し、該照射光が上記部品で反射拡散した拡散光又は該照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光に基づき上記部品の位置認識を行うようにした部品認識装置において、
上記ノズルの中心位置検出時には上記部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射光を上記部品吸着ノズルの先端に向けて照射するとともに、上記部品認識時には上記部品吸着ノズルの先端に吸着された上記部品に向けて上記照射光を照射する照射装置(402,408)と、
上記部品を吸着する上記部品吸着ノズルの先端の吸引孔(7a)の周囲に配置されて上記照射光を拡散する吸着ノズル中心位置認識用拡散リング(102)と、
上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域の上記照射光を吸収する黒色の照射光吸収部(101,107)と、
上記ノズルの中心位置検出時に、上記ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射装置から照射された上記照射光が上記部品吸着ノズルの先端の上記吸着ノズル中心位置認識用拡散リングで反射拡散した反射拡散光を受光するとともに、上記部品認識時には、上記部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光を受光する受光装置(651,652)と、
上記ノズルの中心位置検出時に、上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記部品吸着ノズルの先端の画像を上記ノズルの回転角度毎に記憶するとともに、上記部品認識時には、上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記部品吸着ノズルの先端の画像を記憶する画像メモリ(503)と、
上記ノズルの中心位置検出時に、上記画像メモリに取り込まれた画像情報を基に、上記ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記ノズルの中心候補位置をそれぞれ演算して求め、求められた上記ノズルの回転角度毎の上記ノズルの中心候補位置から上記ノズルの中心位置を求めるとともに、上記部品認識時に、上記求められた上記ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行う演算装置(502)と、
を備えるようにしたことを特徴とする部品認識装置。
In the state where the component (801, 806) is adsorbed to the tip of the component adsorption nozzle (7), the component recognition irradiation light is irradiated to the component, and the diffused light reflected or diffused by the component or the irradiation light is reflected. In the component recognition apparatus that recognizes the position of the component based on the transmitted light reflected and diffused by the component suction nozzle and transmitted through the component,
When the center position of the nozzle is detected, the irradiation light is irradiated toward the tip of the component suction nozzle without sucking the component at the tip of the component suction nozzle, and when the component is recognized, the tip is sucked to the tip of the component suction nozzle. An irradiating device (402, 408) for irradiating the irradiated light toward the component,
A suction nozzle center position diffusing ring (102) disposed around the suction hole (7a) at the tip of the component suction nozzle for sucking the component and diffusing the irradiation light;
A black irradiation light absorbing portion (101, 107) that absorbs the irradiation light in a region irradiated with the irradiation light toward the tip of the component suction nozzle and in the vicinity of the component;
At the time of detecting the center position of the nozzle, the irradiation device is configured such that the nozzle is rotated a plurality of times around the nozzle axis at predetermined rotation angles, and the components are not attracted to the tip of the component suction nozzle at each rotation angle. The reflected light diffused from the diffused ring for recognizing the suction nozzle center at the tip of the component suction nozzle is received by the irradiation light emitted from the component suction nozzle, and the component is placed at the tip of the component suction nozzle during the component recognition. Reflected diffused light that is reflected and diffused by the component at the tip of the component suction nozzle or the irradiated light is reflected and diffused by the component suction nozzle and transmitted through the component. A light receiving device (651, 652) for receiving the transmitted light,
When detecting the center position of the nozzle, an image of the tip of the component suction nozzle including the reflected diffused light from the suction nozzle center position recognition diffusion ring received by the light receiving device is stored for each rotation angle of the nozzle. And at the time of the said component recognition, the image memory (503) which memorize | stores the image of the front-end | tip of the said component adsorption nozzle obtained from the said reflected diffused light from the said components received by the said light-receiving device or the said transmitted light,
At the time of detecting the center position of the nozzle, based on the image information captured in the image memory, the boundary of the diffusion ring for recognizing the suction nozzle center position is detected for each rotation angle of the nozzle, and the detected boundary is The nozzle center candidate position is calculated based on each of the nozzles, and the nozzle center position is determined from the nozzle center candidate positions for each of the determined nozzle rotation angles. An arithmetic unit (502) for recognizing the position of the component based on the center position of the nozzle and the image information captured in the image memory and calculating the correction amount of the posture of the component;
A component recognition device characterized by comprising:
上記照射光吸収部が配置される、上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域とは、上記部品吸着ノズルの上記吸引孔(7a)及び上記吸着ノズル中心位置認識用拡散リング以外の先端部分及び上記部品吸着ノズルを上下動可能に支持する吸着ノズル保持装置(100)の上記部品吸着ノズルの先端部分の周囲の部分である請求項1に記載の部品認識装置。In the region irradiated with the irradiation light toward the tip of the component suction nozzle where the irradiation light absorption unit is disposed, the region near the component is the suction of the component suction nozzle A tip portion other than the hole (7a) and the diffusion nozzle for recognizing the center position of the suction nozzle and a portion around the tip portion of the component suction nozzle of the suction nozzle holding device (100) that supports the component suction nozzle so as to move up and down. The component recognition apparatus according to claim 1. 上記吸着ノズル中心位置認識用拡散リング(102)と上記黒色の照射光吸収部(101)とを先端に有する上記吸着ノズルは大型部品を吸着する大型部品用吸着ノズル(71,72,73)である一方、上記大型部品用吸着ノズルとは別に配置されかつ上記大型部品よりも小さい小型部品を吸着する小型部品用吸着ノズル(74,75)の先端の吸引孔(74a,75a)の周囲に配置されて上記照射光を反射拡散する吸着ノズル中心位置認識用兼小型部品認識用反射拡散リング(103,104)をさらに備え、
上記受光装置(651,652)は、上記各ノズルの中心位置検出時に、上記各ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記各部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射装置から照射された上記照射光が上記各部品吸着ノズルの先端の上記吸着ノズル中心位置認識用拡散リングで反射拡散した反射拡散光を受光するとともに、上記部品認識時には、上記各部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記各部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記各部品吸着ノズルで反射拡散されて上記部品を透過した透過光を受光し、
上記画像メモリ(503)は、上記各ノズルの中心位置検出時に、上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記各部品吸着ノズルの先端の画像を上記各ノズルの回転角度毎に記憶するとともに、上記部品認識時には、上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記各部品吸着ノズルの先端の画像を記憶し、
上記演算装置(502)は、上記各ノズルの中心位置検出時に、上記画像メモリに取り込まれた画像情報を基に、上記各ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記各ノズルの中心候補位置をそれぞれ演算して求め、求められた上記各ノズルの回転角度毎の上記各ノズルの中心候補位置から上記各ノズルの中心位置を求めるとともに、上記部品認識時に、上記求められた上記各ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行うようにした請求項1又は2に記載の部品実装装置。
The suction nozzle center position recognition diffusion ring (102) and the large parts for the suction nozzle the suction nozzle with the irradiation light absorbing portions of the black and (101) to the tip of adsorbing large parts (71, 72, 73) On the other hand, around the suction hole (74a, 75a) at the tip of the suction nozzle for small parts (74, 75), which is arranged separately from the suction nozzle for large parts and sucks small parts smaller than the large parts. It further comprises a reflection diffusion ring (103, 104) for recognizing and diffusing the irradiation light for suction nozzle center position and small component recognition,
The light receiving device (651, 652) rotates each nozzle a plurality of times around the nozzle axis at a predetermined rotation angle when detecting the center position of each nozzle, and each component suction nozzle at each rotation angle. While receiving the reflected diffused light reflected and diffused by the suction nozzle center position recognition diffusion ring at the tip of each component suction nozzle, the irradiation light irradiated from the irradiation device in a state where the component is not attracted to the tip of the component, At the time of component recognition, reflected diffused light obtained by reflecting and diffusing the irradiation light irradiated from the irradiation device with the component adsorbed to the tip of each component suction nozzle by the component at the tip of each component suction nozzle or the above Irradiation light is reflected and diffused by each of the component suction nozzles and receives the transmitted light transmitted through the component,
The image memory (503) is an image of the tip of each component suction nozzle including the reflected diffused light from the suction nozzle center position recognition diffusion ring received by the light receiving device when detecting the center position of each nozzle. Is stored for each rotation angle of each nozzle, and at the time of component recognition, an image of the tip of each component suction nozzle obtained from the reflected diffused light or transmitted light from the component received by the light receiving device is obtained. Remember,
The arithmetic unit (502) detects the boundary of the suction nozzle center position recognition ring for each rotation angle of each nozzle based on the image information captured in the image memory when detecting the center position of each nozzle. The center candidate position of each nozzle is calculated and calculated based on the detected boundary, and the center position of each nozzle is determined from the determined center candidate position of each nozzle for each rotation angle of each nozzle obtained. At the time of component recognition, the position of the component is recognized based on the obtained center position of each nozzle and the image information captured in the image memory, and the correction amount of the posture of the component is calculated. The component mounting apparatus according to claim 1 or 2, wherein the component mounting apparatus is configured as described above.
上記吸着ノズル中心位置認識用拡散リングの表面は、上記照射光の拡散させるように粗く仕上げられている請求項1〜3のいずれかに記載の部品認識装置。The component recognition apparatus according to claim 1, wherein a surface of the suction nozzle center position recognizing diffusion ring is roughly finished so as to diffuse the irradiation light. 部品吸着ノズル(7)の先端に部品(801,806)を吸着した状態で、上記部品に部品認識用照射光を照射し、該照射光が上記部品で反射拡散した反射拡散光又は該照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光に基づき上記部品の位置認識を行うようにした部品認識方法において、
上記ノズルの中心位置検出時に、上記ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記部品吸着ノズルの先端に上記部品を吸着しない状態で照射装置(402,408)から上記照射光を上記部品吸着ノズルの先端に向けて照射し、
上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域の上記照射光を黒色の照射光吸収部(101,107)により吸収する状態で、上記部品を吸着する上記部品吸着ノズルの先端の吸引孔(7a)の周囲に配置された吸着ノズル中心位置認識用反射拡散リング(102)により上記照射光を反射拡散し、その反射拡散光を受光装置(651,652)で受光し、
上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記部品吸着ノズルの先端の画像を上記ノズルの回転角度毎に画像メモリ(503)に記憶し、
上記画像メモリに取り込まれた画像情報を基に、上記ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記ノズルの中心候補位置をそれぞれ演算して求め、求められた上記ノズルの回転角度毎の上記ノズルの中心候補位置から上記ノズルの中心位置を求める一方、
上記部品位置認識時には、上記部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記部品吸着ノズルで反射拡散されて上記部品を透過した透過光を上記受光装置(651,652)で受光し、
上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記部品吸着ノズルの先端の画像を上記画像メモリ(503)に記憶し、
上記求められた上記ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行うようにしたことを特徴とする部品認識方法。
In the state where the component (801, 806) is sucked to the tip of the component suction nozzle (7), the component recognition irradiation light is irradiated to the component, and the reflected diffused light or the irradiation light reflected and diffused by the component. In the component recognition method in which the position of the component is recognized based on the transmitted light reflected and diffused by the component suction nozzle and transmitted through the component.
At the time of detecting the center position of the nozzle, the nozzle is rotated a plurality of times around the nozzle axis at a predetermined rotation angle, and the irradiation device (without the component being attracted to the tip of the component suction nozzle at each rotation angle) 402, 408) irradiates the irradiation light toward the tip of the component suction nozzle,
A state in which the irradiation light in the region irradiated with the irradiation light toward the tip of the component suction nozzle is absorbed by the black irradiation light absorption unit (101, 107) in the vicinity of the component Then, the irradiation light is reflected and diffused by a reflection diffusion ring (102) for recognizing the center position of the suction nozzle disposed around the suction hole (7a) at the tip of the component suction nozzle for sucking the component, and the reflected diffuse light Is received by the light receiving device (651, 652),
An image of the tip of the component suction nozzle including the reflected diffused light from the diffusion nozzle for recognizing the suction nozzle center position received by the light receiving device is stored in an image memory (503) for each rotation angle of the nozzle,
Based on the image information captured in the image memory, a boundary of the suction nozzle center position recognition diffusion ring is detected for each rotation angle of the nozzle, and the center candidate position of the nozzle is determined based on the detected boundary. While calculating and calculating each, and determining the center position of the nozzle from the nozzle center candidate position for each determined rotation angle of the nozzle,
At the time of recognition of the position of the component, the reflected diffused light that is reflected and diffused by the component at the tip of the component suction nozzle or the irradiation light irradiated from the irradiation device in a state where the component is sucked to the tip of the component suction nozzle The light that is reflected and diffused by the component suction nozzle and transmitted through the component is received by the light receiving device (651, 652),
An image of the tip of the component suction nozzle obtained from the reflected diffused light or the transmitted light from the component received by the light receiving device is stored in the image memory (503),
Component recognition, wherein the position of the component is recognized based on the obtained center position of the nozzle and the image information captured in the image memory, and the correction amount of the posture of the component is calculated. Method.
上記照射光吸収部が配置される、上記部品吸着ノズルの先端に向けて上記照射光を照射したときに照射される領域内であって上記部品付近の領域とは、上記部品吸着ノズルの上記吸引孔(7a)及び上記吸着ノズル中心位置認識用拡散リング以外の先端部分及び上記部品吸着ノズルを上下動可能に支持する吸着ノズル保持装置(100)の上記部品吸着ノズルの先端部分の周囲の部分である請求項5に記載の部品認識方法。In the region irradiated with the irradiation light toward the tip of the component suction nozzle where the irradiation light absorption unit is disposed, the region near the component is the suction of the component suction nozzle A tip portion other than the hole (7a) and the diffusion nozzle for recognizing the center position of the suction nozzle and a portion around the tip portion of the component suction nozzle of the suction nozzle holding device (100) that supports the component suction nozzle so as to move up and down. The component recognition method according to claim 5. 大型部品を吸着するときには、上記吸着ノズル中心位置認識用拡散リング(102)と上記黒色の照射光吸収部(101)とを先端に有する上記吸着ノズルを大型部品用吸着ノズル(71,72,73)として使用する一方、上記大型部品よりも小さい小型部品を吸着するときには、吸引孔(74a,75a)の周囲に上記照射光を反射拡散する吸着ノズル中心位置認識用兼小型部品認識用反射拡散リング(103,104)を有する小型部品用吸着ノズル(74,75)を使用し、
上記各ノズルの中心位置検出時に、上記各ノズルをそのノズル軸回りに所定回転角度毎に複数回回転させて、各回転角度毎に、上記各部品吸着ノズルの先端に上記部品を吸着しない状態で上記照射装置から照射された上記照射光が上記各部品吸着ノズルの先端の上記吸着ノズル中心位置認識用拡散リングで反射拡散した反射拡散光を上記受光装置(651,652)により受光するとともに、上記部品認識時には、上記各部品吸着ノズルの先端に上記部品を吸着した状態で上記照射装置から照射された上記照射光を上記各部品吸着ノズルの先端の上記部品で反射拡散した反射拡散光又は上記照射光が上記各部品吸着ノズルで反射拡散されて上記部品を透過した透過光を上記受光装置(651,652)により受光し、
上記各ノズルの中心位置検出時に、上記受光装置で受光された上記吸着ノズル中心位置認識用拡散リングからの上記反射拡散光を含む上記各部品吸着ノズルの先端の画像を上記各ノズルの回転角度毎に上記画像メモリ(503)で記憶するとともに、上記部品認識時には、上記受光装置で受光された上記部品からの上記反射拡散光又は上記透過光から得られる上記各部品吸着ノズルの先端の画像を上記画像メモリ(503)で記憶し、
上記各ノズルの中心位置検出時に、上記演算装置(502)により、上記画像メモリに取り込まれた画像情報を基に、上記各ノズルの回転角度毎に、上記吸着ノズル中心位置認識用拡散リングの境界を検出し、検出された上記境界に基づき上記各ノズルの中心候補位置をそれぞれ演算して求め、求められた上記各ノズルの回転角度毎の上記各ノズルの中心候補位置から上記各ノズルの中心位置を求めるとともに、上記部品認識時に、上記演算装置(502)により、上記求められた上記各ノズルの中心位置及び上記画像メモリに取り込まれた画像情報を基に上記部品の位置認識を行い上記部品の姿勢の補正量の演算を行うようにした請求項5又は6に記載の部品実装方法。
When the adsorption of large parts, the suction nozzle center position recognition diffusion ring (102) and the suction nozzle large components for the suction nozzle (71, 72 a with irradiation light absorbing portions of the black and (101) at the distal end, 73) On the other hand, when a small part smaller than the large part is sucked, the suction nozzle center position recognizing / reflecting diffused part for recognizing the irradiation light around the suction holes (74a, 75a) is reflected. Using a small component suction nozzle (74, 75) having a ring (103, 104),
At the time of detecting the center position of each nozzle, the nozzle is rotated a plurality of times around the nozzle axis at a predetermined rotation angle, and the component is not attracted to the tip of each component suction nozzle at each rotation angle. The light receiving device (651, 652) receives reflected diffused light, which is reflected and diffused by the suction nozzle center position recognizing diffusion ring at the tip of each component suction nozzle, by the light receiving device (651, 652). At the time of component recognition, the reflected diffused light or the irradiation is obtained by reflecting and diffusing the irradiation light irradiated from the irradiation device with the component adsorbed to the tip of each component adsorption nozzle by the component at the tip of each component adsorption nozzle. The light that is reflected and diffused by each component suction nozzle and transmitted through the component is received by the light receiving device (651, 652),
When detecting the center position of each nozzle, an image of the tip of each component suction nozzle including the reflected diffused light from the suction nozzle center position diffusing ring received by the light receiving device is displayed for each rotation angle of each nozzle. The image memory (503) stores the image of the tip of each component suction nozzle obtained from the reflected diffused light or transmitted light from the component received by the light receiving device when the component is recognized. Store in the image memory (503),
At the time of detecting the center position of each nozzle, based on the image information taken into the image memory by the arithmetic unit (502), the boundary of the diffusion ring for recognizing the suction nozzle center position for each rotation angle of each nozzle The center candidate position of each nozzle is calculated and calculated based on the detected boundary, and the center position of each nozzle is determined from the determined center candidate position of each nozzle for each rotation angle of each nozzle obtained. When the component is recognized, the arithmetic unit (502) recognizes the position of the component based on the obtained center position of each nozzle and the image information captured in the image memory. The component mounting method according to claim 5 or 6, wherein the posture correction amount is calculated.
上記吸着ノズル中心位置認識用拡散リングの表面は粗く仕上げられて、上記照射光を拡散させるようにしている請求項5〜7のいずれかに記載の部品認識方法。The component recognition method according to claim 5, wherein a surface of the suction nozzle center position recognizing diffusion ring is roughened to diffuse the irradiation light.
JP26295198A 1998-09-17 1998-09-17 Component recognition apparatus and method Expired - Fee Related JP4150448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26295198A JP4150448B2 (en) 1998-09-17 1998-09-17 Component recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26295198A JP4150448B2 (en) 1998-09-17 1998-09-17 Component recognition apparatus and method

Publications (2)

Publication Number Publication Date
JP2000088522A JP2000088522A (en) 2000-03-31
JP4150448B2 true JP4150448B2 (en) 2008-09-17

Family

ID=17382825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26295198A Expired - Fee Related JP4150448B2 (en) 1998-09-17 1998-09-17 Component recognition apparatus and method

Country Status (1)

Country Link
JP (1) JP4150448B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4516220B2 (en) * 2001-01-15 2010-08-04 富士機械製造株式会社 Relative positional relationship acquisition method and electrical component mounting system for component mounting accuracy related parts
EP1477274B1 (en) * 2003-05-16 2008-09-10 Traub Drehmaschinen GmbH & Co. KG Machine tool
WO2008115532A1 (en) * 2007-03-20 2008-09-25 Cyberoptics Corporation Method for measuring center of rotation of a nozzle of a pick and place machine using a collimated laser beam
CN109814025A (en) * 2019-03-18 2019-05-28 烟台睿创微纳技术股份有限公司 Equipment that a kind of pair of wafer is tested, method and system

Also Published As

Publication number Publication date
JP2000088522A (en) 2000-03-31

Similar Documents

Publication Publication Date Title
US6317972B1 (en) Method for mounting and inspecting the mounting of electric components
JP4616514B2 (en) Electrical component mounting system and position error detection method therefor
KR101623598B1 (en) Alignment apparatus for semiconductor wafer
KR920000989B1 (en) Device for mounting electronic component
JP4558112B2 (en) LIGHTING DEVICE FOR COMPONENT MOUNTING DEVICE AND COMPONENT MOUNTING DEVICE HAVING THE LIGHTING DEVICE
CN1227518A (en) Workpiece inspection and handling
JP4150448B2 (en) Component recognition apparatus and method
CN215844315U (en) Sorting equipment capable of automatically feeding and discharging
JP2002144267A (en) Electric part sucking nozzle, magnification detection method and sucking position detection method
CN115561261B (en) Side edge detection device and optical detection method thereof
CN112083013A (en) Integrated visual detection equipment
JP4715009B2 (en) How to recognize workpiece reference marks
JPH10326807A (en) Solder ball mount equipment
US6649926B2 (en) Suction nozzle, and electric-component-position detecting apparatus
JPH0451600A (en) Mounting method for component
JP3623982B2 (en) Electronic component automatic placement equipment
JPH09186491A (en) Parts vacuum-suction state confirming method in parts mounting apparatus and its apparatus
JPH0585844B2 (en)
JP3500255B2 (en) Mask device and solder transfer device for solder transfer device
JPH0786797A (en) Detection equipment of mounted component
CN218974154U (en) Appearance detection device
KR19980022944A (en) Electronic Component Mounting Device
JP3901804B2 (en) Component mounting head and component mounting device
JP2002110745A (en) Component recognition control method and component recognition control apparatus
JP3263538B2 (en) Recognition device and nozzle position recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071226

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees