JP3954378B2 - Image processing method and component mounting apparatus using the same - Google Patents

Image processing method and component mounting apparatus using the same Download PDF

Info

Publication number
JP3954378B2
JP3954378B2 JP2001400038A JP2001400038A JP3954378B2 JP 3954378 B2 JP3954378 B2 JP 3954378B2 JP 2001400038 A JP2001400038 A JP 2001400038A JP 2001400038 A JP2001400038 A JP 2001400038A JP 3954378 B2 JP3954378 B2 JP 3954378B2
Authority
JP
Japan
Prior art keywords
image data
focus
component
ccd camera
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001400038A
Other languages
Japanese (ja)
Other versions
JP2003196643A (en
Inventor
幸三 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamagata Casio Co Ltd
Original Assignee
Yamagata Casio Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamagata Casio Co Ltd filed Critical Yamagata Casio Co Ltd
Priority to JP2001400038A priority Critical patent/JP3954378B2/en
Publication of JP2003196643A publication Critical patent/JP2003196643A/en
Application granted granted Critical
Publication of JP3954378B2 publication Critical patent/JP3954378B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P70/00Climate change mitigation technologies in the production process for final industrial or consumer products
    • Y02P70/50Manufacturing or production processes characterised by the final manufactured product

Description

【0001】
【発明の属する技術分野】
本発明は、回路基板に電子部品を搭載する部品搭載装置における部品認識カメラの分解能を実際よりも見かけ上向上させる画像処理方法及びそれを用いた部品搭載装置に関する。
【0002】
【従来の技術】
従来より、自装置内に自動搬入される回路基板(以下、単に基板という)上に例えばIC、抵抗、コンデンサ等の多数の電子部品(以下、単に部品という)を自動的に搭載する部品搭載装置がある。
【0003】
図5(a) は、そのような部品搭載装置の外観を示す斜視図であり、同図(b) はその上下の保護カバーを取り除いて内部の構成を模式的に示す斜視図である。同図(a),(b) に示す部品搭載装置(以下、本体装置ともいう)1は、天井カバー上部にCRTディスプレイからなるモニタ装置2と、稼動状態を報知する警報ランプ3を備えている。また、上部保護カバー4の前面には、液晶ディスプレイとタッチパネルからなり外部からの操作により各種の指示を入力することができる小型の表示入力パネル5が配設されている。
【0004】
下部の基台6の上には、中央に、固定と可動の1対の平行する基板案内レール7及び7が回路基板(以下、単に基板という)の搬送方向(X軸方向、図の斜め右下から斜め左上方向)に水平に延在して配設される。これらの基板案内レール7の下部に接して、ループ状の搬送ベルト(コンベアベルト)が走行可能に配設される。搬送ベルトは、それぞれ数ミリ幅のベルト脇部を基板案内レール7の下から基板搬送路に覗かせて、ベルト駆動モータにより駆動され、基板搬送方向に走行し、基板の裏面両側を下から支持しながら装置本体内に部品搭載前の基板をライン上流側から搬入し、部品搭載済みの基板をライン下流側に搬出する。
【0005】
そして、基台6の内部には、特には図示しないが、基板の位置決め装置、基板を2本の基板案内レール7間に固定する基板固定機構、各部を制御するための制御装置等が備えられている。
また、更に基台6の上には、上記1対の基板案内レール7を跨いで、基板搬送方向に直角の方向(前後方向)に平行に延在する左右一対の固定レール(Y軸レール)8及び8が配設されている。これらY軸レール8に移動レール(X軸レール)9がY軸レール8に沿って滑動自在に係合し、このX軸レール9に、電子部品(以下、単に部品という)を基板に搭載する作業を行う作業ヘッド10がX軸レール9に沿って滑動自在に懸架されている。
【0006】
同図(a),(b) では定かに示していないが、上記のX軸レール9には、その長手方向(X軸方向)に沿って作業ヘッド10を自在に移動させる不図示のX軸モータが配設され、基台6上には、X軸レール9をY軸レール8に沿って前後(Y軸方向)に進退させるこれも不図示のY軸モータが配設されている。これらのX軸モータ及びY軸モータが制御回路からの指示により正逆両方向に自在に回転することにより、作業ヘッド9がX軸方向及びY軸方向に自在に移動する。
【0007】
この基台6上の前部と後部には夫々部品供給ステージ11及び11が配設されている。これら部品供給ステージ11には、特には図示しないが、部品を収納したテープを巻着したリールを備えたカートリッジ方式の多数の部品供給装置が複数種類の部品に対応して載設され、あるいは複数種類の部品に対応する複数枚のパレットを備えたトレイ方式の部品供給装置等が係合する。
【0008】
この作業塔10は、屈曲自在で内部が空洞な帯状のチェーン体12(12−1、12−2)に保護・収容された複数本の不図示の信号コードを介して装置本体1の基台6内部の電装部マザーボード上に配設されている中央制御部と連結されている。作業塔10は、これらの信号コードを介して中央制御部からは電力及び制御信号を供給され、中央制御部へは基板上の部品搭載位置の情報を示す画像データを送信する。
【0009】
図6は、上記作業ヘッド10の斜視図である。同図に示すように、作業ヘッド10は、上述したように可撓性の帯状コード12−1(及び図5(b) に示した帯状コード12−2)によって装置本体の中央制御部と連結されており、先端には2個の搭載ヘッド13及び13と、基板認識用カメラ14を備えている。2個の搭載ヘッド13は、それぞれZ軸方向(上下方向)に昇降可能であり、その先端にそれぞれ照明装置15と更にその先端に吸着ノズル16を装着している。吸着ノズル16は、光拡散板16−1とノズル16−2とからなりθ軸方向(360°方向)に回転可能である。
【0010】
上記の作業ヘッド10は、上述した二本のY軸レール8と1本のX軸レール9により前後左右に自在に移動し、図5(b) に示した部品供給ステージ11上の不図示の部品供給装置から吸着ノズル16で部品を吸着して基台6側に配置されている図5(b) に示すの部品認識用カメラ17上に移動する。
【0011】
そして、照明装置15で光拡散板16−1を上から照明して均一な明るさの背景光を光拡散板16−1から拡散させ、この背景光の中に浮き出る部品を部品認識用カメラ17で撮像して部品の保持位置偏差を検出し、この検出した保持位置偏差に基づいて搭載位置データを補正する。
【0012】
更に、基板認識用カメラ14で図5(a),(b) に示す基板案内レール7によって位置決めされている不図示の基板の位置を確認して、その基板上の所定の位置に上記の部品を搭載する。
通常、上記の部品認識用カメラ17にはCCDカメラが用いられる。このCCDカメラから出力されるアナログ画像データをA/D変換器でデジタル画像データに変換してから画像認識を行う。したがって、撮像した画像の分解能は、撮像に使用するCCDカメラの画素(CCD素子)の密度に依存することになる。
【0013】
図7(a),(b) は部品の大きさに対して部品認識用カメラの解像度が比較的粗い場合に得られる撮像画像の例を説明する図である。同図(a),(b) は縦軸に撮像対象の部品面から反射される光の強さ、つまりCCD素子の出力を示している。
同図(a) はCCDカメラのCCD素子面に結像された映像に対して想定される連続的にアナログ走査された場合の背景映像21と部品映像22に対するCCD出力を示す図である。
【0014】
しかし、CCDカメラにより撮像される画像データは上述したようにCCD素子の密度(図7(a),(b) に示す素子の配設間隔S)に依存したサンプリング間隔での撮像データであり、連続的にアナログ走査による撮像データではない。
一般的にサンプリングの定理より、サンプリング間隔をTとすると、サンプリングされたデータとしては、1/2T の周波数成分しか取得することはできない。したがって、CCD素子の配設間隔以上の分解能を得ることは難しい。このため、例えば図7(a) に示す傾きの激しい部分のデータが、同図(b) に示すように傾きの緩やかなデータに変換される。
【0015】
同図(a) に示す例では、画素密度すなわちCCD素子の配設間隔Sは、部品のエッジE1及びE2よりも大きい。そして、実際のCCDカメラの出力は、部品のエッジE1及びE2を正しく撮像することはできず、同図(b) に示すように、CCD素子の配設間隔S(=サンプリング間隔S)に基づいて、上記のサンプリング定理によって取得されたエッジE1´及びE2´のように許容差の大きいエッジ撮像データとなって認識される。
【0016】
【発明が解決しようとする課題】
ところで、近年、部品の小型化が進み、搭載部品の中に小型の部品が多く含まれるようになると、部品認識用カメラの解像度にも、より細かな解像度が要求される場合が多い。
【0017】
さもないと、つまり小さな部品に対して解像度が粗いと、上述したように部品を画像認識する際に、図7(b) に示すように部品のエッジ位置の許容差が大きくなり、部品のエッジ位置を正しく認識できなくなる。そうすると、部品全体にたいする位置認識が不正確になり正しい位置の補正ができなくなる。そして、正しい位置の補正ができないと、基板の搭載位置に正しく搭載できず、不良基板ユニットが生産されることになり、歩留まりが低下する。
【0018】
この問題に対処するには、つまり、サイズの非常に小さな部品を認識するためには、カメラのレンズの倍率を上げるか、あるいはCCD素子数のより多いCCDカメラを用いることが必要となる。
しかしながらカメラのレンズの倍率を上げる方法は、撮像画像全体の視野を狭くすることになるため大きな部品が認識できなくなるという問題を有している。他方、CCD素子数を増やす方法は、撮像された画像データの増加、その画像データの転送時間の増加、CCDカメラのコストの増加という種々の問題がもたらされて好ましくない。
【0019】
本発明の課題は、上記従来の実情に鑑み、カメラのCCD素子数を増やすことなく部品の認識精度を向上させる画像処理方法及びそれを用いた部品搭載装置を提供することである。
【0020】
【課題を解決するための手段】
先ず、請求項1記載の発明の画像処理方法は、実際の焦点深度よりも所定範囲だけ浅い焦点深度で対象物を撮像して焦点の甘いピンボケ画像データを取得する工程と、取得されたピンボケ画像データをデジタル画像データに変換する工程と、変換されたデジタル画像データを補間して補間画像データを生成する工程と、補間画像データに基づき実際の画像データに近似させるフィルタ演算工程と、を含んで構成される。
【0021】
次に、請求項2記載の発明の部品搭載装置は、部品供給装置から電子部品を取り出して保持し該保持した電子部品を回路基板上に移載する途上において上記電子部品を画像認識して位置補正し該位置補正した電子部品を上記回路基板の所定の位置に搭載する部品搭載装置であって、実際の焦点深度よりも所定範囲だけ浅い焦点深度で電子部品を撮像して焦点の甘いピンボケ画像データを取得するピンボケ画像データ取得手段と、該ピンボケ画像データ取得手段により取得されたピンボケ画像データをデジタル画像データに変換する画像データ変換手段と、該画像データ変換手段により変換されたデジタル画像データを補間して補間画像データを生成する画像データ補間手段と、該画像データ補間手段により生成された補間画像データに基づいて実際の焦点深度にて撮像した画像データに近似させるフィルタ演算手段と、を備えて構成される。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照しながら説明する。
図1は、一実施の形態における部品搭載装置の機構主用部の構成を模式的に示す図である。同図に示す部品搭載装置20において、外観及び内部の機構部分の構成は、図5(a) に示した部品搭載装置1の外観、及び図5(b) ならびに図6に示した内部機構部分の構成とほぼ同様である。
【0023】
図1に示すXYZθロボット21は、作業ヘッド22と、この作業ヘッド22を、図の矢印X及びYで示すように水平X軸方向及び水平Y軸方向に移動自在に支持する支持部23と、作業ヘッド22に設けられ、矢印Zで示すように上下に昇降自在な搭載ヘッド24と、この搭載ヘッド24先端に装着され、矢印θで示すように水平360度方向に回転自在な吸着ノズル25とで構成される。
【0024】
上記の作業ヘッド22のX軸方向とY軸方向の移動、搭載ヘッド24のZ軸方向の移動、吸着ノズル25の360度方向の回転は、それぞれ専用の不図示のアクチュエータによって行われる。
また、上記作業ヘッド22が不図示の部品供給装置から部品26を吸着ノズル25で吸着して、この吸着した部品26を不図示の基板上に移載すべく移動する経路上には、上記部品26を下方から撮像するCCDカメラ27が部品搭載装置本体側に配設されている。CCDカメラ27は、レンズ28とCCDが配置されている撮像部29とから成る。このCCDカメラ27は撮像部29に配設されているCCDの画素の配設密度が通常の、つまり特に画素が多いというわけではない通常のCCDカメラである。
【0025】
図2は、上記の構成において不図示の中央制御装置によって制御される部品26に対する画像認識処理を説明するフローチャートである。同図において、先ず部品を撮像する(S1)。この処理は、作業ヘッド22が吸着ノズル25によって部品供給装置から部品26を吸着し、CCDカメラ27の上方を通過する時にCCDカメラ27によって部品26の底面の画像を取得する処理である。
【0026】
このとき、吸着ノズル25先端の部品26は、XYZθロボット21により移動自在であることにより、CCDカメラ27との距離を任意に設定することができる。通常の場合は、部品26とCCDカメラ27との距離は、撮像の焦点がCCD画素面に結ぶ距離になるようにして撮像する。
【0027】
本例では、上記の部品26がサイズの小さな部品である場合を例としており、上記のS1における処理では、部品26とCCDカメラ27との距離をやや短くして、焦点が合わない(焦点が浅い)状態で撮像する。すなわち、本例の撮像処理では、焦点の甘いピンボケ画像データが取得される。
【0028】
図3(a),(b) は、このようにピントのボケた画像のCCD画像データとして得られるデータの状態を説明する図である。図3(a) に示すように、ピントの合った撮像画像の場合は、部品の1点から反射された光は、CCD素子上の1点に結像する。
【0029】
しかし、ピントのずれた(ピントを合わせていない)撮像画像の場合は、図3(b) に示すように、部品の1点から反射された光が、δ関数30上に沿って拡散してCCD素子上に結像する。
したがって、図7(a) に示した同じ部品を撮像しても、それぞれの素子に上記の拡散した光が集積されたボケた画像がCCD上に結像する。
【0030】
図4(a) は、そのようなピンボケ画像データの例を示す図であり、同図(b) は後述するデータ補間後のピンボケ画像データを示す図である。尚、図2の処理S1において取得される部品の撮像画像データは、この図4(a) に示すピンボケ画像データである。
【0031】
しかし、図4(a) のピンボケ画像データは、拡散されることによって、画像の高周波成分がなくなり、同じサンプリング間隔でも、見かけ上。画像成分の変化に忠実なサンプリングとなっている。ただし、画像成分の変化に忠実なサンプリングとなってはいるが、このピンボケ画像データはCCDカメラでの取得値であるため離散値で形成されている。
【0032】
次に、この離散化されたサンプリング値からなるピンボケ画像データに近似処理を施す(S2)。この処理は、上記のピンボケ画像データにフーリエ変換等を用いてサンプリング点とサンプリング点の間の補間データを算出して、見かけ上の画素数を多くし、離散データから連続するデータに近似させる処理である。
【0033】
上記に続いて画素間データの予測を行う(S3)。この処理は、上記の近似処理によって得られた補間データによって、画素データ(CCD素子から出力された離散値)の間のデータを予測する(画素データ間を補間データで埋める)処理である。これにより、図4(b) に示すように、サンプリング間隔Sで撮像されたピンボケ画像データのサンプリング点31とサンプリング点31の値の間に、上記近似処理によって求められた補間データ32が付加された、あたかもサンプリング間隔Sの1/2のサンプリング間隔でサンプリングしたかに見えるように補間されたピンボケ画像データが生成される。
【0034】
ピンボけの画像は、ピントの合った画像に対してδ関数変換をかけたものと考えることができるので、ピンボ画像に逆δ関数変換をかけるとピントの合った画像が復元されると考えることができる。
そこで、次に、上記の補間されたピンボケ画像データに対し逆δ関数フィルタを用いてデータ変換する(S4)。この処理では、図4(b) に示すピンボケ画像データは、上記の補間により、サンプリング間隔Sの1/2のサンプリング間隔でサンプリングしたδ関数に沿ったピンボケ画像データとして考えることができるから、これを逆δ関数フィルタで変換すると、見かけ上、サンプリング間隔Sの1/2のサンプリング間隔で、焦点を合わせてサンプリングした画像データに近似したデータとして復元される。
【0035】
尚、逆δ関数は、ピントのずれ具合によって変数が異なるため、あらかじめピントのずれ具合は測定しておくとよい。これによって、常に実際のサンプリングの倍のサンプリング密度でサンプリングしたかのような画像が復元される。
この復元画像データを用いて位置の検出を行う(S5)。この復元画像データは、上記のように、見かけ上サンプリング間隔Sの1/2のサンプリング間隔で焦点を合わせてサンプリングした画像データに近似しているから、図7(b) の場合よりも、エッジの位置も精度よく捕らえることができる。すなわち、吸着ノズルに保持されている部品の位置を精度よく認識することができる。
【0036】
そして、この認識に基づいて、アクチュエータを制御する(S6)。この処理では、上記の認識結果に基づいて中央制御部により、部品テーブルのデータ、すなわちNCプログラムのパラメータとの位置ずれが算出され、この算出結果に基づいて部品に対する位置の補正が行われ、この補正値が不図示のアクチュエータ制御部に通知され、アクチュエータ制御部によって、XYZθロボット21の各アクチュエータが制御される。
【0037】
その後、次の撮像すべき部品が有るか否かを判別して(S7)、有れば(S7がYes)、S1に戻ってS1〜S7の処理を繰り返す。他方、次の撮像すべき部品が無いときは(S7がNo)、処理を終了する。
このように、部品認識カメラの分解能を実際よりも見かけ上向上させて、部品の位置をより精度良く認識することができ、これによりCCD素子数よりも分解能の高い部品の画像データに対して画像処理を行ない、部品の位置や角度をより精度よく算出して位置補正することができる。
【0038】
【発明の効果】
以上詳細に説明したように、本発明によれば、部品を撮像する際に意図的に高周波成分の少ないピンぼけ状態の画像を取得し、この画像データの近似式を立て、最小サンプリング間隔の間のデータ値を予測し、この予測値によって補間されたピンぼけ画像データを、フィルタによってピントの合った画像を復元するので、補間した分だけCCD素子数よりも分解能の高い画像を取得することができ、これにより、CCDカメラを交換することなく安価により精度の高い部品認識を行うことができるようになって便利である。
【図面の簡単な説明】
【図1】一実施の形態における部品搭載装置の機構主用部の構成を模式的に示す図である。
【図2】一実施の形態における部品搭載装置の中央制御装置によって制御される部品に対する画像認識処理を説明するフローチャートである。
【図3】 (a),(b) はピントのボケた画像のCCD画像データとして得られるデータの状態を説明する図である。
【図4】 (a) はピンボケ画像データの例を示す図、(b) はデータ補間後のピンボケ画像データを示す図である。
【図5】 (a) は従来の部品搭載装置の外観を示す斜視図、(b) はその上下の保護カバーを取り除いて内部の構成を模式的に示す斜視図である。
【図6】従来の部品搭載装置の作業ヘッドの斜視図である。
【図7】 (a),(b) は従来の部品搭載装置において部品の大きさに対して部品認識用カメラの解像度が比較的粗い場合に得られる撮像画像の例を説明する図である。
【符号の説明】
1 部品搭載装置
2 モニタ装置
3 警報ランプ
4 上部保護カバー
5 表示入力パネル
6 基台
7 基板案内レール
8 Y軸レール
9 X軸レール
10 作業ヘッド
11 部品供給ステージ
12−1、12−2 帯状コード
13 搭載ヘッド
14 基板認識用カメラ
15 照明装置
16 吸着ノズル
16−1 光拡散板
16−2 ノズル
17 部品認識用カメラ
21 XYZθロボット
22 作業ヘッド
23 支持部
24 搭載ヘッド
25 吸着ノズル
26 部品
27 CCDカメラ
28 レンズ
29 撮像部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method for apparently improving the resolution of a component recognition camera in a component mounting apparatus for mounting electronic components on a circuit board, and a component mounting apparatus using the image processing method.
[0002]
[Prior art]
Conventionally, a component mounting apparatus that automatically mounts a large number of electronic components (hereinafter simply referred to as components) such as ICs, resistors and capacitors on a circuit board (hereinafter simply referred to as a substrate) that is automatically carried into the device. There is.
[0003]
FIG. 5 (a) is a perspective view showing the external appearance of such a component mounting apparatus, and FIG. 5 (b) is a perspective view schematically showing the internal configuration by removing the upper and lower protective covers. A component mounting apparatus (hereinafter also referred to as a main body apparatus) 1 shown in FIGS. 1A and 1B includes a monitor apparatus 2 composed of a CRT display above a ceiling cover and an alarm lamp 3 for informing the operating state. . In addition, on the front surface of the upper protective cover 4, a small display input panel 5 that includes a liquid crystal display and a touch panel and can input various instructions by external operations is disposed.
[0004]
On the lower base 6, a pair of parallel and fixed board guide rails 7 and 7 are arranged in the center in the transport direction (X-axis direction, diagonally right in the figure) of the circuit board (hereinafter simply referred to as the board). It is arranged to extend horizontally in a diagonally upper left direction from the bottom. A loop-shaped conveyor belt (conveyor belt) is disposed so as to be able to travel in contact with the lower part of the substrate guide rails 7. The conveyor belt is driven by a belt drive motor with the side of the belt of several millimeters in width, viewed from below the substrate guide rail 7 and driven by the belt drive motor, and supports both sides of the back side of the substrate from below. Then, the board before component mounting is carried into the apparatus main body from the upstream side of the line, and the board on which the component has been mounted is carried out to the downstream side of the line.
[0005]
The base 6 is provided with a substrate positioning device, a substrate fixing mechanism for fixing the substrate between the two substrate guide rails 7, a control device for controlling each part, etc., although not particularly shown. ing.
Further, on the base 6, a pair of left and right fixed rails (Y-axis rails) straddling the pair of substrate guide rails 7 and extending in parallel to a direction (front-rear direction) perpendicular to the substrate transport direction. 8 and 8 are arranged. A movable rail (X-axis rail) 9 is slidably engaged with the Y-axis rail 8 along the Y-axis rail 8, and an electronic component (hereinafter simply referred to as a component) is mounted on the board on the X-axis rail 9. A work head 10 for working is suspended along the X-axis rail 9 so as to be slidable.
[0006]
Although not clearly shown in FIGS. 1A and 1B, the X-axis rail 9 has an X-axis (not shown) for freely moving the work head 10 along its longitudinal direction (X-axis direction). A motor is disposed, and a Y-axis motor (not shown) that moves the X-axis rail 9 back and forth (Y-axis direction) along the Y-axis rail 8 is also disposed on the base 6. When these X-axis motor and Y-axis motor rotate freely in both forward and reverse directions according to instructions from the control circuit, the work head 9 moves freely in the X-axis direction and the Y-axis direction.
[0007]
Component supply stages 11 and 11 are disposed on the front and rear portions of the base 6, respectively. Although not particularly shown in the drawings, these component supply stages 11 are provided with a plurality of cartridge-type component supply devices provided with reels around which tapes containing components are wound, corresponding to a plurality of types of components. A tray-type component supply device equipped with a plurality of pallets corresponding to different types of components engages.
[0008]
The work tower 10 is a base of the apparatus main body 1 through a plurality of signal cords (not shown) that are protected and accommodated in a belt-like chain body 12 (12-1, 12-2) that is bendable and hollow inside. 6 is electrically connected to a central control unit disposed on the motherboard. The work tower 10 is supplied with electric power and a control signal from the central control unit via these signal codes, and transmits image data indicating information on the component mounting position on the board to the central control unit.
[0009]
FIG. 6 is a perspective view of the working head 10. As shown in the figure, the work head 10 is connected to the central control unit of the apparatus main body by the flexible belt-like cord 12-1 (and the belt-like cord 12-2 shown in FIG. 5B) as described above. At the tip, two mounting heads 13 and 13 and a substrate recognition camera 14 are provided. Each of the two mounting heads 13 can be moved up and down in the Z-axis direction (vertical direction), and a lighting device 15 and a suction nozzle 16 are mounted at the tip of the head, respectively. The suction nozzle 16 includes a light diffusion plate 16-1 and a nozzle 16-2, and is rotatable in the θ-axis direction (360 ° direction).
[0010]
The working head 10 is freely moved back and forth and left and right by the two Y-axis rails 8 and the one X-axis rail 9 described above, and is not shown on the component supply stage 11 shown in FIG. The component is picked up by the suction nozzle 16 from the component supply device and moved onto the component recognition camera 17 shown in FIG. 5B arranged on the base 6 side.
[0011]
Then, the illumination device 15 illuminates the light diffusing plate 16-1 from above to diffuse the background light of uniform brightness from the light diffusing plate 16-1, and the components that appear in the background light are detected by the component recognition camera 17. The image is picked up to detect a holding position deviation of the component, and the mounting position data is corrected based on the detected holding position deviation.
[0012]
Further, the position of the board (not shown) positioned by the board guide rail 7 shown in FIGS. 5A and 5B is confirmed by the board recognition camera 14, and the above components are placed at a predetermined position on the board. Is installed.
Normally, a CCD camera is used as the component recognition camera 17. Image recognition is performed after analog image data output from the CCD camera is converted to digital image data by an A / D converter. Therefore, the resolution of the captured image depends on the density of the CCD camera pixels (CCD elements) used for imaging.
[0013]
FIGS. 7A and 7B are diagrams illustrating examples of captured images obtained when the resolution of the component recognition camera is relatively coarse with respect to the size of the component. In FIGS. 4A and 4B, the vertical axis indicates the intensity of light reflected from the component surface to be imaged, that is, the output of the CCD element.
FIG. 6A is a diagram showing CCD outputs for the background image 21 and the component image 22 when the image formed on the CCD element surface of the CCD camera is assumed to be continuously analog scanned.
[0014]
However, as described above, the image data captured by the CCD camera is image data at a sampling interval depending on the density of the CCD elements (element arrangement interval S shown in FIGS. 7A and 7B). It is not imaged data by continuous analog scanning.
Generally, from the sampling theorem, if the sampling interval is T, only 1 / 2T frequency components can be acquired as sampled data. Therefore, it is difficult to obtain a resolution higher than the arrangement interval of the CCD elements. For this reason, for example, the data of the portion with a steep inclination shown in FIG. 7A is converted into data with a gentle inclination as shown in FIG.
[0015]
In the example shown in FIG. 5A, the pixel density, that is, the arrangement interval S of the CCD elements is larger than the edges E1 and E2 of the parts. The actual output of the CCD camera cannot correctly capture the edges E1 and E2 of the component, and is based on the arrangement interval S (= sampling interval S) of the CCD elements as shown in FIG. Thus, it is recognized as edge imaging data having a large tolerance, such as the edges E1 ′ and E2 ′ acquired by the sampling theorem.
[0016]
[Problems to be solved by the invention]
By the way, in recent years, as the size of components has been reduced and many small components are included in the mounted components, a finer resolution is often required for the resolution of the component recognition camera.
[0017]
Otherwise, that is, if the resolution is small for a small part, when the part is image-recognized as described above, the tolerance of the part edge position becomes large as shown in FIG. The position cannot be recognized correctly. Then, the position recognition for the entire part becomes inaccurate and correct position correction cannot be performed. If the correct position cannot be corrected, the substrate cannot be correctly mounted at the mounting position, and a defective substrate unit is produced, resulting in a decrease in yield.
[0018]
In order to cope with this problem, that is, to recognize a part having a very small size, it is necessary to increase the magnification of the lens of the camera or to use a CCD camera having a larger number of CCD elements.
However, the method of increasing the magnification of the lens of the camera has a problem that a large part cannot be recognized because the field of view of the entire captured image is narrowed. On the other hand, the method of increasing the number of CCD elements is not preferable because it causes various problems such as an increase in captured image data, an increase in transfer time of the image data, and an increase in the cost of the CCD camera.
[0019]
In view of the above-described conventional situation, an object of the present invention is to provide an image processing method for improving the recognition accuracy of a component without increasing the number of CCD elements of the camera, and a component mounting apparatus using the image processing method.
[0020]
[Means for Solving the Problems]
First, an image processing method according to the first aspect of the present invention includes a step of capturing an object with a depth of focus shallower by a predetermined range than an actual depth of focus and acquiring a defocused image data with a poor focus, and the acquired defocused image. A step of converting the data into digital image data, a step of interpolating the converted digital image data to generate interpolated image data, and a filter operation step of approximating the actual image data based on the interpolated image data. Composed.
[0021]
Next, a component mounting apparatus according to a second aspect of the present invention is a method of taking an electronic component from a component supply device and holding it and recognizing the position of the electronic component on the way of transferring the held electronic component onto a circuit board. A component mounting apparatus for correcting and mounting the position-corrected electronic component at a predetermined position on the circuit board, wherein the electronic component is imaged at a focal depth shallower than the actual focal depth by a predetermined range, and a defocused image with a poor focus Out-of-focus image data acquisition means for acquiring data, image data conversion means for converting out-of-focus image data acquired by the out-of-focus image data acquisition means into digital image data, and digital image data converted by the image data conversion means Image data interpolation means for generating interpolated image data by interpolation, and based on the interpolated image data generated by the image data interpolation means A filtering unit to approximate the captured image data with the actual depth of focus, and includes a.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram schematically illustrating a configuration of a mechanism main part of a component mounting apparatus according to an embodiment. In the component mounting apparatus 20 shown in the figure, the external appearance and the structure of the internal mechanism portion are the external appearance of the component mounting apparatus 1 shown in FIG. 5 (a) and the internal mechanism portion shown in FIG. 5 (b) and FIG. This is almost the same as the configuration.
[0023]
An XYZθ robot 21 shown in FIG. 1 includes a work head 22 and a support unit 23 that supports the work head 22 so as to be movable in the horizontal X-axis direction and the horizontal Y-axis direction as indicated by arrows X and Y in the figure. A mounting head 24 that is provided on the work head 22 and can be moved up and down as indicated by an arrow Z, and a suction nozzle 25 that is attached to the tip of the mounting head 24 and is rotatable in a horizontal 360 degree direction as indicated by an arrow θ. Consists of.
[0024]
The movement of the work head 22 in the X-axis direction and the Y-axis direction, the movement of the mounting head 24 in the Z-axis direction, and the rotation of the suction nozzle 25 in the 360-degree direction are performed by dedicated actuators (not shown).
In addition, on the path on which the work head 22 sucks a component 26 from a component supply device (not shown) with a suction nozzle 25 and moves the suctioned component 26 to be transferred onto a substrate (not shown), A CCD camera 27 for picking up an image of 26 from below is disposed on the component mounting apparatus main body side. The CCD camera 27 includes a lens 28 and an imaging unit 29 in which a CCD is disposed. The CCD camera 27 is a normal CCD camera in which the density of the CCD pixels provided in the image pickup unit 29 is normal, that is, the number of pixels is not particularly large.
[0025]
FIG. 2 is a flowchart for explaining image recognition processing for the component 26 controlled by a central control unit (not shown) in the above configuration. In the figure, first, a part is imaged (S1). This process is a process in which the work head 22 sucks the component 26 from the component supply device by the suction nozzle 25 and acquires an image of the bottom surface of the component 26 by the CCD camera 27 when passing over the CCD camera 27.
[0026]
At this time, the component 26 at the tip of the suction nozzle 25 is movable by the XYZθ robot 21, so that the distance from the CCD camera 27 can be set arbitrarily. In a normal case, imaging is performed such that the distance between the component 26 and the CCD camera 27 is a distance between the focal point of imaging and the CCD pixel surface.
[0027]
In this example, the case where the part 26 is a small-sized part is taken as an example. In the processing in S1 described above, the distance between the part 26 and the CCD camera 27 is slightly shortened and the focus is not achieved (the focus is not adjusted). Take a picture in a shallow state. That is, in the imaging processing of this example, out-of-focus out-of-focus image data is acquired.
[0028]
FIGS. 3A and 3B are diagrams for explaining the state of data obtained as CCD image data of an out-of-focus image. As shown in FIG. 3A, in the case of a captured image in focus, the light reflected from one point of the component forms an image on one point on the CCD element.
[0029]
However, in the case of a captured image that is out of focus (not in focus), the light reflected from one point of the component diffuses along the δ function 30 as shown in FIG. An image is formed on the CCD element.
Therefore, even if the same part shown in FIG. 7A is imaged, a blurred image in which the diffused light is integrated on each element is formed on the CCD.
[0030]
FIG. 4A shows an example of such out-of-focus image data, and FIG. 4B shows out-of-focus image data after data interpolation, which will be described later. Note that the captured image data of the component acquired in the process S1 of FIG. 2 is the out-of-focus image data shown in FIG.
[0031]
However, the out-of-focus image data shown in FIG. 4 (a) is diffused to eliminate the high-frequency component of the image, and apparently even at the same sampling interval. Sampling is faithful to changes in image components. However, although the sampling is faithful to the change of the image component, the out-of-focus image data is a discrete value because it is an acquired value by the CCD camera.
[0032]
Next, an approximation process is performed on the out-of-focus image data composed of the discretized sampling values (S2). In this process, interpolation data between sampling points is calculated by using Fourier transform or the like for the above-mentioned out-of-focus image data, the apparent number of pixels is increased, and the process approximates discrete data to continuous data. It is.
[0033]
Following the above, prediction of inter-pixel data is performed (S3). This process is a process of predicting data between pixel data (discrete values output from the CCD element) by interpolation data obtained by the above approximation process (filling between pixel data with interpolation data). As a result, as shown in FIG. 4B, the interpolation data 32 obtained by the approximation process is added between the sampling points 31 of the out-of-focus image data captured at the sampling interval S and the values of the sampling points 31. In addition, the out-of-focus image data that is interpolated so as to appear as if it was sampled at a sampling interval that is ½ of the sampling interval S is generated.
[0034]
A defocused image can be thought of as having undergone a δ function transformation on an in-focus image, so if an inverse δ function transformation is applied to a defocused image, the in-focus image will be restored. Can do.
Therefore, next, the interpolated out-of-focus image data is converted using an inverse δ function filter (S4). In this processing, the out-of-focus image data shown in FIG. 4 (b) can be considered as out-of-focus image data along the δ function sampled at a sampling interval of 1/2 of the sampling interval S by the above interpolation. Is apparently restored as data approximated to image data sampled in focus at a sampling interval ½ of the sampling interval S.
[0035]
Since the variable of the inverse δ function varies depending on the degree of focus shift, it is preferable to measure the degree of focus shift in advance. As a result, an image as if it was sampled at a sampling density twice as high as the actual sampling is always restored.
The position is detected using the restored image data (S5). As described above, the restored image data approximates to the image data sampled by focusing at a sampling interval that is half the sampling interval S as described above. The position of can also be accurately captured. That is, it is possible to accurately recognize the position of the component held by the suction nozzle.
[0036]
Based on this recognition, the actuator is controlled (S6). In this process, the central control unit calculates the positional deviation from the part table data, that is, the NC program parameters, based on the recognition result, and corrects the position of the part based on the calculation result. The correction value is notified to an actuator control unit (not shown), and each actuator of the XYZθ robot 21 is controlled by the actuator control unit.
[0037]
Thereafter, it is determined whether or not there is a part to be imaged next (S7), and if there is (S7 is Yes), the process returns to S1 and the processes of S1 to S7 are repeated. On the other hand, when there is no part to be imaged next (S7 is No), the process is terminated.
In this way, the resolution of the component recognition camera is apparently improved from the actual level, and the position of the component can be recognized with higher accuracy, so that the image data of the component with higher resolution than the number of CCD elements can be obtained. Processing can be performed, and the position and angle of the component can be calculated more accurately and corrected.
[0038]
【The invention's effect】
As described above in detail, according to the present invention, an image in a defocused state with few high-frequency components is intentionally acquired when imaging a component, an approximate expression of this image data is established, and a minimum sampling interval is obtained. The data value is predicted, and the defocused image data interpolated by this predicted value is restored to the focused image by the filter, so that an image with a resolution higher than the number of CCD elements can be obtained by the amount of interpolation, As a result, it is possible to perform highly accurate component recognition at low cost without replacing the CCD camera.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing a configuration of a mechanism main part of a component mounting apparatus according to an embodiment.
FIG. 2 is a flowchart illustrating image recognition processing for a component controlled by a central control device of the component mounting device according to the embodiment.
FIGS. 3A and 3B are views for explaining the state of data obtained as CCD image data of an out-of-focus image. FIG.
4A is a diagram showing an example of out-of-focus image data, and FIG. 4B is a diagram showing out-of-focus image data after data interpolation.
5A is a perspective view showing an external appearance of a conventional component mounting apparatus, and FIG. 5B is a perspective view schematically showing an internal configuration by removing the upper and lower protective covers.
FIG. 6 is a perspective view of a working head of a conventional component mounting apparatus.
FIGS. 7A and 7B are diagrams illustrating examples of captured images obtained when the resolution of a component recognition camera is relatively coarse with respect to the size of a component in a conventional component mounting apparatus.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Component mounting apparatus 2 Monitoring apparatus 3 Alarm lamp 4 Upper protective cover 5 Display input panel 6 Base 7 Board | guide guide rail 8 Y-axis rail 9 X-axis rail 10 Work head 11 Component supply stage 12-1, 12-2 Strip | belt-shaped code 13 Mounting head 14 Substrate recognition camera 15 Illumination device 16 Adsorption nozzle 16-1 Light diffusion plate 16-2 Nozzle 17 Component recognition camera 21 XYZθ robot 22 Work head 23 Support section 24 Mounting head 25 Adsorption nozzle 26 Component 27 CCD camera 28 Lens 29 Imaging unit

Claims (2)

実際の焦点深度よりも所定範囲だけの浅い焦点深度となるようにCCDカメラと撮像対象物の位置を設定する工程と、
前記設定された位置において前記撮像対象物を撮像して焦点の甘い画像成分の変化に従った前記CCDカメラの解像度に応じたサンプリング間隔で得られるピンボケ画像データを取得する工程と、
取得されたピンボケ画像データをデジタル画像データに変換する工程と、
変換されたデジタル画像データの前記サンプリング間隔の補間データを算出する工程と、
「算出された補間データにより前記サンプリング間隔を補間して見かけのサンプリング数が増えたピンボケ」補間画像データを生成する工程と、
前記「ピンボケ」補間画像データを逆δ関数フィルタで変換して実際の画像データに近似させるフィルタ演算工程と、
を含むことを特徴とする画像処理方法。
A step of setting the position of the CCD camera and the imaging object so that the focal depth is shallower than the actual focal depth by a predetermined range;
By imaging the imaging Target object in the set position, a step of acquiring the blurred image data obtained at the sampling intervals corresponding to the CCD camera resolution in accordance with the change of the sweet image components focal,
Converting the acquired out-of-focus image data into digital image data;
Calculating interpolation data of the sampling interval of the converted digital image data ;
A step of generating interpolated image data by “interpolating the sampling interval by the calculated interpolation data and increasing the apparent sampling number”;
A filter calculation step for converting the “out-of-focus” interpolation image data with an inverse δ function filter to approximate the actual image data;
An image processing method comprising:
部品供給装置から電子部品を取り出して保持し該保持した電子部品を回路基板上に移載する途上において前記電子部品をCCDカメラにより画像認識して位置補正し該位置補正した電子部品を前記回路基板の所定の位置に搭載する部品搭載装置であって、
実際の焦点深度よりも所定範囲だけの浅い焦点深度となるように前記CCDカメラと前記電子部品との位置を設定するカメラ電子部品間位置設定手段と、
該カメラ電子部品間位置設定手段により設定された位置において前記電子部品を撮像して焦点の甘い画像成分の変化に従った前記CCDカメラの解像度に応じたサンプリング間隔で得られるピンボケ画像データを取得するピンボケ画像データ取得手段と、
該ピンボケ画像データ取得手段により取得されたピンボケ画像データをデジタル画像データに変換する画像データ変換手段と、
該画像データ変換手段により変換されたデジタル画像データの前記サンプリング間隔の補間データを算出する補間手段と、
該補間手段により算出された補間データにより前記サンプリング間隔を補間して見かけのサンプリング数が増えたピンボケ補間画像データを生成するピンボケ補間画像データ生成手段と、
ピンボケ補間画像データ生成手段により生成された補間ピンボケ画像データを逆δ関数フィルタで変換して実際の焦点深度にて撮像した画像データに近似させるフィルタ演算手段と、
を備えたことを特徴とする部品搭載装置。
In the process of taking out and holding the electronic component from the component supply device and transferring the held electronic component onto the circuit board, the electronic component is image-recognized by a CCD camera to correct the position, and the position-corrected electronic component is moved to the circuit board. A component mounting device mounted at a predetermined position of
A position setting means between camera electronic components for setting the position of the CCD camera and the electronic component so that the focal depth is shallower than the actual focal depth by a predetermined range;
The electronic component is imaged at a position set by the position setting means between the electronic components of the camera, and defocused image data obtained at a sampling interval corresponding to the resolution of the CCD camera according to a change in an image component with a poor focus is acquired. Out-of-focus image data acquisition means;
Image data conversion means for converting the out-of-focus image data acquired by the out-of-focus image data acquisition means into digital image data;
Interpolation means for calculating interpolation data of the sampling interval of the digital image data converted by the image data conversion means ;
A defocused interpolated image data generating means for generating defocused interpolated image data in which the apparent sampling number is increased by interpolating the sampling interval with the interpolation data calculated by the interpolating means;
Filter arithmetic means for converting the interpolated out-of-focus image data generated by the out-of-focus interpolated image data generation means with an inverse δ function filter and approximating the image data captured at the actual depth of focus;
A component mounting device characterized by comprising:
JP2001400038A 2001-12-28 2001-12-28 Image processing method and component mounting apparatus using the same Expired - Fee Related JP3954378B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001400038A JP3954378B2 (en) 2001-12-28 2001-12-28 Image processing method and component mounting apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001400038A JP3954378B2 (en) 2001-12-28 2001-12-28 Image processing method and component mounting apparatus using the same

Publications (2)

Publication Number Publication Date
JP2003196643A JP2003196643A (en) 2003-07-11
JP3954378B2 true JP3954378B2 (en) 2007-08-08

Family

ID=27604816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001400038A Expired - Fee Related JP3954378B2 (en) 2001-12-28 2001-12-28 Image processing method and component mounting apparatus using the same

Country Status (1)

Country Link
JP (1) JP3954378B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004204A1 (en) * 2022-07-01 2024-01-04 ヤマハ発動機株式会社 Substrate appearance inspection device and substrate appearance inspection method

Also Published As

Publication number Publication date
JP2003196643A (en) 2003-07-11

Similar Documents

Publication Publication Date Title
US5541834A (en) Control system for component mounting apparatus
JP4326641B2 (en) Mounting device, mounting accuracy detection jig set, and mounting accuracy detection method
JP6684792B2 (en) Mounting device, imaging processing method, and imaging unit
JP4701037B2 (en) Image acquisition method and apparatus for electronic components
JP2005072046A (en) Apparatus for packaging electronic component
JP3954378B2 (en) Image processing method and component mounting apparatus using the same
JP4315752B2 (en) Electronic component mounting equipment
US20020030736A1 (en) Single camera alignment system using up/down optics
JP5100484B2 (en) Automatic focus adjustment method
JP3797929B2 (en) Image processing method and component mounting apparatus using the same
JP3632461B2 (en) Image recognition method
JP2003008295A (en) Method for mounting electronic component and electronic component mounter
JP2005252292A (en) Image pickup of electronic component and electronic component mounting apparatus
WO2021166220A1 (en) Surface mounter and image analyzing method
JP3922608B2 (en) Height measuring method and apparatus
JPH07257451A (en) Automobile window class mounting device
JP3186739B2 (en) Electronic component mounting apparatus and electronic component mounting method
JPH09307292A (en) Data generation device/method and electronic parts installation device
JP3713097B2 (en) Component mounting equipment
JP2008270719A (en) Mounting machine and component imaging method therefor
JP4597003B2 (en) Image acquisition method and apparatus for parts
JP2022168960A (en) Surface mounting machine
JP2004253570A (en) Component mounting apparatus, misregistration correction method, and program
JP4326064B2 (en) Electronic component recognition apparatus and method, and electronic component mounter equipped with electronic component recognition apparatus
JP3652213B2 (en) Electronic component mounting equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070426

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees