JP6602213B2 - Board working apparatus and component mounting apparatus - Google Patents
Board working apparatus and component mounting apparatus Download PDFInfo
- Publication number
- JP6602213B2 JP6602213B2 JP2016011394A JP2016011394A JP6602213B2 JP 6602213 B2 JP6602213 B2 JP 6602213B2 JP 2016011394 A JP2016011394 A JP 2016011394A JP 2016011394 A JP2016011394 A JP 2016011394A JP 6602213 B2 JP6602213 B2 JP 6602213B2
- Authority
- JP
- Japan
- Prior art keywords
- component
- image
- enlargement ratio
- pixels
- outer edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
この発明は、基板作業装置および部品実装装置に関し、特に、撮像部を備えた基板作業装置および部品実装装置に関する。 The present invention relates to a board working apparatus and a component mounting apparatus, and more particularly to a board working apparatus and a component mounting apparatus provided with an imaging unit.
従来、撮像部を備えた部品実装装置が知られている(たとえば、特許文献1参照)。 Conventionally, a component mounting apparatus including an imaging unit is known (for example, see Patent Document 1).
上記特許文献1には、基板に部品を実装する部品保持ヘッドと、部品保持ヘッドに保持された部品を撮像する部品カメラ(撮像部)と、部品カメラにより撮像した部品の画像を拡大または縮小処理する画像処理コンピュータとを備える電子回路部品装着機(部品実装装置)が開示されている。この特許文献1の電子回路部品装着機では、部品のサイズに応じた指定倍率により部品の画像が拡大または縮小処理されるように構成されている。
In
しかしながら、上記特許文献1の電子回路部品装着機(部品実装装置)では、部品のサイズに応じた指定倍率により部品の画像が拡大または縮小処理されるように構成されているため、極小部品の画像を単純に指定倍率で拡大した場合に、極小部品が鮮明に表示されない場合もあると考えられる。この場合には、極小部品を精度よく認識することが困難であるという問題点がある。
However, the electronic circuit component mounting machine (component mounting apparatus) disclosed in
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、極小部品を精度よく認識することが可能な基板作業装置および部品実装装置を提供することである。 The present invention has been made to solve the above-described problems, and one object of the present invention is to provide a substrate working apparatus and a component mounting apparatus capable of accurately recognizing a minimal component. It is.
この発明の第1の局面による基板作業装置は、部品が実装される基板に対して作業を行う作業部と、部品を撮像可能な撮像部と、撮像部により撮像した部品の画像を拡大処理する画像処理部とを備え、画像処理部は、予め取得した部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている。 According to a first aspect of the present invention, there is provided a substrate working apparatus that performs a work on a substrate on which a component is mounted, an imaging unit capable of imaging the component, and an enlargement process of an image of the component captured by the imaging unit. and an image processing unit, an image processing unit, based on the component size of the previously obtained, and the resolution of the imaging unit, and the number of sampling pixels necessary for detecting the position of the outer edge of the component from the image, parts Before performing the process of detecting the position of the outer edge of the image, the process of determining the enlargement ratio of the image, and the position accuracy standard deviation that is the standard deviation of the position detection error that changes depending on the enlargement ratio of the image, are set in advance. It is configured to perform at least one of processing for determining an image enlargement ratio based on the standard value.
この発明の第1の局面による基板作業装置では、上記のように、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行う画像処理部を設ける。これにより、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定した場合には、部品のサイズや撮像部の分解能が変化しても、部品の外縁部の位置を検出可能なサンプリング画素数が確保されるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。また、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定した場合には、部品の位置検出の誤差を規格値以内の精度となるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。これらの結果、極小部品を精度よく認識することができる。 In the substrate working apparatus according to the first aspect of the present invention, as described above, based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. The image enlargement ratio is determined based on the process for determining the image enlargement ratio, the position accuracy standard deviation that is the standard deviation of the position detection error that varies depending on the image enlargement ratio, and a preset standard value. An image processing unit that performs at least one of the determination process is provided. As a result, when the enlargement ratio of the image is determined based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image, Even if the size or resolution of the imaging unit changes, the image can be enlarged so that the number of sampling pixels that can detect the position of the outer edge of the component is ensured. It can be recognized accurately. In addition, when the image enlargement ratio is determined based on the position accuracy standard deviation, which is the standard deviation of the position detection error that changes depending on the image enlargement ratio, and a preset standard value, the position detection of the component is performed. Since the image can be enlarged so that the accuracy of the error is within the standard value, the position and orientation of the component can be accurately recognized from the enlarged image. As a result, it is possible to accurately recognize the minimal component.
上記第1の局面による基板作業装置において、好ましくは、画像処理部により拡大された部品の画像に基づいて、部品の位置を含む部品姿勢を検出するように構成されている。このように構成すれば、拡大された画像により極小部品の位置を含む部品姿勢を精度よく認識することができる。 The substrate working apparatus according to the first aspect is preferably configured to detect a component posture including a component position based on an image of the component enlarged by the image processing unit. If comprised in this way, the components attitude | position including the position of a minimal component can be recognized with high precision by the enlarged image.
上記第1の局面による基板作業装置において、好ましくは、画像処理部は、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次以上の高次式を用いて求めるように構成されている。このように構成すれば、3次以上の高次式により滑らかに画素を補間して画像を拡大することができるので、拡大した画像により極小部品をより精度よく認識することができる。 In the substrate working apparatus according to the first aspect, preferably, when the image processing unit enlarges the image, the image processing unit sets a luminance value of a pixel to be interpolated based on luminance values of a plurality of surrounding pixels to a third or higher order. It is comprised so that it may obtain | require using a high-order type | formula. With this configuration, the image can be enlarged by smoothly interpolating the pixels using a higher-order expression of the third or higher order, so that the minimal component can be recognized more accurately from the enlarged image.
上記第1の局面による基板作業装置において、好ましくは、画像処理部は、部品の画像のサンプリング領域幅の画素数が、部品の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。このように構成すれば、部品の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小部品をより精度よく認識することができる。 In the substrate working apparatus according to the first aspect, preferably, in the image processing unit, the number of pixels in the sampling area width of the component image is equal to or more than the number of sampling pixels necessary for detecting the position of the outer edge portion of the component. As described above, the image enlargement ratio is determined. With this configuration, the image can be enlarged so as to ensure the number of sampling pixels that can detect the position of the outer edge of the component, so that the minimal component can be recognized more accurately from the enlarged image. Can do.
この場合、好ましくは、画像処理部は、部品の画像のサンプリング領域幅の画素数が、撮像部の分解能以上の精度において、部品の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。このように構成すれば、撮像部の分解能以上の精度が必要な場合でも、部品の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小部品をより一層精度よく認識することができる。 In this case, the image processing unit is preferably configured such that the number of pixels of the sampling area width of the image of the component is greater than the number of sampling pixels necessary for detecting the position of the outer edge of the component with an accuracy equal to or higher than the resolution of the imaging unit. Thus, the image enlargement ratio is determined. By configuring in this way, even when accuracy higher than the resolution of the imaging unit is required, the image can be enlarged so as to ensure the number of sampling pixels that can detect the position of the outer edge of the component, The extremely small parts can be recognized with higher accuracy by the enlarged image.
上記第1の局面による基板作業装置において、好ましくは、画像処理部が画像の拡大率を決定する際に位置精度標準偏差を用いる場合、画像に対して部品を移動させた複数の位置および姿勢の部品の画像に基づいて、位置精度標準偏差が求められるように構成されている。このように構成すれば、画像の拡大率を決定する際に用いる位置精度標準偏差を部品に応じて容易に求めることができるので、画像の最適な拡大率を容易に決定することができる。 In the substrate working apparatus according to the first aspect, preferably, when the position accuracy standard deviation is used when the image processing unit determines the enlargement ratio of the image, the plurality of positions and postures in which the component is moved with respect to the image are used. Based on the image of the part, the position accuracy standard deviation is obtained. According to this configuration, the position accuracy standard deviation used when determining the image enlargement ratio can be easily obtained according to the part, so that the optimum image enlargement ratio can be easily determined.
この発明の第2の局面による部品実装装置は、基板に部品を実装する作業を行う実装ヘッドと、実装ヘッドに保持された部品を撮像可能な撮像部と、撮像部により撮像した部品の画像を拡大処理する画像処理部とを備え、画像処理部は、予め取得した部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている。 A component mounting apparatus according to a second aspect of the present invention includes a mounting head that performs an operation of mounting a component on a substrate, an imaging unit that can image the component held by the mounting head, and an image of the component captured by the imaging unit. An image processing unit that performs an enlargement process, and the image processing unit is based on the size of the component acquired in advance , the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. Before performing the process of detecting the position of the outer edge of the component, the process of determining the enlargement ratio of the image, the position accuracy standard deviation that is the standard deviation of the position detection error that changes according to the enlargement ratio of the image, Based on the set standard value, at least one of processing for determining the enlargement ratio of the image is performed.
この発明の第2の局面による部品実装装置では、上記のように、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行う画像処理部を設ける。これにより、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定した場合には、部品のサイズや撮像部の分解能が変化しても、部品の外縁部の位置を検出可能なサンプリング画素数が確保されるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。また、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定した場合には、部品の位置検出の誤差を規格値以内の精度となるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。これらの結果、極小部品を精度よく認識することが可能な部品実装装置を提供することができる。 In the component mounting apparatus according to the second aspect of the present invention, as described above, based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. The image enlargement ratio is determined based on the process for determining the image enlargement ratio, the position accuracy standard deviation that is the standard deviation of the position detection error that varies depending on the image enlargement ratio, and a preset standard value. An image processing unit that performs at least one of the determination process is provided. As a result, when the enlargement ratio of the image is determined based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image, Even if the size or resolution of the imaging unit changes, the image can be enlarged so that the number of sampling pixels that can detect the position of the outer edge of the component is ensured. It can be recognized accurately. In addition, when the image enlargement ratio is determined based on the position accuracy standard deviation, which is the standard deviation of the position detection error that changes depending on the image enlargement ratio, and a preset standard value, the position detection of the component is performed. Since the image can be enlarged so that the accuracy of the error is within the standard value, the position and orientation of the component can be accurately recognized from the enlarged image. As a result, it is possible to provide a component mounting apparatus capable of accurately recognizing extremely small components.
本発明によれば、上記のように、極小部品を精度よく認識することが可能な基板作業装置および部品実装装置を提供することができる。 According to the present invention, as described above, it is possible to provide a substrate working apparatus and a component mounting apparatus that can recognize a minimal component with high accuracy.
以下、本発明を具体化した実施形態を図面に基づいて説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below with reference to the drawings.
[第1実施形態]
(部品実装装置の構成)
まず、図1を参照して、本発明の第1実施形態による部品実装装置100の構成について説明する。
[First Embodiment]
(Configuration of component mounting device)
First, with reference to FIG. 1, the structure of the
図1に示すように、部品実装装置100は、一対のコンベア2により基板PをX方向に搬送し、実装作業位置Mにおいて基板Pに部品31を実装する部品実装装置である。なお、部品実装装置100は、特許請求の範囲の「基板作業装置」の一例である。
As shown in FIG. 1, the
図1に示すように、部品実装装置100は、基台1と、一対のコンベア2と、部品供給部3と、ヘッドユニット4と、支持部5と、一対のレール部6と、部品認識カメラ7とを備えている。また、図2に示すように、部品実装装置100は、制御的な構成として、CPU(中央演算処理装置)81と、記憶装置82と、メモリ83と、表示部84と、入力装置85と、モータコントローラ86と、カメラI/F87と、照明コントローラ88と、各種I/O89と、モータアンプ90と、モータ91とを備えている。なお、ヘッドユニット4は、特許請求の範囲の「作業部」の一例であり、部品認識カメラ7は、特許請求の範囲の「撮像部」の一例である。また、CPU81は、特許請求の範囲の「画像処理部」の一例である。
As shown in FIG. 1, a
一対のコンベア2は、基台1上に設置され、基板PをX方向に搬送するように構成されている。また、一対のコンベア2は、搬送中の基板Pを実装作業位置Mで停止させた状態で保持するように構成されている。また、一対のコンベア2は、基板Pの寸法に合わせてY方向の間隔を調整可能に構成されている。
The pair of
部品供給部3は、一対のコンベア2の外側(Y1側およびY2側)に配置されている。また、部品供給部3には、複数のテープフィーダ3aが配置されている。
The
テープフィーダ3aは、複数の部品31を所定の間隔を隔てて保持したテープが巻き付けられたリール(図示せず)を保持している。テープフィーダ3aは、リールを回転させて部品31を保持するテープを送出することにより、テープフィーダ3aの先端から部品31を供給するように構成されている。ここで、部品31は、IC、トランジスタ、コンデンサおよび抵抗などの電子部品を含む。また、部品31は、一辺のサイズが1mm以下の極小の部品を含む。
The
ヘッドユニット4は、部品31が実装される基板Pに対して作業を行うように構成されている。具体的には、ヘッドユニット4は、一対のコンベア2および部品供給部3の上方位置に配置されており、ノズル41(図2参照)が下端に取り付けられた複数(5つ)の実装ヘッド42と、基板認識カメラ43とを含んでいる。
The
実装ヘッド42は、昇降可能(Z方向に移動可能)に構成され、負圧発生機(図示せず)によりノズル41の先端部に発生された負圧によって、テープフィーダ3aから供給される部品31を吸着して保持し、基板Pにおける実装位置(図2参照)に部品31を装着(実装)する作業を行うように構成されている。
The mounting
基板認識カメラ43は、基板Pの位置を認識するために、基板PのフィデューシャルマークFを撮像するように構成されている。そして、フィデューシャルマークFの位置を撮像して認識することにより、基板Pにおける部品31の実装位置を正確に取得することが可能である。また、基板認識カメラ43の近傍には、照明44(図2参照)が設けられている。照明44は、基板認識カメラ43の撮像時に可視光を基板Pに照射するように構成されている。これにより、基板認識カメラ43により基板Pを鮮明に撮像することが可能である。
The
支持部5は、モータ51を含んでいる。支持部5は、モータ51を駆動させることにより、支持部5に沿ってヘッドユニット4をX方向に移動させるように構成されている。支持部5は、両端部が一対のレール部6により支持されている。
The
一対のレール部6は、基台1上に固定されている。X1側のレール部6は、モータ61を含んでいる。レール部6は、モータ61を駆動させることにより、支持部5を一対のレール部6に沿ってX方向と直交するY方向に移動させるように構成されている。ヘッドユニット4が支持部5に沿ってX方向に移動可能であるとともに、支持部5がレール部6に沿ってY方向に移動可能であることによって、ヘッドユニット4はXY方向に移動可能である。
The pair of rail portions 6 are fixed on the
部品認識カメラ7は、基台1の上面上に固定されている。部品認識カメラ7は、部品を撮像可能に構成されている。具体的には、部品認識カメラ7は、一対のコンベア2の外側(Y1側およびY2側)に配置されている。部品認識カメラ7は、部品31の実装に先立って部品31の吸着状態(吸着姿勢)を認識するために、実装ヘッド42のノズル41に吸着された部品31を下側(Z2側)から撮像するように構成されている。これにより、実装ヘッド42のノズル41に吸着された部品31の吸着状態をCPU81により取得することが可能である。また、部品認識カメラ7の近傍には、照明71(図2参照)が設けられている。照明71は、部品認識カメラ7の撮像時に可視光をノズル41に吸着された部品31に照射するように構成されている。これにより、部品認識カメラ7によりノズル41に吸着された部品31を鮮明に撮像することが可能である。
The
CPU81は、一対のコンベア2による基板Pの搬送動作、ヘッドユニット4による実装動作、基板認識カメラ43や部品認識カメラ7による撮像動作などの部品実装装置100の全体の動作を制御するように構成されている。
The
記憶装置82は、基板Pの情報、部品31の情報、実装動作を行うプログラムなどが格納されている。記憶装置82は、たとえば、HDD(ハードディスクドライブ)や、SSD(ソリッドステートドライブ)などを含んでいる。
The
メモリ83は、CPU81の動作の際に情報が記憶されるように構成されている。表示部84は、部品実装装置100の状態や、生産している基板Pの情報などが表示されるように構成されている。入力装置85は、ユーザの部品実装装置100に対する操作が入力されるように構成されている。入力装置85は、たとえば、マウス、キーボード、スイッチ、タッチパネルなどが含まれる。
The
モータコントローラ86は、CPU81の制御によりモータアンプ90を介して各種モータ91(モータ51、モータ61、実装ヘッド42の昇降モータ(Z軸モータ)、実装ヘッド42の回転モータ(R軸モータ)など)を駆動させるように構成されている。カメラI/F(インターフェース)は、部品認識カメラ7および基板認識カメラ43が接続されている。また、カメラI/Fは、CPU81に接続されている。これにより、CPU81と、部品認識カメラ7および基板認識カメラ43とをそれぞれ接続するように構成されている。
The
照明コントローラ88は、CPU81の制御により照明71および44を駆動させるように構成されている。各種I/O(入出力)89は、CPU81に対して、入力および出力される信号を制御するように構成されている。
The
ここで、第1実施形態では、CPU81は、部品認識カメラ7により撮像した部品31の画像を拡大処理するように構成されている。具体的には、CPU81は、部品31のサイズと、部品認識カメラ7の分解能と、画像から部品31の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行うように構成されている。そして、CPU81は、決定した拡大率により部品31の画像を拡大する処理を行うように構成されている。なお、部品31のサイズは、部品ライブラリとして記憶装置82に記憶されている。また、部品認識カメラ7の分解能は、マシンパラメータとして記憶装置82に記憶されている。
Here, in the first embodiment, the
また、CPU81は、拡大された部品31の画像に基づいて、部品31の位置を含む部品姿勢を検出するように構成されている。具体的には、図3に示すように、部品31の位置を含む部品姿勢が検出(認識)される。まず、図3の(1)において、部品31の外接線が認識される。そして、外接線に基づいて、仮中心位置C1が決定される。図3の(2)において、仮中心位置C1に基づいて、部品31のエッジ(外縁部)を検出するための6個のサンプリング領域Sa1が設定される。サンプリング領域Sa1は、部品31の短辺に1つずつ、長辺に2つずつ設定される。
The
図3の(3)において、各サンプリング領域Sa1において、部品31のエッジが検出される。そして、検出された部品31のエッジに基づいて仮中心位置C2と仮回転角度θ1が決定される。図3の(4)において、仮中心位置C2と仮回転角度θ1とに基づいて、6個のサンプリング領域Sa2が新たに設定される。図3の(5)において、各サンプリング領域Sa2において、部品31のエッジが検出される。そして、検出された部品31のエッジに基づいて中心位置C3と回転角度θ2が決定される。
In (3) of FIG. 3, the edge of the
また、CPU81は、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次式を用いて求めるように構成されている。具体的には、CPU81は、画像を拡大する際に、元の画像の画素の間に新たに画素を補間して拡大処理を行う。この場合、CPU81は、補間する画素の輝度値を周囲の4×4の合計16画素の輝度値を用いて3次式により求めるバイキュービック補間を行うように構成されている。これにより、部品31の画像を、部品31のエッジ(外縁部)のシャギーが目立たないより精度の高い滑らかなグラデーションを有する画像に拡大することが可能である。
The
また、CPU81は、部品31の画像のサンプリング領域幅の画素数が、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。具体的には、CPU81は、部品31の画像のサンプリング領域幅の画素数が、部品認識カメラ7の分解能以上の精度において、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。たとえば、撮像した画像の画素の1/N以下の大きさの画素を用いて部品31の外縁部の位置を検出する場合、サンプリング画素数は、N以上とすることが望ましい。図4に示す例のように、1/10の大きさの画素を用いる場合、サンプリング画素数は、10画素以上とすることが望ましい。
Further, the
(拡大倍率の決定処理)
図5および図6を参照して、拡大倍率の決定処理の一例について説明する。
(Magnification magnification determination process)
With reference to FIG. 5 and FIG. 6, an example of the enlargement magnification determination process will be described.
図5に示す例では、種類(サイズ)が異なる4つの部品31(部品A、部品B、部品Cおよび部品D)についての拡大倍率の決定処理について示している。なお、部品Aが一番大きいサイズの部品であり、部品B、部品C、部品Dの順でサイズが小さくなる。つまり、部品Aの長辺サイズLa1、部品Bの長辺サイズLb1、部品Cの長辺サイズLc1、部品Dの長辺サイズLd1の関係は、La1>Lb1>Lc1>Ld1となる。また、部品Aの短辺サイズLa2、部品Bの短辺サイズLb2、部品Cの短辺サイズLc2、部品Dの短辺サイズLd2の関係は、La2>Lb2>Lc2>Ld2となる。また、部品A、部品B、部品Cおよび部品Dは、一辺のサイズが1mm以下の極小サイズの部品である。 In the example illustrated in FIG. 5, an enlargement magnification determination process is illustrated for four components 31 (component A, component B, component C, and component D) of different types (sizes). Note that the component A is the largest component, and the size decreases in the order of the component B, the component C, and the component D. That is, the relationship among the long side size La1 of the part A, the long side size Lb1 of the part B, the long side size Lc1 of the part C, and the long side size Ld1 of the part D is La1> Lb1> Lc1> Ld1. Further, the relationship among the short side size La2 of the part A, the short side size Lb2 of the part B, the short side size Lc2 of the part C, and the short side size Ld2 of the part D is La2> Lb2> Lc2> Ld2. The parts A, B, C, and D are extremely small parts having a side size of 1 mm or less.
部品Aの長辺サイズ(画素数)Pa1は、部品認識カメラ7の分解能Rを用いて、Pa1=La1/Rと表される。また、部品Bの長辺サイズ(画素数)Pb1は、部品認識カメラ7の分解能Rを用いて、Pb1=Lb1/Rと表される。また、部品Cの長辺サイズ(画素数)Pc1は、部品認識カメラ7の分解能Rを用いて、Pc1=Lc1/Rと表される。部品Dの長辺サイズ(画素数)Pd1は、部品認識カメラ7の分解能Rを用いて、Pd1=Ld1/Rと表される。部品Aの短辺サイズ(画素数)Pa2は、Pa2=La2/Rと表される。また、部品Bの短辺サイズ(画素数)Pb2は、Pb2=Lb2/Rと表される。また、部品Cの短辺サイズ(画素数)Pc2は、Pc2=Lc2/Rと表される。部品Dの短辺サイズ(画素数)Pd2は、Pd2=Ld2/Rと表される。
The long side size (number of pixels) Pa1 of the component A is expressed as Pa1 = La1 / R using the resolution R of the
長辺サンプリング領域幅は、長辺の長さに基づいて設定される。たとえば、長辺サンプリング領域幅は、長辺の長さの1/2に設定される。つまり、部品Aの長辺サンプリング領域幅(画素数)Wa1は、Wa1=Pa1/2と表される。また、部品Bの長辺サンプリング領域幅(画素数)Wb1は、Wb1=Pb1/2と表される。また、部品Cの長辺サンプリング領域幅(画素数)Wc1は、Wc1=Pc1/2と表される。また、部品Dの長辺サンプリング領域幅(画素数)Wd1は、Wd1=Pd1/2と表される。部品Aの短辺サンプリング領域幅(画素数)Wa2は、Wa2=Pa2/2と表される。また、部品Bの短辺サンプリング領域幅(画素数)Wb2は、Wb2=Pb2/2と表される。また、部品Cの短辺サンプリング領域幅(画素数)Wc2は、Wc2=Pc2/2と表される。また、部品Dの短辺サンプリング領域幅(画素数)Wd2は、Wd2=Pd2/2と表される。 The long side sampling area width is set based on the length of the long side. For example, the long side sampling area width is set to ½ of the length of the long side. That is, the long-side sampling area width (number of pixels) Wa1 of the component A is expressed as Wa1 = Pa1 / 2. The long side sampling area width (number of pixels) Wb1 of the component B is expressed as Wb1 = Pb1 / 2. Further, the long-side sampling area width (number of pixels) Wc1 of the component C is expressed as Wc1 = Pc1 / 2. Further, the long-side sampling area width (number of pixels) Wd1 of the component D is expressed as Wd1 = Pd1 / 2. The short-side sampling area width (number of pixels) Wa2 of the component A is expressed as Wa2 = Pa2 / 2. Further, the short-side sampling area width (number of pixels) Wb2 of the component B is expressed as Wb2 = Pb2 / 2. Further, the short side sampling area width (number of pixels) Wc2 of the component C is expressed as Wc2 = Pc2 / 2. Further, the short-side sampling area width (number of pixels) Wd2 of the component D is expressed as Wd2 = Pd2 / 2.
ここで、長辺よりも短辺の方が短いため、サンプリング領域幅(画素数)も短辺の方が短くなる。つまり、短辺サンプリング幅が部品31のエッジ(外縁部)を検出するのに必要な幅(画素数)となるように、拡大することができれば、長辺サンプリング幅も部品31のエッジ(外縁部)を検出するのに必要な幅(画素数)となる。
Here, since the short side is shorter than the long side, the sampling area width (number of pixels) is also shorter on the short side. That is, if the short side sampling width can be enlarged so as to be a width (number of pixels) necessary for detecting the edge (outer edge portion) of the
部品Aの拡大倍率は、部品31のエッジ(外縁部)を検出するのに必要な幅(画素数)nを用いて、Wa2/nとした値以上で、かつ、最も小さい自然数の値となる。同様に、部品B、部品Cおよび部品Dの拡大倍率が求められる。なお、図5に示す例の場合、部品Aの拡大倍率は1倍となり、部品Bの拡大倍率は2倍となり、部品Cの拡大倍率は3倍となり、部品Dの拡大倍率は3倍となる。
The magnification of component A is equal to or larger than Wa2 / n using the width (number of pixels) n necessary to detect the edge (outer edge) of
次に、図6を参照して、部品実装装置100のCPU81による拡大倍率の決定処理についてフローチャートに基づいて説明する。
Next, with reference to FIG. 6, an enlargement magnification determination process by the
図6のステップS1において、部品ライブラリとして記憶装置82に記憶された部品サイズが読み出される。ステップS2において、マシンパラメータとして記憶装置82に記憶された部品認識カメラ7の分解能が読み出される。
In step S1 of FIG. 6, the component size stored in the
ステップS3において、画像の拡大率が、部品サイズと、部品認識カメラ7の分解能と、部品31の水平方向(X方向およびY方向)の外縁部の位置を検出するためのサンプリング領域幅(画素数)に必要とされる画素数nとから決定される。その後、拡大倍率の決定処理が終了される。
In step S3, the enlargement ratio of the image is the component size, the resolution of the
(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effect of 1st Embodiment)
In the first embodiment, the following effects can be obtained.
第1実施形態では、上記のように、部品31のサイズと、部品認識カメラ7の分解能と、画像から部品31の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行うCPU81を設ける。これにより、部品31のサイズや部品認識カメラ7の分解能が変化しても、部品31の外縁部の位置を検出可能なサンプリング画素数が確保されるように画像を拡大することができるので、拡大した画像により部品31の位置および姿勢を精度よく認識することができる。その結果、極小の部品31を精度よく認識することができる。
In the first embodiment, as described above, based on the size of the
また、第1実施形態では、CPU81により拡大された部品31の画像に基づいて、部品31の位置を含む部品姿勢を検出するように構成する。これにより、拡大された画像により極小の部品31の位置を含む部品姿勢を精度よく認識することができる。
In the first embodiment, the component posture including the position of the
また、第1実施形態では、CPU81を、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次式を用いて求めるように構成する。これにより、3次式により滑らかに画素を補間して画像を拡大することができるので、拡大した画像により極小の部品31をより精度よく認識することができる。
In the first embodiment, the
また、第1実施形態では、CPU81を、部品31の画像のサンプリング領域幅の画素数が、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成する。これにより、部品31の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小の部品31をより精度よく認識することができる。
In the first embodiment, the
また、第1実施形態では、CPU81を、部品31の画像のサンプリング領域幅の画素数が、部品認識カメラ7の分解能以上の精度において、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成する。これにより、部品認識カメラ7の分解能以上の精度が必要な場合でも、部品31の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小の部品31をより一層精度よく認識することができる。
In the first embodiment, the
[第2実施形態]
次に、図7〜図9を参照して、本発明の第2実施形態について説明する。この第2実施形態では、部品31のサイズと、部品認識カメラ7の分解能と、画像から部品31の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行う上記第1実施形態とは異なり、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理を行う構成の例について説明する。なお、第1実施形態と同様の箇所には同様の符号を付している。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. In the second embodiment, the image enlargement ratio is determined based on the size of the
ここで、第2実施形態では、CPU81は、部品認識カメラ7により撮像した部品31の画像を拡大処理するように構成されている。具体的には、CPU81は、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値(3σ)とに基づいて、画像の拡大率を決定する処理を行うように構成されている。そして、CPU81は、決定した拡大率により部品31の画像を拡大する処理を行うように構成されている。
Here, in the second embodiment, the
また、CPU81は、画像に対して部品31を移動させた複数の位置および姿勢の部品31の画像に基づいて、位置精度標準偏差を求めるように構成されている。
Further, the
具体的には、図7の例に示すように、部品31の種類(サイズ)毎にX方向、Y方向およびA(回転方向)の画像処理精度の規格値(3σ)が設定されている。なお、σは、標準偏差である。
Specifically, as shown in the example of FIG. 7, the standard value (3σ) of the image processing accuracy in the X direction, the Y direction, and the A (rotation direction) is set for each type (size) of the
部品Aの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、0.750度未満である。また、部品Bの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、1.000度未満である。また、部品Cの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、1.250度未満である。また、部品Dの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、1.500度未満である。 In the case of component A, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is less than 0.750 degrees. is there. In the case of component B, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is 1.000 degrees. Is less than. In the case of component C, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is 1.250 degrees. Is less than. In the case of component D, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is 1.500 degrees. Is less than.
(拡大倍率の決定処理)
図8および図9を参照して、拡大倍率の決定処理の一例について説明する。
(Magnification magnification determination process)
With reference to FIG. 8 and FIG. 9, an example of the magnification determination process will be described.
第2実施形態では、実際の部品実装装置100により拡大倍率を変更して画像処理を行った位置精度結果と、予め設定した規格値から拡大倍率を決定するように構成されている。つまり、画像に対して部品31を移動させて、画像を拡大し、部品31の位置を検出させる。そして、部品31を移動させた量と、拡大画像中の部品31の位置を比較して、ずれ量が測定される。この測定されたずれ量の統計が規格値の範囲内で、かつ、最小の拡大倍率が選択される。なお、画像に対して部品31を移動させる処理は、実際に部品31の位置を相対移動させながら、複数の画像を撮像してもよいし、撮像した部品31の画像中の位置を画像処理により移動させてもよい。
The second embodiment is configured to determine the enlargement magnification from the position accuracy result obtained by performing image processing by changing the enlargement magnification by the actual
図8に示す例では、部品Aは、拡大倍率が1倍の場合、X方向の3σが0.004となり、Y方向の3σが0.003となり、A方向(回転方向)の3σが0.739となった。また、拡大倍率が2倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.230となった。拡大倍率が3倍の場合、X方向の3σが0.002となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.185となった。拡大倍率が4倍の場合、X方向の3σが0.002となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.184となった。この場合、拡大倍率が1倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、1倍に決定される。 In the example shown in FIG. 8, when the magnification is 1, the component A has 3σ in the X direction of 0.004, 3σ in the Y direction is 0.003, and 3σ in the A direction (rotation direction) is 0.00. 739. When the enlargement magnification was 2, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.230. When the magnification was 3, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.185. When the magnification was 4, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.184. In this case, since the position accuracy result after image processing is within the range of the standard value of the image processing accuracy when the enlargement magnification is 1 or more, the enlargement magnification is determined to be 1.
図8に示す例では、部品Bは、拡大倍率が1倍の場合、X方向の3σが0.005となり、Y方向の3σが0.003となり、A方向(回転方向)の3σが1.437となった。また、拡大倍率が2倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.408となった。拡大倍率が3倍の場合、X方向の3σが0.002となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.285となった。拡大倍率が4倍の場合、X方向の3σが0.001となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.187となった。この場合、拡大倍率が1倍において、X方向の位置精度結果と、A方向(回転方向)の位置精度結果とが画像処理精度の規格値の範囲外となる。また、拡大倍率が2倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、2倍に決定される。 In the example shown in FIG. 8, when the magnification of the component B is 1, the 3σ in the X direction is 0.005, the 3σ in the Y direction is 0.003, and the 3σ in the A direction (rotation direction) is 1. 437. When the enlargement magnification was 2, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.408. When the magnification was 3, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.285. When the magnification was 4, the 3σ in the X direction was 0.001, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.187. In this case, when the enlargement magnification is 1, the position accuracy result in the X direction and the position accuracy result in the A direction (rotation direction) are out of the standard value range of the image processing accuracy. In addition, when the enlargement magnification is 2 times or more, the position accuracy result obtained by performing the image processing is within the range of the standard value of the image processing accuracy, so the enlargement magnification is determined to be 2 times.
図8に示す例では、部品Cは、拡大倍率が1倍の場合、X方向の3σが0.006となり、Y方向の3σが0.004となり、A方向(回転方向)の3σが1.482となった。また、拡大倍率が2倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.740となった。拡大倍率が3倍の場合、X方向の3σが0.003となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.853となった。拡大倍率が4倍の場合、X方向の3σが0.002となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.833となった。この場合、拡大倍率が1倍において、X方向の位置精度結果と、A方向(回転方向)の位置精度結果とが画像処理精度の規格値の範囲外となる。また、拡大倍率が2倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、2倍に決定される。 In the example shown in FIG. 8, when the magnification of the component C is 1, the 3σ in the X direction is 0.006, the 3σ in the Y direction is 0.004, and the 3σ in the A direction (rotation direction) is 1. 482. When the enlargement magnification was 2, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.740. When the magnification was 3, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.853. When the magnification was 4, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.833. In this case, when the enlargement magnification is 1, the position accuracy result in the X direction and the position accuracy result in the A direction (rotation direction) are out of the standard value range of the image processing accuracy. In addition, when the enlargement magnification is 2 times or more, the position accuracy result obtained by performing the image processing is within the range of the standard value of the image processing accuracy. Therefore, the enlargement magnification is determined to be 2 times.
図8に示す例では、部品Dは、拡大倍率が1倍の場合、X方向の3σが0.009となり、Y方向の3σが0.005となり、A方向(回転方向)の3σが3.420となった。また、拡大倍率が2倍の場合、X方向の3σが0.005となり、Y方向の3σが0.003となり、A方向(回転方向)の3σが1.287となった。拡大倍率が3倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが1.201となった。拡大倍率が4倍の場合、X方向の3σが0.002となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが1.031となった。この場合、拡大倍率が1倍において、X方向の位置精度結果と、Y方向の位置精度結果と、A方向(回転方向)の位置精度結果とが画像処理精度の規格値の範囲外となる。また、拡大倍率が2倍において、X方向の位置精度結果が画像処理精度の規格値の範囲外となる。また、拡大倍率が3倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、3倍に決定される。 In the example shown in FIG. 8, when the magnification of the component D is 1, the 3σ in the X direction is 0.009, the 3σ in the Y direction is 0.005, and the 3σ in the A direction (rotation direction) is 3. 420. When the enlargement magnification was 2, the 3σ in the X direction was 0.005, the 3σ in the Y direction was 0.003, and the 3σ in the A direction (rotation direction) was 1.287. When the magnification was 3, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 1.201. When the magnification was 4, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 1.031. In this case, when the enlargement magnification is 1, the position accuracy result in the X direction, the position accuracy result in the Y direction, and the position accuracy result in the A direction (rotation direction) are out of the standard value range of the image processing accuracy. Further, when the enlargement magnification is 2, the position accuracy result in the X direction is out of the range of the standard value of the image processing accuracy. In addition, when the enlargement magnification is 3 times or more, the position accuracy result obtained by performing the image processing is within the range of the standard value of the image processing accuracy, so the enlargement magnification is determined to be 3 times.
次に、図9を参照して、部品実装装置100のCPU81による拡大倍率の決定処理についてフローチャートに基づいて説明する。
Next, with reference to FIG. 9, an enlargement magnification determination process by the
図9のステップS11において、部品認識カメラ7により部品31が撮像され、撮像された部品31の画像が記憶される。ステップS12において、位置精度を計測するために、X方向、Y方向およびA方向(回転方向)に部品31を移動させた複数の画像が作成されて記憶される。
In step S11 in FIG. 9, the
ステップS13において、各画像を画像処理して、部品31の位置および姿勢が計測(検出)される。ステップS14において、部品31を移動させた量と、画像処理を行い部品31の位置および姿勢を計測した結果とから、位置精度標準偏差が求められる。
In step S13, each image is subjected to image processing, and the position and orientation of the
ステップS15において、位置精度標準偏差が規格値の範囲内であるか否かが判断される。規格値の範囲内でなければ、ステップS16に進み、規格値の範囲内であれば、ステップS18に進む。ステップS16において、画像の拡大倍率が+1にされる。たとえば、拡大倍率が1倍の場合、2倍にされる。また、2倍の場合、3倍にされる。 In step S15, it is determined whether or not the position accuracy standard deviation is within the range of the standard value. If it is not within the range of the standard value, the process proceeds to step S16, and if it is within the range of the standard value, the process proceeds to step S18. In step S16, the image enlargement magnification is set to +1. For example, when the enlargement magnification is 1, it is doubled. Further, in the case of double, it is tripled.
ステップS17において、拡大倍率に従って各画像が拡大処理される。その後、ステップS13に戻る。 In step S17, each image is enlarged according to the magnification. Thereafter, the process returns to step S13.
ステップS15において、位置精度標準偏差が規格値の範囲内であると判断された場合、ステップS18において、規格値の範囲ないの倍率が、拡大倍率として決定される。その後、拡大倍率の決定処理が終了される。 When it is determined in step S15 that the position accuracy standard deviation is within the range of the standard value, in step S18, a magnification having no standard value range is determined as the enlargement magnification. Thereafter, the enlargement magnification determination process is terminated.
なお、第2実施形態のその他の構成は、上記第1実施形態と同様である。 In addition, the other structure of 2nd Embodiment is the same as that of the said 1st Embodiment.
(第2実施形態の効果)
第2実施形態では、以下のような効果を得ることができる。
(Effect of 2nd Embodiment)
In the second embodiment, the following effects can be obtained.
上記のように、第2実施形態では、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値(3σ)とに基づいて、画像の拡大率を決定する処理を行うCPU81を設ける。これにより、部品31の位置検出の誤差を規格値(3σ)以内の精度となるように画像を拡大することができるので、拡大した画像により部品31の位置および姿勢を精度よく認識することができる。その結果、極小の部品31を精度よく認識することができる。
As described above, in the second embodiment, the image is enlarged based on the position accuracy standard deviation which is the standard deviation of the position detection error that changes depending on the image enlargement ratio and the preset standard value (3σ). A
また、第2実施形態では、上記のように、画像に対して部品31を移動させた複数の位置および姿勢の部品31の画像に基づいて、位置精度標準偏差が求められるように構成されている。これにより、画像の拡大率を決定する際に用いる位置精度標準偏差を部品31に応じて容易に求めることができるので、画像の最適な拡大率を容易に決定することができる。
Further, in the second embodiment, as described above, the position accuracy standard deviation is obtained based on the images of the
なお、第2実施形態のその他の効果は、上記第1実施形態と同様である。 The remaining effects of the second embodiment are similar to those of the aforementioned first embodiment.
(変形例)
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
(Modification)
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiment but by the scope of claims for patent, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims for patent.
たとえば、上記第1および第2実施形態では、本発明を基板作業装置としての部品実装装置に適用する例を示したが、本発明はこれに限られない。本発明を部品実装装置以外に適用してもよい。たとえば、本発明を部品が実装された基板を検査する検査装置に適用してもよい。この場合、撮像部は、基板に実装された部品を撮像してもよい。また、撮像部は、可視光に基づいて部品を撮像しなくてもよい。たとえば、撮像部は、赤外光やX線などに基づいて部品を撮像してもよい。 For example, in the first and second embodiments, the example in which the present invention is applied to a component mounting apparatus as a board working apparatus has been described, but the present invention is not limited to this. The present invention may be applied to devices other than component mounting apparatuses. For example, the present invention may be applied to an inspection apparatus that inspects a board on which components are mounted. In this case, the imaging unit may image a component mounted on the board. Further, the imaging unit does not have to image the component based on visible light. For example, the imaging unit may image a component based on infrared light, X-rays, or the like.
また、上記第1実施形態では、CPU(画像処理部)が、部品のサイズと、部品認識カメラ(撮像部)の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行う例を示し、上記第2実施形態では、CPU(画像処理部)が、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理を行う例を示したが、本発明はこれに限られない。本発明では、画像処理部が、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理との両方を行ってもよい。 In the first embodiment, the sampling pixel necessary for the CPU (image processing unit) to detect the size of the component, the resolution of the component recognition camera (imaging unit), and the position of the outer edge of the component from the image. In the second embodiment, the CPU (image processing unit) uses a standard deviation of a position detection error that varies depending on the image enlargement rate. Although the example which performs the process which determines the magnification rate of an image based on a certain positional accuracy standard deviation and the preset standard value was shown, this invention is not limited to this. In the present invention, the image processing unit determines an image enlargement ratio based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. Both processing and processing for determining the image enlargement ratio based on the standard deviation of position accuracy, which is a standard deviation of the position detection error that changes depending on the image enlargement ratio, and a preset standard value are performed. Also good.
また、上記第1および第2実施形態では、画像の拡大率を決定したCPU(画像処理部)により、画像中の部品の位置を含む部品姿勢が検出される構成の例を示したが、本発明はこれに限られない。本発明では、画像の拡大率を決定した画像処理部とは別個の処理部により、画像中の部品の位置を含む部品姿勢が検出されてもよい。 Further, in the first and second embodiments, the example of the configuration in which the component posture including the position of the component in the image is detected by the CPU (image processing unit) that determines the enlargement ratio of the image has been described. The invention is not limited to this. In the present invention, the component posture including the position of the component in the image may be detected by a processing unit that is separate from the image processing unit that has determined the image enlargement ratio.
また、上記第1および第2実施形態では、部品認識カメラ(撮像部)がエリアカメラである構成の例を示したが、本発明はこれに限られない。本発明では、撮像部がラインカメラであってもよい。 Moreover, in the said 1st and 2nd embodiment, although the example of the structure whose component recognition camera (imaging part) is an area camera was shown, this invention is not limited to this. In the present invention, the imaging unit may be a line camera.
また、上記第1および第2実施形態では、位置精度標準偏差として±3σを用いた例を示したが、本発明はこれに限られない。本発明では、位置精度標準偏差として±σや、±2σを用いてもよい。また、位置精度標準偏差として平均値±σ、平均値±2σ、平均値±3σなどを用いてもよい。 In the first and second embodiments, the example using ± 3σ as the position accuracy standard deviation is shown, but the present invention is not limited to this. In the present invention, ± σ or ± 2σ may be used as the position accuracy standard deviation. In addition, an average value ± σ, an average value ± 2σ, an average value ± 3σ, or the like may be used as the position accuracy standard deviation.
また、上記第1および第2実施形態では、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次式を用いて求める構成の例を示したが、本発明はこれに限られない。本発明では、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を4次以上の高次式を用いて求めるように構成してもよい。また、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を2次以下の式を用いて求めるように構成してもよい。 In the first and second embodiments, when the image is enlarged, an example of a configuration in which the luminance value of the pixel to be interpolated is obtained using a cubic equation based on the luminance values of a plurality of surrounding pixels. Although shown, the present invention is not limited to this. In the present invention, when the image is enlarged, the luminance value of the pixel to be interpolated may be obtained using a higher-order expression of the fourth or higher order based on the luminance values of a plurality of surrounding pixels. Further, when the image is enlarged, the luminance value of the pixel to be interpolated may be obtained using a quadratic or lower formula based on the luminance values of a plurality of surrounding pixels.
また、上記第1および第2実施形態では、説明の便宜上、CPU(画像処理部)の処理を処理フローに沿って順番に処理を行うフロー駆動型のフローを用いて説明したが、本発明はこれに限られない。本発明では、CPUの処理を、イベント単位で処理を実行するイベント駆動型(イベントドリブン型)の処理により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。 In the first and second embodiments, for the sake of convenience of explanation, the processing of the CPU (image processing unit) has been described using a flow-driven flow in which processing is performed in order along the processing flow. It is not limited to this. In the present invention, the processing of the CPU may be performed by event driven type (event driven type) processing that executes processing in units of events. In this case, it may be performed by a complete event drive type or a combination of event drive and flow drive.
4 ヘッドユニット(作業部)
7 部品認識カメラ(撮像部)
31 部品
42 実装ヘッド
81 CPU(画像処理部)
100 部品実装装置(基板作業装置)
P 基板
4 Head unit (working section)
7 Component recognition camera (imaging part)
31
100 Component mounting equipment (board work equipment)
P substrate
Claims (7)
前記部品を撮像可能な撮像部と、
前記撮像部により撮像した前記部品の画像を拡大処理する画像処理部とを備え、
前記画像処理部は、予め取得した前記部品のサイズと、前記撮像部の分解能と、画像から前記部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、前記部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている、基板作業装置。 A working unit that performs work on a board on which components are mounted;
An imaging unit capable of imaging the component;
An image processing unit for enlarging the image of the component imaged by the imaging unit,
Wherein the image processing unit, based on the size of the previously acquired the component has, and resolution of the imaging unit, and the number of sampling pixels necessary for detecting the position of the outer edge of the from the image part, the outer edge of the component Before performing the process of detecting the position of the part, the process of determining the enlargement ratio of the image, the position accuracy standard deviation that is the standard deviation of the position detection error that changes according to the enlargement ratio of the image, and a preset standard value A substrate working apparatus configured to perform at least one of processing for determining an image enlargement ratio based on the above.
前記実装ヘッドに保持された前記部品を撮像可能な撮像部と、
前記撮像部により撮像した前記部品の画像を拡大処理する画像処理部とを備え、
前記画像処理部は、予め取得した前記部品のサイズと、前記撮像部の分解能と、画像から前記部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、前記部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている、部品実装装置。 A mounting head that performs the work of mounting components on the board;
An imaging unit capable of imaging the component held by the mounting head;
An image processing unit for enlarging the image of the component imaged by the imaging unit,
Wherein the image processing unit, based on the size of the previously acquired the component has, and resolution of the imaging unit, and the number of sampling pixels necessary for detecting the position of the outer edge of the from the image part, the outer edge of the component Before performing the process of detecting the position of the part, the process of determining the enlargement ratio of the image, the position accuracy standard deviation that is the standard deviation of the position detection error that changes according to the enlargement ratio of the image, and a preset standard value And a component mounting apparatus configured to perform at least one of processing for determining an image enlargement ratio based on the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016011394A JP6602213B2 (en) | 2016-01-25 | 2016-01-25 | Board working apparatus and component mounting apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016011394A JP6602213B2 (en) | 2016-01-25 | 2016-01-25 | Board working apparatus and component mounting apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017135143A JP2017135143A (en) | 2017-08-03 |
JP6602213B2 true JP6602213B2 (en) | 2019-11-06 |
Family
ID=59505042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016011394A Active JP6602213B2 (en) | 2016-01-25 | 2016-01-25 | Board working apparatus and component mounting apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6602213B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7181027B2 (en) * | 2018-08-29 | 2022-11-30 | ヤマハ発動機株式会社 | Recognition device, surface mounter, and position recognition method for recognition target |
-
2016
- 2016-01-25 JP JP2016011394A patent/JP6602213B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017135143A (en) | 2017-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5918622B2 (en) | Component or board working device and component mounting device | |
JP5574379B2 (en) | Image processing apparatus and image processing method | |
WO2015045649A1 (en) | Component mounting device | |
JP6602213B2 (en) | Board working apparatus and component mounting apparatus | |
JP6199000B2 (en) | Information processing device | |
US10893639B2 (en) | Component mounting using feedback correction | |
JP7094282B2 (en) | Anti-board work equipment | |
JP4927776B2 (en) | Component mounting method | |
JP2007281312A (en) | Part mounting method | |
JP5995307B2 (en) | Recognition device, recognition method, program, and board manufacturing method | |
JP4530763B2 (en) | Part data creation method and part data creation apparatus | |
JP3678895B2 (en) | Electronic component mounting device | |
JP2013207270A (en) | Mounting device, mounting position correction method, program and substrate manufacturing method | |
JPS63109307A (en) | Apparatus for inspecting mounting of chip part | |
JPWO2017072908A1 (en) | Board position search device and component mounting machine | |
JP6614029B2 (en) | ROBOT HAND POSITION DETECTION DEVICE, ROBOT DEVICE, AND ROBOT HAND POSITION DETECTION METHOD | |
JP6623310B2 (en) | Die component supply device | |
JP2002124799A (en) | Method and device for teaching mounting position, and recording medium of mounting position teaching program | |
JP3921334B2 (en) | Printed circuit board assembly equipment | |
JP3972773B2 (en) | ROBOT, POSITION DETECTING METHOD BY ROBOT, WORKING DEVICE HAVING ROBOT, AND POSITION DETECTING METHOD BY WORKING DEVICE HAVING ROBOT | |
JP6277044B2 (en) | Substrate processing apparatus and mounting machine | |
WO2022102524A1 (en) | Data creation system, learning system, estimation system, processing device, data creation method, and program | |
JP5627530B2 (en) | Component direction determination apparatus and component direction determination method | |
JPWO2019058475A1 (en) | Shape data comparison device | |
JP3916860B2 (en) | Printed circuit board assembly equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6602213 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |