JP6602213B2 - Board working apparatus and component mounting apparatus - Google Patents

Board working apparatus and component mounting apparatus Download PDF

Info

Publication number
JP6602213B2
JP6602213B2 JP2016011394A JP2016011394A JP6602213B2 JP 6602213 B2 JP6602213 B2 JP 6602213B2 JP 2016011394 A JP2016011394 A JP 2016011394A JP 2016011394 A JP2016011394 A JP 2016011394A JP 6602213 B2 JP6602213 B2 JP 6602213B2
Authority
JP
Japan
Prior art keywords
component
image
enlargement ratio
pixels
outer edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016011394A
Other languages
Japanese (ja)
Other versions
JP2017135143A (en
Inventor
真一 岡嵜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2016011394A priority Critical patent/JP6602213B2/en
Publication of JP2017135143A publication Critical patent/JP2017135143A/en
Application granted granted Critical
Publication of JP6602213B2 publication Critical patent/JP6602213B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、基板作業装置および部品実装装置に関し、特に、撮像部を備えた基板作業装置および部品実装装置に関する。   The present invention relates to a board working apparatus and a component mounting apparatus, and more particularly to a board working apparatus and a component mounting apparatus provided with an imaging unit.

従来、撮像部を備えた部品実装装置が知られている(たとえば、特許文献1参照)。   Conventionally, a component mounting apparatus including an imaging unit is known (for example, see Patent Document 1).

上記特許文献1には、基板に部品を実装する部品保持ヘッドと、部品保持ヘッドに保持された部品を撮像する部品カメラ(撮像部)と、部品カメラにより撮像した部品の画像を拡大または縮小処理する画像処理コンピュータとを備える電子回路部品装着機(部品実装装置)が開示されている。この特許文献1の電子回路部品装着機では、部品のサイズに応じた指定倍率により部品の画像が拡大または縮小処理されるように構成されている。   In Patent Document 1, a component holding head for mounting a component on a substrate, a component camera (imaging unit) for imaging a component held by the component holding head, and an enlargement / reduction process for an image of the component captured by the component camera An electronic circuit component mounting machine (component mounting apparatus) including an image processing computer is disclosed. The electronic circuit component mounting machine of Patent Document 1 is configured such that an image of a component is enlarged or reduced at a specified magnification according to the size of the component.

特開2003−273589号公報JP 2003-273589 A

しかしながら、上記特許文献1の電子回路部品装着機(部品実装装置)では、部品のサイズに応じた指定倍率により部品の画像が拡大または縮小処理されるように構成されているため、極小部品の画像を単純に指定倍率で拡大した場合に、極小部品が鮮明に表示されない場合もあると考えられる。この場合には、極小部品を精度よく認識することが困難であるという問題点がある。   However, the electronic circuit component mounting machine (component mounting apparatus) disclosed in Patent Document 1 is configured such that an image of a component is enlarged or reduced at a specified magnification in accordance with the size of the component. It is considered that there is a case where the minimal parts are not clearly displayed when the image is simply enlarged at a specified magnification. In this case, there is a problem that it is difficult to accurately recognize the minimal component.

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、極小部品を精度よく認識することが可能な基板作業装置および部品実装装置を提供することである。   The present invention has been made to solve the above-described problems, and one object of the present invention is to provide a substrate working apparatus and a component mounting apparatus capable of accurately recognizing a minimal component. It is.

この発明の第1の局面による基板作業装置は、部品が実装される基板に対して作業を行う作業部と、部品を撮像可能な撮像部と、撮像部により撮像した部品の画像を拡大処理する画像処理部とを備え、画像処理部は、予め取得した部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている。 According to a first aspect of the present invention, there is provided a substrate working apparatus that performs a work on a substrate on which a component is mounted, an imaging unit capable of imaging the component, and an enlargement process of an image of the component captured by the imaging unit. and an image processing unit, an image processing unit, based on the component size of the previously obtained, and the resolution of the imaging unit, and the number of sampling pixels necessary for detecting the position of the outer edge of the component from the image, parts Before performing the process of detecting the position of the outer edge of the image, the process of determining the enlargement ratio of the image, and the position accuracy standard deviation that is the standard deviation of the position detection error that changes depending on the enlargement ratio of the image, are set in advance. It is configured to perform at least one of processing for determining an image enlargement ratio based on the standard value.

この発明の第1の局面による基板作業装置では、上記のように、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行う画像処理部を設ける。これにより、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定した場合には、部品のサイズや撮像部の分解能が変化しても、部品の外縁部の位置を検出可能なサンプリング画素数が確保されるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。また、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定した場合には、部品の位置検出の誤差を規格値以内の精度となるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。これらの結果、極小部品を精度よく認識することができる。   In the substrate working apparatus according to the first aspect of the present invention, as described above, based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. The image enlargement ratio is determined based on the process for determining the image enlargement ratio, the position accuracy standard deviation that is the standard deviation of the position detection error that varies depending on the image enlargement ratio, and a preset standard value. An image processing unit that performs at least one of the determination process is provided. As a result, when the enlargement ratio of the image is determined based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image, Even if the size or resolution of the imaging unit changes, the image can be enlarged so that the number of sampling pixels that can detect the position of the outer edge of the component is ensured. It can be recognized accurately. In addition, when the image enlargement ratio is determined based on the position accuracy standard deviation, which is the standard deviation of the position detection error that changes depending on the image enlargement ratio, and a preset standard value, the position detection of the component is performed. Since the image can be enlarged so that the accuracy of the error is within the standard value, the position and orientation of the component can be accurately recognized from the enlarged image. As a result, it is possible to accurately recognize the minimal component.

上記第1の局面による基板作業装置において、好ましくは、画像処理部により拡大された部品の画像に基づいて、部品の位置を含む部品姿勢を検出するように構成されている。このように構成すれば、拡大された画像により極小部品の位置を含む部品姿勢を精度よく認識することができる。   The substrate working apparatus according to the first aspect is preferably configured to detect a component posture including a component position based on an image of the component enlarged by the image processing unit. If comprised in this way, the components attitude | position including the position of a minimal component can be recognized with high precision by the enlarged image.

上記第1の局面による基板作業装置において、好ましくは、画像処理部は、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次以上の高次式を用いて求めるように構成されている。このように構成すれば、3次以上の高次式により滑らかに画素を補間して画像を拡大することができるので、拡大した画像により極小部品をより精度よく認識することができる。   In the substrate working apparatus according to the first aspect, preferably, when the image processing unit enlarges the image, the image processing unit sets a luminance value of a pixel to be interpolated based on luminance values of a plurality of surrounding pixels to a third or higher order. It is comprised so that it may obtain | require using a high-order type | formula. With this configuration, the image can be enlarged by smoothly interpolating the pixels using a higher-order expression of the third or higher order, so that the minimal component can be recognized more accurately from the enlarged image.

上記第1の局面による基板作業装置において、好ましくは、画像処理部は、部品の画像のサンプリング領域幅の画素数が、部品の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。このように構成すれば、部品の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小部品をより精度よく認識することができる。   In the substrate working apparatus according to the first aspect, preferably, in the image processing unit, the number of pixels in the sampling area width of the component image is equal to or more than the number of sampling pixels necessary for detecting the position of the outer edge portion of the component. As described above, the image enlargement ratio is determined. With this configuration, the image can be enlarged so as to ensure the number of sampling pixels that can detect the position of the outer edge of the component, so that the minimal component can be recognized more accurately from the enlarged image. Can do.

この場合、好ましくは、画像処理部は、部品の画像のサンプリング領域幅の画素数が、撮像部の分解能以上の精度において、部品の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。このように構成すれば、撮像部の分解能以上の精度が必要な場合でも、部品の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小部品をより一層精度よく認識することができる。   In this case, the image processing unit is preferably configured such that the number of pixels of the sampling area width of the image of the component is greater than the number of sampling pixels necessary for detecting the position of the outer edge of the component with an accuracy equal to or higher than the resolution of the imaging unit. Thus, the image enlargement ratio is determined. By configuring in this way, even when accuracy higher than the resolution of the imaging unit is required, the image can be enlarged so as to ensure the number of sampling pixels that can detect the position of the outer edge of the component, The extremely small parts can be recognized with higher accuracy by the enlarged image.

上記第1の局面による基板作業装置において、好ましくは、画像処理部が画像の拡大率を決定する際に位置精度標準偏差を用いる場合、画像に対して部品を移動させた複数の位置および姿勢の部品の画像に基づいて、位置精度標準偏差が求められるように構成されている。このように構成すれば、画像の拡大率を決定する際に用いる位置精度標準偏差を部品に応じて容易に求めることができるので、画像の最適な拡大率を容易に決定することができる。   In the substrate working apparatus according to the first aspect, preferably, when the position accuracy standard deviation is used when the image processing unit determines the enlargement ratio of the image, the plurality of positions and postures in which the component is moved with respect to the image are used. Based on the image of the part, the position accuracy standard deviation is obtained. According to this configuration, the position accuracy standard deviation used when determining the image enlargement ratio can be easily obtained according to the part, so that the optimum image enlargement ratio can be easily determined.

この発明の第2の局面による部品実装装置は、基板に部品を実装する作業を行う実装ヘッドと、実装ヘッドに保持された部品を撮像可能な撮像部と、撮像部により撮像した部品の画像を拡大処理する画像処理部とを備え、画像処理部は、予め取得した部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている。 A component mounting apparatus according to a second aspect of the present invention includes a mounting head that performs an operation of mounting a component on a substrate, an imaging unit that can image the component held by the mounting head, and an image of the component captured by the imaging unit. An image processing unit that performs an enlargement process, and the image processing unit is based on the size of the component acquired in advance , the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. Before performing the process of detecting the position of the outer edge of the component, the process of determining the enlargement ratio of the image, the position accuracy standard deviation that is the standard deviation of the position detection error that changes according to the enlargement ratio of the image, Based on the set standard value, at least one of processing for determining the enlargement ratio of the image is performed.

この発明の第2の局面による部品実装装置では、上記のように、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行う画像処理部を設ける。これにより、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定した場合には、部品のサイズや撮像部の分解能が変化しても、部品の外縁部の位置を検出可能なサンプリング画素数が確保されるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。また、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定した場合には、部品の位置検出の誤差を規格値以内の精度となるように画像を拡大することができるので、拡大した画像により部品の位置および姿勢を精度よく認識することができる。これらの結果、極小部品を精度よく認識することが可能な部品実装装置を提供することができる。   In the component mounting apparatus according to the second aspect of the present invention, as described above, based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. The image enlargement ratio is determined based on the process for determining the image enlargement ratio, the position accuracy standard deviation that is the standard deviation of the position detection error that varies depending on the image enlargement ratio, and a preset standard value. An image processing unit that performs at least one of the determination process is provided. As a result, when the enlargement ratio of the image is determined based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image, Even if the size or resolution of the imaging unit changes, the image can be enlarged so that the number of sampling pixels that can detect the position of the outer edge of the component is ensured. It can be recognized accurately. In addition, when the image enlargement ratio is determined based on the position accuracy standard deviation, which is the standard deviation of the position detection error that changes depending on the image enlargement ratio, and a preset standard value, the position detection of the component is performed. Since the image can be enlarged so that the accuracy of the error is within the standard value, the position and orientation of the component can be accurately recognized from the enlarged image. As a result, it is possible to provide a component mounting apparatus capable of accurately recognizing extremely small components.

本発明によれば、上記のように、極小部品を精度よく認識することが可能な基板作業装置および部品実装装置を提供することができる。   According to the present invention, as described above, it is possible to provide a substrate working apparatus and a component mounting apparatus that can recognize a minimal component with high accuracy.

本発明の第1実施形態による部品実装装置の概略を示した平面図である。It is the top view which showed the outline of the component mounting apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による部品実装装置の制御的な構成を示したブロック図である。It is the block diagram which showed the control structure of the component mounting apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による部品実装装置の部品認識処理を説明するための図である。It is a figure for demonstrating the component recognition process of the component mounting apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による部品実装装置の部品認識処理の際のサンプリング画素数を説明するための図である。It is a figure for demonstrating the sampling pixel number in the case of the component recognition process of the component mounting apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による部品実装装置の拡大倍率の決定処理を説明するための表である。It is a table | surface for demonstrating the determination processing of the magnification of the component mounting apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による部品実装装置のCPUによる拡大倍率決定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the magnification determination process by CPU of the component mounting apparatus by 1st Embodiment of this invention. 本発明の第2実施形態による部品実装装置の画像処理精度の規格値を説明するための表である。It is a table | surface for demonstrating the standard value of the image processing precision of the component mounting apparatus by 2nd Embodiment of this invention. 本発明の第2実施形態による部品実装装置の拡大倍率の決定処理を説明するための表である。It is a table | surface for demonstrating the determination processing of the magnification of the component mounting apparatus by 2nd Embodiment of this invention. 本発明の第2実施形態による部品実装装置のCPUによる拡大倍率決定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the magnification determination process by CPU of the component mounting apparatus by 2nd Embodiment of this invention.

以下、本発明を具体化した実施形態を図面に基づいて説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below with reference to the drawings.

[第1実施形態]
(部品実装装置の構成)
まず、図1を参照して、本発明の第1実施形態による部品実装装置100の構成について説明する。
[First Embodiment]
(Configuration of component mounting device)
First, with reference to FIG. 1, the structure of the component mounting apparatus 100 by 1st Embodiment of this invention is demonstrated.

図1に示すように、部品実装装置100は、一対のコンベア2により基板PをX方向に搬送し、実装作業位置Mにおいて基板Pに部品31を実装する部品実装装置である。なお、部品実装装置100は、特許請求の範囲の「基板作業装置」の一例である。   As shown in FIG. 1, the component mounting apparatus 100 is a component mounting apparatus that transports a substrate P in the X direction by a pair of conveyors 2 and mounts a component 31 on the substrate P at a mounting work position M. The component mounting apparatus 100 is an example of the “board working apparatus” in the claims.

図1に示すように、部品実装装置100は、基台1と、一対のコンベア2と、部品供給部3と、ヘッドユニット4と、支持部5と、一対のレール部6と、部品認識カメラ7とを備えている。また、図2に示すように、部品実装装置100は、制御的な構成として、CPU(中央演算処理装置)81と、記憶装置82と、メモリ83と、表示部84と、入力装置85と、モータコントローラ86と、カメラI/F87と、照明コントローラ88と、各種I/O89と、モータアンプ90と、モータ91とを備えている。なお、ヘッドユニット4は、特許請求の範囲の「作業部」の一例であり、部品認識カメラ7は、特許請求の範囲の「撮像部」の一例である。また、CPU81は、特許請求の範囲の「画像処理部」の一例である。   As shown in FIG. 1, a component mounting apparatus 100 includes a base 1, a pair of conveyors 2, a component supply unit 3, a head unit 4, a support unit 5, a pair of rail units 6, and a component recognition camera. 7. As shown in FIG. 2, the component mounting apparatus 100 includes a CPU (Central Processing Unit) 81, a storage device 82, a memory 83, a display unit 84, an input device 85, and a control configuration. A motor controller 86, a camera I / F 87, a lighting controller 88, various I / O 89, a motor amplifier 90, and a motor 91 are provided. The head unit 4 is an example of the “working unit” in the claims, and the component recognition camera 7 is an example of the “imaging unit” in the claims. The CPU 81 is an example of the “image processing unit” in the claims.

一対のコンベア2は、基台1上に設置され、基板PをX方向に搬送するように構成されている。また、一対のコンベア2は、搬送中の基板Pを実装作業位置Mで停止させた状態で保持するように構成されている。また、一対のコンベア2は、基板Pの寸法に合わせてY方向の間隔を調整可能に構成されている。   The pair of conveyors 2 is installed on the base 1 and configured to transport the substrate P in the X direction. Further, the pair of conveyors 2 are configured to hold the substrate P being conveyed in a state where it is stopped at the mounting work position M. Further, the pair of conveyors 2 is configured to be able to adjust the interval in the Y direction according to the dimensions of the substrate P.

部品供給部3は、一対のコンベア2の外側(Y1側およびY2側)に配置されている。また、部品供給部3には、複数のテープフィーダ3aが配置されている。   The component supply unit 3 is disposed outside the pair of conveyors 2 (Y1 side and Y2 side). The component supply unit 3 is provided with a plurality of tape feeders 3a.

テープフィーダ3aは、複数の部品31を所定の間隔を隔てて保持したテープが巻き付けられたリール(図示せず)を保持している。テープフィーダ3aは、リールを回転させて部品31を保持するテープを送出することにより、テープフィーダ3aの先端から部品31を供給するように構成されている。ここで、部品31は、IC、トランジスタ、コンデンサおよび抵抗などの電子部品を含む。また、部品31は、一辺のサイズが1mm以下の極小の部品を含む。   The tape feeder 3a holds a reel (not shown) around which a tape holding a plurality of components 31 at a predetermined interval is wound. The tape feeder 3a is configured to supply the component 31 from the tip of the tape feeder 3a by sending a tape that holds the component 31 by rotating the reel. Here, the component 31 includes electronic components such as an IC, a transistor, a capacitor, and a resistor. The component 31 includes a minimal component having a side size of 1 mm or less.

ヘッドユニット4は、部品31が実装される基板Pに対して作業を行うように構成されている。具体的には、ヘッドユニット4は、一対のコンベア2および部品供給部3の上方位置に配置されており、ノズル41(図2参照)が下端に取り付けられた複数(5つ)の実装ヘッド42と、基板認識カメラ43とを含んでいる。   The head unit 4 is configured to perform work on the substrate P on which the component 31 is mounted. Specifically, the head unit 4 is disposed above the pair of conveyors 2 and the component supply unit 3, and a plurality (five) of mounting heads 42 having nozzles 41 (see FIG. 2) attached to the lower end. And a substrate recognition camera 43.

実装ヘッド42は、昇降可能(Z方向に移動可能)に構成され、負圧発生機(図示せず)によりノズル41の先端部に発生された負圧によって、テープフィーダ3aから供給される部品31を吸着して保持し、基板Pにおける実装位置(図2参照)に部品31を装着(実装)する作業を行うように構成されている。   The mounting head 42 is configured to be movable up and down (movable in the Z direction), and the component 31 supplied from the tape feeder 3a by the negative pressure generated at the tip of the nozzle 41 by a negative pressure generator (not shown). The component 31 is mounted and mounted at a mounting position (see FIG. 2) on the board P.

基板認識カメラ43は、基板Pの位置を認識するために、基板PのフィデューシャルマークFを撮像するように構成されている。そして、フィデューシャルマークFの位置を撮像して認識することにより、基板Pにおける部品31の実装位置を正確に取得することが可能である。また、基板認識カメラ43の近傍には、照明44(図2参照)が設けられている。照明44は、基板認識カメラ43の撮像時に可視光を基板Pに照射するように構成されている。これにより、基板認識カメラ43により基板Pを鮮明に撮像することが可能である。   The substrate recognition camera 43 is configured to image the fiducial mark F of the substrate P in order to recognize the position of the substrate P. Then, by capturing and recognizing the position of the fiducial mark F, it is possible to accurately acquire the mounting position of the component 31 on the board P. An illumination 44 (see FIG. 2) is provided in the vicinity of the board recognition camera 43. The illumination 44 is configured to irradiate the substrate P with visible light when the substrate recognition camera 43 captures an image. Thereby, the board | substrate recognition camera 43 can image the board | substrate P clearly.

支持部5は、モータ51を含んでいる。支持部5は、モータ51を駆動させることにより、支持部5に沿ってヘッドユニット4をX方向に移動させるように構成されている。支持部5は、両端部が一対のレール部6により支持されている。   The support unit 5 includes a motor 51. The support unit 5 is configured to move the head unit 4 in the X direction along the support unit 5 by driving the motor 51. Both ends of the support part 5 are supported by a pair of rail parts 6.

一対のレール部6は、基台1上に固定されている。X1側のレール部6は、モータ61を含んでいる。レール部6は、モータ61を駆動させることにより、支持部5を一対のレール部6に沿ってX方向と直交するY方向に移動させるように構成されている。ヘッドユニット4が支持部5に沿ってX方向に移動可能であるとともに、支持部5がレール部6に沿ってY方向に移動可能であることによって、ヘッドユニット4はXY方向に移動可能である。   The pair of rail portions 6 are fixed on the base 1. The rail portion 6 on the X1 side includes a motor 61. The rail portion 6 is configured to move the support portion 5 along the pair of rail portions 6 in the Y direction orthogonal to the X direction by driving the motor 61. The head unit 4 can move in the X direction along the support portion 5, and the support portion 5 can move in the Y direction along the rail portion 6, whereby the head unit 4 can move in the XY direction. .

部品認識カメラ7は、基台1の上面上に固定されている。部品認識カメラ7は、部品を撮像可能に構成されている。具体的には、部品認識カメラ7は、一対のコンベア2の外側(Y1側およびY2側)に配置されている。部品認識カメラ7は、部品31の実装に先立って部品31の吸着状態(吸着姿勢)を認識するために、実装ヘッド42のノズル41に吸着された部品31を下側(Z2側)から撮像するように構成されている。これにより、実装ヘッド42のノズル41に吸着された部品31の吸着状態をCPU81により取得することが可能である。また、部品認識カメラ7の近傍には、照明71(図2参照)が設けられている。照明71は、部品認識カメラ7の撮像時に可視光をノズル41に吸着された部品31に照射するように構成されている。これにより、部品認識カメラ7によりノズル41に吸着された部品31を鮮明に撮像することが可能である。   The component recognition camera 7 is fixed on the upper surface of the base 1. The component recognition camera 7 is configured to be able to image components. Specifically, the component recognition camera 7 is disposed outside the pair of conveyors 2 (Y1 side and Y2 side). The component recognition camera 7 images the component 31 sucked by the nozzle 41 of the mounting head 42 from the lower side (Z2 side) in order to recognize the suction state (suction posture) of the component 31 prior to mounting the component 31. It is configured as follows. Thereby, the CPU 81 can acquire the suction state of the component 31 sucked by the nozzle 41 of the mounting head 42. An illumination 71 (see FIG. 2) is provided in the vicinity of the component recognition camera 7. The illumination 71 is configured to irradiate the component 31 adsorbed by the nozzle 41 with visible light when the component recognition camera 7 captures an image. As a result, it is possible to clearly image the component 31 adsorbed to the nozzle 41 by the component recognition camera 7.

CPU81は、一対のコンベア2による基板Pの搬送動作、ヘッドユニット4による実装動作、基板認識カメラ43や部品認識カメラ7による撮像動作などの部品実装装置100の全体の動作を制御するように構成されている。   The CPU 81 is configured to control the overall operation of the component mounting apparatus 100 such as the conveyance operation of the substrate P by the pair of conveyors 2, the mounting operation by the head unit 4, and the imaging operation by the substrate recognition camera 43 and the component recognition camera 7. ing.

記憶装置82は、基板Pの情報、部品31の情報、実装動作を行うプログラムなどが格納されている。記憶装置82は、たとえば、HDD(ハードディスクドライブ)や、SSD(ソリッドステートドライブ)などを含んでいる。   The storage device 82 stores information on the substrate P, information on the component 31, a program for performing a mounting operation, and the like. The storage device 82 includes, for example, an HDD (hard disk drive), an SSD (solid state drive), and the like.

メモリ83は、CPU81の動作の際に情報が記憶されるように構成されている。表示部84は、部品実装装置100の状態や、生産している基板Pの情報などが表示されるように構成されている。入力装置85は、ユーザの部品実装装置100に対する操作が入力されるように構成されている。入力装置85は、たとえば、マウス、キーボード、スイッチ、タッチパネルなどが含まれる。   The memory 83 is configured to store information when the CPU 81 operates. The display unit 84 is configured to display the state of the component mounting apparatus 100, information on the board P being produced, and the like. The input device 85 is configured such that a user's operation on the component mounting apparatus 100 is input. The input device 85 includes, for example, a mouse, a keyboard, a switch, a touch panel, and the like.

モータコントローラ86は、CPU81の制御によりモータアンプ90を介して各種モータ91(モータ51、モータ61、実装ヘッド42の昇降モータ(Z軸モータ)、実装ヘッド42の回転モータ(R軸モータ)など)を駆動させるように構成されている。カメラI/F(インターフェース)は、部品認識カメラ7および基板認識カメラ43が接続されている。また、カメラI/Fは、CPU81に接続されている。これにより、CPU81と、部品認識カメラ7および基板認識カメラ43とをそれぞれ接続するように構成されている。   The motor controller 86 controls various motors 91 (motor 51, motor 61, lifting motor (Z-axis motor) of the mounting head 42, rotating motor (R-axis motor) of the mounting head 42) through the motor amplifier 90 under the control of the CPU 81. It is comprised so that it may drive. The component recognition camera 7 and the board recognition camera 43 are connected to the camera I / F (interface). The camera I / F is connected to the CPU 81. Thereby, it is comprised so that CPU81, the component recognition camera 7, and the board | substrate recognition camera 43 may be connected, respectively.

照明コントローラ88は、CPU81の制御により照明71および44を駆動させるように構成されている。各種I/O(入出力)89は、CPU81に対して、入力および出力される信号を制御するように構成されている。   The illumination controller 88 is configured to drive the illuminations 71 and 44 under the control of the CPU 81. Various I / Os (input / output) 89 are configured to control signals input to and output from the CPU 81.

ここで、第1実施形態では、CPU81は、部品認識カメラ7により撮像した部品31の画像を拡大処理するように構成されている。具体的には、CPU81は、部品31のサイズと、部品認識カメラ7の分解能と、画像から部品31の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行うように構成されている。そして、CPU81は、決定した拡大率により部品31の画像を拡大する処理を行うように構成されている。なお、部品31のサイズは、部品ライブラリとして記憶装置82に記憶されている。また、部品認識カメラ7の分解能は、マシンパラメータとして記憶装置82に記憶されている。   Here, in the first embodiment, the CPU 81 is configured to enlarge the image of the component 31 captured by the component recognition camera 7. Specifically, the CPU 81 enlarges the image based on the size of the component 31, the resolution of the component recognition camera 7, and the number of sampling pixels necessary to detect the position of the outer edge of the component 31 from the image. It is comprised so that the process which determines may be performed. The CPU 81 is configured to perform processing for enlarging the image of the component 31 with the determined enlargement rate. Note that the size of the component 31 is stored in the storage device 82 as a component library. The resolution of the component recognition camera 7 is stored in the storage device 82 as a machine parameter.

また、CPU81は、拡大された部品31の画像に基づいて、部品31の位置を含む部品姿勢を検出するように構成されている。具体的には、図3に示すように、部品31の位置を含む部品姿勢が検出(認識)される。まず、図3の(1)において、部品31の外接線が認識される。そして、外接線に基づいて、仮中心位置C1が決定される。図3の(2)において、仮中心位置C1に基づいて、部品31のエッジ(外縁部)を検出するための6個のサンプリング領域Sa1が設定される。サンプリング領域Sa1は、部品31の短辺に1つずつ、長辺に2つずつ設定される。   The CPU 81 is configured to detect a component posture including the position of the component 31 based on the enlarged image of the component 31. Specifically, as shown in FIG. 3, the component posture including the position of the component 31 is detected (recognized). First, in (1) of FIG. 3, the circumscribed line of the component 31 is recognized. Then, the temporary center position C1 is determined based on the circumscribed line. In (2) of FIG. 3, six sampling areas Sa1 for detecting the edge (outer edge portion) of the component 31 are set based on the temporary center position C1. One sampling region Sa1 is set for each of the short sides of the component 31 and two for the long sides.

図3の(3)において、各サンプリング領域Sa1において、部品31のエッジが検出される。そして、検出された部品31のエッジに基づいて仮中心位置C2と仮回転角度θ1が決定される。図3の(4)において、仮中心位置C2と仮回転角度θ1とに基づいて、6個のサンプリング領域Sa2が新たに設定される。図3の(5)において、各サンプリング領域Sa2において、部品31のエッジが検出される。そして、検出された部品31のエッジに基づいて中心位置C3と回転角度θ2が決定される。   In (3) of FIG. 3, the edge of the component 31 is detected in each sampling area Sa1. Then, the temporary center position C2 and the temporary rotation angle θ1 are determined based on the detected edge of the component 31. In (4) of FIG. 3, six sampling regions Sa2 are newly set based on the temporary center position C2 and the temporary rotation angle θ1. In (5) of FIG. 3, the edge of the component 31 is detected in each sampling area Sa2. Based on the detected edge of the component 31, the center position C3 and the rotation angle θ2 are determined.

また、CPU81は、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次式を用いて求めるように構成されている。具体的には、CPU81は、画像を拡大する際に、元の画像の画素の間に新たに画素を補間して拡大処理を行う。この場合、CPU81は、補間する画素の輝度値を周囲の4×4の合計16画素の輝度値を用いて3次式により求めるバイキュービック補間を行うように構成されている。これにより、部品31の画像を、部品31のエッジ(外縁部)のシャギーが目立たないより精度の高い滑らかなグラデーションを有する画像に拡大することが可能である。   The CPU 81 is configured to obtain the luminance value of the pixel to be interpolated using a cubic equation based on the luminance values of a plurality of surrounding pixels when the image is enlarged. Specifically, when enlarging an image, the CPU 81 performs enlargement processing by newly interpolating pixels between pixels of the original image. In this case, the CPU 81 is configured to perform bicubic interpolation that obtains the luminance value of the pixel to be interpolated by a cubic equation using the luminance values of the surrounding 4 × 4 total 16 pixels. Thereby, it is possible to enlarge the image of the component 31 to an image having a smooth gradation with higher accuracy in which the shaggy of the edge (outer edge portion) of the component 31 is not conspicuous.

また、CPU81は、部品31の画像のサンプリング領域幅の画素数が、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。具体的には、CPU81は、部品31の画像のサンプリング領域幅の画素数が、部品認識カメラ7の分解能以上の精度において、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている。たとえば、撮像した画像の画素の1/N以下の大きさの画素を用いて部品31の外縁部の位置を検出する場合、サンプリング画素数は、N以上とすることが望ましい。図4に示す例のように、1/10の大きさの画素を用いる場合、サンプリング画素数は、10画素以上とすることが望ましい。   Further, the CPU 81 determines the image enlargement ratio so that the number of pixels of the sampling area width of the image of the component 31 is equal to or larger than the number of sampling pixels necessary for detecting the position of the outer edge portion of the component 31. It is configured. Specifically, the CPU 81 determines that the number of pixels in the sampling area width of the image of the component 31 is equal to or greater than the number of sampling pixels necessary for detecting the position of the outer edge of the component 31 with an accuracy equal to or higher than the resolution of the component recognition camera 7. So that the enlargement ratio of the image is determined. For example, when the position of the outer edge portion of the component 31 is detected using a pixel having a size of 1 / N or less of the pixel of the captured image, the number of sampling pixels is preferably N or more. As in the example shown in FIG. 4, in the case where a pixel having a size of 1/10 is used, the number of sampling pixels is desirably 10 pixels or more.

(拡大倍率の決定処理)
図5および図6を参照して、拡大倍率の決定処理の一例について説明する。
(Magnification magnification determination process)
With reference to FIG. 5 and FIG. 6, an example of the enlargement magnification determination process will be described.

図5に示す例では、種類(サイズ)が異なる4つの部品31(部品A、部品B、部品Cおよび部品D)についての拡大倍率の決定処理について示している。なお、部品Aが一番大きいサイズの部品であり、部品B、部品C、部品Dの順でサイズが小さくなる。つまり、部品Aの長辺サイズLa1、部品Bの長辺サイズLb1、部品Cの長辺サイズLc1、部品Dの長辺サイズLd1の関係は、La1>Lb1>Lc1>Ld1となる。また、部品Aの短辺サイズLa2、部品Bの短辺サイズLb2、部品Cの短辺サイズLc2、部品Dの短辺サイズLd2の関係は、La2>Lb2>Lc2>Ld2となる。また、部品A、部品B、部品Cおよび部品Dは、一辺のサイズが1mm以下の極小サイズの部品である。   In the example illustrated in FIG. 5, an enlargement magnification determination process is illustrated for four components 31 (component A, component B, component C, and component D) of different types (sizes). Note that the component A is the largest component, and the size decreases in the order of the component B, the component C, and the component D. That is, the relationship among the long side size La1 of the part A, the long side size Lb1 of the part B, the long side size Lc1 of the part C, and the long side size Ld1 of the part D is La1> Lb1> Lc1> Ld1. Further, the relationship among the short side size La2 of the part A, the short side size Lb2 of the part B, the short side size Lc2 of the part C, and the short side size Ld2 of the part D is La2> Lb2> Lc2> Ld2. The parts A, B, C, and D are extremely small parts having a side size of 1 mm or less.

部品Aの長辺サイズ(画素数)Pa1は、部品認識カメラ7の分解能Rを用いて、Pa1=La1/Rと表される。また、部品Bの長辺サイズ(画素数)Pb1は、部品認識カメラ7の分解能Rを用いて、Pb1=Lb1/Rと表される。また、部品Cの長辺サイズ(画素数)Pc1は、部品認識カメラ7の分解能Rを用いて、Pc1=Lc1/Rと表される。部品Dの長辺サイズ(画素数)Pd1は、部品認識カメラ7の分解能Rを用いて、Pd1=Ld1/Rと表される。部品Aの短辺サイズ(画素数)Pa2は、Pa2=La2/Rと表される。また、部品Bの短辺サイズ(画素数)Pb2は、Pb2=Lb2/Rと表される。また、部品Cの短辺サイズ(画素数)Pc2は、Pc2=Lc2/Rと表される。部品Dの短辺サイズ(画素数)Pd2は、Pd2=Ld2/Rと表される。   The long side size (number of pixels) Pa1 of the component A is expressed as Pa1 = La1 / R using the resolution R of the component recognition camera 7. Further, the long side size (number of pixels) Pb1 of the component B is expressed as Pb1 = Lb1 / R using the resolution R of the component recognition camera 7. Further, the long side size (number of pixels) Pc1 of the component C is expressed as Pc1 = Lc1 / R by using the resolution R of the component recognition camera 7. The long side size (number of pixels) Pd1 of the component D is expressed as Pd1 = Ld1 / R using the resolution R of the component recognition camera 7. The short side size (number of pixels) Pa2 of the component A is expressed as Pa2 = La2 / R. Further, the short side size (number of pixels) Pb2 of the component B is expressed as Pb2 = Lb2 / R. The short side size (number of pixels) Pc2 of the component C is expressed as Pc2 = Lc2 / R. The short side size (number of pixels) Pd2 of the component D is expressed as Pd2 = Ld2 / R.

長辺サンプリング領域幅は、長辺の長さに基づいて設定される。たとえば、長辺サンプリング領域幅は、長辺の長さの1/2に設定される。つまり、部品Aの長辺サンプリング領域幅(画素数)Wa1は、Wa1=Pa1/2と表される。また、部品Bの長辺サンプリング領域幅(画素数)Wb1は、Wb1=Pb1/2と表される。また、部品Cの長辺サンプリング領域幅(画素数)Wc1は、Wc1=Pc1/2と表される。また、部品Dの長辺サンプリング領域幅(画素数)Wd1は、Wd1=Pd1/2と表される。部品Aの短辺サンプリング領域幅(画素数)Wa2は、Wa2=Pa2/2と表される。また、部品Bの短辺サンプリング領域幅(画素数)Wb2は、Wb2=Pb2/2と表される。また、部品Cの短辺サンプリング領域幅(画素数)Wc2は、Wc2=Pc2/2と表される。また、部品Dの短辺サンプリング領域幅(画素数)Wd2は、Wd2=Pd2/2と表される。   The long side sampling area width is set based on the length of the long side. For example, the long side sampling area width is set to ½ of the length of the long side. That is, the long-side sampling area width (number of pixels) Wa1 of the component A is expressed as Wa1 = Pa1 / 2. The long side sampling area width (number of pixels) Wb1 of the component B is expressed as Wb1 = Pb1 / 2. Further, the long-side sampling area width (number of pixels) Wc1 of the component C is expressed as Wc1 = Pc1 / 2. Further, the long-side sampling area width (number of pixels) Wd1 of the component D is expressed as Wd1 = Pd1 / 2. The short-side sampling area width (number of pixels) Wa2 of the component A is expressed as Wa2 = Pa2 / 2. Further, the short-side sampling area width (number of pixels) Wb2 of the component B is expressed as Wb2 = Pb2 / 2. Further, the short side sampling area width (number of pixels) Wc2 of the component C is expressed as Wc2 = Pc2 / 2. Further, the short-side sampling area width (number of pixels) Wd2 of the component D is expressed as Wd2 = Pd2 / 2.

ここで、長辺よりも短辺の方が短いため、サンプリング領域幅(画素数)も短辺の方が短くなる。つまり、短辺サンプリング幅が部品31のエッジ(外縁部)を検出するのに必要な幅(画素数)となるように、拡大することができれば、長辺サンプリング幅も部品31のエッジ(外縁部)を検出するのに必要な幅(画素数)となる。   Here, since the short side is shorter than the long side, the sampling area width (number of pixels) is also shorter on the short side. That is, if the short side sampling width can be enlarged so as to be a width (number of pixels) necessary for detecting the edge (outer edge portion) of the component 31, the long side sampling width can also be increased to the edge (outer edge portion) of the component 31. ) Is a width (number of pixels) necessary to detect.

部品Aの拡大倍率は、部品31のエッジ(外縁部)を検出するのに必要な幅(画素数)nを用いて、Wa2/nとした値以上で、かつ、最も小さい自然数の値となる。同様に、部品B、部品Cおよび部品Dの拡大倍率が求められる。なお、図5に示す例の場合、部品Aの拡大倍率は1倍となり、部品Bの拡大倍率は2倍となり、部品Cの拡大倍率は3倍となり、部品Dの拡大倍率は3倍となる。   The magnification of component A is equal to or larger than Wa2 / n using the width (number of pixels) n necessary to detect the edge (outer edge) of component 31, and is the smallest natural value. . Similarly, magnifications of parts B, C, and D are obtained. In the case of the example shown in FIG. 5, the magnification of component A is 1 times, the magnification of component B is 2 times, the magnification of component C is 3 times, and the magnification of component D is 3 times. .

次に、図6を参照して、部品実装装置100のCPU81による拡大倍率の決定処理についてフローチャートに基づいて説明する。   Next, with reference to FIG. 6, an enlargement magnification determination process by the CPU 81 of the component mounting apparatus 100 will be described based on a flowchart.

図6のステップS1において、部品ライブラリとして記憶装置82に記憶された部品サイズが読み出される。ステップS2において、マシンパラメータとして記憶装置82に記憶された部品認識カメラ7の分解能が読み出される。   In step S1 of FIG. 6, the component size stored in the storage device 82 as a component library is read out. In step S2, the resolution of the component recognition camera 7 stored in the storage device 82 as a machine parameter is read out.

ステップS3において、画像の拡大率が、部品サイズと、部品認識カメラ7の分解能と、部品31の水平方向(X方向およびY方向)の外縁部の位置を検出するためのサンプリング領域幅(画素数)に必要とされる画素数nとから決定される。その後、拡大倍率の決定処理が終了される。   In step S3, the enlargement ratio of the image is the component size, the resolution of the component recognition camera 7, and the sampling area width (number of pixels) for detecting the position of the outer edge of the component 31 in the horizontal direction (X direction and Y direction). ) Is determined from the number of pixels n required for (). Thereafter, the enlargement magnification determination process is terminated.

(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effect of 1st Embodiment)
In the first embodiment, the following effects can be obtained.

第1実施形態では、上記のように、部品31のサイズと、部品認識カメラ7の分解能と、画像から部品31の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行うCPU81を設ける。これにより、部品31のサイズや部品認識カメラ7の分解能が変化しても、部品31の外縁部の位置を検出可能なサンプリング画素数が確保されるように画像を拡大することができるので、拡大した画像により部品31の位置および姿勢を精度よく認識することができる。その結果、極小の部品31を精度よく認識することができる。   In the first embodiment, as described above, based on the size of the component 31, the resolution of the component recognition camera 7, and the number of sampling pixels necessary to detect the position of the outer edge portion of the component 31 from the image, A CPU 81 that performs processing for determining the enlargement ratio is provided. As a result, even if the size of the component 31 or the resolution of the component recognition camera 7 changes, the image can be enlarged so that the number of sampling pixels that can detect the position of the outer edge of the component 31 can be secured. The position and orientation of the component 31 can be accurately recognized from the obtained image. As a result, the extremely small component 31 can be accurately recognized.

また、第1実施形態では、CPU81により拡大された部品31の画像に基づいて、部品31の位置を含む部品姿勢を検出するように構成する。これにより、拡大された画像により極小の部品31の位置を含む部品姿勢を精度よく認識することができる。   In the first embodiment, the component posture including the position of the component 31 is detected based on the image of the component 31 enlarged by the CPU 81. Thereby, the component posture including the position of the minimal component 31 can be accurately recognized from the enlarged image.

また、第1実施形態では、CPU81を、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次式を用いて求めるように構成する。これにより、3次式により滑らかに画素を補間して画像を拡大することができるので、拡大した画像により極小の部品31をより精度よく認識することができる。   In the first embodiment, the CPU 81 is configured to obtain the luminance value of the pixel to be interpolated using a cubic equation based on the luminance values of a plurality of surrounding pixels when the image is enlarged. As a result, the image can be enlarged by smoothly interpolating the pixels using a cubic equation, so that the minimal component 31 can be recognized more accurately from the enlarged image.

また、第1実施形態では、CPU81を、部品31の画像のサンプリング領域幅の画素数が、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成する。これにより、部品31の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小の部品31をより精度よく認識することができる。   In the first embodiment, the CPU 81 enlarges the image so that the number of pixels of the sampling area width of the image of the component 31 is equal to or larger than the number of sampling pixels necessary for detecting the position of the outer edge portion of the component 31. Configure to determine rate. Thereby, the image can be enlarged so that the number of sampling pixels capable of detecting the position of the outer edge portion of the component 31 is ensured, and therefore, the extremely small component 31 can be recognized more accurately by the enlarged image. it can.

また、第1実施形態では、CPU81を、部品31の画像のサンプリング領域幅の画素数が、部品認識カメラ7の分解能以上の精度において、部品31の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成する。これにより、部品認識カメラ7の分解能以上の精度が必要な場合でも、部品31の外縁部の位置を検出可能なサンプリング画素数が確実に確保されるように画像を拡大することができるので、拡大した画像により極小の部品31をより一層精度よく認識することができる。   In the first embodiment, the CPU 81 performs sampling necessary for detecting the position of the outer edge portion of the component 31 with the accuracy of the number of pixels of the sampling area width of the image of the component 31 equal to or higher than the resolution of the component recognition camera 7. The image enlargement ratio is determined so as to be equal to or greater than the number of pixels. As a result, even when accuracy higher than the resolution of the component recognition camera 7 is required, the image can be enlarged so that the number of sampling pixels that can detect the position of the outer edge portion of the component 31 can be ensured. The extremely small component 31 can be recognized with higher accuracy from the obtained image.

[第2実施形態]
次に、図7〜図9を参照して、本発明の第2実施形態について説明する。この第2実施形態では、部品31のサイズと、部品認識カメラ7の分解能と、画像から部品31の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行う上記第1実施形態とは異なり、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理を行う構成の例について説明する。なお、第1実施形態と同様の箇所には同様の符号を付している。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. In the second embodiment, the image enlargement ratio is determined based on the size of the component 31, the resolution of the component recognition camera 7, and the number of sampling pixels necessary to detect the position of the outer edge of the component 31 from the image. Unlike the first embodiment in which the determining process is performed, the image is enlarged based on the position accuracy standard deviation, which is a standard deviation of the position detection error that changes depending on the image enlargement ratio, and a preset standard value. An example of a configuration for performing processing for determining the rate will be described. In addition, the same code | symbol is attached | subjected to the location similar to 1st Embodiment.

ここで、第2実施形態では、CPU81は、部品認識カメラ7により撮像した部品31の画像を拡大処理するように構成されている。具体的には、CPU81は、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値(3σ)とに基づいて、画像の拡大率を決定する処理を行うように構成されている。そして、CPU81は、決定した拡大率により部品31の画像を拡大する処理を行うように構成されている。   Here, in the second embodiment, the CPU 81 is configured to enlarge the image of the component 31 captured by the component recognition camera 7. Specifically, the CPU 81 determines the image enlargement rate based on the position accuracy standard deviation, which is the standard deviation of the position detection error that changes depending on the image enlargement rate, and a preset standard value (3σ). It is comprised so that the process to perform may be performed. The CPU 81 is configured to perform processing for enlarging the image of the component 31 with the determined enlargement rate.

また、CPU81は、画像に対して部品31を移動させた複数の位置および姿勢の部品31の画像に基づいて、位置精度標準偏差を求めるように構成されている。   Further, the CPU 81 is configured to obtain the position accuracy standard deviation based on the images of the parts 31 having a plurality of positions and postures where the part 31 is moved with respect to the image.

具体的には、図7の例に示すように、部品31の種類(サイズ)毎にX方向、Y方向およびA(回転方向)の画像処理精度の規格値(3σ)が設定されている。なお、σは、標準偏差である。   Specifically, as shown in the example of FIG. 7, the standard value (3σ) of the image processing accuracy in the X direction, the Y direction, and the A (rotation direction) is set for each type (size) of the component 31. Note that σ is a standard deviation.

部品Aの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、0.750度未満である。また、部品Bの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、1.000度未満である。また、部品Cの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、1.250度未満である。また、部品Dの場合、X方向の規格値は、0.005mm未満であり、Y方向の規格値は、0.005mm未満であり、A方向(回転方向)の規格値は、1.500度未満である。   In the case of component A, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is less than 0.750 degrees. is there. In the case of component B, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is 1.000 degrees. Is less than. In the case of component C, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is 1.250 degrees. Is less than. In the case of component D, the standard value in the X direction is less than 0.005 mm, the standard value in the Y direction is less than 0.005 mm, and the standard value in the A direction (rotation direction) is 1.500 degrees. Is less than.

(拡大倍率の決定処理)
図8および図9を参照して、拡大倍率の決定処理の一例について説明する。
(Magnification magnification determination process)
With reference to FIG. 8 and FIG. 9, an example of the magnification determination process will be described.

第2実施形態では、実際の部品実装装置100により拡大倍率を変更して画像処理を行った位置精度結果と、予め設定した規格値から拡大倍率を決定するように構成されている。つまり、画像に対して部品31を移動させて、画像を拡大し、部品31の位置を検出させる。そして、部品31を移動させた量と、拡大画像中の部品31の位置を比較して、ずれ量が測定される。この測定されたずれ量の統計が規格値の範囲内で、かつ、最小の拡大倍率が選択される。なお、画像に対して部品31を移動させる処理は、実際に部品31の位置を相対移動させながら、複数の画像を撮像してもよいし、撮像した部品31の画像中の位置を画像処理により移動させてもよい。   The second embodiment is configured to determine the enlargement magnification from the position accuracy result obtained by performing image processing by changing the enlargement magnification by the actual component mounting apparatus 100 and a preset standard value. That is, the component 31 is moved with respect to the image, the image is enlarged, and the position of the component 31 is detected. Then, the amount of displacement is measured by comparing the amount of movement of the component 31 with the position of the component 31 in the enlarged image. This measured deviation amount statistic is within the standard value range, and the smallest magnification is selected. In the process of moving the component 31 with respect to the image, a plurality of images may be captured while the position of the component 31 is actually moved, and the position of the captured component 31 in the image is processed by image processing. It may be moved.

図8に示す例では、部品Aは、拡大倍率が1倍の場合、X方向の3σが0.004となり、Y方向の3σが0.003となり、A方向(回転方向)の3σが0.739となった。また、拡大倍率が2倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.230となった。拡大倍率が3倍の場合、X方向の3σが0.002となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.185となった。拡大倍率が4倍の場合、X方向の3σが0.002となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.184となった。この場合、拡大倍率が1倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、1倍に決定される。   In the example shown in FIG. 8, when the magnification is 1, the component A has 3σ in the X direction of 0.004, 3σ in the Y direction is 0.003, and 3σ in the A direction (rotation direction) is 0.00. 739. When the enlargement magnification was 2, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.230. When the magnification was 3, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.185. When the magnification was 4, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.184. In this case, since the position accuracy result after image processing is within the range of the standard value of the image processing accuracy when the enlargement magnification is 1 or more, the enlargement magnification is determined to be 1.

図8に示す例では、部品Bは、拡大倍率が1倍の場合、X方向の3σが0.005となり、Y方向の3σが0.003となり、A方向(回転方向)の3σが1.437となった。また、拡大倍率が2倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.408となった。拡大倍率が3倍の場合、X方向の3σが0.002となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.285となった。拡大倍率が4倍の場合、X方向の3σが0.001となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.187となった。この場合、拡大倍率が1倍において、X方向の位置精度結果と、A方向(回転方向)の位置精度結果とが画像処理精度の規格値の範囲外となる。また、拡大倍率が2倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、2倍に決定される。   In the example shown in FIG. 8, when the magnification of the component B is 1, the 3σ in the X direction is 0.005, the 3σ in the Y direction is 0.003, and the 3σ in the A direction (rotation direction) is 1. 437. When the enlargement magnification was 2, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.408. When the magnification was 3, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.285. When the magnification was 4, the 3σ in the X direction was 0.001, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.187. In this case, when the enlargement magnification is 1, the position accuracy result in the X direction and the position accuracy result in the A direction (rotation direction) are out of the standard value range of the image processing accuracy. In addition, when the enlargement magnification is 2 times or more, the position accuracy result obtained by performing the image processing is within the range of the standard value of the image processing accuracy, so the enlargement magnification is determined to be 2 times.

図8に示す例では、部品Cは、拡大倍率が1倍の場合、X方向の3σが0.006となり、Y方向の3σが0.004となり、A方向(回転方向)の3σが1.482となった。また、拡大倍率が2倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが0.740となった。拡大倍率が3倍の場合、X方向の3σが0.003となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.853となった。拡大倍率が4倍の場合、X方向の3σが0.002となり、Y方向の3σが0.001となり、A方向(回転方向)の3σが0.833となった。この場合、拡大倍率が1倍において、X方向の位置精度結果と、A方向(回転方向)の位置精度結果とが画像処理精度の規格値の範囲外となる。また、拡大倍率が2倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、2倍に決定される。   In the example shown in FIG. 8, when the magnification of the component C is 1, the 3σ in the X direction is 0.006, the 3σ in the Y direction is 0.004, and the 3σ in the A direction (rotation direction) is 1. 482. When the enlargement magnification was 2, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 0.740. When the magnification was 3, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.853. When the magnification was 4, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.001, and the 3σ in the A direction (rotation direction) was 0.833. In this case, when the enlargement magnification is 1, the position accuracy result in the X direction and the position accuracy result in the A direction (rotation direction) are out of the standard value range of the image processing accuracy. In addition, when the enlargement magnification is 2 times or more, the position accuracy result obtained by performing the image processing is within the range of the standard value of the image processing accuracy. Therefore, the enlargement magnification is determined to be 2 times.

図8に示す例では、部品Dは、拡大倍率が1倍の場合、X方向の3σが0.009となり、Y方向の3σが0.005となり、A方向(回転方向)の3σが3.420となった。また、拡大倍率が2倍の場合、X方向の3σが0.005となり、Y方向の3σが0.003となり、A方向(回転方向)の3σが1.287となった。拡大倍率が3倍の場合、X方向の3σが0.003となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが1.201となった。拡大倍率が4倍の場合、X方向の3σが0.002となり、Y方向の3σが0.002となり、A方向(回転方向)の3σが1.031となった。この場合、拡大倍率が1倍において、X方向の位置精度結果と、Y方向の位置精度結果と、A方向(回転方向)の位置精度結果とが画像処理精度の規格値の範囲外となる。また、拡大倍率が2倍において、X方向の位置精度結果が画像処理精度の規格値の範囲外となる。また、拡大倍率が3倍以上において、画像処理を行った位置精度結果が、画像処理精度の規格値の範囲内となるため、拡大倍率は、3倍に決定される。   In the example shown in FIG. 8, when the magnification of the component D is 1, the 3σ in the X direction is 0.009, the 3σ in the Y direction is 0.005, and the 3σ in the A direction (rotation direction) is 3. 420. When the enlargement magnification was 2, the 3σ in the X direction was 0.005, the 3σ in the Y direction was 0.003, and the 3σ in the A direction (rotation direction) was 1.287. When the magnification was 3, the 3σ in the X direction was 0.003, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 1.201. When the magnification was 4, the 3σ in the X direction was 0.002, the 3σ in the Y direction was 0.002, and the 3σ in the A direction (rotation direction) was 1.031. In this case, when the enlargement magnification is 1, the position accuracy result in the X direction, the position accuracy result in the Y direction, and the position accuracy result in the A direction (rotation direction) are out of the standard value range of the image processing accuracy. Further, when the enlargement magnification is 2, the position accuracy result in the X direction is out of the range of the standard value of the image processing accuracy. In addition, when the enlargement magnification is 3 times or more, the position accuracy result obtained by performing the image processing is within the range of the standard value of the image processing accuracy, so the enlargement magnification is determined to be 3 times.

次に、図9を参照して、部品実装装置100のCPU81による拡大倍率の決定処理についてフローチャートに基づいて説明する。   Next, with reference to FIG. 9, an enlargement magnification determination process by the CPU 81 of the component mounting apparatus 100 will be described based on a flowchart.

図9のステップS11において、部品認識カメラ7により部品31が撮像され、撮像された部品31の画像が記憶される。ステップS12において、位置精度を計測するために、X方向、Y方向およびA方向(回転方向)に部品31を移動させた複数の画像が作成されて記憶される。   In step S11 in FIG. 9, the component recognition camera 7 captures the image of the component 31, and the captured image of the component 31 is stored. In step S12, in order to measure the position accuracy, a plurality of images obtained by moving the component 31 in the X direction, the Y direction, and the A direction (rotation direction) are created and stored.

ステップS13において、各画像を画像処理して、部品31の位置および姿勢が計測(検出)される。ステップS14において、部品31を移動させた量と、画像処理を行い部品31の位置および姿勢を計測した結果とから、位置精度標準偏差が求められる。   In step S13, each image is subjected to image processing, and the position and orientation of the component 31 are measured (detected). In step S14, the position accuracy standard deviation is obtained from the amount of movement of the component 31 and the result of image processing to measure the position and orientation of the component 31.

ステップS15において、位置精度標準偏差が規格値の範囲内であるか否かが判断される。規格値の範囲内でなければ、ステップS16に進み、規格値の範囲内であれば、ステップS18に進む。ステップS16において、画像の拡大倍率が+1にされる。たとえば、拡大倍率が1倍の場合、2倍にされる。また、2倍の場合、3倍にされる。   In step S15, it is determined whether or not the position accuracy standard deviation is within the range of the standard value. If it is not within the range of the standard value, the process proceeds to step S16, and if it is within the range of the standard value, the process proceeds to step S18. In step S16, the image enlargement magnification is set to +1. For example, when the enlargement magnification is 1, it is doubled. Further, in the case of double, it is tripled.

ステップS17において、拡大倍率に従って各画像が拡大処理される。その後、ステップS13に戻る。   In step S17, each image is enlarged according to the magnification. Thereafter, the process returns to step S13.

ステップS15において、位置精度標準偏差が規格値の範囲内であると判断された場合、ステップS18において、規格値の範囲ないの倍率が、拡大倍率として決定される。その後、拡大倍率の決定処理が終了される。   When it is determined in step S15 that the position accuracy standard deviation is within the range of the standard value, in step S18, a magnification having no standard value range is determined as the enlargement magnification. Thereafter, the enlargement magnification determination process is terminated.

なお、第2実施形態のその他の構成は、上記第1実施形態と同様である。   In addition, the other structure of 2nd Embodiment is the same as that of the said 1st Embodiment.

(第2実施形態の効果)
第2実施形態では、以下のような効果を得ることができる。
(Effect of 2nd Embodiment)
In the second embodiment, the following effects can be obtained.

上記のように、第2実施形態では、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値(3σ)とに基づいて、画像の拡大率を決定する処理を行うCPU81を設ける。これにより、部品31の位置検出の誤差を規格値(3σ)以内の精度となるように画像を拡大することができるので、拡大した画像により部品31の位置および姿勢を精度よく認識することができる。その結果、極小の部品31を精度よく認識することができる。   As described above, in the second embodiment, the image is enlarged based on the position accuracy standard deviation which is the standard deviation of the position detection error that changes depending on the image enlargement ratio and the preset standard value (3σ). A CPU 81 that performs processing for determining the rate is provided. As a result, the image can be enlarged so that the position detection error of the component 31 is within the standard value (3σ), so that the position and orientation of the component 31 can be accurately recognized from the enlarged image. . As a result, the extremely small component 31 can be accurately recognized.

また、第2実施形態では、上記のように、画像に対して部品31を移動させた複数の位置および姿勢の部品31の画像に基づいて、位置精度標準偏差が求められるように構成されている。これにより、画像の拡大率を決定する際に用いる位置精度標準偏差を部品31に応じて容易に求めることができるので、画像の最適な拡大率を容易に決定することができる。   Further, in the second embodiment, as described above, the position accuracy standard deviation is obtained based on the images of the parts 31 at a plurality of positions and postures where the part 31 is moved with respect to the image. . Thereby, since the position accuracy standard deviation used when determining the enlargement ratio of the image can be easily obtained according to the component 31, the optimum enlargement ratio of the image can be easily determined.

なお、第2実施形態のその他の効果は、上記第1実施形態と同様である。   The remaining effects of the second embodiment are similar to those of the aforementioned first embodiment.

(変形例)
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
(Modification)
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiment but by the scope of claims for patent, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims for patent.

たとえば、上記第1および第2実施形態では、本発明を基板作業装置としての部品実装装置に適用する例を示したが、本発明はこれに限られない。本発明を部品実装装置以外に適用してもよい。たとえば、本発明を部品が実装された基板を検査する検査装置に適用してもよい。この場合、撮像部は、基板に実装された部品を撮像してもよい。また、撮像部は、可視光に基づいて部品を撮像しなくてもよい。たとえば、撮像部は、赤外光やX線などに基づいて部品を撮像してもよい。   For example, in the first and second embodiments, the example in which the present invention is applied to a component mounting apparatus as a board working apparatus has been described, but the present invention is not limited to this. The present invention may be applied to devices other than component mounting apparatuses. For example, the present invention may be applied to an inspection apparatus that inspects a board on which components are mounted. In this case, the imaging unit may image a component mounted on the board. Further, the imaging unit does not have to image the component based on visible light. For example, the imaging unit may image a component based on infrared light, X-rays, or the like.

また、上記第1実施形態では、CPU(画像処理部)が、部品のサイズと、部品認識カメラ(撮像部)の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理を行う例を示し、上記第2実施形態では、CPU(画像処理部)が、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理を行う例を示したが、本発明はこれに限られない。本発明では、画像処理部が、部品のサイズと、撮像部の分解能と、画像から部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理との両方を行ってもよい。   In the first embodiment, the sampling pixel necessary for the CPU (image processing unit) to detect the size of the component, the resolution of the component recognition camera (imaging unit), and the position of the outer edge of the component from the image. In the second embodiment, the CPU (image processing unit) uses a standard deviation of a position detection error that varies depending on the image enlargement rate. Although the example which performs the process which determines the magnification rate of an image based on a certain positional accuracy standard deviation and the preset standard value was shown, this invention is not limited to this. In the present invention, the image processing unit determines an image enlargement ratio based on the size of the component, the resolution of the imaging unit, and the number of sampling pixels necessary to detect the position of the outer edge of the component from the image. Both processing and processing for determining the image enlargement ratio based on the standard deviation of position accuracy, which is a standard deviation of the position detection error that changes depending on the image enlargement ratio, and a preset standard value are performed. Also good.

また、上記第1および第2実施形態では、画像の拡大率を決定したCPU(画像処理部)により、画像中の部品の位置を含む部品姿勢が検出される構成の例を示したが、本発明はこれに限られない。本発明では、画像の拡大率を決定した画像処理部とは別個の処理部により、画像中の部品の位置を含む部品姿勢が検出されてもよい。   Further, in the first and second embodiments, the example of the configuration in which the component posture including the position of the component in the image is detected by the CPU (image processing unit) that determines the enlargement ratio of the image has been described. The invention is not limited to this. In the present invention, the component posture including the position of the component in the image may be detected by a processing unit that is separate from the image processing unit that has determined the image enlargement ratio.

また、上記第1および第2実施形態では、部品認識カメラ(撮像部)がエリアカメラである構成の例を示したが、本発明はこれに限られない。本発明では、撮像部がラインカメラであってもよい。   Moreover, in the said 1st and 2nd embodiment, although the example of the structure whose component recognition camera (imaging part) is an area camera was shown, this invention is not limited to this. In the present invention, the imaging unit may be a line camera.

また、上記第1および第2実施形態では、位置精度標準偏差として±3σを用いた例を示したが、本発明はこれに限られない。本発明では、位置精度標準偏差として±σや、±2σを用いてもよい。また、位置精度標準偏差として平均値±σ、平均値±2σ、平均値±3σなどを用いてもよい。   In the first and second embodiments, the example using ± 3σ as the position accuracy standard deviation is shown, but the present invention is not limited to this. In the present invention, ± σ or ± 2σ may be used as the position accuracy standard deviation. In addition, an average value ± σ, an average value ± 2σ, an average value ± 3σ, or the like may be used as the position accuracy standard deviation.

また、上記第1および第2実施形態では、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次式を用いて求める構成の例を示したが、本発明はこれに限られない。本発明では、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を4次以上の高次式を用いて求めるように構成してもよい。また、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を2次以下の式を用いて求めるように構成してもよい。   In the first and second embodiments, when the image is enlarged, an example of a configuration in which the luminance value of the pixel to be interpolated is obtained using a cubic equation based on the luminance values of a plurality of surrounding pixels. Although shown, the present invention is not limited to this. In the present invention, when the image is enlarged, the luminance value of the pixel to be interpolated may be obtained using a higher-order expression of the fourth or higher order based on the luminance values of a plurality of surrounding pixels. Further, when the image is enlarged, the luminance value of the pixel to be interpolated may be obtained using a quadratic or lower formula based on the luminance values of a plurality of surrounding pixels.

また、上記第1および第2実施形態では、説明の便宜上、CPU(画像処理部)の処理を処理フローに沿って順番に処理を行うフロー駆動型のフローを用いて説明したが、本発明はこれに限られない。本発明では、CPUの処理を、イベント単位で処理を実行するイベント駆動型(イベントドリブン型)の処理により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。   In the first and second embodiments, for the sake of convenience of explanation, the processing of the CPU (image processing unit) has been described using a flow-driven flow in which processing is performed in order along the processing flow. It is not limited to this. In the present invention, the processing of the CPU may be performed by event driven type (event driven type) processing that executes processing in units of events. In this case, it may be performed by a complete event drive type or a combination of event drive and flow drive.

4 ヘッドユニット(作業部)
7 部品認識カメラ(撮像部)
31 部品
42 実装ヘッド
81 CPU(画像処理部)
100 部品実装装置(基板作業装置)
P 基板
4 Head unit (working section)
7 Component recognition camera (imaging part)
31 parts 42 mounting head 81 CPU (image processing unit)
100 Component mounting equipment (board work equipment)
P substrate

Claims (7)

部品が実装される基板に対して作業を行う作業部と、
前記部品を撮像可能な撮像部と、
前記撮像部により撮像した前記部品の画像を拡大処理する画像処理部とを備え、
前記画像処理部は、予め取得した前記部品のサイズと、前記撮像部の分解能と、画像から前記部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、前記部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている、基板作業装置。
A working unit that performs work on a board on which components are mounted;
An imaging unit capable of imaging the component;
An image processing unit for enlarging the image of the component imaged by the imaging unit,
Wherein the image processing unit, based on the size of the previously acquired the component has, and resolution of the imaging unit, and the number of sampling pixels necessary for detecting the position of the outer edge of the from the image part, the outer edge of the component Before performing the process of detecting the position of the part, the process of determining the enlargement ratio of the image, the position accuracy standard deviation that is the standard deviation of the position detection error that changes according to the enlargement ratio of the image, and a preset standard value A substrate working apparatus configured to perform at least one of processing for determining an image enlargement ratio based on the above.
前記画像処理部により拡大された前記部品の画像に基づいて、前記部品の位置を含む部品姿勢を検出するように構成されている、請求項1に記載の基板作業装置。   The board | substrate working apparatus of Claim 1 comprised so that the component attitude | position including the position of the said component may be detected based on the image of the said component expanded by the said image process part. 前記画像処理部は、画像を拡大処理する際に、周囲の複数の画素の輝度値に基づいて、補間する画素の輝度値を3次以上の高次式を用いて求めるように構成されている、請求項1または2に記載の基板作業装置。   The image processing unit is configured to obtain a luminance value of a pixel to be interpolated using a higher-order expression of the third or higher order based on luminance values of a plurality of surrounding pixels when the image is enlarged. The substrate working apparatus according to claim 1 or 2. 前記画像処理部は、前記部品の画像のサンプリング領域幅の画素数が、前記部品の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている、請求項1〜3のいずれか1項に記載の基板作業装置。   The image processing unit determines an image enlargement ratio so that the number of pixels of the sampling area width of the image of the component is equal to or larger than the number of sampling pixels necessary for detecting the position of the outer edge portion of the component. The board | substrate working apparatus of any one of Claims 1-3 comprised by these. 前記画像処理部は、前記部品の画像のサンプリング領域幅の画素数が、前記撮像部の分解能以上の精度において、前記部品の外縁部の位置を検出するために必要なサンプリング画素数以上になるように、画像の拡大率を決定するように構成されている、請求項4に記載の基板作業装置。   The image processing unit is configured such that the number of pixels in the sampling area width of the image of the component is equal to or greater than the number of sampling pixels necessary for detecting the position of the outer edge of the component with an accuracy equal to or higher than the resolution of the imaging unit. 5. The substrate working apparatus according to claim 4, wherein the substrate working apparatus is configured to determine an enlargement ratio of the image. 前記画像処理部が画像の拡大率を決定する際に前記位置精度標準偏差を用いる場合、画像に対して前記部品を移動させた複数の位置および姿勢の前記部品の画像に基づいて、前記位置精度標準偏差が求められるように構成されている、請求項1〜5のいずれか1項に記載の基板作業装置。   In the case where the position accuracy standard deviation is used when the image processing unit determines the magnification of the image, the position accuracy is based on images of the component at a plurality of positions and postures where the component is moved with respect to the image. The board | substrate working apparatus of any one of Claims 1-5 comprised so that a standard deviation may be calculated | required. 基板に部品を実装する作業を行う実装ヘッドと、
前記実装ヘッドに保持された前記部品を撮像可能な撮像部と、
前記撮像部により撮像した前記部品の画像を拡大処理する画像処理部とを備え、
前記画像処理部は、予め取得した前記部品のサイズと、前記撮像部の分解能と、画像から前記部品の外縁部の位置を検出するために必要なサンプリング画素数とに基づいて、前記部品の外縁部の位置を検出する処理を行う前に、画像の拡大率を決定する処理と、画像の拡大率により変化する位置検出の誤差の標準偏差である位置精度標準偏差と、予め設定された規格値とに基づいて、画像の拡大率を決定する処理とのうち少なくとも一方を行うように構成されている、部品実装装置。
A mounting head that performs the work of mounting components on the board;
An imaging unit capable of imaging the component held by the mounting head;
An image processing unit for enlarging the image of the component imaged by the imaging unit,
Wherein the image processing unit, based on the size of the previously acquired the component has, and resolution of the imaging unit, and the number of sampling pixels necessary for detecting the position of the outer edge of the from the image part, the outer edge of the component Before performing the process of detecting the position of the part, the process of determining the enlargement ratio of the image, the position accuracy standard deviation that is the standard deviation of the position detection error that changes according to the enlargement ratio of the image, and a preset standard value And a component mounting apparatus configured to perform at least one of processing for determining an image enlargement ratio based on the above.
JP2016011394A 2016-01-25 2016-01-25 Board working apparatus and component mounting apparatus Active JP6602213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011394A JP6602213B2 (en) 2016-01-25 2016-01-25 Board working apparatus and component mounting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011394A JP6602213B2 (en) 2016-01-25 2016-01-25 Board working apparatus and component mounting apparatus

Publications (2)

Publication Number Publication Date
JP2017135143A JP2017135143A (en) 2017-08-03
JP6602213B2 true JP6602213B2 (en) 2019-11-06

Family

ID=59505042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011394A Active JP6602213B2 (en) 2016-01-25 2016-01-25 Board working apparatus and component mounting apparatus

Country Status (1)

Country Link
JP (1) JP6602213B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7181027B2 (en) * 2018-08-29 2022-11-30 ヤマハ発動機株式会社 Recognition device, surface mounter, and position recognition method for recognition target

Also Published As

Publication number Publication date
JP2017135143A (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP5918622B2 (en) Component or board working device and component mounting device
JP5574379B2 (en) Image processing apparatus and image processing method
WO2015045649A1 (en) Component mounting device
JP6602213B2 (en) Board working apparatus and component mounting apparatus
JP6199000B2 (en) Information processing device
US10893639B2 (en) Component mounting using feedback correction
JP7094282B2 (en) Anti-board work equipment
JP4927776B2 (en) Component mounting method
JP2007281312A (en) Part mounting method
JP5995307B2 (en) Recognition device, recognition method, program, and board manufacturing method
JP4530763B2 (en) Part data creation method and part data creation apparatus
JP3678895B2 (en) Electronic component mounting device
JP2013207270A (en) Mounting device, mounting position correction method, program and substrate manufacturing method
JPS63109307A (en) Apparatus for inspecting mounting of chip part
JPWO2017072908A1 (en) Board position search device and component mounting machine
JP6614029B2 (en) ROBOT HAND POSITION DETECTION DEVICE, ROBOT DEVICE, AND ROBOT HAND POSITION DETECTION METHOD
JP6623310B2 (en) Die component supply device
JP2002124799A (en) Method and device for teaching mounting position, and recording medium of mounting position teaching program
JP3921334B2 (en) Printed circuit board assembly equipment
JP3972773B2 (en) ROBOT, POSITION DETECTING METHOD BY ROBOT, WORKING DEVICE HAVING ROBOT, AND POSITION DETECTING METHOD BY WORKING DEVICE HAVING ROBOT
JP6277044B2 (en) Substrate processing apparatus and mounting machine
WO2022102524A1 (en) Data creation system, learning system, estimation system, processing device, data creation method, and program
JP5627530B2 (en) Component direction determination apparatus and component direction determination method
JPWO2019058475A1 (en) Shape data comparison device
JP3916860B2 (en) Printed circuit board assembly equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191008

R150 Certificate of patent or registration of utility model

Ref document number: 6602213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250