JP7454975B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP7454975B2 JP7454975B2 JP2020051300A JP2020051300A JP7454975B2 JP 7454975 B2 JP7454975 B2 JP 7454975B2 JP 2020051300 A JP2020051300 A JP 2020051300A JP 2020051300 A JP2020051300 A JP 2020051300A JP 7454975 B2 JP7454975 B2 JP 7454975B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- polar coordinate
- nozzle
- lens
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 8
- 230000009466 transformation Effects 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 239000000758 substrate Substances 0.000 description 36
- 238000010586 diagram Methods 0.000 description 27
- 238000004519 manufacturing process Methods 0.000 description 27
- 238000007689 inspection Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 229910000679 solder Inorganic materials 0.000 description 7
- 230000032258 transport Effects 0.000 description 7
- 239000006071 cream Substances 0.000 description 5
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001816 cooling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Supply And Installment Of Electrical Components (AREA)
Description
本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.
電子デバイスを生産する生産システムにおいて、複数の実装装置により生産ラインが構築される。基板が生産ラインに搬入され、部品が実装装置によって基板に実装される。 In a production system that produces electronic devices, a production line is constructed using a plurality of mounting devices. A board is carried into a production line, and components are mounted on the board by a mounting device.
特許文献1には、LED素子が発光する光を拡散するためのレンズを基板上に装着する技術が、開示されている。特許文献1記載の技術によれば、レンズの下面に形成されている突起の撮像画像を認識処理した結果に基づいて、突起の位置が把握され、レンズの中心と突起の中心位置とから、レンズの角度が求められる。 Patent Document 1 discloses a technique in which a lens for diffusing light emitted by an LED element is mounted on a substrate. According to the technology described in Patent Document 1, the position of the protrusion is grasped based on the result of recognition processing of a captured image of the protrusion formed on the lower surface of the lens, and the position of the protrusion is determined from the center of the lens and the center position of the protrusion. The angle is found.
レンズの角度の算出には、突起の位置の特定が必要である。しかしながら、撮像画像において、レンズの外周、レンズの表面の凹凸等によるエッジなどに比べると、突起のエッジは不鮮明である。従って、突起は特徴として抽出されにくいので、角度の算出精度が低くなる。 Calculating the angle of the lens requires specifying the position of the protrusion. However, in the captured image, the edges of the protrusions are unclear compared to edges caused by the outer periphery of the lens, irregularities on the surface of the lens, etc. Therefore, since the protrusion is difficult to be extracted as a feature, the angle calculation accuracy becomes low.
本発明の態様は、部品の角度を高い精度で算出することを目的とする。 Aspects of the present invention aim to calculate angles of parts with high accuracy.
本発明の態様に従えば、ノズルに保持された第1部品を撮像した第1原画像を極座標変換した第1極座標変換画像に基づいて、前記第1部品の特徴点を含むテンプレート画像を作成するティーチング処理部と、ノズルに保持された後且つ基板に実装される前の第2部品を撮像した第2原画像を極座標変換した第2極座標変換画像と、前記テンプレート画像と、を照合することにより、前記基板と垂直方向の周りの、前記第2部品の角度を算出する認識処理部と、を備える画像処理装置が提供される。 According to an aspect of the present invention, a template image including feature points of the first part is created based on a first polar coordinate transformed image obtained by polar coordinate transformation of a first original image captured by the first part held by a nozzle. By comparing the template image with a second polar coordinate transformation image obtained by polar coordinate transformation of a second original image captured by the teaching processing unit and the second component after being held in the nozzle and before being mounted on the board. , a recognition processing unit that calculates an angle of the second component around the substrate and a direction perpendicular to the substrate.
本発明の態様によれば、部品の角度が高い精度で算出される。 According to aspects of the invention, angles of parts are calculated with high accuracy.
以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明は実施形態に限定されない。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings, but the present invention is not limited to the embodiments.
<実施形態>
[生産システム]
図1は、実施形態に係る生産システムを示す図である。図1に示すように、生産システム1は、検査装置2と、実装装置3と、検査装置4と、管理装置5とを備える。検査装置2、実装装置3、及び検査装置4により、電子デバイスの生産ライン6が構築される。
<Embodiment>
[Production system]
FIG. 1 is a diagram showing a production system according to an embodiment. As shown in FIG. 1, the production system 1 includes an
実施形態では、生産システム1は、LED照明デバイスを生産するものとするが、本開示はこれに限定されない。LED照明デバイスは、LED発光素子が基板上に実装され、更に、LED発光素子から出射される光を拡散するレンズが、LED発光素子を覆うように基板上に実装される。レンズは、光透過性の樹脂で形成されることが例示されるが、本開示はこれに限定されない。 In the embodiment, it is assumed that the production system 1 produces LED lighting devices, but the present disclosure is not limited thereto. In an LED lighting device, an LED light emitting element is mounted on a substrate, and a lens that diffuses light emitted from the LED light emitting element is further mounted on the substrate so as to cover the LED light emitting element. Although the lens is exemplified to be formed of a light-transmitting resin, the present disclosure is not limited thereto.
生産ライン6において、実装装置3は、複数設けられる。実施形態において、実装装置3は、実装装置3Aと、実装装置3Bと、実装装置3Cとを含むこととするが、本開示はこれに限定されない。実装装置3の数は、2個以下又は4個以上であっても良い。
In the
生産ライン6において基板Pが搬送される。生産ライン6において基板Pが搬送されることにより、電子デバイスが生産される。実施形態において、生産ライン6の先頭装置は、検査装置2である。生産ライン6の後尾装置は、検査装置4である。基板Pは、検査装置2に搬入された後、複数の実装装置3(3A,3B,3C)のそれぞれに順次搬送される。複数の実装装置3(3A,3B,3C)は、基板Pに部品Cを順次実装する。実装装置3において部品Cが実装された基板Pは、検査装置4から搬出される。
A substrate P is transported in the
実施形態では、部品Cは、電子部品(LED発光素子を含む)と、LED発光素子から出射される光を拡散するレンズと、を含むこととするが、本開示はこれに限定されない。 In the embodiment, the component C includes an electronic component (including an LED light emitting element) and a lens that diffuses light emitted from the LED light emitting element, but the present disclosure is not limited thereto.
基板Pが生産ライン6に搬入される前に、印刷機により基板Pにクリーム半田が印刷される。クリーム半田が印刷された基板Pが、検査装置2に搬入される。なお、印刷機の図示は省略する。
Before the board P is carried into the
検査装置2は、部品Cが実装される前の基板Pの印刷状態を検査する半田印刷検査装置(SPI:Solder Paste Inspection)を含む。
The
実装装置3は、クリーム半田が印刷された基板Pに部品Cを実装する。部品Cが実装された基板Pは、リフロー炉において加熱される。リフロー炉において基板Pが加熱されることにより、クリーム半田が溶ける。溶けたクリーム半田が冷却されることにより、部品Cが基板Pに半田付けされる。なお、リフロー炉の図示は省略する。
The
レンズは、LED発光素子が基板Pに半田付けされた後に、LED発光素子を覆うように、基板Pに接着される。 After the LED light emitting elements are soldered to the substrate P, the lens is bonded to the substrate P so as to cover the LED light emitting elements.
検査装置4は、部品Cが実装された後の基板Pの状態を検査する基板外観検査装置(AOI:Automated Optical Inspection)を含む。
The
管理装置5は、コンピュータシステムを含む。管理装置5は、生産ライン6を制御する。
[実装装置]
図2は、実施形態に係る実装装置の一例を模式的に示す平面図である。実装装置3は、部品Cを基板Pに実装する。実装装置3は、ベース部材31と、基板Pを搬送する基板搬送装置32と、部品Cを供給する電子部品供給装置33と、ノズル34を有する実装ヘッド35と、実装ヘッド35を移動するヘッド移動装置36と、ノズル34を移動するノズル移動装置37と、撮像装置39と、を備える。
[Mounting equipment]
FIG. 2 is a plan view schematically showing an example of the mounting apparatus according to the embodiment. The
ベース部材31は、基板搬送装置32、電子部品供給装置33、実装ヘッド35、ヘッド移動装置36、ノズル移動装置37及び撮像装置39を支持する。
The
基板搬送装置32は、基板Pを実装位置DMに搬送する。実装位置DMは、基板搬送装置32の搬送経路に規定される。基板搬送装置32は、基板Pを搬送する搬送ベルト32Bと、基板Pをガイドするガイド部材32Gと、基板Pを保持する保持部材32Hとを有する。搬送ベルト32Bは、アクチュエータの作動により移動して、基板Pを搬送方向に搬送する。また、不図示の昇降機構により、保持部材32Hと基板Pと搬送ベルト32Bとが上下方向に移動する。基板Pは、実装位置DMに移動した後、昇降機構により上昇して、搬送ベルト32Bとガイド部材32Gとに挟持される。実装ヘッド35は、実装位置DMに配置された基板Pの表面に部品Cを実装する。
The
電子部品供給装置33は、部品Cを供給位置SMに供給する。電子部品供給装置33は、複数のテープフィーダ33Fを含む。テープフィーダ33Fは、複数の部品Cを保持する。電子部品供給装置33は、複数の部品Cのうち少なくとも1つの部品Cを供給位置SMに供給する。電子部品供給装置33は、基板搬送装置32の両側に配置される。なお、電子部品供給装置33は、基板搬送装置32の片側のみに配置されてもよい。
The electronic
実装ヘッド35は、電子部品供給装置33から供給された部品Cをノズル34で保持して基板Pに実装する。実装ヘッド35は、複数のノズル34を有する。実装ヘッド35は、電子部品供給装置33から部品Cが供給される供給位置SMと、基板Pが配置されている実装位置DMとの間を移動可能である。実装ヘッド35は、供給位置SMに供給された部品Cをノズル34で保持して、実装位置DMに移動した後、実装位置DMに配置されている基板Pに部品Cを実装する。
The mounting
ヘッド移動装置36は、実装ヘッド35を移動可能である。ヘッド移動装置36は、実装ヘッド35を水平面内の第1軸(X軸)方向に移動する第1軸移動装置36Xと、実装ヘッド35を第1軸方向と直交する水平面内の第2軸(Y軸)方向に移動する第2軸移動装置36Yとを有する。第1軸移動装置36X及び第2軸移動装置36Yのそれぞれは、アクチュエータを含む。第1軸移動装置36Xは、実装ヘッド35に連結される。第1軸移動装置36Xの作動により、実装ヘッド35が第1軸方向に移動する。第2軸移動装置36Yは、第1軸移動装置36Xを介して実装ヘッド35に連結される。第2軸移動装置36Yの作動により第1軸移動装置36Xが第2軸方向に移動することによって、実装ヘッド35が第2軸方向に移動する。
The
部品センサ38は、複数のテープフィーダ33Fのそれぞれに設けられる。部品センサ38は、供給位置SMに供給された部品Cを検出することによって、テープフィーダ33Fに残っている部品Cの数を示す残数を検出する。また、部品センサ38は、供給位置SMに供給される部品Cを検出することによって、テープフィーダ33Fにおいて部品Cが無くなったことを検出する。
The
撮像装置39は、実装ヘッド35のノズル34に保持されているレンズの正姿勢の画像を撮像する。撮像装置39は、ベース部材31に設けられている。実施形態では、撮像装置39は、水平面と直交する第3軸(Z軸)方向に沿って(図2の紙面奥から紙面手前に向かう方向に沿って)、実装ヘッド35のノズル34に保持されているレンズの画像を撮像することとするが、本開示はこれに限定されない。撮像装置39は、ミラー等で反射されたレンズの画像を撮像しても良い。また、実装装置3は、ノズル34に保持されているレンズを照らす照明装置を更に備えても良い。照明装置は、ノズル34に保持されているレンズを直接照明しても良いし、ミラー等を介して間接的に照明しても良い。実装ヘッド35は、ノズル34に保持されているレンズの画像を撮像する場合は、撮像装置39の上を通過する。なお、実装ヘッド35は、撮像装置39の上で一時停止しても良い。
The
図3は、実施形態に係る実装ヘッドの一例を模式的に示す図である。図3に示すように、実装ヘッド35は、複数のノズル34を有する。ノズル34は、部品Cを着脱可能に保持する。ノズル34は、部品Cを吸着保持する吸引ノズルである。ノズル34の先端部34Tに開口が設けられる。ノズル34の開口は、真空システムと接続される。ノズル34の先端部34Tと部品Cとが接触した状態で、ノズル34の先端部34Tに設けられた開口からの吸引動作が実施されることにより、ノズル34の先端部34Tに部品Cが吸着保持される。開口からの吸引動作が解除されることにより、ノズル34から部品Cが解放される。
FIG. 3 is a diagram schematically showing an example of the mounting head according to the embodiment. As shown in FIG. 3, the mounting
ノズル移動装置37は、ノズル34を水平面と直交する第3軸(Z軸)方向及び第3軸を中心とする回転方向のそれぞれに移動可能である。ノズル移動装置37は、実装ヘッド35に支持される。ノズル34は、シャフト34Sの下端部に接続される。シャフト34Sは、複数設けられる。複数のノズル34は、複数のシャフト34Sのそれぞれに接続される。ノズル移動装置37は、複数設けられる。複数のノズル移動装置37は、複数のシャフト34Sのそれぞれに接続される。ノズル34は、シャフト34S及びノズル移動装置37を介して実装ヘッド35に支持される。ノズル移動装置37は、シャフト34Sを第3軸(Z軸)方向及び第3軸を中心とする回転方向に移動することによって、ノズル34を移動する。
The
ノズル34は、ヘッド移動装置36及びノズル移動装置37により、第1軸(X軸)方向、第2軸(Y軸)方向、第3軸(Z軸)方向、及び第3軸と中心とする回転方向に移動可能である。ノズル34が移動することにより、ノズル34に保持されている部品Cも、第1軸方向、第2軸方向、第3軸方向、及び第3軸を中心とする回転方向に移動可能である。
The
なお、ノズル34は、部品Cを挟んで保持する把持ノズルでもよい。
Note that the
[LED照明デバイス]
図4は、実施形態に係る生産システムで生産されるLED照明デバイスを模式的に示す図である。基板P上には、LED発光素子100が実装される。更に、基板P上には、LED発光素子100から出射される光を拡散するレンズ101が、LED発光素子100を覆うように実装される。
[LED lighting device]
FIG. 4 is a diagram schematically showing an LED lighting device produced by the production system according to the embodiment. On the substrate P, an LED
レンズ101を実装する前に、接着剤が、塗布機により基板Pに塗布される。なお、塗布機の図示は省略する。
Before mounting the
レンズ101の第3軸(Z軸)方向の側は、凸面形状である。レンズ101の第3軸(Z軸)方向と反対側(図4中の下側)は、平面状である。その平面に、1つ又は複数の突起部(ボス)101aが形成されている。レンズ101の平面の中央部には、有底穴101bが形成されている。ノズル34は、有底穴101bの中にLED発光素子100が収容されるように、レンズ101を、接着剤が塗布された基板Pに実装する。これにより、突起部101aは、基板Pに接着される。つまり、レンズ101は、基板Pに接着される。
The side of the
[制御装置]
図5は、実施形態に係る実装装置に含まれる制御装置を示すブロック図である。
[Control device]
FIG. 5 is a block diagram showing a control device included in the mounting apparatus according to the embodiment.
制御装置50が、本開示の「画像処理装置」に相当する。 The control device 50 corresponds to the "image processing device" of the present disclosure.
なお、以降では、部品Cがレンズである場合について説明するが、本開示はこれに限定されない。部品Cは、電子部品であっても良い。 Note that although a case will be described below in which the component C is a lens, the present disclosure is not limited thereto. Component C may be an electronic component.
制御装置50は、画像取得部51と、ティーチング処理部52と、記憶部53と、認識処理部54と、実装制御部55と、を含む。ティーチング処理部52は、特徴点位置取得部52aと、極座標変換画像生成部52bと、特徴点位置算出部52cと、テンプレート画像生成部52dと、を含む。認識処理部54は、極座標変換画像生成部54aと、部品角度算出部54bと、を含む。
The control device 50 includes an
画像取得部51は、ノズル34に保持されたレンズの画像を撮像装置39から取得する。
The
ティーチング処理部52は、生産ライン6の稼働開始前、つまりLED照明デバイスの生産開始前に、ノズル34に保持されたティーチング用のレンズ101(後の図6参照)のテンプレート画像を作成するティーチング処理を実行する。
The teaching processing unit 52 performs a teaching process to create a template image of the teaching lens 101 (see FIG. 6 later) held in the
レンズ101が、本開示の「第1部品」に相当する。
The
特徴点位置取得部52aは、ノズル34に保持されたティーチング用のレンズ101の画像150(後の図6参照)を画像取得部51から受け取って、表示装置61に表示させる。表示装置61は、液晶表示装置、有機EL表示装置が例示されるが、本開示はこれに限定されない。オペレータ(ティーチング作業者)は、表示装置61に表示された画像150を見ながら、レンズ101の特徴点の位置を入力装置62に入力する。入力装置62は、キーボード、マウスが例示されるが、本開示はこれに限定されない。
The feature point position acquisition unit 52a receives an image 150 (see FIG. 6 later) of the
画像150が、本開示の「第1原画像」に相当する。 Image 150 corresponds to the "first original image" of the present disclosure.
図6は、実施形態に係る実装装置の表示装置に表示される画像の例を示す図である。図6の例では、レンズ101は、3個の突起部101a1、101a2及び101a3を含む。
FIG. 6 is a diagram illustrating an example of an image displayed on the display device of the mounting apparatus according to the embodiment. In the example of FIG. 6, the
実施形態では、レンズ101の特徴点は、3個の突起部101a1、101a2及び101a3とするが、本開示はこれに限定されない。レンズ101の特徴点は、レンズ101に形成された刻印等であっても良い。また、実施形態では、レンズ101は、突起部101a1、101a2及び101a3という3個の特徴点を含むこととするが、本開示はこれに限定されない。レンズ101は、2個以下、又は、4個以上の特徴点を含んでも良い。
In the embodiment, the feature points of the
オペレータは、突起部101a1を囲むウィンドウカーソル111を設定する。また、オペレータは、突起部101a2を囲むウィンドウカーソル112を設定する。また、オペレータは、突起部101a3を囲むウィンドウカーソル113を設定する。 The operator sets the window cursor 111 surrounding the protrusion 101a1. The operator also sets the window cursor 112 surrounding the protrusion 101a2. The operator also sets the window cursor 113 surrounding the protrusion 101a3.
特徴点位置取得部52aは、特徴点の位置としてのウィンドウカーソル111、112及び113を、入力装置62から取得する。 The feature point position acquisition unit 52a acquires window cursors 111, 112, and 113 as the positions of feature points from the input device 62.
なお、実施形態では、オペレータがウィンドウカーソル111、112及び113を設定することとしたが、本開示はこれに限定されない。特徴点位置取得部52aが、画像認識処理により、突起部101a1、101a2及び101a3の位置を取得しても良い。 Note that in the embodiment, the operator sets the window cursors 111, 112, and 113, but the present disclosure is not limited thereto. The feature point position acquisition unit 52a may acquire the positions of the protrusions 101a1, 101a2, and 101a3 by image recognition processing.
再び図5を参照すると、極座標変換画像生成部52bは、ノズル34に保持されたティーチング用のレンズ101の画像150を画像取得部51から受け取って、極座標変換した極座標変換画像160(後の図7参照)を生成する。極座標変換画像160は、二次元直交座標系(X,Y)の画像150を、極座標系(r,θ)に変換した画像である。
Referring again to FIG. 5, the polar coordinate transformed
極座標変換画像160が、本開示の「第1極座標変換画像」に相当する。 The polar coordinate transformed image 160 corresponds to the "first polar coordinate transformed image" of the present disclosure.
図7は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。詳しくは、図7(a)は、極座標変換前の画像150の例を示す図であり、図7(b)は、画像150を極座標変換した極座標変換画像160の例を示す図である。極座標変換画像160は、第1軸(図7(b)では、水平右方向)を角度θとし、第1軸に交差する第2軸(図7(b)では、垂直下方向)を径rとする座標系で表される画像である。第1軸(θ軸)と第2軸(r軸)とは、直交することが例示されるが、本開示はこれに限定されない。 FIG. 7 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. Specifically, FIG. 7A is a diagram showing an example of an image 150 before polar coordinate transformation, and FIG. 7B is a diagram showing an example of a polar coordinate transformation image 160 obtained by polar coordinate transformation of the image 150. In the polar coordinate conversion image 160, the first axis (horizontal right direction in FIG. 7(b)) is an angle θ, and the second axis intersecting the first axis (vertical downward direction in FIG. 7(b)) is a radius r. This is an image expressed in a coordinate system. For example, the first axis (θ axis) and the second axis (r axis) are orthogonal to each other, but the present disclosure is not limited thereto.
極座標変換画像生成部52bは、画像150において、レンズ101の中心101cを算出し、中心101cとレンズ101の外形サイズ(例えば、半径)に基づいて、極座標変換画像160を生成することが例示されるが、本開示はこれに限定されない。極座標変換画像生成部52bは、中心101cを、例えば、レンズ101の外周輪郭の重心で算出したり、外周輪郭を円近似したりして算出することが可能であるが、本開示はこれに限定されない。極座標変換画像生成部52bは、中心101cから予め定められた方向(図7(a)では、水平右方向)へ向かう線102を角度θの基準とするが、本開示はこれに限定されない。極座標変換画像生成部52bは、線102から時計回りの方向を、角度θの正方向とするが、本開示はこれに限定されない。
For example, the polar coordinate transformation
なお、極座標変換画像生成部52bは、極座標変換画像160において、特徴点の1つである突起部101a1がθ=0°の境界線に重なる場合には、基準方向(図7(a)の線102の方向)を、予め定められた角度だけ、角度θの逆方向にずらせば良い。例えば、極座標変換画像生成部52bは、基準方向(線102の方向)を、-45°ずらすことが例示されるが、本開示はこれに限定されない。これにより、極座標変換画像生成部52bは、特徴点の1つである突起部101a1がθ=0°の境界線に重ならないようにすることができる。
Note that in the polar coordinate transformed image 160, when the protrusion 101a1, which is one of the feature points, overlaps the boundary line of θ=0°, the polar coordinate transformed
再び図5を参照すると、特徴点位置算出部52cは、特徴点である突起部101a1、101a2及び101a3の、極座標変換画像160内での位置を算出する。例えば、特徴点位置算出部52cは、ウィンドウカーソル111(図6参照)の中央の二次元座標(X,Y)を極座標(r,θ)に変換することにより、ウィンドウカーソル111の中央の極座標変換画像160内での位置、つまり突起部101a1の中央の極座標変換画像160内での位置を、算出できる。
Referring again to FIG. 5, the feature point
テンプレート画像生成部52dは、特徴点である突起部101a1、101a2及び101a3を含む、極座標変換画像160内の部分画像を、テンプレート画像170(後の図8参照)として生成し、記憶部53に記憶させる。
The template image generation unit 52d generates a partial image within the polar coordinate transformed image 160, including the protrusions 101a1, 101a2, and 101a3, which are feature points, as a template image 170 (see FIG. 8 later), and stores it in the
図8は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。特徴点位置算出部52cは、特徴点である突起部101a1、101a2及び101a3を含む、角度θ1から角度θ2まで且つ径r1から径r2までの、極座標変換画像160内の矩形の部分画像を切り出し、テンプレート画像170として生成し、記憶部53に記憶させる。
FIG. 8 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. The feature point
図9は、実施形態に係る実装装置で取得される画像の例を示す図である。詳しくは、図9は、画像150において、テンプレート画像170に相当する部分画像151を示す図である。部分画像151は、角度θ1から角度θ2まで且つ径r1から径r2までのC字形状である。 FIG. 9 is a diagram illustrating an example of an image acquired by the mounting apparatus according to the embodiment. Specifically, FIG. 9 is a diagram showing a partial image 151 corresponding to the template image 170 in the image 150. The partial image 151 is C-shaped from angle θ 1 to angle θ 2 and from radius r 1 to radius r 2 .
再び図5を参照すると、認識処理部54は、生産ライン6の稼働開始後、つまりLED照明デバイスの生産開始後に、ノズル34に保持された後且つ基板Pに実装される前の実装用のレンズ201(後の図10参照)の画像に対する認識処理を実行する。認識処理部54は、実装用のレンズ201を基板Pに実装する都度、認識処理を実行する。
Referring again to FIG. 5, after the
レンズ201が、本開示の「第2部品」に相当する。 The lens 201 corresponds to the "second component" of the present disclosure.
極座標変換画像生成部54aは、ノズル34に保持された後且つ基板Pに実装される前のレンズ201の画像180(後の図10参照)を画像取得部51から受け取って、極座標変換した極座標変換画像190(後の図10参照)を生成する。極座標変換画像生成部54aは、テンプレート画像170の径方向の範囲(径r1から径r2まで)に相当する、画像180内の環状の部分画像を極座標変換し、極座標変換画像190を生成する。
The polar coordinate conversion image generation unit 54a receives an image 180 (see FIG. 10 later) of the lens 201 after being held by the
画像180が、本開示の「第2原画像」に相当する。極座標変換画像190が、本開示の「第2極座標変換画像」に相当する。 Image 180 corresponds to the "second original image" of the present disclosure. The polar coordinate transformed image 190 corresponds to the "second polar coordinate transformed image" of the present disclosure.
図10は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。詳しくは、図10(a)は、極座標変換前の画像180の例を示す図であり、図10(b)は、画像180を極座標変換した極座標変換画像190の例を示す図である。レンズ201は、突起部201a1、201a2及び201a3を含む。 FIG. 10 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. Specifically, FIG. 10A is a diagram showing an example of an image 180 before polar coordinate transformation, and FIG. 10B is a diagram showing an example of a polar coordinate transformation image 190 obtained by polar coordinate transformation of the image 180. The lens 201 includes protrusions 201a1, 201a2, and 201a3.
極座標変換画像生成部54aは、画像180において、レンズ201の中心201cを算出し、角度0°から角度360°まで且つ径r1から径r2までの環状の部分画像181を極座標変換し、極座標変換画像190を生成する。極座標変換画像生成部52bは、中心201cから予め定められた方向(図10(a)では、水平右方向)へ向かう線182を角度θの基準とするが、本開示はこれに限定されない。
The polar coordinate conversion image generation unit 54a calculates the center 201c of the lens 201 in the image 180, performs polar coordinate conversion on the annular partial image 181 from an angle of 0° to an angle of 360° and from a radius r1 to a radius r2 , and converts the annular partial image 181 into polar coordinates. A converted image 190 is generated. Although the polar coordinate conversion
なお、極座標変換画像190において、特徴点の1つである突起部201a1がθ=0°の境界線に重なる場合が起こり得る。そこで、極座標変換画像生成部54aは、極座標変換画像190の末尾の予め定められた第1角度範囲(例えば、315°から360°まで)の部分画像を、極座標変換画像190の先頭(0°)の前にコピーすることとしても良い。同様に、特徴点の1つである突起部201a3がθ=360°の境界線に重なる場合が起こり得る。そこで、極座標変換画像生成部54aは、極座標変換画像190の先頭の予め定められた第2角度範囲(例えば、0°から45°まで)の部分画像を、極座標変換画像190の末尾(360°)の後にコピーすることとしても良い。これにより、極座標変換画像生成部54aは、特徴点が極座標変換画像190の境界線に重なることを、抑制できる。 Note that in the polar coordinate transformed image 190, the protrusion 201a1, which is one of the feature points, may overlap the boundary line of θ=0°. Therefore, the polar coordinate transformed image generation unit 54a converts a partial image in a predetermined first angle range (for example, from 315° to 360°) at the end of the polar coordinate transformed image 190 to the beginning (0°) of the polar coordinate transformed image 190. You can also copy it before. Similarly, a case may occur in which the protrusion 201a3, which is one of the feature points, overlaps the boundary line of θ=360°. Therefore, the polar coordinate transformed image generation unit 54a converts a partial image in a predetermined second angle range (for example, from 0° to 45°) at the beginning of the polar coordinate transformed image 190 into a partial image at the end (360°) of the polar coordinate transformed image 190. It may also be copied after. Thereby, the polar coordinate transformed image generation unit 54a can prevent the feature points from overlapping the boundary line of the polar coordinate transformed image 190.
再び図5を参照すると、部品角度算出部54bは、極座標変換画像190と、記憶部53に記憶されているテンプレート画像170と、を照合することにより、レンズ201の第3軸(Z軸)周りの角度を算出する。部品角度算出部54bは、既知のパターンマッチング技術を、照合に利用することができる。
Referring again to FIG. 5, the component angle calculation unit 54b calculates the angle around the third axis (Z axis) of the lens 201 by comparing the polar coordinate transformed image 190 with the template image 170 stored in the
図11は、実施形態に係る実装装置で生成される極座標変換画像及びテンプレート画像の例を示す図である。テンプレート画像170の角度範囲は、角度θ1から角度θ2までであることが既に判明している。従って、部品角度算出部54bは、極座標変換画像190とテンプレート画像170との角度θ方向のずれ量を算出することにより、レンズ201の第3軸(Z軸)周りの角度を算出することができる。 FIG. 11 is a diagram illustrating an example of a polar coordinate transformation image and a template image generated by the mounting apparatus according to the embodiment. It has already been determined that the angular range of template image 170 is from angle θ 1 to angle θ 2 . Therefore, the component angle calculation unit 54b can calculate the angle of the lens 201 around the third axis (Z axis) by calculating the amount of deviation in the angle θ direction between the polar coordinate transformed image 190 and the template image 170. .
なお、極座標変換画像190及びテンプレート画像170のr軸方向の範囲は、径r1から径r2までで、同じである。従って、部品角度算出部54bは、r軸方向のずれを考慮する必要がなく、θ軸方向のずれ量だけを算出すれば良いので、照合のための演算処理量を抑制でき、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間を抑制できる。認識処理は、レンズ201を基板Pに実装する都度、ノズル34に保持された後且つ基板Pに実装される前のレンズ201の画像に対して、実行される。従って、制御装置50は、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間を抑制できることにより、レンズ201の実装時間を抑制することができる。これにより、生産システム1は、LED照明デバイスの生産時間を抑制することができる。
Note that the range of the polar coordinate transformed image 190 and the template image 170 in the r-axis direction is the same from the radius r 1 to the radius r 2 . Therefore, the component angle calculation unit 54b does not need to consider the deviation in the r-axis direction and only needs to calculate the deviation amount in the θ-axis direction. The time required to calculate angles around three axes (Z-axis) can be reduced. The recognition process is performed on an image of the lens 201 held by the
再び図5を参照すると、実装制御部55は、部品角度算出部54bで算出された角度に基づいて、実装ヘッド35内のノズル移動装置37を第3軸(Z軸)周りに回転させるように制御する。これにより、実装装置3は、レンズ201を予め定められた角度で基板Pに実装することができる。
Referring to FIG. 5 again, the mounting
[画像処理方法]
(ティーチング工程)
図12は、実施形態に係る画像処理方法を示すフローチャートである。詳しくは、図12は、ティーチング処理部52が実行するティーチング工程を示すフローチャートである。
[Image processing method]
(teaching process)
FIG. 12 is a flowchart showing the image processing method according to the embodiment. Specifically, FIG. 12 is a flowchart showing the teaching process executed by the teaching processing section 52.
ノズル34が供給位置SMでティーチング用の部品C(レンズ101)を保持し、撮像装置39の上に達すると、撮像装置39は、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を撮像する。画像取得部51は、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を撮像装置39から取得する(ステップS1)。
When the
特徴点位置取得部52aは、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を画像取得部51から受け取って、表示装置61に表示させる(ステップS2)。
The feature point position acquisition unit 52a receives the image 150 of the teaching component C (lens 101) held by the
オペレータ(ティーチング作業者)は、表示装置61に表示された画像150を見ながら、部品C(レンズ101)の特徴点の位置を入力装置62に入力する。特徴点位置取得部52aは、特徴点の位置を入力装置62から取得する(ステップS3)。 The operator (teaching worker) inputs the position of the feature point of the component C (lens 101) into the input device 62 while viewing the image 150 displayed on the display device 61. The feature point position acquisition unit 52a acquires the position of the feature point from the input device 62 (step S3).
極座標変換画像生成部52bは、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を画像取得部51から受け取って、極座標変換した極座標変換画像160を生成する(ステップS4)。
The polar coordinate transformed
特徴点位置算出部52cは、極座標変換画像160内での特徴点の位置を算出する(ステップS5)。
The feature point
テンプレート画像生成部52dは、極座標変換画像160内の特徴点を含む部分画像を、テンプレート画像170として生成し、記憶部53に記憶させる(ステップS6)。 The template image generation unit 52d generates a partial image including the feature points in the polar coordinate transformed image 160 as a template image 170, and stores it in the storage unit 53 (Step S6).
(認識工程)
図13は、実施形態に係る画像処理方法を示すフローチャートである。詳しくは、図13は、認識処理部54が実行する認識工程を示すフローチャートである。
(recognition process)
FIG. 13 is a flowchart showing the image processing method according to the embodiment. Specifically, FIG. 13 is a flowchart showing the recognition process executed by the recognition processing unit 54.
ノズル34が供給位置SMで実装用の部品C(レンズ201)を保持し、撮像装置39の上に達すると、撮像装置39は、ノズル34に保持された実装用の部品C(レンズ201)の画像180を撮像する。画像取得部51は、ノズル34に保持された実装用の部品C(レンズ201)の画像180を撮像装置39から取得する(ステップS11)。
When the
極座標変換画像生成部54aは、ノズル34に保持された実装用の部品C(レンズ201)の画像180を画像取得部51から受け取って、極座標変換した極座標変換画像190を生成する(ステップS12)。
The polar coordinate transformed image generation unit 54a receives the image 180 of the mounting component C (lens 201) held by the
部品角度算出部54bは、極座標変換画像190と、記憶部53に記憶されているテンプレート画像170と、を照合することにより、部品C(レンズ201)の第3軸(Z軸)周りの角度を算出する(ステップS13)。
The component angle calculation unit 54b calculates the angle around the third axis (Z axis) of the component C (lens 201) by comparing the polar coordinate conversion image 190 and the template image 170 stored in the
[コンピュータシステム]
図14は、実施形態に係るコンピュータシステムを示すブロック図である。上述の管理装置5及び制御装置50の各々は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。管理装置5及び制御装置50のそれぞれの機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
[Computer system]
FIG. 14 is a block diagram showing a computer system according to an embodiment. Each of the
プログラムは、上述の実施形態に従って、コンピュータシステム1000に、ティーチング用の部品C(レンズ101)の極座標変換画像160を生成することと、テンプレート画像170を生成することと、実装用の部品C(レンズ201)の極座標変換画像190を生成することと、極座標変換画像190とテンプレート画像170とを照合することと、実装用の部品C(レンズ201)の第3軸(Z軸)周りの角度を算出すること、を実行させることができる。
According to the embodiment described above, the program causes the
[効果]
以上説明したように、ティーチング用のレンズ101の画像150を極座標変換した極座標変換画像160が生成され、レンズ101の特徴点を含む極座標変換画像160の部分画像が、テンプレート画像170として生成される。実装用のレンズ201の画像180を極座標変換した極座標変換画像190が生成される。極座標変換画像190とテンプレート画像170とが照らし合わされ、実装用のレンズ201の第3軸(Z軸)周りの角度が算出される。従って、画像180において特徴点のエッジが若干不鮮明であったとしても、実装用のレンズ201の第3軸(Z軸)周りの角度が高い精度で算出される。
[effect]
As described above, a polar coordinate transformed image 160 is generated by polar coordinate transformation of the image 150 of the
また、極座標変換画像190及びテンプレート画像170のr軸方向の範囲は、径r1から径r2までで、同じである。従って、r軸方向のずれ量を考慮する必要がなく、θ軸方向のずれ量だけが算出されれば良いので、照らし合わせのための演算処理量が抑制され、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間が抑制される。認識処理は、レンズ201を基板Pに実装する都度、ノズル34に保持された後且つ基板Pに実装される前のレンズ201の画像に対して、実行される。従って、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間が抑制されることにより、レンズ201の実装時間が抑制される。これにより、LED照明デバイスの生産時間が抑制される。
In addition, the range in the r-axis direction of the polar coordinate conversion image 190 and the template image 170 is the same, from radius r1 to radius r2 . Therefore, since there is no need to consider the amount of deviation in the r-axis direction and only the amount of deviation in the θ-axis direction needs to be calculated, the amount of calculation processing for matching is suppressed, and the time required to calculate the angle of the lens 201 around the third axis (Z axis) is suppressed. The recognition process is performed on the image of the lens 201 after it is held by the
また、極座標変換画像160において、特徴点がθ=0°の境界線に重なる場合には、基準方向が、θ方向と逆の方向にずらされる。例えば、基準方向が、-45°ずらされる。これにより、特徴点がθ=0°の境界線に重ならないようにすることができる。 Further, in the polar coordinate transformed image 160, when the feature point overlaps the boundary line of θ=0°, the reference direction is shifted in the opposite direction to the θ direction. For example, the reference direction is shifted by -45°. Thereby, it is possible to prevent the feature points from overlapping the boundary line of θ=0°.
また、極座標変換画像190において、特徴点がθ=0°の境界線に重なる場合が起こり得る。そこで、極座標変換画像190の末尾の予め定められた第1角度範囲(例えば、315°から360°まで)の部分画像が、極座標変換画像190の先頭(0°)の前にコピーされる。様に、特徴点がθ=360°の境界線に重なる場合が起こり得る。そこで、極座標変換画像190の先頭の予め定められた第2角度範囲(例えば、0°から45°まで)の部分画像が、極座標変換画像190の末尾(360°)の後にコピーされる。これにより、特徴点が極座標変換画像190の境界線に重なることが、抑制される。 Furthermore, in the polar coordinate transformed image 190, there may be a case where a feature point overlaps the boundary line of θ=0°. Therefore, a partial image in a predetermined first angle range (for example, from 315° to 360°) at the end of the polar coordinate transformed image 190 is copied before the beginning (0°) of the polar coordinate transformed image 190. Similarly, a case may occur where a feature point overlaps the boundary line of θ=360°. Therefore, a partial image in a predetermined second angle range (for example, from 0° to 45°) at the beginning of the polar coordinate transformed image 190 is copied after the end (360°) of the polar coordinate transformed image 190. This prevents the feature points from overlapping the boundary line of the polar coordinate transformed image 190.
<その他の実施形態>
管理装置5(図1参照)が、ティーチング工程(図12参照)及び認識工程(図13参照)の内の一方又は両方を実行しても良い。但し、認識工程は、ノズル34に保持された後且つ基板Pに実装される前の実装用の部品C(レンズ201)の画像に対して実行されるので、高速に行われることが好ましい。従って、管理装置5がティーチング工程を実行する場合であっても、制御装置50が認識工程を実行することが好ましい。この場合、管理装置5がテンプレート画像170を作成して制御装置50に送信し、制御装置50が管理装置5から受信したテンプレート画像170を自装置のストレージ1003に記憶することが好ましい。
<Other embodiments>
The management device 5 (see FIG. 1) may perform one or both of the teaching process (see FIG. 12) and the recognition process (see FIG. 13). However, since the recognition process is performed on the image of the component C for mounting (lens 201) after being held by the
1…生産システム、2…検査装置、3…実装装置、3A…実装装置、3B…実装装置、3C…実装装置、4…検査装置、5…管理装置、6…生産ライン、34…ノズル、35…実装ヘッド、37…ノズル移動装置、51…画像取得部、52…ティーチング処理部、52a…特徴点位置取得部、52b…極座標変換画像生成部、52c…特徴点位置算出部、52d…テンプレート画像生成部、53…記憶部、54…認識処理部、54a…極座標変換画像生成部、54b…部品角度算出部、55…実装制御部、101…レンズ、1000…コンピュータシステム、1001…プロセッサ、1002…メインメモリ、1003…ストレージ、1004…インターフェース、P…基板。 1... Production system, 2... Inspection device, 3... Mounting device, 3A... Mounting device, 3B... Mounting device, 3C... Mounting device, 4... Inspection device, 5... Management device, 6... Production line, 34... Nozzle, 35 ...Mounting head, 37... Nozzle moving device, 51... Image acquisition section, 52... Teaching processing section, 52a... Feature point position acquisition section, 52b... Polar coordinate conversion image generation section, 52c... Feature point position calculation section, 52d... Template image Generation unit, 53... Storage unit, 54... Recognition processing unit, 54a... Polar coordinate conversion image generation unit, 54b... Component angle calculation unit, 55... Mounting control unit, 101... Lens, 1000... Computer system, 1001... Processor, 1002... Main memory, 1003... Storage, 1004... Interface, P... Board.
Claims (4)
ノズルに保持された後且つ基板に実装される前の第2部品を撮像した第2原画像を極座標変換した第2極座標変換画像と、前記テンプレート画像と、を照合することにより、前記基板と垂直方向の周りの、前記第2部品の角度を算出する認識処理部と、
を備え、
前記第1部品及び前記第2部品は、平面視して円形状であり、第1半径から第2半径までの環状の範囲に前記特徴点を有し、
前記ティーチング処理部は、前記第1極座標変換画像の内の、前記第1部品の前記環状の範囲の一部であって前記特徴点を含むC字形状の範囲に相当する画像を、前記テンプレート画像として作成し、
前記認識処理部は、前記第2原画像の前記環状の範囲を極座標変換した画像と、前記テンプレート画像と、を照合する、
画像処理装置。 a teaching processing unit that creates a template image including feature points of the first part based on a first polar coordinate transformed image obtained by polar coordinate transformation of a first original image taken of the first part held by the nozzle;
By comparing the template image with a second polar coordinate transformed image obtained by polar coordinate transformation of a second original image taken of the second component held by the nozzle and before being mounted on the board, the second part is perpendicular to the board. a recognition processing unit that calculates an angle of the second part around the direction;
Equipped with
The first part and the second part are circular in plan view, and have the characteristic points in an annular range from a first radius to a second radius,
The teaching processing unit converts an image corresponding to a C-shaped range that is a part of the annular range of the first part and includes the feature points out of the first polar coordinate transformed image into the template image. Create as,
The recognition processing unit compares an image obtained by polar coordinate conversion of the annular range of the second original image with the template image.
Image processing device.
請求項1に記載の画像処理装置。 The teaching processing unit shifts the reference direction by a predetermined angle when the feature points of the first part overlap the reference direction of the angle in the first polar coordinate transformed image.
The image processing device according to claim 1 .
請求項1又は2に記載の画像処理装置。 The recognition processing unit copies a partial image in a predetermined first angle range at the end of the second polar coordinate transformed image before the beginning of the second polar coordinate transformed image, and copying a partial image of a predetermined second angular range after the end of the second polar coordinate transformed image;
The image processing device according to claim 1 or 2 .
ノズルに保持された後且つ基板に実装される前の第2部品を撮像した第2原画像を極座標変換した第2極座標変換画像と、前記テンプレート画像と、を照合することにより、前記基板と垂直方向の周りの、前記第2部品の角度を算出する認識工程と、
を備え、
前記第1部品及び前記第2部品は、平面視して円形状であり、第1半径から第2半径までの環状の範囲に前記特徴点を有し、
前記ティーチング工程は、前記第1極座標変換画像の内の、前記第1部品の前記環状の範囲の一部であって前記特徴点を含むC字形状の範囲に相当する画像を、前記テンプレート画像として作成し、
前記認識工程は、前記第2原画像の前記環状の範囲を極座標変換した画像と、前記テンプレート画像と、を照合する、
画像処理方法。 a teaching step of creating a template image including feature points of the first part based on a first polar coordinate transformed image obtained by polar coordinate transformation of a first original image taken of the first part held by the nozzle;
By comparing the template image with a second polar coordinate transformed image obtained by polar coordinate transformation of a second original image taken of the second component held by the nozzle and before being mounted on the board, the second part is perpendicular to the board. a recognition step of calculating an angle of the second part around the direction;
Equipped with
The first part and the second part are circular in plan view, and have the characteristic points in an annular range from a first radius to a second radius,
In the teaching step, an image corresponding to a C-shaped range that is a part of the annular range of the first part and includes the feature points, out of the first polar coordinate transformed images, is used as the template image. make,
The recognition step compares an image obtained by polar coordinate conversion of the annular range of the second original image and the template image.
Image processing method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020051300A JP7454975B2 (en) | 2020-03-23 | 2020-03-23 | Image processing device and image processing method |
CN202110307388.XA CN113435468A (en) | 2020-03-23 | 2021-03-23 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020051300A JP7454975B2 (en) | 2020-03-23 | 2020-03-23 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021150590A JP2021150590A (en) | 2021-09-27 |
JP7454975B2 true JP7454975B2 (en) | 2024-03-25 |
Family
ID=77752908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020051300A Active JP7454975B2 (en) | 2020-03-23 | 2020-03-23 | Image processing device and image processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7454975B2 (en) |
CN (1) | CN113435468A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005116765A (en) | 2003-10-07 | 2005-04-28 | Shinkawa Ltd | Method, device, and program for discriminating bonding pattern |
JP2012203612A (en) | 2011-03-25 | 2012-10-22 | Juki Corp | Image processing method and image processing device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0548295A (en) * | 1991-08-19 | 1993-02-26 | Toshiba Corp | Method and apparatus for mounting electronic component |
-
2020
- 2020-03-23 JP JP2020051300A patent/JP7454975B2/en active Active
-
2021
- 2021-03-23 CN CN202110307388.XA patent/CN113435468A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005116765A (en) | 2003-10-07 | 2005-04-28 | Shinkawa Ltd | Method, device, and program for discriminating bonding pattern |
JP2012203612A (en) | 2011-03-25 | 2012-10-22 | Juki Corp | Image processing method and image processing device |
Also Published As
Publication number | Publication date |
---|---|
CN113435468A (en) | 2021-09-24 |
JP2021150590A (en) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2787804A2 (en) | Component mounting apparatus | |
JP2007309808A (en) | Method and system for detecting position of object | |
CN110214476B (en) | Coordinate data generating device and coordinate data generating method | |
JP6472873B2 (en) | Parts inspection machine and parts placement machine | |
JP2006108193A (en) | Pickup device and pickup method | |
JP7454975B2 (en) | Image processing device and image processing method | |
JPWO2018096577A1 (en) | Image processing system and image processing method | |
JP2008085181A (en) | Electronic component mounting apparatus | |
JP2007110003A (en) | Surface mounting machine and mounting method | |
JP4078210B2 (en) | Electronic circuit component mounting machine and electronic circuit component mounting method | |
JP2009253224A (en) | Component mounting method | |
JP4901451B2 (en) | Component mounting equipment | |
JP5977579B2 (en) | Board work equipment | |
WO2020183516A1 (en) | Mounting data generation assistance device, mounting data generation assistance method, appearance inspection machine, and component mounting system | |
WO2016151797A1 (en) | Mounting device and mounting method | |
JP6204050B2 (en) | Electronic component mounting machine | |
JP6153376B2 (en) | Electronic component mounting device | |
JP7289274B2 (en) | Lighting equipment and component mounting equipment | |
JP7019065B2 (en) | Production optimization system for component mounting line | |
JPWO2019138469A1 (en) | Working machine and polarity judgment method | |
JP4212328B2 (en) | Anti-Board Work Machine, Anti-Board Work Machine Monitoring System, and Anti-Board Work Machine Monitoring Method | |
JPWO2019069438A1 (en) | Substrate work system | |
JP4185367B2 (en) | Support member placement work support device, substrate work system including the support member placement method, and support member placement method | |
WO2022029879A1 (en) | Tape feeder test device and tape feeder test device correction method | |
WO2023162142A1 (en) | Image confirmation device and image confirmation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7454975 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |