JP7454975B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7454975B2
JP7454975B2 JP2020051300A JP2020051300A JP7454975B2 JP 7454975 B2 JP7454975 B2 JP 7454975B2 JP 2020051300 A JP2020051300 A JP 2020051300A JP 2020051300 A JP2020051300 A JP 2020051300A JP 7454975 B2 JP7454975 B2 JP 7454975B2
Authority
JP
Japan
Prior art keywords
image
polar coordinate
nozzle
lens
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020051300A
Other languages
Japanese (ja)
Other versions
JP2021150590A (en
Inventor
公子 藤江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2020051300A priority Critical patent/JP7454975B2/en
Priority to CN202110307388.XA priority patent/CN113435468A/en
Publication of JP2021150590A publication Critical patent/JP2021150590A/en
Application granted granted Critical
Publication of JP7454975B2 publication Critical patent/JP7454975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Supply And Installment Of Electrical Components (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.

電子デバイスを生産する生産システムにおいて、複数の実装装置により生産ラインが構築される。基板が生産ラインに搬入され、部品が実装装置によって基板に実装される。 In a production system that produces electronic devices, a production line is constructed using a plurality of mounting devices. A board is carried into a production line, and components are mounted on the board by a mounting device.

特許文献1には、LED素子が発光する光を拡散するためのレンズを基板上に装着する技術が、開示されている。特許文献1記載の技術によれば、レンズの下面に形成されている突起の撮像画像を認識処理した結果に基づいて、突起の位置が把握され、レンズの中心と突起の中心位置とから、レンズの角度が求められる。 Patent Document 1 discloses a technique in which a lens for diffusing light emitted by an LED element is mounted on a substrate. According to the technology described in Patent Document 1, the position of the protrusion is grasped based on the result of recognition processing of a captured image of the protrusion formed on the lower surface of the lens, and the position of the protrusion is determined from the center of the lens and the center position of the protrusion. The angle is found.

特許第6190172号公報Patent No. 6190172

レンズの角度の算出には、突起の位置の特定が必要である。しかしながら、撮像画像において、レンズの外周、レンズの表面の凹凸等によるエッジなどに比べると、突起のエッジは不鮮明である。従って、突起は特徴として抽出されにくいので、角度の算出精度が低くなる。 Calculating the angle of the lens requires specifying the position of the protrusion. However, in the captured image, the edges of the protrusions are unclear compared to edges caused by the outer periphery of the lens, irregularities on the surface of the lens, etc. Therefore, since the protrusion is difficult to be extracted as a feature, the angle calculation accuracy becomes low.

本発明の態様は、部品の角度を高い精度で算出することを目的とする。 Aspects of the present invention aim to calculate angles of parts with high accuracy.

本発明の態様に従えば、ノズルに保持された第1部品を撮像した第1原画像を極座標変換した第1極座標変換画像に基づいて、前記第1部品の特徴点を含むテンプレート画像を作成するティーチング処理部と、ノズルに保持された後且つ基板に実装される前の第2部品を撮像した第2原画像を極座標変換した第2極座標変換画像と、前記テンプレート画像と、を照合することにより、前記基板と垂直方向の周りの、前記第2部品の角度を算出する認識処理部と、を備える画像処理装置が提供される。 According to an aspect of the present invention, a template image including feature points of the first part is created based on a first polar coordinate transformed image obtained by polar coordinate transformation of a first original image captured by the first part held by a nozzle. By comparing the template image with a second polar coordinate transformation image obtained by polar coordinate transformation of a second original image captured by the teaching processing unit and the second component after being held in the nozzle and before being mounted on the board. , a recognition processing unit that calculates an angle of the second component around the substrate and a direction perpendicular to the substrate.

本発明の態様によれば、部品の角度が高い精度で算出される。 According to aspects of the invention, angles of parts are calculated with high accuracy.

図1は、実施形態に係る生産システムを示す図である。FIG. 1 is a diagram showing a production system according to an embodiment. 図2は、実施形態に係る実装装置の一例を模式的に示す平面図である。FIG. 2 is a plan view schematically showing an example of the mounting apparatus according to the embodiment. 図3は、実施形態に係る実装ヘッドの一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of the mounting head according to the embodiment. 図4は、実施形態に係る生産システムで生産されるLED照明デバイスを模式的に示す図である。FIG. 4 is a diagram schematically showing an LED lighting device produced by the production system according to the embodiment. 図5は、実施形態に係る実装装置に含まれる制御装置を示すブロック図である。FIG. 5 is a block diagram showing a control device included in the mounting apparatus according to the embodiment. 図6は、実施形態に係る実装装置の表示装置に表示される画像の例を示す図である。FIG. 6 is a diagram illustrating an example of an image displayed on the display device of the mounting apparatus according to the embodiment. 図7は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。FIG. 7 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. 図8は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。FIG. 8 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. 図9は、実施形態に係る実装装置で取得される画像の例を示す図である。FIG. 9 is a diagram illustrating an example of an image acquired by the mounting apparatus according to the embodiment. 図10は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。FIG. 10 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. 図11は、実施形態に係る実装装置で生成される極座標変換画像及びテンプレート画像の例を示す図である。FIG. 11 is a diagram illustrating an example of a polar coordinate transformation image and a template image generated by the mounting apparatus according to the embodiment. 図12は、実施形態に係る画像処理方法を示すフローチャートである。FIG. 12 is a flowchart showing the image processing method according to the embodiment. 図13は、実施形態に係る画像処理方法を示すフローチャートである。FIG. 13 is a flowchart showing the image processing method according to the embodiment. 図14は、実施形態に係るコンピュータシステムを示すブロック図である。FIG. 14 is a block diagram showing a computer system according to an embodiment.

以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明は実施形態に限定されない。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings, but the present invention is not limited to the embodiments.

<実施形態>
[生産システム]
図1は、実施形態に係る生産システムを示す図である。図1に示すように、生産システム1は、検査装置2と、実装装置3と、検査装置4と、管理装置5とを備える。検査装置2、実装装置3、及び検査装置4により、電子デバイスの生産ライン6が構築される。
<Embodiment>
[Production system]
FIG. 1 is a diagram showing a production system according to an embodiment. As shown in FIG. 1, the production system 1 includes an inspection device 2, a mounting device 3, an inspection device 4, and a management device 5. An electronic device production line 6 is constructed by the inspection device 2, the mounting device 3, and the inspection device 4.

実施形態では、生産システム1は、LED照明デバイスを生産するものとするが、本開示はこれに限定されない。LED照明デバイスは、LED発光素子が基板上に実装され、更に、LED発光素子から出射される光を拡散するレンズが、LED発光素子を覆うように基板上に実装される。レンズは、光透過性の樹脂で形成されることが例示されるが、本開示はこれに限定されない。 In the embodiment, it is assumed that the production system 1 produces LED lighting devices, but the present disclosure is not limited thereto. In an LED lighting device, an LED light emitting element is mounted on a substrate, and a lens that diffuses light emitted from the LED light emitting element is further mounted on the substrate so as to cover the LED light emitting element. Although the lens is exemplified to be formed of a light-transmitting resin, the present disclosure is not limited thereto.

生産ライン6において、実装装置3は、複数設けられる。実施形態において、実装装置3は、実装装置3Aと、実装装置3Bと、実装装置3Cとを含むこととするが、本開示はこれに限定されない。実装装置3の数は、2個以下又は4個以上であっても良い。 In the production line 6, a plurality of mounting devices 3 are provided. In the embodiment, the mounting apparatus 3 includes a mounting apparatus 3A, a mounting apparatus 3B, and a mounting apparatus 3C, but the present disclosure is not limited thereto. The number of mounting devices 3 may be two or less or four or more.

生産ライン6において基板Pが搬送される。生産ライン6において基板Pが搬送されることにより、電子デバイスが生産される。実施形態において、生産ライン6の先頭装置は、検査装置2である。生産ライン6の後尾装置は、検査装置4である。基板Pは、検査装置2に搬入された後、複数の実装装置3(3A,3B,3C)のそれぞれに順次搬送される。複数の実装装置3(3A,3B,3C)は、基板Pに部品Cを順次実装する。実装装置3において部品Cが実装された基板Pは、検査装置4から搬出される。 A substrate P is transported in the production line 6. By transporting the substrate P in the production line 6, electronic devices are produced. In the embodiment, the head device of the production line 6 is the inspection device 2. The rear device of the production line 6 is the inspection device 4. After the substrate P is carried into the inspection apparatus 2, it is sequentially conveyed to each of the plurality of mounting apparatuses 3 (3A, 3B, 3C). A plurality of mounting devices 3 (3A, 3B, 3C) sequentially mount components C onto a board P. The board P on which the component C is mounted in the mounting device 3 is carried out from the inspection device 4 .

実施形態では、部品Cは、電子部品(LED発光素子を含む)と、LED発光素子から出射される光を拡散するレンズと、を含むこととするが、本開示はこれに限定されない。 In the embodiment, the component C includes an electronic component (including an LED light emitting element) and a lens that diffuses light emitted from the LED light emitting element, but the present disclosure is not limited thereto.

基板Pが生産ライン6に搬入される前に、印刷機により基板Pにクリーム半田が印刷される。クリーム半田が印刷された基板Pが、検査装置2に搬入される。なお、印刷機の図示は省略する。 Before the board P is carried into the production line 6, cream solder is printed on the board P by a printing machine. A board P on which cream solder is printed is carried into the inspection device 2. Note that illustration of the printing machine is omitted.

検査装置2は、部品Cが実装される前の基板Pの印刷状態を検査する半田印刷検査装置(SPI:Solder Paste Inspection)を含む。 The inspection device 2 includes a solder print inspection device (SPI: Solder Paste Inspection) that inspects the printing state of the board P before the component C is mounted.

実装装置3は、クリーム半田が印刷された基板Pに部品Cを実装する。部品Cが実装された基板Pは、リフロー炉において加熱される。リフロー炉において基板Pが加熱されることにより、クリーム半田が溶ける。溶けたクリーム半田が冷却されることにより、部品Cが基板Pに半田付けされる。なお、リフロー炉の図示は省略する。 The mounting device 3 mounts the component C on the board P on which cream solder is printed. The substrate P on which the component C is mounted is heated in a reflow oven. The cream solder melts as the substrate P is heated in the reflow oven. The component C is soldered to the board P by cooling the melted cream solder. Note that illustration of the reflow oven is omitted.

レンズは、LED発光素子が基板Pに半田付けされた後に、LED発光素子を覆うように、基板Pに接着される。 After the LED light emitting elements are soldered to the substrate P, the lens is bonded to the substrate P so as to cover the LED light emitting elements.

検査装置4は、部品Cが実装された後の基板Pの状態を検査する基板外観検査装置(AOI:Automated Optical Inspection)を含む。 The inspection device 4 includes a board appearance inspection device (AOI: Automated Optical Inspection) that inspects the state of the board P after the component C is mounted.

管理装置5は、コンピュータシステムを含む。管理装置5は、生産ライン6を制御する。 Management device 5 includes a computer system. The management device 5 controls the production line 6.

[実装装置]
図2は、実施形態に係る実装装置の一例を模式的に示す平面図である。実装装置3は、部品Cを基板Pに実装する。実装装置3は、ベース部材31と、基板Pを搬送する基板搬送装置32と、部品Cを供給する電子部品供給装置33と、ノズル34を有する実装ヘッド35と、実装ヘッド35を移動するヘッド移動装置36と、ノズル34を移動するノズル移動装置37と、撮像装置39と、を備える。
[Mounting equipment]
FIG. 2 is a plan view schematically showing an example of the mounting apparatus according to the embodiment. The mounting device 3 mounts the component C onto the board P. The mounting device 3 includes a base member 31, a board transport device 32 that transports the board P, an electronic component supply device 33 that supplies the component C, a mounting head 35 having a nozzle 34, and a head moving device that moves the mounting head 35. The device 36 includes a nozzle moving device 37 that moves the nozzle 34, and an imaging device 39.

ベース部材31は、基板搬送装置32、電子部品供給装置33、実装ヘッド35、ヘッド移動装置36、ノズル移動装置37及び撮像装置39を支持する。 The base member 31 supports a substrate transport device 32 , an electronic component supply device 33 , a mounting head 35 , a head moving device 36 , a nozzle moving device 37 , and an imaging device 39 .

基板搬送装置32は、基板Pを実装位置DMに搬送する。実装位置DMは、基板搬送装置32の搬送経路に規定される。基板搬送装置32は、基板Pを搬送する搬送ベルト32Bと、基板Pをガイドするガイド部材32Gと、基板Pを保持する保持部材32Hとを有する。搬送ベルト32Bは、アクチュエータの作動により移動して、基板Pを搬送方向に搬送する。また、不図示の昇降機構により、保持部材32Hと基板Pと搬送ベルト32Bとが上下方向に移動する。基板Pは、実装位置DMに移動した後、昇降機構により上昇して、搬送ベルト32Bとガイド部材32Gとに挟持される。実装ヘッド35は、実装位置DMに配置された基板Pの表面に部品Cを実装する。 The board transport device 32 transports the board P to the mounting position DM. The mounting position DM is defined on the transport path of the substrate transport device 32. The substrate conveyance device 32 includes a conveyance belt 32B that conveys the substrate P, a guide member 32G that guides the substrate P, and a holding member 32H that holds the substrate P. The conveyance belt 32B is moved by the actuator and conveys the substrate P in the conveyance direction. Further, the holding member 32H, the substrate P, and the conveyor belt 32B are moved in the vertical direction by a lifting mechanism (not shown). After the substrate P moves to the mounting position DM, it is raised by the lifting mechanism and is held between the conveyor belt 32B and the guide member 32G. The mounting head 35 mounts the component C on the surface of the board P placed at the mounting position DM.

電子部品供給装置33は、部品Cを供給位置SMに供給する。電子部品供給装置33は、複数のテープフィーダ33Fを含む。テープフィーダ33Fは、複数の部品Cを保持する。電子部品供給装置33は、複数の部品Cのうち少なくとも1つの部品Cを供給位置SMに供給する。電子部品供給装置33は、基板搬送装置32の両側に配置される。なお、電子部品供給装置33は、基板搬送装置32の片側のみに配置されてもよい。 The electronic component supply device 33 supplies the component C to the supply position SM. The electronic component supply device 33 includes a plurality of tape feeders 33F. The tape feeder 33F holds a plurality of parts C. The electronic component supply device 33 supplies at least one component C among the plurality of components C to the supply position SM. The electronic component supply device 33 is arranged on both sides of the board transfer device 32. Note that the electronic component supply device 33 may be arranged only on one side of the board transfer device 32.

実装ヘッド35は、電子部品供給装置33から供給された部品Cをノズル34で保持して基板Pに実装する。実装ヘッド35は、複数のノズル34を有する。実装ヘッド35は、電子部品供給装置33から部品Cが供給される供給位置SMと、基板Pが配置されている実装位置DMとの間を移動可能である。実装ヘッド35は、供給位置SMに供給された部品Cをノズル34で保持して、実装位置DMに移動した後、実装位置DMに配置されている基板Pに部品Cを実装する。 The mounting head 35 holds the component C supplied from the electronic component supply device 33 with the nozzle 34 and mounts it on the substrate P. The mounting head 35 has a plurality of nozzles 34. The mounting head 35 is movable between a supply position SM where the component C is supplied from the electronic component supply device 33 and a mounting position DM where the board P is arranged. The mounting head 35 holds the component C supplied to the supply position SM with the nozzle 34, moves to the mounting position DM, and then mounts the component C on the board P placed at the mounting position DM.

ヘッド移動装置36は、実装ヘッド35を移動可能である。ヘッド移動装置36は、実装ヘッド35を水平面内の第1軸(X軸)方向に移動する第1軸移動装置36Xと、実装ヘッド35を第1軸方向と直交する水平面内の第2軸(Y軸)方向に移動する第2軸移動装置36Yとを有する。第1軸移動装置36X及び第2軸移動装置36Yのそれぞれは、アクチュエータを含む。第1軸移動装置36Xは、実装ヘッド35に連結される。第1軸移動装置36Xの作動により、実装ヘッド35が第1軸方向に移動する。第2軸移動装置36Yは、第1軸移動装置36Xを介して実装ヘッド35に連結される。第2軸移動装置36Yの作動により第1軸移動装置36Xが第2軸方向に移動することによって、実装ヘッド35が第2軸方向に移動する。 The head moving device 36 can move the mounting head 35. The head moving device 36 includes a first axis moving device 36X that moves the mounting head 35 in a first axis (X-axis) direction in a horizontal plane, and a first axis moving device 36X that moves the mounting head 35 in a second axis ( A second axis moving device 36Y that moves in the (Y-axis) direction. Each of the first axis moving device 36X and the second axis moving device 36Y includes an actuator. The first axis moving device 36X is connected to the mounting head 35. The mounting head 35 moves in the first axis direction by the operation of the first axis moving device 36X. The second axis moving device 36Y is connected to the mounting head 35 via the first axis moving device 36X. When the first axis moving device 36X moves in the second axial direction due to the operation of the second axis moving device 36Y, the mounting head 35 moves in the second axial direction.

部品センサ38は、複数のテープフィーダ33Fのそれぞれに設けられる。部品センサ38は、供給位置SMに供給された部品Cを検出することによって、テープフィーダ33Fに残っている部品Cの数を示す残数を検出する。また、部品センサ38は、供給位置SMに供給される部品Cを検出することによって、テープフィーダ33Fにおいて部品Cが無くなったことを検出する。 The component sensor 38 is provided in each of the plurality of tape feeders 33F. The component sensor 38 detects the remaining number indicating the number of components C remaining in the tape feeder 33F by detecting the components C supplied to the supply position SM. Furthermore, the component sensor 38 detects the absence of the component C in the tape feeder 33F by detecting the component C supplied to the supply position SM.

撮像装置39は、実装ヘッド35のノズル34に保持されているレンズの正姿勢の画像を撮像する。撮像装置39は、ベース部材31に設けられている。実施形態では、撮像装置39は、水平面と直交する第3軸(Z軸)方向に沿って(図2の紙面奥から紙面手前に向かう方向に沿って)、実装ヘッド35のノズル34に保持されているレンズの画像を撮像することとするが、本開示はこれに限定されない。撮像装置39は、ミラー等で反射されたレンズの画像を撮像しても良い。また、実装装置3は、ノズル34に保持されているレンズを照らす照明装置を更に備えても良い。照明装置は、ノズル34に保持されているレンズを直接照明しても良いし、ミラー等を介して間接的に照明しても良い。実装ヘッド35は、ノズル34に保持されているレンズの画像を撮像する場合は、撮像装置39の上を通過する。なお、実装ヘッド35は、撮像装置39の上で一時停止しても良い。 The imaging device 39 captures an image of the lens held by the nozzle 34 of the mounting head 35 in a normal posture. The imaging device 39 is provided on the base member 31. In the embodiment, the imaging device 39 is held by the nozzle 34 of the mounting head 35 along the third axis (Z-axis) direction perpendicular to the horizontal plane (along the direction from the back of the page to the front of the page in FIG. 2). Although the present disclosure is not limited to this, the present disclosure is not limited thereto. The imaging device 39 may take an image of the lens reflected by a mirror or the like. Moreover, the mounting apparatus 3 may further include a lighting device that illuminates the lens held by the nozzle 34. The illumination device may directly illuminate the lens held by the nozzle 34, or may illuminate the lens indirectly through a mirror or the like. When capturing an image of the lens held by the nozzle 34, the mounting head 35 passes over the imaging device 39. Note that the mounting head 35 may temporarily stop above the imaging device 39.

図3は、実施形態に係る実装ヘッドの一例を模式的に示す図である。図3に示すように、実装ヘッド35は、複数のノズル34を有する。ノズル34は、部品Cを着脱可能に保持する。ノズル34は、部品Cを吸着保持する吸引ノズルである。ノズル34の先端部34Tに開口が設けられる。ノズル34の開口は、真空システムと接続される。ノズル34の先端部34Tと部品Cとが接触した状態で、ノズル34の先端部34Tに設けられた開口からの吸引動作が実施されることにより、ノズル34の先端部34Tに部品Cが吸着保持される。開口からの吸引動作が解除されることにより、ノズル34から部品Cが解放される。 FIG. 3 is a diagram schematically showing an example of the mounting head according to the embodiment. As shown in FIG. 3, the mounting head 35 has a plurality of nozzles 34. The nozzle 34 removably holds the component C. The nozzle 34 is a suction nozzle that sucks and holds the component C. An opening is provided at the tip 34T of the nozzle 34. The opening of nozzle 34 is connected to a vacuum system. With the tip 34T of the nozzle 34 and the component C in contact, a suction operation is performed from the opening provided in the tip 34T of the nozzle 34, so that the component C is attracted and held by the tip 34T of the nozzle 34. be done. By canceling the suction operation from the opening, the component C is released from the nozzle 34.

ノズル移動装置37は、ノズル34を水平面と直交する第3軸(Z軸)方向及び第3軸を中心とする回転方向のそれぞれに移動可能である。ノズル移動装置37は、実装ヘッド35に支持される。ノズル34は、シャフト34Sの下端部に接続される。シャフト34Sは、複数設けられる。複数のノズル34は、複数のシャフト34Sのそれぞれに接続される。ノズル移動装置37は、複数設けられる。複数のノズル移動装置37は、複数のシャフト34Sのそれぞれに接続される。ノズル34は、シャフト34S及びノズル移動装置37を介して実装ヘッド35に支持される。ノズル移動装置37は、シャフト34Sを第3軸(Z軸)方向及び第3軸を中心とする回転方向に移動することによって、ノズル34を移動する。 The nozzle moving device 37 is capable of moving the nozzle 34 in each of a third axis (Z-axis) direction perpendicular to the horizontal plane and a rotation direction around the third axis. The nozzle moving device 37 is supported by the mounting head 35. Nozzle 34 is connected to the lower end of shaft 34S. A plurality of shafts 34S are provided. The plurality of nozzles 34 are connected to each of the plurality of shafts 34S. A plurality of nozzle moving devices 37 are provided. The plurality of nozzle moving devices 37 are connected to each of the plurality of shafts 34S. The nozzle 34 is supported by the mounting head 35 via a shaft 34S and a nozzle moving device 37. The nozzle moving device 37 moves the nozzle 34 by moving the shaft 34S in the third axis (Z-axis) direction and in the direction of rotation around the third axis.

ノズル34は、ヘッド移動装置36及びノズル移動装置37により、第1軸(X軸)方向、第2軸(Y軸)方向、第3軸(Z軸)方向、及び第3軸と中心とする回転方向に移動可能である。ノズル34が移動することにより、ノズル34に保持されている部品Cも、第1軸方向、第2軸方向、第3軸方向、及び第3軸を中心とする回転方向に移動可能である。 The nozzle 34 is moved in the first axis (X axis) direction, second axis (Y axis) direction, third axis (Z axis) direction, and centered on the third axis by the head moving device 36 and the nozzle moving device 37. It is movable in the rotational direction. As the nozzle 34 moves, the component C held by the nozzle 34 can also move in the first axial direction, the second axial direction, the third axial direction, and the rotation direction around the third axis.

なお、ノズル34は、部品Cを挟んで保持する把持ノズルでもよい。 Note that the nozzle 34 may be a gripping nozzle that holds the component C on both sides.

[LED照明デバイス]
図4は、実施形態に係る生産システムで生産されるLED照明デバイスを模式的に示す図である。基板P上には、LED発光素子100が実装される。更に、基板P上には、LED発光素子100から出射される光を拡散するレンズ101が、LED発光素子100を覆うように実装される。
[LED lighting device]
FIG. 4 is a diagram schematically showing an LED lighting device produced by the production system according to the embodiment. On the substrate P, an LED light emitting element 100 is mounted. Furthermore, a lens 101 that diffuses light emitted from the LED light emitting element 100 is mounted on the substrate P so as to cover the LED light emitting element 100.

レンズ101を実装する前に、接着剤が、塗布機により基板Pに塗布される。なお、塗布機の図示は省略する。 Before mounting the lens 101, adhesive is applied to the substrate P using a coating machine. Note that illustration of the coating machine is omitted.

レンズ101の第3軸(Z軸)方向の側は、凸面形状である。レンズ101の第3軸(Z軸)方向と反対側(図4中の下側)は、平面状である。その平面に、1つ又は複数の突起部(ボス)101aが形成されている。レンズ101の平面の中央部には、有底穴101bが形成されている。ノズル34は、有底穴101bの中にLED発光素子100が収容されるように、レンズ101を、接着剤が塗布された基板Pに実装する。これにより、突起部101aは、基板Pに接着される。つまり、レンズ101は、基板Pに接着される。 The side of the lens 101 in the third axis (Z-axis) direction has a convex shape. The side (lower side in FIG. 4) opposite to the third axis (Z-axis) direction of the lens 101 is flat. One or more protrusions (bosses) 101a are formed on the plane. A bottomed hole 101b is formed in the center of the plane of the lens 101. The nozzle 34 mounts the lens 101 on the substrate P coated with adhesive so that the LED light emitting element 100 is housed in the bottomed hole 101b. Thereby, the protrusion 101a is adhered to the substrate P. That is, the lens 101 is bonded to the substrate P.

[制御装置]
図5は、実施形態に係る実装装置に含まれる制御装置を示すブロック図である。
[Control device]
FIG. 5 is a block diagram showing a control device included in the mounting apparatus according to the embodiment.

制御装置50が、本開示の「画像処理装置」に相当する。 The control device 50 corresponds to the "image processing device" of the present disclosure.

なお、以降では、部品Cがレンズである場合について説明するが、本開示はこれに限定されない。部品Cは、電子部品であっても良い。 Note that although a case will be described below in which the component C is a lens, the present disclosure is not limited thereto. Component C may be an electronic component.

制御装置50は、画像取得部51と、ティーチング処理部52と、記憶部53と、認識処理部54と、実装制御部55と、を含む。ティーチング処理部52は、特徴点位置取得部52aと、極座標変換画像生成部52bと、特徴点位置算出部52cと、テンプレート画像生成部52dと、を含む。認識処理部54は、極座標変換画像生成部54aと、部品角度算出部54bと、を含む。 The control device 50 includes an image acquisition section 51, a teaching processing section 52, a storage section 53, a recognition processing section 54, and a mounting control section 55. The teaching processing section 52 includes a feature point position acquisition section 52a, a polar coordinate transformation image generation section 52b, a feature point position calculation section 52c, and a template image generation section 52d. The recognition processing section 54 includes a polar coordinate transformation image generation section 54a and a component angle calculation section 54b.

画像取得部51は、ノズル34に保持されたレンズの画像を撮像装置39から取得する。 The image acquisition unit 51 acquires an image of the lens held by the nozzle 34 from the imaging device 39.

ティーチング処理部52は、生産ライン6の稼働開始前、つまりLED照明デバイスの生産開始前に、ノズル34に保持されたティーチング用のレンズ101(後の図6参照)のテンプレート画像を作成するティーチング処理を実行する。 The teaching processing unit 52 performs a teaching process to create a template image of the teaching lens 101 (see FIG. 6 later) held in the nozzle 34 before the production line 6 starts operating, that is, before the production of LED lighting devices starts. Execute.

レンズ101が、本開示の「第1部品」に相当する。 The lens 101 corresponds to the "first component" of the present disclosure.

特徴点位置取得部52aは、ノズル34に保持されたティーチング用のレンズ101の画像150(後の図6参照)を画像取得部51から受け取って、表示装置61に表示させる。表示装置61は、液晶表示装置、有機EL表示装置が例示されるが、本開示はこれに限定されない。オペレータ(ティーチング作業者)は、表示装置61に表示された画像150を見ながら、レンズ101の特徴点の位置を入力装置62に入力する。入力装置62は、キーボード、マウスが例示されるが、本開示はこれに限定されない。 The feature point position acquisition unit 52a receives an image 150 (see FIG. 6 later) of the teaching lens 101 held by the nozzle 34 from the image acquisition unit 51, and displays it on the display device 61. Although the display device 61 is exemplified by a liquid crystal display device or an organic EL display device, the present disclosure is not limited thereto. An operator (teaching worker) inputs the position of the feature point of the lens 101 into the input device 62 while viewing the image 150 displayed on the display device 61 . Examples of the input device 62 include a keyboard and a mouse, but the present disclosure is not limited thereto.

画像150が、本開示の「第1原画像」に相当する。 Image 150 corresponds to the "first original image" of the present disclosure.

図6は、実施形態に係る実装装置の表示装置に表示される画像の例を示す図である。図6の例では、レンズ101は、3個の突起部101a1、101a2及び101a3を含む。 FIG. 6 is a diagram illustrating an example of an image displayed on the display device of the mounting apparatus according to the embodiment. In the example of FIG. 6, the lens 101 includes three protrusions 101a1, 101a2, and 101a3.

実施形態では、レンズ101の特徴点は、3個の突起部101a1、101a2及び101a3とするが、本開示はこれに限定されない。レンズ101の特徴点は、レンズ101に形成された刻印等であっても良い。また、実施形態では、レンズ101は、突起部101a1、101a2及び101a3という3個の特徴点を含むこととするが、本開示はこれに限定されない。レンズ101は、2個以下、又は、4個以上の特徴点を含んでも良い。 In the embodiment, the feature points of the lens 101 are three protrusions 101a1, 101a2, and 101a3, but the present disclosure is not limited thereto. The characteristic point of the lens 101 may be a stamp formed on the lens 101 or the like. Furthermore, in the embodiment, the lens 101 includes three feature points: protrusions 101a1, 101a2, and 101a3, but the present disclosure is not limited thereto. The lens 101 may include two or less feature points, or four or more feature points.

オペレータは、突起部101a1を囲むウィンドウカーソル111を設定する。また、オペレータは、突起部101a2を囲むウィンドウカーソル112を設定する。また、オペレータは、突起部101a3を囲むウィンドウカーソル113を設定する。 The operator sets the window cursor 111 surrounding the protrusion 101a1. The operator also sets the window cursor 112 surrounding the protrusion 101a2. The operator also sets the window cursor 113 surrounding the protrusion 101a3.

特徴点位置取得部52aは、特徴点の位置としてのウィンドウカーソル111、112及び113を、入力装置62から取得する。 The feature point position acquisition unit 52a acquires window cursors 111, 112, and 113 as the positions of feature points from the input device 62.

なお、実施形態では、オペレータがウィンドウカーソル111、112及び113を設定することとしたが、本開示はこれに限定されない。特徴点位置取得部52aが、画像認識処理により、突起部101a1、101a2及び101a3の位置を取得しても良い。 Note that in the embodiment, the operator sets the window cursors 111, 112, and 113, but the present disclosure is not limited thereto. The feature point position acquisition unit 52a may acquire the positions of the protrusions 101a1, 101a2, and 101a3 by image recognition processing.

再び図5を参照すると、極座標変換画像生成部52bは、ノズル34に保持されたティーチング用のレンズ101の画像150を画像取得部51から受け取って、極座標変換した極座標変換画像160(後の図7参照)を生成する。極座標変換画像160は、二次元直交座標系(X,Y)の画像150を、極座標系(r,θ)に変換した画像である。 Referring again to FIG. 5, the polar coordinate transformed image generation unit 52b receives the image 150 of the teaching lens 101 held by the nozzle 34 from the image acquisition unit 51, and generates a polar coordinate transformed image 160 (later shown in FIG. reference). The polar coordinate converted image 160 is an image obtained by converting the image 150 of the two-dimensional orthogonal coordinate system (X, Y) to a polar coordinate system (r, θ).

極座標変換画像160が、本開示の「第1極座標変換画像」に相当する。 The polar coordinate transformed image 160 corresponds to the "first polar coordinate transformed image" of the present disclosure.

図7は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。詳しくは、図7(a)は、極座標変換前の画像150の例を示す図であり、図7(b)は、画像150を極座標変換した極座標変換画像160の例を示す図である。極座標変換画像160は、第1軸(図7(b)では、水平右方向)を角度θとし、第1軸に交差する第2軸(図7(b)では、垂直下方向)を径rとする座標系で表される画像である。第1軸(θ軸)と第2軸(r軸)とは、直交することが例示されるが、本開示はこれに限定されない。 FIG. 7 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. Specifically, FIG. 7A is a diagram showing an example of an image 150 before polar coordinate transformation, and FIG. 7B is a diagram showing an example of a polar coordinate transformation image 160 obtained by polar coordinate transformation of the image 150. In the polar coordinate conversion image 160, the first axis (horizontal right direction in FIG. 7(b)) is an angle θ, and the second axis intersecting the first axis (vertical downward direction in FIG. 7(b)) is a radius r. This is an image expressed in a coordinate system. For example, the first axis (θ axis) and the second axis (r axis) are orthogonal to each other, but the present disclosure is not limited thereto.

極座標変換画像生成部52bは、画像150において、レンズ101の中心101cを算出し、中心101cとレンズ101の外形サイズ(例えば、半径)に基づいて、極座標変換画像160を生成することが例示されるが、本開示はこれに限定されない。極座標変換画像生成部52bは、中心101cを、例えば、レンズ101の外周輪郭の重心で算出したり、外周輪郭を円近似したりして算出することが可能であるが、本開示はこれに限定されない。極座標変換画像生成部52bは、中心101cから予め定められた方向(図7(a)では、水平右方向)へ向かう線102を角度θの基準とするが、本開示はこれに限定されない。極座標変換画像生成部52bは、線102から時計回りの方向を、角度θの正方向とするが、本開示はこれに限定されない。 For example, the polar coordinate transformation image generation unit 52b calculates the center 101c of the lens 101 in the image 150, and generates the polar coordinate transformation image 160 based on the center 101c and the external size (for example, radius) of the lens 101. However, the present disclosure is not limited thereto. The polar coordinate conversion image generation unit 52b can calculate the center 101c by, for example, the center of gravity of the outer peripheral contour of the lens 101, or by approximating the outer peripheral contour in a circle, but the present disclosure is limited to this. Not done. Although the polar coordinate conversion image generation unit 52b uses a line 102 extending from the center 101c in a predetermined direction (horizontal right direction in FIG. 7A) as a reference for the angle θ, the present disclosure is not limited thereto. Although the polar coordinate conversion image generation unit 52b regards the clockwise direction from the line 102 as the positive direction of the angle θ, the present disclosure is not limited thereto.

なお、極座標変換画像生成部52bは、極座標変換画像160において、特徴点の1つである突起部101a1がθ=0°の境界線に重なる場合には、基準方向(図7(a)の線102の方向)を、予め定められた角度だけ、角度θの逆方向にずらせば良い。例えば、極座標変換画像生成部52bは、基準方向(線102の方向)を、-45°ずらすことが例示されるが、本開示はこれに限定されない。これにより、極座標変換画像生成部52bは、特徴点の1つである突起部101a1がθ=0°の境界線に重ならないようにすることができる。 Note that in the polar coordinate transformed image 160, when the protrusion 101a1, which is one of the feature points, overlaps the boundary line of θ=0°, the polar coordinate transformed image generation unit 52b generates a polar coordinate transformed image 160 in the reference direction (the line in FIG. 102 direction) by a predetermined angle in the direction opposite to the angle θ. For example, the polar coordinate conversion image generation unit 52b shifts the reference direction (the direction of the line 102) by −45°, but the present disclosure is not limited thereto. Thereby, the polar coordinate conversion image generation unit 52b can prevent the protrusion 101a1, which is one of the feature points, from overlapping the boundary line of θ=0°.

再び図5を参照すると、特徴点位置算出部52cは、特徴点である突起部101a1、101a2及び101a3の、極座標変換画像160内での位置を算出する。例えば、特徴点位置算出部52cは、ウィンドウカーソル111(図6参照)の中央の二次元座標(X,Y)を極座標(r,θ)に変換することにより、ウィンドウカーソル111の中央の極座標変換画像160内での位置、つまり突起部101a1の中央の極座標変換画像160内での位置を、算出できる。 Referring again to FIG. 5, the feature point position calculation unit 52c calculates the positions of the protrusions 101a1, 101a2, and 101a3, which are feature points, in the polar coordinate transformed image 160. For example, the feature point position calculation unit 52c converts the two-dimensional coordinates (X, Y) of the center of the window cursor 111 (see FIG. 6) into polar coordinates (r, θ), thereby converting the center of the window cursor 111 into polar coordinates. The position within the image 160, that is, the position of the center of the protrusion 101a1 within the polar coordinate transformed image 160 can be calculated.

テンプレート画像生成部52dは、特徴点である突起部101a1、101a2及び101a3を含む、極座標変換画像160内の部分画像を、テンプレート画像170(後の図8参照)として生成し、記憶部53に記憶させる。 The template image generation unit 52d generates a partial image within the polar coordinate transformed image 160, including the protrusions 101a1, 101a2, and 101a3, which are feature points, as a template image 170 (see FIG. 8 later), and stores it in the storage unit 53. let

図8は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。特徴点位置算出部52cは、特徴点である突起部101a1、101a2及び101a3を含む、角度θから角度θまで且つ径rから径rまでの、極座標変換画像160内の矩形の部分画像を切り出し、テンプレート画像170として生成し、記憶部53に記憶させる。 FIG. 8 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. The feature point position calculation unit 52c calculates a rectangular portion in the polar coordinate transformed image 160 from angle θ 1 to angle θ 2 and from radius r 1 to radius r 2 , including protrusions 101a1, 101a2, and 101a3, which are feature points. The image is cut out, generated as a template image 170, and stored in the storage unit 53.

図9は、実施形態に係る実装装置で取得される画像の例を示す図である。詳しくは、図9は、画像150において、テンプレート画像170に相当する部分画像151を示す図である。部分画像151は、角度θから角度θまで且つ径rから径rまでのC字形状である。 FIG. 9 is a diagram illustrating an example of an image acquired by the mounting apparatus according to the embodiment. Specifically, FIG. 9 is a diagram showing a partial image 151 corresponding to the template image 170 in the image 150. The partial image 151 is C-shaped from angle θ 1 to angle θ 2 and from radius r 1 to radius r 2 .

再び図5を参照すると、認識処理部54は、生産ライン6の稼働開始後、つまりLED照明デバイスの生産開始後に、ノズル34に保持された後且つ基板Pに実装される前の実装用のレンズ201(後の図10参照)の画像に対する認識処理を実行する。認識処理部54は、実装用のレンズ201を基板Pに実装する都度、認識処理を実行する。 Referring again to FIG. 5, after the production line 6 starts operating, that is, after the production of LED lighting devices starts, the recognition processing unit 54 detects the mounting lens after it is held in the nozzle 34 and before it is mounted on the substrate P. 201 (see FIG. 10 later) performs recognition processing on the image. The recognition processing unit 54 executes recognition processing each time the mounting lens 201 is mounted on the substrate P.

レンズ201が、本開示の「第2部品」に相当する。 The lens 201 corresponds to the "second component" of the present disclosure.

極座標変換画像生成部54aは、ノズル34に保持された後且つ基板Pに実装される前のレンズ201の画像180(後の図10参照)を画像取得部51から受け取って、極座標変換した極座標変換画像190(後の図10参照)を生成する。極座標変換画像生成部54aは、テンプレート画像170の径方向の範囲(径rから径rまで)に相当する、画像180内の環状の部分画像を極座標変換し、極座標変換画像190を生成する。 The polar coordinate conversion image generation unit 54a receives an image 180 (see FIG. 10 later) of the lens 201 after being held by the nozzle 34 and before being mounted on the substrate P from the image acquisition unit 51, and performs polar coordinate conversion by polar coordinate conversion. An image 190 (see FIG. 10 later) is generated. The polar coordinate conversion image generation unit 54a performs polar coordinate conversion on a circular partial image within the image 180 corresponding to the radial range (from radius r 1 to radius r 2 ) of the template image 170, and generates a polar coordinate conversion image 190. .

画像180が、本開示の「第2原画像」に相当する。極座標変換画像190が、本開示の「第2極座標変換画像」に相当する。 Image 180 corresponds to the "second original image" of the present disclosure. The polar coordinate transformed image 190 corresponds to the "second polar coordinate transformed image" of the present disclosure.

図10は、実施形態に係る実装装置で生成される極座標変換画像の例を示す図である。詳しくは、図10(a)は、極座標変換前の画像180の例を示す図であり、図10(b)は、画像180を極座標変換した極座標変換画像190の例を示す図である。レンズ201は、突起部201a1、201a2及び201a3を含む。 FIG. 10 is a diagram illustrating an example of a polar coordinate transformation image generated by the mounting apparatus according to the embodiment. Specifically, FIG. 10A is a diagram showing an example of an image 180 before polar coordinate transformation, and FIG. 10B is a diagram showing an example of a polar coordinate transformation image 190 obtained by polar coordinate transformation of the image 180. The lens 201 includes protrusions 201a1, 201a2, and 201a3.

極座標変換画像生成部54aは、画像180において、レンズ201の中心201cを算出し、角度0°から角度360°まで且つ径rから径rまでの環状の部分画像181を極座標変換し、極座標変換画像190を生成する。極座標変換画像生成部52bは、中心201cから予め定められた方向(図10(a)では、水平右方向)へ向かう線182を角度θの基準とするが、本開示はこれに限定されない。 The polar coordinate conversion image generation unit 54a calculates the center 201c of the lens 201 in the image 180, performs polar coordinate conversion on the annular partial image 181 from an angle of 0° to an angle of 360° and from a radius r1 to a radius r2 , and converts the annular partial image 181 into polar coordinates. A converted image 190 is generated. Although the polar coordinate conversion image generation unit 52b uses a line 182 extending from the center 201c in a predetermined direction (horizontal right direction in FIG. 10A) as a reference for the angle θ, the present disclosure is not limited thereto.

なお、極座標変換画像190において、特徴点の1つである突起部201a1がθ=0°の境界線に重なる場合が起こり得る。そこで、極座標変換画像生成部54aは、極座標変換画像190の末尾の予め定められた第1角度範囲(例えば、315°から360°まで)の部分画像を、極座標変換画像190の先頭(0°)の前にコピーすることとしても良い。同様に、特徴点の1つである突起部201a3がθ=360°の境界線に重なる場合が起こり得る。そこで、極座標変換画像生成部54aは、極座標変換画像190の先頭の予め定められた第2角度範囲(例えば、0°から45°まで)の部分画像を、極座標変換画像190の末尾(360°)の後にコピーすることとしても良い。これにより、極座標変換画像生成部54aは、特徴点が極座標変換画像190の境界線に重なることを、抑制できる。 Note that in the polar coordinate transformed image 190, the protrusion 201a1, which is one of the feature points, may overlap the boundary line of θ=0°. Therefore, the polar coordinate transformed image generation unit 54a converts a partial image in a predetermined first angle range (for example, from 315° to 360°) at the end of the polar coordinate transformed image 190 to the beginning (0°) of the polar coordinate transformed image 190. You can also copy it before. Similarly, a case may occur in which the protrusion 201a3, which is one of the feature points, overlaps the boundary line of θ=360°. Therefore, the polar coordinate transformed image generation unit 54a converts a partial image in a predetermined second angle range (for example, from 0° to 45°) at the beginning of the polar coordinate transformed image 190 into a partial image at the end (360°) of the polar coordinate transformed image 190. It may also be copied after. Thereby, the polar coordinate transformed image generation unit 54a can prevent the feature points from overlapping the boundary line of the polar coordinate transformed image 190.

再び図5を参照すると、部品角度算出部54bは、極座標変換画像190と、記憶部53に記憶されているテンプレート画像170と、を照合することにより、レンズ201の第3軸(Z軸)周りの角度を算出する。部品角度算出部54bは、既知のパターンマッチング技術を、照合に利用することができる。 Referring again to FIG. 5, the component angle calculation unit 54b calculates the angle around the third axis (Z axis) of the lens 201 by comparing the polar coordinate transformed image 190 with the template image 170 stored in the storage unit 53. Calculate the angle of The component angle calculation unit 54b can use known pattern matching technology for verification.

図11は、実施形態に係る実装装置で生成される極座標変換画像及びテンプレート画像の例を示す図である。テンプレート画像170の角度範囲は、角度θから角度θまでであることが既に判明している。従って、部品角度算出部54bは、極座標変換画像190とテンプレート画像170との角度θ方向のずれ量を算出することにより、レンズ201の第3軸(Z軸)周りの角度を算出することができる。 FIG. 11 is a diagram illustrating an example of a polar coordinate transformation image and a template image generated by the mounting apparatus according to the embodiment. It has already been determined that the angular range of template image 170 is from angle θ 1 to angle θ 2 . Therefore, the component angle calculation unit 54b can calculate the angle of the lens 201 around the third axis (Z axis) by calculating the amount of deviation in the angle θ direction between the polar coordinate transformed image 190 and the template image 170. .

なお、極座標変換画像190及びテンプレート画像170のr軸方向の範囲は、径rから径rまでで、同じである。従って、部品角度算出部54bは、r軸方向のずれを考慮する必要がなく、θ軸方向のずれ量だけを算出すれば良いので、照合のための演算処理量を抑制でき、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間を抑制できる。認識処理は、レンズ201を基板Pに実装する都度、ノズル34に保持された後且つ基板Pに実装される前のレンズ201の画像に対して、実行される。従って、制御装置50は、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間を抑制できることにより、レンズ201の実装時間を抑制することができる。これにより、生産システム1は、LED照明デバイスの生産時間を抑制することができる。 Note that the range of the polar coordinate transformed image 190 and the template image 170 in the r-axis direction is the same from the radius r 1 to the radius r 2 . Therefore, the component angle calculation unit 54b does not need to consider the deviation in the r-axis direction and only needs to calculate the deviation amount in the θ-axis direction. The time required to calculate angles around three axes (Z-axis) can be reduced. The recognition process is performed on an image of the lens 201 held by the nozzle 34 and before being mounted on the substrate P each time the lens 201 is mounted on the substrate P. Therefore, the control device 50 can suppress the time required to calculate the angle around the third axis (Z-axis) of the lens 201, thereby suppressing the mounting time of the lens 201. Thereby, the production system 1 can suppress the production time of the LED lighting device.

再び図5を参照すると、実装制御部55は、部品角度算出部54bで算出された角度に基づいて、実装ヘッド35内のノズル移動装置37を第3軸(Z軸)周りに回転させるように制御する。これにより、実装装置3は、レンズ201を予め定められた角度で基板Pに実装することができる。 Referring to FIG. 5 again, the mounting control section 55 rotates the nozzle moving device 37 in the mounting head 35 around the third axis (Z axis) based on the angle calculated by the component angle calculation section 54b. Control. Thereby, the mounting apparatus 3 can mount the lens 201 on the substrate P at a predetermined angle.

[画像処理方法]
(ティーチング工程)
図12は、実施形態に係る画像処理方法を示すフローチャートである。詳しくは、図12は、ティーチング処理部52が実行するティーチング工程を示すフローチャートである。
[Image processing method]
(teaching process)
FIG. 12 is a flowchart showing the image processing method according to the embodiment. Specifically, FIG. 12 is a flowchart showing the teaching process executed by the teaching processing section 52.

ノズル34が供給位置SMでティーチング用の部品C(レンズ101)を保持し、撮像装置39の上に達すると、撮像装置39は、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を撮像する。画像取得部51は、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を撮像装置39から取得する(ステップS1)。 When the nozzle 34 holds the teaching component C (lens 101) at the supply position SM and reaches above the imaging device 39, the imaging device 39 releases the teaching component C (lens 101) held by the nozzle 34. An image 150 is captured. The image acquisition unit 51 acquires an image 150 of the teaching component C (lens 101) held by the nozzle 34 from the imaging device 39 (step S1).

特徴点位置取得部52aは、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を画像取得部51から受け取って、表示装置61に表示させる(ステップS2)。 The feature point position acquisition unit 52a receives the image 150 of the teaching component C (lens 101) held by the nozzle 34 from the image acquisition unit 51, and displays it on the display device 61 (step S2).

オペレータ(ティーチング作業者)は、表示装置61に表示された画像150を見ながら、部品C(レンズ101)の特徴点の位置を入力装置62に入力する。特徴点位置取得部52aは、特徴点の位置を入力装置62から取得する(ステップS3)。 The operator (teaching worker) inputs the position of the feature point of the component C (lens 101) into the input device 62 while viewing the image 150 displayed on the display device 61. The feature point position acquisition unit 52a acquires the position of the feature point from the input device 62 (step S3).

極座標変換画像生成部52bは、ノズル34に保持されたティーチング用の部品C(レンズ101)の画像150を画像取得部51から受け取って、極座標変換した極座標変換画像160を生成する(ステップS4)。 The polar coordinate transformed image generation unit 52b receives the image 150 of the teaching component C (lens 101) held by the nozzle 34 from the image acquisition unit 51, and generates a polar coordinate transformed image 160 by performing polar coordinate transformation (step S4).

特徴点位置算出部52cは、極座標変換画像160内での特徴点の位置を算出する(ステップS5)。 The feature point position calculation unit 52c calculates the position of the feature point within the polar coordinate transformed image 160 (step S5).

テンプレート画像生成部52dは、極座標変換画像160内の特徴点を含む部分画像を、テンプレート画像170として生成し、記憶部53に記憶させる(ステップS6)。 The template image generation unit 52d generates a partial image including the feature points in the polar coordinate transformed image 160 as a template image 170, and stores it in the storage unit 53 (Step S6).

(認識工程)
図13は、実施形態に係る画像処理方法を示すフローチャートである。詳しくは、図13は、認識処理部54が実行する認識工程を示すフローチャートである。
(recognition process)
FIG. 13 is a flowchart showing the image processing method according to the embodiment. Specifically, FIG. 13 is a flowchart showing the recognition process executed by the recognition processing unit 54.

ノズル34が供給位置SMで実装用の部品C(レンズ201)を保持し、撮像装置39の上に達すると、撮像装置39は、ノズル34に保持された実装用の部品C(レンズ201)の画像180を撮像する。画像取得部51は、ノズル34に保持された実装用の部品C(レンズ201)の画像180を撮像装置39から取得する(ステップS11)。 When the nozzle 34 holds the component C (lens 201) for mounting at the supply position SM and reaches the top of the imaging device 39, the imaging device 39 removes the component C (lens 201) for mounting held by the nozzle 34. An image 180 is captured. The image acquisition unit 51 acquires an image 180 of the mounting component C (lens 201) held by the nozzle 34 from the imaging device 39 (step S11).

極座標変換画像生成部54aは、ノズル34に保持された実装用の部品C(レンズ201)の画像180を画像取得部51から受け取って、極座標変換した極座標変換画像190を生成する(ステップS12)。 The polar coordinate transformed image generation unit 54a receives the image 180 of the mounting component C (lens 201) held by the nozzle 34 from the image acquisition unit 51, and generates a polar coordinate transformed image 190 through polar coordinate transformation (step S12).

部品角度算出部54bは、極座標変換画像190と、記憶部53に記憶されているテンプレート画像170と、を照合することにより、部品C(レンズ201)の第3軸(Z軸)周りの角度を算出する(ステップS13)。 The component angle calculation unit 54b calculates the angle around the third axis (Z axis) of the component C (lens 201) by comparing the polar coordinate conversion image 190 and the template image 170 stored in the storage unit 53. Calculate (step S13).

[コンピュータシステム]
図14は、実施形態に係るコンピュータシステムを示すブロック図である。上述の管理装置5及び制御装置50の各々は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。管理装置5及び制御装置50のそれぞれの機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
[Computer system]
FIG. 14 is a block diagram showing a computer system according to an embodiment. Each of the management device 5 and control device 50 described above includes a computer system 1000. The computer system 1000 includes a processor 1001 such as a CPU (Central Processing Unit), a main memory 1002 including a non-volatile memory such as a ROM (Read Only Memory) and a volatile memory such as a RAM (Random Access Memory), It has a storage 1003 and an interface 1004 including an input/output circuit. The respective functions of the management device 5 and the control device 50 are stored in the storage 1003 as a program. The processor 1001 reads the program from the storage 1003, expands it into the main memory 1002, and executes the above-described processing according to the program. Note that the program may be distributed to the computer system 1000 via a network.

プログラムは、上述の実施形態に従って、コンピュータシステム1000に、ティーチング用の部品C(レンズ101)の極座標変換画像160を生成することと、テンプレート画像170を生成することと、実装用の部品C(レンズ201)の極座標変換画像190を生成することと、極座標変換画像190とテンプレート画像170とを照合することと、実装用の部品C(レンズ201)の第3軸(Z軸)周りの角度を算出すること、を実行させることができる。 According to the embodiment described above, the program causes the computer system 1000 to generate a polar coordinate transformed image 160 of a component C for teaching (lens 101), generate a template image 170, and create a component C for mounting (lens 101). 201), generating the polar coordinate conversion image 190, comparing the polar coordinate conversion image 190 with the template image 170, and calculating the angle around the third axis (Z axis) of the component C (lens 201) for mounting. You can make things happen.

[効果]
以上説明したように、ティーチング用のレンズ101の画像150を極座標変換した極座標変換画像160が生成され、レンズ101の特徴点を含む極座標変換画像160の部分画像が、テンプレート画像170として生成される。実装用のレンズ201の画像180を極座標変換した極座標変換画像190が生成される。極座標変換画像190とテンプレート画像170とが照らし合わされ、実装用のレンズ201の第3軸(Z軸)周りの角度が算出される。従って、画像180において特徴点のエッジが若干不鮮明であったとしても、実装用のレンズ201の第3軸(Z軸)周りの角度が高い精度で算出される。
[effect]
As described above, a polar coordinate transformed image 160 is generated by polar coordinate transformation of the image 150 of the teaching lens 101, and a partial image of the polar coordinate transformed image 160 including the feature points of the lens 101 is generated as the template image 170. A polar coordinate transformation image 190 is generated by polar coordinate transformation of the image 180 of the lens 201 for mounting. The polar coordinate transformed image 190 and the template image 170 are compared, and the angle around the third axis (Z axis) of the lens 201 for mounting is calculated. Therefore, even if the edges of the feature points in the image 180 are slightly unclear, the angle around the third axis (Z-axis) of the mounting lens 201 can be calculated with high accuracy.

また、極座標変換画像190及びテンプレート画像170のr軸方向の範囲は、径rから径rまでで、同じである。従って、r軸方向のずれ量を考慮する必要がなく、θ軸方向のずれ量だけが算出されれば良いので、照らし合わせのための演算処理量が抑制され、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間が抑制される。認識処理は、レンズ201を基板Pに実装する都度、ノズル34に保持された後且つ基板Pに実装される前のレンズ201の画像に対して、実行される。従って、レンズ201の第3軸(Z軸)周りの角度の算出に要する時間が抑制されることにより、レンズ201の実装時間が抑制される。これにより、LED照明デバイスの生産時間が抑制される。 In addition, the range in the r-axis direction of the polar coordinate conversion image 190 and the template image 170 is the same, from radius r1 to radius r2 . Therefore, since there is no need to consider the amount of deviation in the r-axis direction and only the amount of deviation in the θ-axis direction needs to be calculated, the amount of calculation processing for matching is suppressed, and the time required to calculate the angle of the lens 201 around the third axis (Z axis) is suppressed. The recognition process is performed on the image of the lens 201 after it is held by the nozzle 34 and before it is mounted on the substrate P every time the lens 201 is mounted on the substrate P. Therefore, the time required to calculate the angle of the lens 201 around the third axis (Z axis) is suppressed, and the mounting time of the lens 201 is suppressed. This suppresses the production time of the LED lighting device.

また、極座標変換画像160において、特徴点がθ=0°の境界線に重なる場合には、基準方向が、θ方向と逆の方向にずらされる。例えば、基準方向が、-45°ずらされる。これにより、特徴点がθ=0°の境界線に重ならないようにすることができる。 Further, in the polar coordinate transformed image 160, when the feature point overlaps the boundary line of θ=0°, the reference direction is shifted in the opposite direction to the θ direction. For example, the reference direction is shifted by -45°. Thereby, it is possible to prevent the feature points from overlapping the boundary line of θ=0°.

また、極座標変換画像190において、特徴点がθ=0°の境界線に重なる場合が起こり得る。そこで、極座標変換画像190の末尾の予め定められた第1角度範囲(例えば、315°から360°まで)の部分画像が、極座標変換画像190の先頭(0°)の前にコピーされる。様に、特徴点がθ=360°の境界線に重なる場合が起こり得る。そこで、極座標変換画像190の先頭の予め定められた第2角度範囲(例えば、0°から45°まで)の部分画像が、極座標変換画像190の末尾(360°)の後にコピーされる。これにより、特徴点が極座標変換画像190の境界線に重なることが、抑制される。 Furthermore, in the polar coordinate transformed image 190, there may be a case where a feature point overlaps the boundary line of θ=0°. Therefore, a partial image in a predetermined first angle range (for example, from 315° to 360°) at the end of the polar coordinate transformed image 190 is copied before the beginning (0°) of the polar coordinate transformed image 190. Similarly, a case may occur where a feature point overlaps the boundary line of θ=360°. Therefore, a partial image in a predetermined second angle range (for example, from 0° to 45°) at the beginning of the polar coordinate transformed image 190 is copied after the end (360°) of the polar coordinate transformed image 190. This prevents the feature points from overlapping the boundary line of the polar coordinate transformed image 190.

<その他の実施形態>
管理装置5(図1参照)が、ティーチング工程(図12参照)及び認識工程(図13参照)の内の一方又は両方を実行しても良い。但し、認識工程は、ノズル34に保持された後且つ基板Pに実装される前の実装用の部品C(レンズ201)の画像に対して実行されるので、高速に行われることが好ましい。従って、管理装置5がティーチング工程を実行する場合であっても、制御装置50が認識工程を実行することが好ましい。この場合、管理装置5がテンプレート画像170を作成して制御装置50に送信し、制御装置50が管理装置5から受信したテンプレート画像170を自装置のストレージ1003に記憶することが好ましい。
<Other embodiments>
The management device 5 (see FIG. 1) may perform one or both of the teaching process (see FIG. 12) and the recognition process (see FIG. 13). However, since the recognition process is performed on the image of the component C for mounting (lens 201) after being held by the nozzle 34 and before being mounted on the board P, it is preferable to perform it at high speed. Therefore, even if the management device 5 executes the teaching process, it is preferable that the control device 50 executes the recognition process. In this case, it is preferable that the management device 5 creates the template image 170 and sends it to the control device 50, and that the control device 50 stores the template image 170 received from the management device 5 in its own storage 1003.

1…生産システム、2…検査装置、3…実装装置、3A…実装装置、3B…実装装置、3C…実装装置、4…検査装置、5…管理装置、6…生産ライン、34…ノズル、35…実装ヘッド、37…ノズル移動装置、51…画像取得部、52…ティーチング処理部、52a…特徴点位置取得部、52b…極座標変換画像生成部、52c…特徴点位置算出部、52d…テンプレート画像生成部、53…記憶部、54…認識処理部、54a…極座標変換画像生成部、54b…部品角度算出部、55…実装制御部、101…レンズ、1000…コンピュータシステム、1001…プロセッサ、1002…メインメモリ、1003…ストレージ、1004…インターフェース、P…基板。 1... Production system, 2... Inspection device, 3... Mounting device, 3A... Mounting device, 3B... Mounting device, 3C... Mounting device, 4... Inspection device, 5... Management device, 6... Production line, 34... Nozzle, 35 ...Mounting head, 37... Nozzle moving device, 51... Image acquisition section, 52... Teaching processing section, 52a... Feature point position acquisition section, 52b... Polar coordinate conversion image generation section, 52c... Feature point position calculation section, 52d... Template image Generation unit, 53... Storage unit, 54... Recognition processing unit, 54a... Polar coordinate conversion image generation unit, 54b... Component angle calculation unit, 55... Mounting control unit, 101... Lens, 1000... Computer system, 1001... Processor, 1002... Main memory, 1003... Storage, 1004... Interface, P... Board.

Claims (4)

ノズルに保持された第1部品を撮像した第1原画像を極座標変換した第1極座標変換画像に基づいて、前記第1部品の特徴点を含むテンプレート画像を作成するティーチング処理部と、
ノズルに保持された後且つ基板に実装される前の第2部品を撮像した第2原画像を極座標変換した第2極座標変換画像と、前記テンプレート画像と、を照合することにより、前記基板と垂直方向の周りの、前記第2部品の角度を算出する認識処理部と、
を備え
前記第1部品及び前記第2部品は、平面視して円形状であり、第1半径から第2半径までの環状の範囲に前記特徴点を有し、
前記ティーチング処理部は、前記第1極座標変換画像の内の、前記第1部品の前記環状の範囲の一部であって前記特徴点を含むC字形状の範囲に相当する画像を、前記テンプレート画像として作成し、
前記認識処理部は、前記第2原画像の前記環状の範囲を極座標変換した画像と、前記テンプレート画像と、を照合する、
画像処理装置。
a teaching processing unit that creates a template image including feature points of the first part based on a first polar coordinate transformed image obtained by polar coordinate transformation of a first original image taken of the first part held by the nozzle;
By comparing the template image with a second polar coordinate transformed image obtained by polar coordinate transformation of a second original image taken of the second component held by the nozzle and before being mounted on the board, the second part is perpendicular to the board. a recognition processing unit that calculates an angle of the second part around the direction;
Equipped with
The first part and the second part are circular in plan view, and have the characteristic points in an annular range from a first radius to a second radius,
The teaching processing unit converts an image corresponding to a C-shaped range that is a part of the annular range of the first part and includes the feature points out of the first polar coordinate transformed image into the template image. Create as,
The recognition processing unit compares an image obtained by polar coordinate conversion of the annular range of the second original image with the template image.
Image processing device.
前記ティーチング処理部は、前記第1極座標変換画像において、前記第1部品の特徴点が角度の基準方向に重なる場合には、前記基準方向を予め定められた角度だけずらす、
請求項1に記載の画像処理装置。
The teaching processing unit shifts the reference direction by a predetermined angle when the feature points of the first part overlap the reference direction of the angle in the first polar coordinate transformed image.
The image processing device according to claim 1 .
前記認識処理部は、前記第2極座標変換画像の末尾の予め定められた第1角度範囲の部分画像を、前記第2極座標変換画像の先頭の前にコピーし、前記第2極座標変換画像の先頭の予め定められた第2角度範囲の部分画像を、前記第2極座標変換画像の末尾の後にコピーする、
請求項1又は2に記載の画像処理装置。
The recognition processing unit copies a partial image in a predetermined first angle range at the end of the second polar coordinate transformed image before the beginning of the second polar coordinate transformed image, and copying a partial image of a predetermined second angular range after the end of the second polar coordinate transformed image;
The image processing device according to claim 1 or 2 .
ノズルに保持された第1部品を撮像した第1原画像を極座標変換した第1極座標変換画像に基づいて、前記第1部品の特徴点を含むテンプレート画像を作成するティーチング工程と、
ノズルに保持された後且つ基板に実装される前の第2部品を撮像した第2原画像を極座標変換した第2極座標変換画像と、前記テンプレート画像と、を照合することにより、前記基板と垂直方向の周りの、前記第2部品の角度を算出する認識工程と、
を備え
前記第1部品及び前記第2部品は、平面視して円形状であり、第1半径から第2半径までの環状の範囲に前記特徴点を有し、
前記ティーチング工程は、前記第1極座標変換画像の内の、前記第1部品の前記環状の範囲の一部であって前記特徴点を含むC字形状の範囲に相当する画像を、前記テンプレート画像として作成し、
前記認識工程は、前記第2原画像の前記環状の範囲を極座標変換した画像と、前記テンプレート画像と、を照合する、
画像処理方法。
a teaching step of creating a template image including feature points of the first part based on a first polar coordinate transformed image obtained by polar coordinate transformation of a first original image taken of the first part held by the nozzle;
By comparing the template image with a second polar coordinate transformed image obtained by polar coordinate transformation of a second original image taken of the second component held by the nozzle and before being mounted on the board, the second part is perpendicular to the board. a recognition step of calculating an angle of the second part around the direction;
Equipped with
The first part and the second part are circular in plan view, and have the characteristic points in an annular range from a first radius to a second radius,
In the teaching step, an image corresponding to a C-shaped range that is a part of the annular range of the first part and includes the feature points, out of the first polar coordinate transformed images, is used as the template image. make,
The recognition step compares an image obtained by polar coordinate conversion of the annular range of the second original image and the template image.
Image processing method.
JP2020051300A 2020-03-23 2020-03-23 Image processing device and image processing method Active JP7454975B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020051300A JP7454975B2 (en) 2020-03-23 2020-03-23 Image processing device and image processing method
CN202110307388.XA CN113435468A (en) 2020-03-23 2021-03-23 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020051300A JP7454975B2 (en) 2020-03-23 2020-03-23 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021150590A JP2021150590A (en) 2021-09-27
JP7454975B2 true JP7454975B2 (en) 2024-03-25

Family

ID=77752908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020051300A Active JP7454975B2 (en) 2020-03-23 2020-03-23 Image processing device and image processing method

Country Status (2)

Country Link
JP (1) JP7454975B2 (en)
CN (1) CN113435468A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005116765A (en) 2003-10-07 2005-04-28 Shinkawa Ltd Method, device, and program for discriminating bonding pattern
JP2012203612A (en) 2011-03-25 2012-10-22 Juki Corp Image processing method and image processing device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548295A (en) * 1991-08-19 1993-02-26 Toshiba Corp Method and apparatus for mounting electronic component

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005116765A (en) 2003-10-07 2005-04-28 Shinkawa Ltd Method, device, and program for discriminating bonding pattern
JP2012203612A (en) 2011-03-25 2012-10-22 Juki Corp Image processing method and image processing device

Also Published As

Publication number Publication date
CN113435468A (en) 2021-09-24
JP2021150590A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
EP2787804A2 (en) Component mounting apparatus
JP2007309808A (en) Method and system for detecting position of object
CN110214476B (en) Coordinate data generating device and coordinate data generating method
JP6472873B2 (en) Parts inspection machine and parts placement machine
JP2006108193A (en) Pickup device and pickup method
JP7454975B2 (en) Image processing device and image processing method
JPWO2018096577A1 (en) Image processing system and image processing method
JP2008085181A (en) Electronic component mounting apparatus
JP2007110003A (en) Surface mounting machine and mounting method
JP4078210B2 (en) Electronic circuit component mounting machine and electronic circuit component mounting method
JP2009253224A (en) Component mounting method
JP4901451B2 (en) Component mounting equipment
JP5977579B2 (en) Board work equipment
WO2020183516A1 (en) Mounting data generation assistance device, mounting data generation assistance method, appearance inspection machine, and component mounting system
WO2016151797A1 (en) Mounting device and mounting method
JP6204050B2 (en) Electronic component mounting machine
JP6153376B2 (en) Electronic component mounting device
JP7289274B2 (en) Lighting equipment and component mounting equipment
JP7019065B2 (en) Production optimization system for component mounting line
JPWO2019138469A1 (en) Working machine and polarity judgment method
JP4212328B2 (en) Anti-Board Work Machine, Anti-Board Work Machine Monitoring System, and Anti-Board Work Machine Monitoring Method
JPWO2019069438A1 (en) Substrate work system
JP4185367B2 (en) Support member placement work support device, substrate work system including the support member placement method, and support member placement method
WO2022029879A1 (en) Tape feeder test device and tape feeder test device correction method
WO2023162142A1 (en) Image confirmation device and image confirmation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240312

R150 Certificate of patent or registration of utility model

Ref document number: 7454975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150