JP2022118301A - Lighting Condition Creation Support Device, Captured Image Estimation Method, and Lighting Condition Creation Method - Google Patents

Lighting Condition Creation Support Device, Captured Image Estimation Method, and Lighting Condition Creation Method Download PDF

Info

Publication number
JP2022118301A
JP2022118301A JP2021014721A JP2021014721A JP2022118301A JP 2022118301 A JP2022118301 A JP 2022118301A JP 2021014721 A JP2021014721 A JP 2021014721A JP 2021014721 A JP2021014721 A JP 2021014721A JP 2022118301 A JP2022118301 A JP 2022118301A
Authority
JP
Japan
Prior art keywords
illumination
imaging
component
illumination condition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021014721A
Other languages
Japanese (ja)
Inventor
維里 岩田
Isato Iwata
太一 清水
Taichi Shimizu
俊二 雜賀
Shunji Saiga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021014721A priority Critical patent/JP2022118301A/en
Publication of JP2022118301A publication Critical patent/JP2022118301A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

To provide a lighting condition creation support device, a captured image estimation method, and a lighting condition creation method that can acquire in a short time captured images of a component under a plurality of lighting conditions.SOLUTION: A captured image estimation method includes: a first imaging step of capturing images of a component lit by lighting means under a plurality of lighting conditions with imaging means; a learning step (ST1) of generating a learning model 41 on the basis of the plurality of captured images obtained in the first imaging step and the lighting conditions (captured image data 40) at the time of imaging; a second imaging step of imaging one component D99 lit by the lighting means under one lighting condition 1 with the imaging means; and an image estimation step (ST2) of estimating other captured images (estimated image data 42) obtained when the imaging means images the one component D99 lit by the lighting means under other lighting conditions 6 and 7 from the captured image (captured image data 40) of the component D99 obtained in the second imaging step using the generated learning model 41.SELECTED DRAWING: Figure 5

Description

本発明は、部品を照明する照明手段の照明条件の作成を支援する照明条件作成支援装置および撮像画像推定方法ならびに照明条件作成方法に関する。 The present invention relates to an illumination condition creation support device, a captured image estimation method, and an illumination condition creation method for assisting creation of illumination conditions for illumination means for illuminating parts.

部品実装装置は、部品供給装置(テープフィーダなど)が供給する部品をノズルで取り出し、ノズルが保持する部品を照明手段で照明しながらカメラ(撮像手段)で撮像し、ノズルに対する部品の位置ずれ量などの部品の保持状態を認識した後に、ノズルが保持する部品を基板に実装している。照明手段が部品を照明する最適な照明条件は、部品の材質や形状などに起因して部品毎に異なるため、生産開始前などに最適な照明条件を設定する作業が行われる。 A component mounting apparatus picks up a component supplied by a component supply device (tape feeder, etc.) with a nozzle, and images the component held by the nozzle with a camera (image capturing means) while illuminating the component with a lighting means to determine the displacement of the component with respect to the nozzle. After recognizing the holding state of the parts such as the nozzle, the parts held by the nozzle are mounted on the board. Since the optimum illumination conditions for the lighting means to illuminate the parts differ from part to part due to the material, shape, etc. of the parts, work is performed to set the optimum illumination conditions before starting production.

特許文献1には、実装基板の生産中にカメラが部品を撮像した撮像画像が不良と判定されると、作業者が照明条件を変更してカメラに部品を再撮像させ、操作画面に表示された撮像画像を見ながら4種類の照明部により構成される照明手段のそれぞれの照明条件を再設定するアレンジモードに移行する部品実装装置(電子部品装着装置)が開示されている。 In Patent Document 1, when a captured image of a component captured by a camera during production of a mounting board is determined to be defective, the operator changes the lighting conditions to cause the camera to re-capture the component, which is displayed on the operation screen. Also disclosed is a component mounting apparatus (electronic component mounting apparatus) that shifts to an arrange mode for resetting illumination conditions for each of illumination means composed of four types of illumination units while viewing a captured image.

特開2004-186175号公報JP 2004-186175 A

しかしながら、特許文献1を含む従来技術では、カメラによる部品の撮像には数秒程度の時間を要し、さらに複数の照明部により構成される照明手段の最適な照明条件を決定するためには複数の条件を組み合わせて撮像する必要があるため、1枚の実装基板に実装される多数の部品をそれぞれ複数の照明条件で撮像し、その撮像画像に基づいて最適な照明条件を設定するには長時間の作業が必要になるという問題点があった。 However, in the prior art including Patent Document 1, it takes several seconds for the camera to pick up an image of the part, and furthermore, in order to determine the optimum lighting conditions for the lighting means composed of a plurality of lighting units, it is necessary to use a plurality of lighting units. Since it is necessary to capture images under a combination of conditions, it takes a long time to capture images of a large number of components mounted on a single mounting board under multiple lighting conditions, and to set the optimal lighting conditions based on the captured images. There was a problem that the work of

そこで本発明は、複数の照明条件による部品の撮像画像を短時間に取得することができる照明条件作成支援装置および撮像画像推定方法ならびに照明条件作成方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an illumination condition creation support device, a captured image estimation method, and an illumination condition creation method that can acquire captured images of a component under a plurality of illumination conditions in a short time.

本発明の照明条件作成支援装置は、撮像手段が撮像する部品を照明する照明手段の照明条件の作成を支援する照明条件作成支援装置であって、照明手段が複数の照明条件で照明した部品を撮像手段が撮像した複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する学習部と、生成された前記学習モデルを用いて、前記照明手段が一の照明条件で照明した一の部品を前記撮像手段が撮像した一の撮像画像から、前記照明手段が他の照明条件で照明した前記一の部品を前記撮像手段が撮像した場合に得られる他の撮像画像を推定する画像推定部と、を備えた。 An illumination condition creation support device of the present invention is an illumination condition creation support device for assisting creation of illumination conditions for an illumination means for illuminating a part to be imaged by an imaging means, wherein the illumination means illuminates the part under a plurality of illumination conditions. a learning unit that generates a learning model based on a plurality of captured images captured by an imaging unit and an illumination condition at the time of capturing; Image estimation for estimating another captured image obtained when the imaging means captures an image of the one part illuminated by the illumination means under another illumination condition from one captured image captured by the imaging means of the part and

本発明の撮像画像推定方法は、照明手段が複数の照明条件で照明した部品を撮像手段で撮像する第1撮像工程と、前記第1撮像工程により得られた複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する学習工程と、前記照明手段が一の照明条件で照明した一の部品を前記撮像手段で撮像する第2撮像工程と、生成された前記学習モデルを用いて、前記第2撮像工程により得られた前記一の部品の撮像画像から、前記照明手段が他の照明条件で照明した前記一の部品を前記撮像手段が撮像した場合に得られる他の撮像画像を推定する画像推定工程と、を含む。 A captured image estimating method of the present invention includes a first imaging step of capturing an image of a part illuminated by an illumination means under a plurality of illumination conditions with an imaging means, a plurality of captured images obtained by the first imaging step and the illumination at the time of imaging. a learning step of generating a learning model based on conditions; a second imaging step of capturing an image of one part illuminated by the lighting means under one lighting condition with the imaging means; and using the generated learning model. , from the captured image of the one component obtained by the second imaging step, another captured image obtained when the imaging means captures the image of the one component illuminated by the illumination means under another illumination condition; and an image estimation step of estimating.

本発明の照明条件作成方法は、撮像手段が撮像する部品を照明手段が照明する際に使用する照明条件を作成する照明条件作成方法であって、照明手段が複数の照明条件で照明した部品を撮像手段で撮像する第1撮像工程と、前記第1撮像工程により得られた複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する学習工程と、前記照明手段が一の照明条件で照明した一の部品を前記撮像手段で撮像する第2撮像工程と、前記学習工程により生成された前記学習モデルを用いて、前記第2撮像工程により得られた一の撮像画像から、前記照明手段が他の照明条件で照明した前記一の部品を前記撮像手段が撮像した場合に得られる他の撮像画像を推定する画像推定工程と、前記画像推定工程により推定された前記一の部品の前記他の撮像画像に基づいて、照明手段が前記一の部品を照明するのに適した照明条件を作成する照明条件作成工程と、を含む。 An illumination condition creation method of the present invention is a method for creating illumination conditions used when an illumination means illuminates a component imaged by an imaging means, wherein the illumination means creates a component illuminated under a plurality of illumination conditions. a first imaging step of imaging with an imaging means; a learning step of generating a learning model based on a plurality of captured images obtained by the first imaging step and illumination conditions at the time of imaging; A second imaging step of capturing an image of one part illuminated under a condition with the imaging means; an image estimating step of estimating another captured image obtained when the imaging means captures an image of the one part illuminated by the lighting means under another illumination condition; and an illumination condition creating step of creating an illumination condition suitable for illumination means to illuminate the one component based on the other captured image.

本発明によれば、複数の照明条件による部品の撮像画像を短時間に取得することができる。 ADVANTAGE OF THE INVENTION According to this invention, the captured image of components by several illumination conditions can be acquired in a short time.

本発明の一実施の形態の部品実装システムの構成説明図1 is an explanatory diagram of the configuration of a component mounting system according to an embodiment of the present invention; FIG. 本発明の一実施の形態の部品実装装置の構成説明図BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of the configuration of a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える部品認識カメラの構成説明図FIG. 1 is an explanatory diagram of the configuration of a component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置の制御系の構成を示すブロック図1 is a block diagram showing the configuration of a control system of a component mounting apparatus according to one embodiment of the present invention; FIG. 本発明の一実施の形態の撮像画像推定の説明図Explanatory diagram of captured image estimation according to one embodiment of the present invention 本発明の一実施の形態の部品実装装置が備えるタッチパネルに表示された照明条件入力画面の例を示す図FIG. 4 is a diagram showing an example of a lighting condition input screen displayed on a touch panel included in a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備えるタッチパネルに表示された照明条件入力画面の例を示す図FIG. 4 is a diagram showing an example of a lighting condition input screen displayed on a touch panel included in a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備えるタッチパネルに表示された照明条件入力画面の例を示す図FIG. 4 is a diagram showing an example of a lighting condition input screen displayed on a touch panel included in a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の撮像画像推定方法のフロー図1 is a flowchart of a captured image estimation method according to an embodiment of the present invention; 本発明の一実施の形態の照明条件作成方法のフロー図FIG. 2 is a flowchart of a lighting condition creation method according to an embodiment of the present invention;

以下に図面を用いて、本発明の一実施の形態を詳細に説明する。以下で述べる構成、形状等は説明のための例示であって、部品実装装置、部品認識カメラ、管理コンピュータ、オフラインカメラ装置の仕様に応じ、適宜変更が可能である。以下では、全ての図面において対応する要素には同一符号を付し、重複する説明を省略する。図2、及び後述する一部では、水平面内で互いに直交する2軸として、基板搬送方向のX軸(図2における紙面垂直方向)、基板搬送方向に直交するY軸(図2における左右方向)が示される。図2、及び後述する一部では、水平面と直交する高さ方向としてZ軸(図2における上下方向)が示される。 An embodiment of the present invention will be described in detail below with reference to the drawings. The configuration, shape, and the like described below are examples for explanation, and can be changed as appropriate according to the specifications of the component mounting device, component recognition camera, management computer, and offline camera device. In the following, the same reference numerals are given to the corresponding elements in all the drawings, and redundant explanations are omitted. In FIG. 2 and a part described later, two axes perpendicular to each other in the horizontal plane are the X-axis in the substrate transfer direction (perpendicular to the paper surface in FIG. 2) and the Y-axis (horizontal direction in FIG. 2) perpendicular to the substrate transfer direction. is shown. In FIG. 2 and a part to be described later, the Z-axis (vertical direction in FIG. 2) is shown as the height direction orthogonal to the horizontal plane.

まず図1を参照して、部品実装システム1の構成を説明する。部品実装システム1は、複数の部品実装装置M1~M3を連結して構成されている。部品実装装置M1~M3は、通信ネットワーク2を介して管理コンピュータ3に接続されている。管理コンピュータ3は、部品実装システム1による実装基板の生産を管理する他、後述する部品実装装置M1~M3で使用する照明条件の作成を支援する。なお、部品実装システム1が備える部品実装装置M1~M3は3台に限定されることなく、1台、2台でも、4台以上でもよい。 First, the configuration of a component mounting system 1 will be described with reference to FIG. The component mounting system 1 is configured by connecting a plurality of component mounting apparatuses M1 to M3. The component mounting apparatuses M1 to M3 are connected to a management computer 3 via a communication network 2. FIG. The management computer 3 not only manages the production of mounted boards by the component mounting system 1, but also supports the creation of illumination conditions used by the component mounting apparatuses M1 to M3, which will be described later. Note that the number of component mounting apparatuses M1 to M3 provided in the component mounting system 1 is not limited to three, and may be one, two, or four or more.

部品実装システム1は、部品実装装置M1~M3に連結されていないオフラインカメラ装置4を備えている。オフラインカメラ装置4は、後述する部品実装装置M1~M3が備える部品認識カメラ20(図3参照)と同様の構成のオフラインカメラを備えている。オフラインカメラ装置4では、実装基板の生産に先立ち、オフラインカメラにより基板に装着される新しい部品の撮像が行われる。オフラインカメラによる撮像画像は管理コンピュータ3に送信され、部品実装装置M1~M3で使用する照明条件等の作成に使用される。または、オフラインカメラによる撮像画像は、オフラインカメラ装置4が備える情報処理装置により情報処理されて、部品実装装置M1~M3で使用する照明条件が作成される。 The component mounting system 1 includes an off-line camera device 4 that is not connected to the component mounting apparatuses M1-M3. The off-line camera device 4 includes an off-line camera having the same configuration as the component recognition camera 20 (see FIG. 3) provided in component mounting apparatuses M1 to M3, which will be described later. In the off-line camera device 4, images of new components to be mounted on the board are captured by the off-line camera prior to production of the mounting board. Images captured by the off-line camera are transmitted to the management computer 3 and used to create illumination conditions and the like used by the component mounting apparatuses M1 to M3. Alternatively, an image captured by the offline camera is processed by an information processing device provided in the offline camera device 4 to create illumination conditions used by the component mounting apparatuses M1 to M3.

次に図2を参照して、部品実装装置M1~M3の構成を説明する。部品実装装置M1~M3は同様の構成をしており、以下、部品実装装置M1について説明する。部品実装装置M1は、基板Bに部品Dを装着する機能を有している。基台5の上面に設けられた基板搬送機構6は、基板BをX軸に沿って搬送して位置決めして保持する。基台5の上方に設けられたヘッド移動機構7は、プレート7aを介して着脱可能に装着された実装ヘッド8を水平方向(X軸方向、Y軸方向)に移動させる。実装ヘッド8の下端には、吸着ノズル9が着脱可能に装着される。 Next, referring to FIG. 2, the configuration of component mounting apparatuses M1 to M3 will be described. The component mounting apparatuses M1 to M3 have the same configuration, and the component mounting apparatus M1 will be described below. The component mounting apparatus M1 has a function of mounting a component D on a board B. FIG. A substrate transport mechanism 6 provided on the upper surface of the base 5 transports the substrate B along the X-axis, positions it, and holds it. A head moving mechanism 7 provided above the base 5 moves a mounting head 8 detachably mounted via a plate 7a in horizontal directions (X-axis direction and Y-axis direction). A suction nozzle 9 is detachably attached to the lower end of the mounting head 8 .

基板搬送機構6の側方で基台5に結合された台車11の上部のフィーダベース11aには、複数のテープフィーダ10がX軸に沿って並んで装着されている。台車11には、部品実装装置M1に供給される部品Dを格納するキャリアテープ12が、リール13に巻回収納されて保持されている。テープフィーダ10に挿入されたキャリアテープ12はピッチ送りされて、キャリアテープ12に格納されている部品Dがテープフィーダ10の上部に設けられた部品供給口10aに順に供給される。 A plurality of tape feeders 10 are mounted side by side along the X-axis on a feeder base 11a on top of a carriage 11 coupled to the base 5 on the side of the substrate transfer mechanism 6. As shown in FIG. A carrier tape 12 for storing components D to be supplied to the component mounting apparatus M1 is wound around a reel 13 and held on the carriage 11 . The carrier tape 12 inserted into the tape feeder 10 is pitch-fed, and the components D stored in the carrier tape 12 are sequentially supplied to the component supply port 10a provided at the top of the tape feeder 10 .

図2において、部品実装動作では、実装ヘッド8は、ヘッド移動機構7によりテープフィーダ10の上方に移動し、テープフィーダ10の部品供給口10aに供給された部品Dを吸着ノズル9により真空吸着してピックアップする(矢印a)。部品Dを保持した実装ヘッド8は、ヘッド移動機構7により基板搬送機構6に保持された基板Bの上方に移動し、基板B上の所定の部品実装位置Baに部品Dを実装する(矢印b)。 In FIG. 2, in the component mounting operation, the mounting head 8 is moved above the tape feeder 10 by the head moving mechanism 7, and the component D supplied to the component supply port 10a of the tape feeder 10 is vacuum-absorbed by the suction nozzle 9. to pick up (arrow a). The mounting head 8 holding the component D is moved above the board B held by the board transfer mechanism 6 by the head moving mechanism 7, and mounts the component D at a predetermined component mounting position Ba on the board B (arrow b ).

図2において、プレート7aには、光軸をZ軸の負方向に向けた基板認識カメラ14が取り付けられている。基板認識カメラ14は、ヘッド移動機構7により実装ヘッド8と一体的にX軸の正負方向、Y軸の正負方向に移動する。実装ヘッド8が移動することにより、基板認識カメラ14は基板搬送機構6に位置決めされた基板Bの上方に移動し、基板Bに設けられた基板マーク(図示省略)を撮像する。 In FIG. 2, a substrate recognition camera 14 is attached to the plate 7a with its optical axis directed in the negative direction of the Z axis. The board recognition camera 14 is moved integrally with the mounting head 8 in the positive and negative directions of the X-axis and in the positive and negative directions of the Y-axis by the head moving mechanism 7 . As the mounting head 8 moves, the board recognition camera 14 moves above the board B positioned on the board transfer mechanism 6 and picks up an image of a board mark (not shown) provided on the board B. FIG.

基板搬送機構6とテープフィーダ10の間の基台5の上面には、光軸を上方に向けた部品認識カメラ20が取り付けられている。部品認識カメラ20は、部品Dをピックアップした吸着ノズル9が上方を通過する際に、吸着ノズル9に保持された部品Dの保持姿勢を撮像する。実装ヘッド8による基板Bへの部品実装動作においては、部品認識カメラ20による部品Dの撮像結果と、基板認識カメラ14による基板位置の撮像結果とを加味して実装位置の補正が行われる。 A component recognition camera 20 is mounted on the upper surface of the base 5 between the board transfer mechanism 6 and the tape feeder 10, with the optical axis directed upward. The component recognition camera 20 captures an image of the holding posture of the component D held by the suction nozzle 9 when the suction nozzle 9 that has picked up the component D passes above. In the operation of mounting the component on the board B by the mounting head 8, the mounting position is corrected by taking into account the result of imaging the component D by the component recognition camera 20 and the result of imaging the board position by the board recognition camera .

図2において、部品実装装置M1の前面で作業者が作業する位置には、作業者が操作するタッチパネル15が設置されている。タッチパネル15は、その表示部に各種情報を表示し、また表示部に表示される入力部である操作ボタンなどを使って作業者がデータ入力や部品実装装置M1の操作を行う。 In FIG. 2, a touch panel 15 operated by a worker is installed at a position where the worker works on the front surface of the component mounting apparatus M1. The touch panel 15 displays various kinds of information on its display section, and the operator inputs data and operates the component mounting apparatus M1 using operation buttons, etc., which are input sections displayed on the display section.

次に図3を参照して、部品認識カメラ20の構成について説明する。部品認識カメラ20は、筐体21の内部に1次元CCDや2次元CMOSセンサなどの撮像素子を有する撮像部22を備えている。筐体21の上面には、板ガラスなどで形成された天井板21aが設置されている。撮像部22の上方には、レンズ23が配置されている。撮像部22は、光軸22aを上方に向けて設置されており、レンズ23と天井板21aを通して、吸着ノズル9が保持する部品Dを撮像する。すなわち、撮像部22とレンズ23は、部品Dを下方から撮像する撮像手段Cである。 Next, the configuration of the component recognition camera 20 will be described with reference to FIG. The component recognition camera 20 includes an imaging unit 22 having an imaging element such as a one-dimensional CCD or a two-dimensional CMOS sensor inside a housing 21 . A ceiling plate 21 a made of sheet glass or the like is installed on the upper surface of the housing 21 . A lens 23 is arranged above the imaging unit 22 . The imaging unit 22 is installed with an optical axis 22a directed upward, and images the component D held by the suction nozzle 9 through the lens 23 and the ceiling plate 21a. That is, the imaging unit 22 and the lens 23 are imaging means C that images the component D from below.

筐体21の内部には、複数のLEDチップなどを備えて構成された反射照明部24、透過照明部25、側方照明部26が設置されている。反射照明部24から照射された光は、主に部品Dの底面Daを照明する。透過照明部25から照射された光は、主に吸着ノズル9のフランジ9aで反射されて部品Dを上方から照明する。側方照明部26から照射された光は、主に部品Dの底面Daに形成されたバンプDbなどを照明する。 Inside the housing 21, a reflective lighting unit 24, a transmissive lighting unit 25, and a side lighting unit 26, which are configured with a plurality of LED chips and the like, are installed. The light emitted from the reflected illumination unit 24 mainly illuminates the bottom surface Da of the component D. As shown in FIG. The light emitted from the transmission illumination unit 25 is mainly reflected by the flange 9a of the suction nozzle 9 and illuminates the component D from above. The light emitted from the side lighting section 26 mainly illuminates the bumps Db formed on the bottom surface Da of the component D and the like.

図3において、部品認識カメラ20は、照明駆動部27を備えている。照明駆動部27は、反射照明部24、透過照明部25、側方照明部26が光を照射するための電流をそれぞれ供給する。照明駆動部27は、部品実装装置M1が備える制御装置30(図4参照)から送信される照明条件に含まれる照明値に基づいて、反射照明部24、透過照明部25、側方照明部26に供給する電流の電流値をそれぞれ変更する。すなわち、照明条件は、複数の照明部のそれぞれの照明値の組み合わせである。 In FIG. 3 , the component recognition camera 20 has an illumination driving section 27 . The illumination drive unit 27 supplies currents for the reflected illumination unit 24, the transmitted illumination unit 25, and the side illumination unit 26 to emit light. Illumination drive unit 27 controls reflection illumination unit 24, transmission illumination unit 25, and side illumination unit 26 based on illumination values included in illumination conditions transmitted from control device 30 (see FIG. 4) provided in component mounting apparatus M1. Change the current value of the current supplied to each. That is, the illumination condition is a combination of illumination values of the plurality of illumination units.

照明条件は部品Dの種類毎に登録されており、反射照明部24、透過照明部25、側方照明部26から照射される光の強さ(明るさ)は、撮像される部品Dに対応して変更される。このように、反射照明部24、透過照明部25、側方照明部26は、撮像手段C(撮像部22、レンズ23)が撮像する部品Dを照明する照明手段Lである。すなわち、照明手段Lは、部品Dを照明する複数の照明部(反射照明部24、透過照明部25、側方照明部26)を備えており、複数の照明部は照明値に従って照射する光の強さが変更される。 Illumination conditions are registered for each type of component D, and the intensity (brightness) of the light emitted from the reflected illumination unit 24, the transmitted illumination unit 25, and the side illumination unit 26 corresponds to the imaged component D. changed by As described above, the reflected illumination unit 24, the transmitted illumination unit 25, and the side illumination unit 26 are the illumination means L for illuminating the component D imaged by the imaging means C (the imaging unit 22 and the lens 23). That is, the illumination means L includes a plurality of illumination units (reflected illumination unit 24, transmitted illumination unit 25, side illumination unit 26) that illuminate the component D, and the plurality of illumination units emit light according to the illumination value. strength is changed.

図3において、部品実装装置M1は、照明手段Lが照明条件に従って光を照射している状態で、部品Dを保持する吸着ノズル9を水平方向に移動させながら(矢印c)撮像手段Cで部品Dを撮像(スキャン撮像)する。なお、部品Dを移動させる方向は、実装ヘッド8や部品認識カメラ20に仕様に応じて適宜変更される。このように、部品Dを移動させながら撮像するスキャン撮像には、数秒程度の時間を要する。 In FIG. 3, the component mounting apparatus M1 picks up the component with the imaging means C while moving the suction nozzle 9 holding the component D in the horizontal direction (arrow c) in a state where the illumination means L irradiates light according to the illumination conditions. D is imaged (scanned). Note that the direction in which the component D is moved is appropriately changed according to the specifications of the mounting head 8 and the component recognition camera 20 . In this manner, scanning imaging for imaging while moving the component D requires a time of about several seconds.

次に図4を参照して、部品実装装置M1~M3の制御系の構成を部品認識カメラ20の照明条件を作成する機能を中心に説明する。部品実装装置M1~M3は同様の構成をしており、以下、部品実装装置M1について説明する。部品実装装置M1は、制御装置30、基板搬送機構6、ヘッド移動機構7、実装ヘッド8、テープフィーダ10、基板認識カメラ14、タッチパネル15、部品認識カメラ20を備えている。 Next, with reference to FIG. 4, the configuration of the control system of the component mounting apparatuses M1 to M3 will be described, focusing on the function of creating illumination conditions for the component recognition camera 20. FIG. The component mounting apparatuses M1 to M3 have the same configuration, and the component mounting apparatus M1 will be described below. The component mounting apparatus M1 includes a control device 30, a substrate transport mechanism 6, a head moving mechanism 7, a mounting head 8, a tape feeder 10, a substrate recognition camera 14, a touch panel 15, and a component recognition camera 20.

制御装置30は、記憶部31、実装制御部32、撮像処理部33、学習部34、画像推定部35、入力受付部36、照明条件作成部37、照明条件可否判断部38を備えている。記憶部31は記憶装置であり、実装データ39、撮像画像データ40、学習モデル41、推定画像データ42、照明条件データ43、装置間補正データ44などが記憶されている。実装データ39には、基板Bに実装される部品Dの部品種やサイズ、基板Bにおける部品実装位置Baの座標などの各種情報が、生産する実装基板の基板種ごとに記憶されている。 The control device 30 includes a storage unit 31 , a mounting control unit 32 , an imaging processing unit 33 , a learning unit 34 , an image estimation unit 35 , an input reception unit 36 , an illumination condition creation unit 37 and an illumination condition availability determination unit 38 . The storage unit 31 is a storage device, and stores mounting data 39, captured image data 40, learning model 41, estimated image data 42, illumination condition data 43, inter-device correction data 44, and the like. The mounting data 39 stores various types of information such as the component type and size of the component D to be mounted on the board B, the coordinates of the component mounting position Ba on the board B, and the like, for each board type of the mounted board to be produced.

図4において、実装制御部32は、実装データ39に基づいて、テープフィーダ10が供給する部品Dを実装ヘッド8が有する吸着ノズル9により取り出して、基板Bの部品実装位置Baに実装する部品実装作業を実行させる。撮像処理部33は、部品実装作業中に部品Dを保持した吸着ノズル9を部品認識カメラ20の上方を移動させながら、吸着ノズル9に保持された部品Dを撮像手段C(撮像部22、レンズ23)によりスキャン撮像し、部品Dの保持姿勢を認識する。 In FIG. 4, the mounting control unit 32 picks up the component D supplied from the tape feeder 10 by the suction nozzle 9 of the mounting head 8 based on the mounting data 39, and mounts it at the component mounting position Ba on the board B. get the work done. The imaging processing unit 33 moves the suction nozzle 9 holding the component D above the component recognition camera 20 during the component mounting work, and moves the component D held by the suction nozzle 9 to the imaging means C (the imaging unit 22, the lens 23) scans and captures and recognizes the holding posture of the component D. FIG.

撮像処理部33は、部品Dをスキャン撮像する際には、照明条件データ43に含まれる照明条件に従って照明駆動部27を制御して、照明手段L(反射照明部24、透過照明部25、側方照明部26)から所定の光量の光を照射させる。また、撮像処理部33は、吸着ノズル9が保持している部品Dを照明手段Lが複数の照明条件で照明しながら撮像手段Cでスキャン撮像して複数の撮像画像を取得する学習データ作成処理を実行させる。撮像処理部33は、撮像した部品Dを特定する情報と撮像した際の照明条件とを撮像画像に関連付けて撮像画像データ40として記憶部31に記憶させる。学習データ作成処理は、部品実装作業中の空き時間や生産する実装基板の基板種を変更する段取り替え作業中などに実行される。 When scanning and imaging the component D, the imaging processing unit 33 controls the illumination driving unit 27 according to the illumination conditions included in the illumination condition data 43 so that the illumination means L (the reflection illumination unit 24, the transmission illumination unit 25, the side A predetermined amount of light is emitted from the side illumination unit 26). Further, the imaging processing unit 33 acquires a plurality of captured images by scanning and imaging the component D held by the suction nozzle 9 with the imaging unit C while the illumination unit L illuminates the component D under a plurality of illumination conditions. run. The imaging processing unit 33 associates the information specifying the imaged part D and the lighting conditions at the time of imaging with the captured image, and stores them in the storage unit 31 as the captured image data 40 . The learning data creation process is executed during spare time during component mounting work, during changeover work for changing the board type of the mounting board to be produced, or the like.

図4において、学習部34は、撮像画像データ40に含まれる照明手段Lが複数の照明条件で照明した部品Dを撮像手段Cが撮像した複数の撮像画像と撮像時の照明条件を教師データとして、後述する部品Dの撮像画像を推定する学習モデル41を、機械学習等を用いた学習アルゴリズムにより生成する。学習アルゴリズムとしては、ニューラルネットワーク(多層のニューラルネットワークを用いた深層学習を含む)、遺伝的プログラミング、決定木、ベイジアン・ネットワーク、サポート・ベクター・マシン(SVM)等を使用し得る。生成された学習モデル41は、記憶部31に記憶される。 In FIG. 4, the learning unit 34 uses a plurality of captured images captured by the imaging unit C of the part D illuminated under a plurality of illumination conditions by the illumination unit L included in the captured image data 40 and the illumination conditions at the time of capturing as teacher data. , a learning model 41 for estimating a captured image of the component D, which will be described later, is generated by a learning algorithm using machine learning or the like. Neural networks (including deep learning using multi-layered neural networks), genetic programming, decision trees, Bayesian networks, support vector machines (SVM), etc. can be used as learning algorithms. The generated learning model 41 is stored in the storage unit 31 .

このように、部品実装装置M1が備える学習部34は、部品実装装置M1が備える照明手段Lが複数の照明条件で照明した部品Dを部品実装装置M1が備える撮像手段Cが撮像した複数の撮像画像と撮像時の照明条件とに基づき、学習モデル41を生成する。 In this way, the learning unit 34 included in the component mounting apparatus M1 acquires a plurality of images captured by the imaging unit C included in the component mounting apparatus M1 of the component D illuminated under a plurality of illumination conditions by the illumination unit L included in the component mounting apparatus M1. A learning model 41 is generated based on the image and the lighting conditions at the time of imaging.

図4において、画像推定部35は、生成された学習モデル41を用いて、照明手段Lが一の照明条件で照明した一の部品Dを撮像手段Cが撮像した一の撮像画像から、照明手段Lが他の照明条件で照明した一の部品Dを撮像手段Cが撮像した場合に得られる他の撮像画像(以下、「推定画像」と称する。)を推定(生成)する。画像推定部35は、生成した推定画像に部品Dを特定する情報と照明条件とを関連付けて、推定画像データ42として記憶部31に記憶させる。 In FIG. 4, the image estimating unit 35 uses the generated learning model 41 to extract one part D illuminated by the illumination means L under one illumination condition from one captured image captured by the imaging means C by the illumination means L estimates (generates) another captured image (hereinafter referred to as an "estimated image") obtained when the imaging means C captures an image of one part D illuminated under another illumination condition. The image estimating unit 35 associates the generated estimated image with the information specifying the part D and the illumination conditions, and stores the result in the storage unit 31 as estimated image data 42 .

ここで、図5を参照して、推定画像を生成する撮像画像推定処理について説明する。まず、学習部34は、撮像画像データ40に含まれる複数の照明条件で撮像された部品Dの撮像画像と撮像時の照明条件とに基づき、学習モデル41を生成する(ST1:学習工程)。作成された学習モデル41は記憶部31に記憶される。次いで画像推定部35は、生成された学習モデル41を用いて、一の照明条件で撮像された部品Dの撮像画像から他の照明条件で部品Dを撮像した場合に得られる撮像画像(推定画像)を推定(生成)する(ST2:画像推定工程)。生成された推定画像は、推定画像データ42として記憶部31に記憶される。 Here, a captured image estimation process for generating an estimated image will be described with reference to FIG. First, the learning unit 34 generates a learning model 41 based on the captured images of the component D captured under a plurality of lighting conditions included in the captured image data 40 and the lighting conditions at the time of imaging (ST1: learning step). The created learning model 41 is stored in the storage unit 31 . Next, the image estimation unit 35 uses the generated learning model 41 to obtain a captured image (estimated image ) is estimated (generated) (ST2: image estimation step). The generated estimated image is stored in the storage unit 31 as estimated image data 42 .

図5の例では、画像推定部35は、学習モデル41を用いて、撮像画像データ40に含まれる照明条件1で撮像された部品D99の撮像画像から、照明条件6と照明条件7で部品D99を撮像した場合に得られる推定画像を生成して(ST2)、推定画像データ42に記憶している。 In the example of FIG. 5 , the image estimating unit 35 uses the learning model 41 to extract the image of the part D99 under the illumination conditions 6 and 7 from the captured image of the part D99 captured under the illumination condition 1 included in the captured image data 40 . is generated (ST 2 ) and stored in the estimated image data 42 .

図4において、入力受付部36は、タッチパネル15に照明条件を入力するための照明条件入力画面を表示させて、画像推定部35が推定画像を生成する際の照明条件の入力を受け付ける。 In FIG. 4, the input reception unit 36 displays an illumination condition input screen for inputting illumination conditions on the touch panel 15, and accepts input of illumination conditions when the image estimation unit 35 generates an estimated image.

ここで、図6を参照して、タッチパネル15に表示された照明条件入力画面50の例について説明する。照明条件入力画面50には、画像表示枠51、画像情報表示枠52、照明条件入力枠53、自動調整ボタン54、撮像ボタン55、検証ボタン56、決定ボタン57が表示されている。画像表示枠51には、撮像手段Cによって撮像された部品Dの撮像画像、または、画像推定部35によって生成された部品Dの推定画像が表示される。画像情報表示枠52には、画像表示枠51に表示されている画像が撮像手段Cによって撮像された画像の場合は「撮像画像」が、画像推定部35によって生成された画像の場合は「推定画像」が表示される。 Here, an example of the lighting condition input screen 50 displayed on the touch panel 15 will be described with reference to FIG. An image display frame 51 , an image information display frame 52 , an illumination condition input frame 53 , an automatic adjustment button 54 , an imaging button 55 , a verification button 56 and an OK button 57 are displayed on the illumination condition input screen 50 . In the image display frame 51, the captured image of the component D captured by the imaging means C or the estimated image of the component D generated by the image estimating section 35 is displayed. In the image information display frame 52, if the image displayed in the image display frame 51 is an image captured by the imaging means C, "captured image" is displayed. image” is displayed.

照明条件入力枠53には、反射照明部24、透過照明部25、側方照明部26のそれぞれに設定された照明値を表示する照明値表示部53a、照明値を増やす増加ボタン53b、照明値を減らす減少ボタン53cが表示されている。作業者が増加ボタン53bを操作すると照明値表示部53aに表示される照明値が所定量ずつ増加し、減少ボタン53cを操作すると照明値が所定量ずつ減少する。作業者は、増加ボタン53bまたは減少ボタン53cを操作して、照明値を「0」から「100」の間で設定する。 The illumination condition input frame 53 includes an illumination value display portion 53a for displaying illumination values set for the reflected illumination portion 24, the transmitted illumination portion 25, and the side illumination portion 26, an increase button 53b for increasing the illumination value, an illumination value A decrease button 53c for decreasing is displayed. When the operator operates the increase button 53b, the illumination value displayed on the illumination value display portion 53a is increased by a predetermined amount, and when the decrease button 53c is operated, the illumination value is decreased by a predetermined amount. The operator operates the increase button 53b or the decrease button 53c to set the illumination value between "0" and "100".

図6の画像表示枠51には、照明手段Lが照明条件1(反射:20,透過:0,側方10)により吸着ノズル9が保持している部品D99を照明しながら撮像手段Cが撮像した撮像画像が表示されている。照明条件入力枠53の照明値表示部53aには、撮像時の照明条件1に含まれる照明値が表示されている。画像表示枠51には、部品D99の本体部Dcと、本体部の底面に形成されている5つの電極Ddが写っている。照明条件1では、反射照明部24と側方照明部26から照射される光の光量が不足しているため、部品D99の本体部Dcと電極Ddは不鮮明に写っている。 In the image display frame 51 of FIG. 6, the imaging means C captures an image while the illumination means L illuminates the part D99 held by the suction nozzle 9 under illumination condition 1 (reflection: 20, transmission: 0, side 10). The captured image is displayed. The illumination value display portion 53a of the illumination condition input frame 53 displays the illumination value included in the illumination condition 1 at the time of imaging. The image display frame 51 shows the body portion Dc of the component D99 and five electrodes Dd formed on the bottom surface of the body portion. Under illumination condition 1, the amount of light emitted from the reflected illumination section 24 and the side illumination section 26 is insufficient, so the body portion Dc and the electrode Dd of the component D99 appear unclear.

図7は、図6に示す照明条件入力画面50において、増加ボタン53bまたは減少ボタン53cが操作されて照明値が変更された照明条件入力画面58を示している。照明条件入力画面58では、照明条件が照明条件6(反射:70,透過:0,側方40)に変更されている。照明条件入力画面58において、増加ボタン53bまたは減少ボタン53cが操作されて照明値が変更されると、画像推定部35は、照明手段Lが設定された照明条件で照明した部品D99を撮像手段Cが撮像した推定画像を生成する。生成された推定画像は画像表示枠51に表示され、画像情報表示枠52には「推定画像」と表示される。 FIG. 7 shows an illumination condition input screen 58 in which the illumination value is changed by operating the increase button 53b or the decrease button 53c on the illumination condition input screen 50 shown in FIG. On the illumination condition input screen 58, the illumination condition is changed to illumination condition 6 (reflection: 70, transmission: 0, side 40). When the illumination value is changed by operating the increase button 53b or the decrease button 53c on the illumination condition input screen 58, the image estimation unit 35 causes the part D99 illuminated by the illumination unit L under the set illumination condition to be captured by the imaging unit C. generates an estimated image captured by The generated estimated image is displayed in the image display frame 51, and "estimated image" is displayed in the image information display frame 52. FIG.

画像推定部35による推定画像の生成処理は極短時間で終了するため、作業者が増加ボタン53bまたは減少ボタン53cを操作して照明値を変更すると、直ぐに画像表示枠51に変更された照明条件の推定画像が表示される。すなわち、作業者が増加ボタン53bまたは減少ボタン53cを操作する度に、画像表示枠51に表示される推定画像が変更された照明条件のものに更新される。このように、タッチパネル15は、入力された照明条件6(他の照明条件)に基づいて画像推定部35が推定した他の撮像画像(推定画像)を表示する表示部である。 Since the generation processing of the estimated image by the image estimation unit 35 is completed in a very short time, when the operator operates the increase button 53b or the decrease button 53c to change the illumination value, the changed illumination condition is immediately displayed in the image display frame 51. is displayed. That is, each time the operator operates the increase button 53b or the decrease button 53c, the estimated image displayed in the image display frame 51 is updated to that of the changed illumination condition. As described above, the touch panel 15 is a display unit that displays another captured image (estimated image) estimated by the image estimation unit 35 based on the input illumination condition 6 (another illumination condition).

図7において、作業者は、画像表示枠51に表示される推定画像を見ながら増加ボタン53bまたは減少ボタン53cを操作して、部品D99の本体部Dcと電極Ddが鮮明に見える照明条件を探求する。また、自動調整ボタン54が操作されると、照明条件作成部37は、部品D99の本体部Dcと背景のコントラスト差、および本体部Dcと電極Ddのコントラスト差が最大となる照明条件(照明値の組み合わせ)を自動で探求する。そして、照明値表示部53aには決定された照明値が表示され、画像表示枠51には決定された照明条件の推定画像が表示される。なお、照明条件作成部37による最適と思われる照明条件の探求方法はコントラスト差を最大にする方法に限定されることなく、様々な方法を取り得る。 In FIG. 7, the operator operates the increase button 53b or the decrease button 53c while looking at the estimated image displayed in the image display frame 51, and searches for the illumination condition in which the body part Dc and the electrode Dd of the part D99 can be clearly seen. do. Further, when the automatic adjustment button 54 is operated, the illumination condition creating unit 37 creates an illumination condition (illumination value combination) automatically. Then, the determined illumination value is displayed in the illumination value display section 53a, and the estimated image of the determined illumination condition is displayed in the image display frame 51. FIG. It should be noted that the method of searching for the optimal lighting condition by the lighting condition generator 37 is not limited to the method of maximizing the contrast difference, and various methods can be employed.

図7において、撮像ボタン55が操作されると、撮像処理部33は、照明条件入力画面58で設定された照明条件6で照明手段Lが照明する条件で、吸着ノズル9が保持している部品D99を撮像手段Cによってスキャン撮像する。撮像が終了すると、撮像された部品D99の撮像画像が画像表示枠51に表示される。照明条件入力画面58では、画像表示枠51に表示される推定画像を見ながら増加ボタン53bまたは減少ボタン53cを操作し、または、自動調整ボタン54を操作して最適と思われる照明条件を入力し、さらに撮像ボタン55を操作してその照明条件で実際に撮像した部品D99の撮像画像を確認することで、照明条件の良否の判断を短時間に効率良く実行することができる。 In FIG. 7 , when the imaging button 55 is operated, the imaging processing unit 33 scans the component held by the suction nozzle 9 under the condition that the illumination means L illuminates under the illumination condition 6 set on the illumination condition input screen 58 . D99 is scanned and imaged by the imaging means C. FIG. When the imaging is completed, the captured image of the component D99 that has been captured is displayed in the image display frame 51. FIG. On the illumination condition input screen 58, while viewing the estimated image displayed in the image display frame 51, the user operates the increase button 53b or the decrease button 53c, or operates the automatic adjustment button 54 to input the optimal illumination condition. Furthermore, by operating the imaging button 55 and confirming the captured image of the component D99 actually captured under the lighting conditions, it is possible to efficiently determine the quality of the lighting conditions in a short period of time.

図8は、図7に示す照明条件入力画面58において、検証ボタン56が操作されて照明条件可否判断部38により照明条件可否判断処理が実行された照明条件入力画面59を示している。照明条件可否判断処理では、照明条件入力枠53において設定された照明条件6で照明手段Lが部品D99を照明して撮像手段Cが撮像した撮像画像より、部品D99の位置や姿勢、電極Ddの位置が正しく認識できるか否かが判断される。 FIG. 8 shows an illumination condition input screen 59 after the verification button 56 has been operated on the illumination condition input screen 58 shown in FIG. In the illumination condition determination process, the illumination means L illuminates the component D99 under the illumination condition 6 set in the illumination condition input frame 53, and the imaged image captured by the imaging means C is used to determine the position and orientation of the component D99 and the electrode Dd. It is determined whether the position can be recognized correctly.

検証ボタン56が操作されると、まず、照明条件可否判断部38は、照明条件入力枠53において設定された照明条件6で照明手段Lが部品D99を照明し、吸着ノズル9が保持している部品D99をZ軸回りに所定の角度(ここでは、30度)に回転させ、撮像手段Cによってスキャン撮像させる。撮像された撮像画像は画像表示枠51に表示され、画像情報表示枠52には「撮像画像」が表示される。 When the verification button 56 is operated, first, the illumination condition determination unit 38 causes the illumination unit L to illuminate the component D99 under the illumination condition 6 set in the illumination condition input frame 53, and the suction nozzle 9 holds the component D99. The part D99 is rotated around the Z axis by a predetermined angle (here, 30 degrees), and the imaging means C scans and images it. The picked-up image is displayed in the image display frame 51, and the image information display frame 52 displays "captured image".

図8において、次いで照明条件可否判断部38は、撮像された撮像画像を画像処理して部品D99の本体部Dcの中心の位置、電極Ddの中心の位置をそれぞれ抽出し、抽出された位置が期待通りの位置であるか否かを判断する。照明条件可否判断部38は、抽出された本体部Dcの中心の位置と電極Ddの中心の位置が、期待の位置から所定の範囲内にあれば、照明条件は採用可であると判断する。画像表示枠51に表示されている部品D99の撮像画像には、抽出された本体部Dcの中心の位置と電極Ddの中心の位置に十字マークが重ねて表示されている。図8の例では、照明条件は採用可であると判断されて、画像表示枠51に「OK」と判断結果が表示されている。 In FIG. 8, the illumination condition determination unit 38 then performs image processing on the captured image to extract the center position of the body part Dc of the component D99 and the center position of the electrode Dd. Determine if the position is as expected. If the extracted center position of the main body Dc and the extracted center position of the electrode Dd are within a predetermined range from the expected position, the illumination condition propriety determination unit 38 determines that the illumination condition is acceptable. In the picked-up image of the component D99 displayed in the image display frame 51, a cross mark is superimposed on the center position of the extracted main body Dc and the center position of the electrode Dd. In the example of FIG. 8, it is determined that the lighting conditions are acceptable, and the image display frame 51 displays "OK" as the determination result.

このように、照明条件可否判断部38は、照明条件6(他の照明条件)で照明手段Lが照明した部品D99(一の部品)の姿勢を変化させて(Z軸回りに30度回転)撮像手段Cが撮像した撮像画像に基づいて、照明条件6の可否を判断する。これにより、部品実装作業において部品認識カメラ20が部品D99を照明条件6で撮像して保持姿勢を認識する際に、保持姿勢が正常な状態から所定範囲内でずれていても部品D99を正しく認識できるか否かを事前に確認することができる。 In this way, the illumination condition propriety determination unit 38 changes the posture of the component D99 (one component) illuminated by the illumination means L under the illumination condition 6 (another illumination condition) (rotates 30 degrees around the Z axis). Based on the captured image captured by the imaging means C, it is determined whether the illumination condition 6 is acceptable. As a result, when the component recognition camera 20 picks up an image of the component D99 under illumination condition 6 in the component mounting work and recognizes the holding posture, the component D99 can be correctly recognized even if the holding posture deviates within a predetermined range from the normal state. You can check in advance whether it is possible or not.

図8において、照明条件入力画面59において決定ボタン57が操作されると、照明条件作成部37は、照明条件入力枠53において設定された照明条件6に基づいて、照明手段Lが部品D99(一の部品)を照明するのに適した照明条件を作成する。照明条件作成部37は、作成した照明条件に部品D99を特定する情報を関連付けて、照明条件データ43として記憶部31に記憶させる。すなわち、照明条件作成部37は、画像推定部35が推定したD99(一の部品)の撮像画像(推定画像)に基づいて、照明手段Lが部品D99を照明するのに適した照明条件を作成する。 In FIG. 8, when the decision button 57 is operated on the illumination condition input screen 59, the illumination condition creation unit 37 determines that the illumination means L is the part D99 (one Create lighting conditions suitable for illuminating The illumination condition creating unit 37 associates the created illumination condition with the information specifying the component D99, and stores the created illumination condition in the storage unit 31 as the illumination condition data 43. FIG. That is, the illumination condition creation unit 37 creates illumination conditions suitable for the illumination unit L to illuminate the component D99 based on the captured image (estimated image) of D99 (one component) estimated by the image estimation unit 35. do.

具体的には、照明条件作成部37は、部品実装装置M1が備える撮像手段Cが撮像する実装ヘッド8が有する吸着ノズル9に保持された部品D99を照明する照明手段Lに使用される照明条件を作成する場合は、照明条件入力枠53で設定されている照明条件6をそのまま照明条件データ43として記憶させる。また、照明条件作成部37は、部品実装装置M2で使用される照明条件を作成する場合は、装置間補正データ44に含まれる部品実装装置M1と部品実装装置M2の部品認識カメラ20の照明条件の差に関する情報と、照明条件入力枠53で設定されている照明条件6に基づいて、照明条件を作成する。 Specifically, the illumination condition creation unit 37 sets the illumination condition used by the illumination means L for illuminating the component D99 held by the suction nozzle 9 of the mounting head 8 imaged by the imaging means C provided in the component mounting apparatus M1. , the illumination condition 6 set in the illumination condition input frame 53 is stored as the illumination condition data 43 as it is. When creating the illumination conditions used by the component mounting apparatus M2, the illumination condition creating unit 37 sets the illumination conditions of the component recognition cameras 20 of the component mounting apparatuses M1 and M2 included in the inter-apparatus correction data 44. , and the illumination condition 6 set in the illumination condition input frame 53, the illumination condition is created.

例えば、装置間補正データ44に部品実装装置M1と部品実装装置M2の部品認識カメラ20の補正値として、反射照明部24の照明値が「-10」と記憶されている場合は、照明条件作成部37は、反射照明部24の照明値を-10と補正した照明条件7(反射:60,透過:0,側方:40)を照明条件として作成し、部品実装装置M2の記憶部31に照明条件データ43として記憶させる。すなわち、装置間補正データ44には、予め取得された部品実装装置M1~M3が備える部品認識カメラ20の照明手段Lと撮像手段Cの特性差を補正する情報が含まれている。これにより、部品実装装置M1において、他の部品実装装置M2または部品実装装置M3の部品認識カメラ20の照明条件を作成することができる。 For example, when the illumination value of the reflected illumination unit 24 is stored as "-10" as the correction value of the component recognition camera 20 of the component mounting apparatus M1 and the component mounting apparatus M2 in the inter-apparatus correction data 44, the illumination condition is created. The unit 37 creates illumination conditions 7 (reflection: 60, transmission: 0, side: 40) in which the illumination value of the reflected illumination unit 24 is corrected to -10, and stores them in the storage unit 31 of the component mounting apparatus M2. It is stored as lighting condition data 43 . That is, the inter-apparatus correction data 44 includes information for correcting the characteristic difference between the lighting means L and the imaging means C of the component recognition cameras 20 provided in the component mounting apparatuses M1 to M3, which has been acquired in advance. As a result, in the component mounting apparatus M1, illumination conditions for the component recognition camera 20 of the other component mounting apparatus M2 or the component mounting apparatus M3 can be created.

次に図9のフローに沿って、図7を参照しながら部品Dの撮像画像を推定する撮像画像推定方法について説明する。以下、図5を参照して説明した撮像画像推定処理と同じ工程には同じ符号を付して、詳細な説明は省略する。まず、撮像処理部33は、照明手段Lに複数の照明条件で照明した部品Dを撮像手段Cによりスキャン撮像させ、撮像した部品Dを特定する情報と撮像した際の照明条件とを撮像画像に関連付けた学習データを作成する(ST11:第1撮像工程)。学習データは、撮像画像データ40として記憶される。なお、撮像処理部33は、部品実装作業において撮像した部品Dの撮像画像も学習データとして記憶させる。 Next, along the flow of FIG. 9, a captured image estimation method for estimating the captured image of the component D will be described with reference to FIG. Hereinafter, steps that are the same as those of the captured image estimation processing described with reference to FIG. First, the image pickup processing unit 33 causes the image pickup unit C to scan and image a component D illuminated under a plurality of illumination conditions by the illumination unit L, and converts information specifying the imaged component D and the illumination conditions at the time of image pickup into a captured image. Associated learning data is created (ST11: first imaging step). The learning data is stored as captured image data 40 . Note that the imaging processing unit 33 also stores captured images of the component D captured during component mounting work as learning data.

次いで、学習工程(ST1)が実行され、撮像画像データ40に含まれる学習データに基づいて、学習モデル41が生成される。すなわち、第1撮像工程(ST11)により得られた複数の撮像画像と撮像時の照明条件とに基づき、学習モデル41が生成される。次いで撮像処理部33は、照明手段Lに一の照明条件1で照明した部品D99(一の部品)を撮像手段Cによりスキャン撮像させる(ST12:第2撮像工程)。次いで入力受付部36によりタッチパネル15に表示された照明条件入力画面58(図7参照)の増加ボタン53bまたは減少ボタン53cの操作により照明条件6(照明値)が入力される(ST13:照明条件入力工程)。 Next, a learning step (ST1) is performed, and a learning model 41 is generated based on learning data included in the captured image data 40. FIG. That is, the learning model 41 is generated based on the plurality of captured images obtained in the first imaging step (ST11) and the lighting conditions at the time of imaging. Next, the image pickup processing unit 33 causes the image pickup unit C to scan and image the component D99 (one component) illuminated by the illumination unit L under one illumination condition 1 (ST12: second image pickup step). Next, the illumination condition 6 (illumination value) is input by operating the increase button 53b or the decrease button 53c of the illumination condition input screen 58 (see FIG. 7) displayed on the touch panel 15 by the input reception unit 36 (ST13: illumination condition input process).

図9において、照明条件6が入力されると、画像推定工程(ST2)が実行される。すなわち、生成された学習モデル41を用いて、第2撮像工程(ST12)により得られたD99(一の部品)の撮像画像から、照明手段Lが他の照明条件6で照明した部品D99を撮像手段Cで撮像した場合に得られる他の撮像画像(推定画像)が推定される(図7参照)。次いで、照明条件入力画面58において撮像ボタン55、検証ボタン56、決定ボタン57のいずれかが操作されるまで(ST14においてNo)、照明条件入力工程(ST13)に戻って画像推定工程(ST2)が繰り返し実行される。このように、本実施の形態の撮像画像推定方法は、照明条件1で撮像した部品D99の1枚の撮像画像に基づいて、複数の照明条件による部品D99の撮像画像を短時間に推定することができる。 In FIG. 9, when illumination condition 6 is input, the image estimation step (ST2) is executed. That is, using the generated learning model 41, from the captured image of D99 (one component) obtained in the second imaging step (ST12), the illumination means L illuminates the component D99 under another illumination condition 6. Another captured image (estimated image) obtained when the image is captured by means C is estimated (see FIG. 7). Next, until any one of the image capture button 55, verification button 56, and decision button 57 is operated on the illumination condition input screen 58 (No in ST14), the illumination condition input step (ST13) is returned to and the image estimation step (ST2) is performed. Executed repeatedly. As described above, the captured image estimation method of the present embodiment estimates captured images of the component D99 under a plurality of illumination conditions in a short time based on one captured image of the component D99 captured under the illumination condition 1. can be done.

次に図10のフローに沿って、図7、図8を参照しながら撮像手段Cが撮像する部品Dを照明手段Lが照明する際に使用する照明条件を作成する照明条件作成方法について説明する。以下、図5を参照して説明した撮像画像推定処理と、図9を参照して説明した撮像画像推定方法と同じ工程には同じ符号を付して、詳細な説明は省略する。第1撮像工程(ST11)から画像推定工程(ST2)までは、撮像画像推定方法と同じであり説明を省略する。 Next, along the flow of FIG. 10, an illumination condition creation method for creating illumination conditions used when the illumination means L illuminates the component D imaged by the imaging means C will be described with reference to FIGS. 7 and 8. . Hereinafter, the same steps as those of the captured image estimation process described with reference to FIG. 5 and the captured image estimation method described with reference to FIG. The first imaging step (ST11) to the image estimating step (ST2) are the same as the captured image estimating method, and description thereof will be omitted.

図7に示す照明条件入力画面58の画像表示枠51に画像推定工程(ST2)において部品D99の推定された撮像画像(他の撮像画像)が表示されている状態で、撮像ボタン55が操作されると(ST21において「撮影ボタン」を操作)、撮像処理部33は、照明条件入力画面58で設定された照明条件6で照明手段Lが照明する条件で、吸着ノズル9が保持している部品D99を撮像手段Cによってスキャン撮像させる(ST22:部品撮像工程)。 The imaging button 55 is operated while the captured image (another captured image) of the component D99 estimated in the image estimation step (ST2) is displayed in the image display frame 51 of the illumination condition input screen 58 shown in FIG. Then (the "shooting button" is operated in ST21), the imaging processing unit 33 captures the component held by the suction nozzle 9 under the condition that the illumination means L illuminates under the illumination condition 6 set on the illumination condition input screen 58. D99 is scanned and imaged by the imaging means C (ST22: component imaging step).

図10において、照明条件入力画面58において検証ボタン56が操作されると(ST21において「検証ボタン」を操作)、照明条件可否判断部38は、照明条件6で照明手段Lが部品D99を照明し、吸着ノズル9が保持している部品D99をZ軸回りに所定の角度に回転させる(ST23:部品回転工程)。次いで照明条件可否判断部38は、部品D99を撮像手段Cによってスキャン撮像させる(ST24:第3撮像工程)。すなわち、第3撮像工程(ST24)において、照明条件6(他の照明条件)で照明手段Lが部品D99(一の部品)を照明して、姿勢を変化させた部品D99が撮像手段Cで撮像される。 In FIG. 10, when the verification button 56 is operated on the illumination condition input screen 58 (the "verification button" is operated in ST21), the illumination condition propriety determination unit 38 causes the illumination means L to illuminate the part D99 under the illumination condition 6. , the component D99 held by the suction nozzle 9 is rotated at a predetermined angle around the Z-axis (ST23: component rotation step). Next, the illumination condition propriety determination unit 38 scans and images the component D99 by the imaging means C (ST24: third imaging step). That is, in the third imaging step (ST24), the illumination means L illuminates the part D99 (one part) under the illumination condition 6 (another illumination condition), and the part D99 whose posture is changed is imaged by the imaging means C. be done.

次いで照明条件可否判断部38は、撮像された撮像画像を画像処理して部品D99の本体部Dcの中心の位置、電極Ddの中心の位置を抽出し、抽出された位置が期待通りの位置であるか否かを判断する(ST25:照明条件可否判断工程)(図8参照)。すなわち、第3撮像工程(ST24)により得られた撮像画像に基づいて、照明条件6(他の照明条件)の可否が判断される。 Next, the illumination condition determination unit 38 performs image processing on the captured image to extract the center position of the body part Dc of the component D99 and the center position of the electrode Dd. It is determined whether or not there is (ST25: illumination condition propriety determination step) (see FIG. 8). That is, based on the captured image obtained in the third imaging step (ST24), it is determined whether or not illumination condition 6 (another illumination condition) is possible.

図10において、部品撮像工程(ST22)の後、または、照明条件可否判断工程(ST25)の後に、照明条件入力画面59(図8参照)において決定ボタン57が操作されると(ST26においてYes)、照明条件作成部37は、画像推定工程(ST2)により推定された部品D99(一の部品)の他の撮像画像に基づいて、照明手段Lが部品D99を照明するのに適した照明条件を作成する(ST27:照明条件作成工程)。照明条件入力画面59において撮像ボタン55、検証ボタン56、決定ボタン57のいずれかが操作されるまでは(ST26においてNo)、照明条件入力工程(ST13)に戻って画像推定工程(ST2)が繰り返し実行される。 In FIG. 10, after the component imaging step (ST22) or after the illumination condition propriety determination step (ST25), when the determination button 57 is operated on the illumination condition input screen 59 (see FIG. 8) (Yes in ST26). , the illumination condition creation unit 37 determines illumination conditions suitable for the illumination means L to illuminate the part D99 based on another captured image of the part D99 (one part) estimated in the image estimation step (ST2). create (ST27: illumination condition creation step). Until any one of the image capturing button 55, verification button 56, and decision button 57 is operated on the lighting condition input screen 59 (No in ST26), the process returns to the lighting condition input step (ST13) and the image estimation step (ST2) is repeated. executed.

また、照明条件入力画面58において決定ボタン57が操作された場合も(ST21において「決定ボタン」を操作)、照明条件作成工程(ST27)が実行される。照明条件作成工程(ST27)において照明条件作成部37は、部品実装装置M1で使用される照明条件を作成する他、装置間補正データ44を使用して、他の部品実装装置M2,M3で使用される照明条件を作成することもできる。 Further, when the enter button 57 is operated on the illumination condition input screen 58 (operating the "enter button" in ST21), the illumination condition creation step (ST27) is also executed. In the illumination condition creation step (ST27), the illumination condition creating unit 37 creates illumination conditions to be used in the component mounting apparatus M1, and also uses the inter-apparatus correction data 44 to create illumination conditions for use in the other component mounting apparatuses M2 and M3. You can also create lighting conditions that

すなわち、照明条件作成工程(ST27)において、第2撮像工程(ST12)においてD99(一の部品)を照明した部品実装装置M1が備える照明手段Lとは異なる他の部品実装装置M2,M3が備える照明手段Lの照明条件も作成される。このように、本実施の形態の照明条件作成方法は、照明条件1で撮像した部品D99の1枚の撮像画像に基づいて複数の照明条件による部品D99の撮像画像を推定することで、適切な照明条件を短時間に作成することができる。 That is, in the illumination condition creation step (ST27), other component mounting apparatuses M2 and M3, which are different from the illumination means L provided in the component mounting apparatus M1 that illuminated D99 (one component) in the second imaging step (ST12), are provided. Illumination conditions for the illumination means L are also created. As described above, the illumination condition creation method according to the present embodiment estimates captured images of the component D99 under a plurality of illumination conditions based on one captured image of the component D99 captured under the illumination condition 1. Lighting conditions can be created in a short time.

上記説明したように、本実施の形態の部品実装装置M1~M3は、照明手段Lが複数の照明条件で照明した部品Dを撮像手段Cが撮像した複数の撮像画像と撮像時の照明条件(撮像画像データ40)とに基づき、学習モデル41を生成する学習部34と、生成された学習モデル41を用いて、照明手段Lが一の照明条件で照明した一の部品(部品D99)を撮像手段Cが撮像した一の撮像画像から、照明手段Lが他の照明条件で照明した一の部品を撮像手段Cが撮像した場合に得られる他の撮像画像(推定画像)を推定する画像推定部35と、を備えた、撮像手段Cが撮像する部品Dを照明する照明手段Lの照明条件の作成を支援する照明条件作成支援装置である。これによって、複数の照明条件による部品D99の撮像画像を短時間に取得(推定)し、照明条件を適切に作成することができる。 As described above, the component mounting apparatuses M1 to M3 of the present embodiment provide a plurality of captured images captured by the imaging means C of the component D illuminated under a plurality of illumination conditions by the illumination means L and the illumination conditions ( A learning unit 34 that generates a learning model 41 based on the captured image data 40), and using the generated learning model 41, one part (part D99) illuminated under one lighting condition by the lighting means L is imaged. An image estimating unit for estimating another captured image (estimated image) obtained when the imaging means C captures an image of one part illuminated by the illumination means L under another illumination condition from one captured image captured by the means C. 35, and assists the creation of the illumination conditions of the illumination means L for illuminating the part D imaged by the imaging means C. This makes it possible to acquire (estimate) captured images of the component D99 under a plurality of illumination conditions in a short time, and appropriately create the illumination conditions.

なお、学習部34と画像推定部35を備えて撮像手段Cが撮像する部品Dを照明する照明手段Lの照明条件の作成を支援する照明条件作成支援装置は部品実装装置M1~M3に限定されることはなく、管理コンピュータ3で構成しても、オフラインカメラ装置4で構成してもよい。例えば、オフラインカメラ装置4の場合、オフラインカメラ装置4が備えるオフラインカメラによって、照明手段Lが複数の照明条件で照明した部品Dを撮像手段Cが撮像した複数の撮像画像が取得される。また、装置間補正データ44には、オフラインカメラ装置と部品実装装置M1~M3が備える照明手段Lの照明条件の差に関する情報が含まれる。 Note that the illumination condition creation support device that includes the learning unit 34 and the image estimation unit 35 and assists creation of the illumination conditions of the illumination means L that illuminates the component D imaged by the imaging means C is limited to the component mounting apparatuses M1 to M3. However, it may be configured by the management computer 3 or by the offline camera device 4 . For example, in the case of the offline camera device 4, the off-line camera of the offline camera device 4 acquires a plurality of captured images captured by the imaging means C of the part D illuminated by the lighting means L under a plurality of lighting conditions. The inter-apparatus correction data 44 also includes information on the difference in illumination conditions of the illumination means L provided in the off-line camera apparatus and the component mounting apparatuses M1 to M3.

また、管理コンピュータ3の場合は、オフラインカメラ装置4によって撮像された撮像画像を学習データ(教師データ)として学習部34が学習モデル41を生成する。すなわち、管理コンピュータ3が備える学習部34は、部品実装装置M1~M3が備える照明手段Lとは異なるオフラインカメラ装置4が備える照明手段Lが複数の照明条件で部品Dを照明し、部品実装装置M1~M3が備える撮像手段Cとは異なるオフラインカメラ装置4が備える撮像手段C(オフラインカメラ)が撮像した複数の撮像画像と撮像時の照明条件とに基づき、学習モデル41を生成する。なお、管理コンピュータ3が備える学習部34は、部品実装装置M1~M3によって撮像された撮像画像(撮像画像データ40)を学習データ(教師データ)として学習モデル41を生成してもよい。 In the case of the management computer 3, the learning unit 34 generates the learning model 41 by using the image captured by the offline camera device 4 as learning data (teacher data). That is, the learning unit 34 provided in the management computer 3 illuminates the component D under a plurality of lighting conditions with the lighting means L provided in the off-line camera device 4, which is different from the lighting means L provided in the component mounting apparatuses M1 to M3. A learning model 41 is generated based on a plurality of captured images captured by the imaging means C (offline camera) provided in the offline camera device 4 different from the imaging means C provided in M1 to M3 and the lighting conditions at the time of imaging. The learning unit 34 included in the management computer 3 may generate the learning model 41 using captured images (captured image data 40) captured by the component mounting apparatuses M1 to M3 as learning data (teacher data).

本発明の照明条件作成支援装置および撮像画像推定方法ならびに照明条件作成方法は、複数の照明条件による部品の撮像画像を短時間に取得することができるという効果を有し、部品を基板に実装する分野において有用である。 The illumination condition creation support device, captured image estimation method, and illumination condition creation method of the present invention have the effect of being able to acquire captured images of a component under a plurality of illumination conditions in a short time, and mount the component on a board. useful in the field.

3 管理コンピュータ(照明条件作成支援装置)
4 オフラインカメラ装置(照明条件作成支援装置)
8 実装ヘッド
15 タッチパネル(表示部)
24 反射照明部(照明部)
25 透過照明部(照明部)
26 側方照明部(照明部)
C 撮像手段
D、D99 部品
L 照明手段
M1~M3 部品実装装置(照明条件作成支援装置)
3 Management computer (illumination condition creation support device)
4 Off-line camera device (illumination condition creation support device)
8 mounting head 15 touch panel (display unit)
24 reflected illumination unit (illumination unit)
25 transmitted illumination section (illumination section)
26 side illumination unit (illumination unit)
C imaging means D, D99 parts L lighting means M1 to M3 parts mounting device (lighting condition creation support device)

Claims (16)

撮像手段が撮像する部品を照明する照明手段の照明条件の作成を支援する照明条件作成支援装置であって、
照明手段が複数の照明条件で照明した部品を撮像手段が撮像した複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する学習部と、
生成された前記学習モデルを用いて、前記照明手段が一の照明条件で照明した一の部品を前記撮像手段が撮像した一の撮像画像から、前記照明手段が他の照明条件で照明した前記一の部品を前記撮像手段が撮像した場合に得られる他の撮像画像を推定する画像推定部と、を備えた、照明条件作成支援装置。
An illumination condition creation support device for assisting creation of an illumination condition of an illumination means for illuminating a part imaged by an imaging means,
a learning unit that generates a learning model based on a plurality of captured images captured by an imaging unit of a component illuminated under a plurality of illumination conditions by the illumination unit and the illumination conditions at the time of imaging;
Using the generated learning model, the one part illuminated under one illumination condition by the illumination means is illuminated under another illumination condition from one captured image captured by the imaging means. and an image estimating unit for estimating another captured image obtained when the image capturing means captures the image of the part of (1).
前記他の照明条件の入力を受け付ける入力受付部と、
入力された前記他の照明条件に基づいて前記画像推定部が推定した前記他の撮像画像を表示する表示部と、をさらに備えた、請求項1に記載の照明条件作成支援装置。
an input reception unit that receives input of the other lighting conditions;
2. The illumination condition creation support device according to claim 1, further comprising a display unit that displays said other captured image estimated by said image estimation unit based on said input other illumination condition.
前記画像推定部が推定した前記一の部品の前記他の撮像画像に基づいて、照明手段が前記一の部品を照明するのに適した照明条件を作成する照明条件作成部を、さらに備えた、請求項1または2に記載の照明条件作成支援装置。 An illumination condition creation unit that creates illumination conditions suitable for the illumination means to illuminate the one part based on the other captured image of the one part estimated by the image estimation unit, further comprising: 3. The illumination condition creation support device according to claim 1. 前記他の照明条件で照明手段が照明した前記一の部品を撮像手段が撮像した撮像画像に基づいて、前記他の照明条件の可否を判断する照明条件可否判断部を、さらに備えた、請求項1から3のいずれかに記載の照明条件作成支援装置。 2. The apparatus according to claim 1, further comprising an illumination condition propriety determining unit that determines propriety of said other lighting condition based on an image captured by said imaging means of said one component illuminated by said lighting means under said other lighting condition. 4. The illumination condition creation support device according to any one of 1 to 3. 前記照明条件可否判断部は、前記他の照明条件で前記照明手段が照明した前記一の部品の姿勢を変化させて前記撮像手段が撮像した撮像画像に基づいて、前記他の照明条件の可否を判断する、請求項4に記載の照明条件作成支援装置。 The illumination condition permission/inhibition determination unit determines the permission/inhibition of the other illumination condition based on the captured image captured by the imaging means by changing the orientation of the one part illuminated by the illumination means under the other illumination condition. 5. The illumination condition creation support device according to claim 4, which determines. 前記照明条件作成部は、部品実装装置が備える撮像手段が撮像する実装ヘッドに保持された部品を照明する照明手段に使用される照明条件を作成する、請求項3から5のいずれかに記載の照明条件作成支援装置。 6. The illumination condition creation unit according to any one of claims 3 to 5, wherein the illumination condition creating unit creates an illumination condition used by an illumination means for illuminating a component held by a mounting head imaged by an imaging means provided in the component mounting apparatus. Lighting condition creation support device. 前記学習部は、前記部品実装装置が備える照明手段が複数の照明条件で照明した部品を前記部品実装装置が備える撮像手段が撮像した複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する、請求項6に記載の照明条件作成支援装置。 The learning unit is configured to create a learning model based on a plurality of captured images of a component illuminated under a plurality of illumination conditions by an illumination unit provided in the component mounting apparatus and an illumination condition at the time of capturing. 7. The illumination condition creation support device according to claim 6, which generates a . 前記学習部は、前記部品実装装置が備える照明手段とは異なる照明手段が複数の照明条件で照明した部品を前記部品実装装置が備える撮像手段とは異なる撮像手段が撮像した複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する、請求項6に記載の照明条件作成支援装置。 The learning unit captures a plurality of captured images captured by an imaging means different from the imaging means provided in the component mounting apparatus and a component illuminated under a plurality of illumination conditions by an illumination means different from the illumination means provided in the component mounting apparatus. 7. The lighting condition creation support device according to claim 6, which generates a learning model based on the lighting conditions of the time. 前記照明手段は、部品を照明する複数の照明部を備え、
前記照明条件は、前記複数の照明部のそれぞれの照明値の組み合わせである、請求項1から8のいずれかに記載の照明条件作成支援装置。
The illumination means includes a plurality of illumination units that illuminate the parts,
9. The illumination condition creation support device according to claim 1, wherein said illumination condition is a combination of illumination values of said plurality of illumination units.
照明手段が複数の照明条件で照明した部品を撮像手段で撮像する第1撮像工程と、
前記第1撮像工程により得られた複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する学習工程と、
前記照明手段が一の照明条件で一の照明した部品を前記撮像手段で撮像する第2撮像工程と、
生成された前記学習モデルを用いて、前記第2撮像工程により得られた前記一の部品の撮像画像から、前記照明手段が他の照明条件で照明した前記一の部品を前記撮像手段が撮像した場合に得られる他の撮像画像を推定する画像推定工程と、を含む、撮像画像推定方法。
a first imaging step of capturing an image of the component illuminated by the illumination means under a plurality of illumination conditions;
a learning step of generating a learning model based on the plurality of captured images obtained in the first imaging step and the lighting conditions at the time of imaging;
a second imaging step of imaging one part illuminated by the illumination means under one illumination condition with the imaging means;
Using the generated learning model, the imaging means images the one part illuminated by the lighting means under another lighting condition from the imaged image of the one part obtained in the second imaging step. and an image estimation step of estimating another captured image obtained in the case.
前記照明手段は、部品を照明する複数の照明部を備え、
前記照明条件は、前記複数の照明部のそれぞれの照明値の組み合わせである、請求項10に記載の撮像画像推定方法。
The illumination means includes a plurality of illumination units that illuminate the parts,
11. The captured image estimation method according to claim 10, wherein said illumination condition is a combination of illumination values of said plurality of illumination units.
撮像手段が撮像する部品を照明手段が照明する際に使用する照明条件を作成する照明条件作成方法であって、
照明手段が複数の照明条件で照明した部品を撮像手段で撮像する第1撮像工程と、
前記第1撮像工程により得られた複数の撮像画像と撮像時の照明条件とに基づき、学習モデルを生成する学習工程と、
前記照明手段が一の照明条件で照明した一の部品を前記撮像手段で撮像する第2撮像工程と、
前記学習工程により生成された前記学習モデルを用いて、前記第2撮像工程により得られた一の撮像画像から、前記照明手段が他の照明条件で照明した前記一の部品を前記撮像手段が撮像した場合に得られる他の撮像画像を推定する画像推定工程と、
前記画像推定工程により推定された前記一の部品の前記他の撮像画像に基づいて、照明手段が前記一の部品を照明するのに適した照明条件を作成する照明条件作成工程と、を含む、照明条件作成方法。
An illumination condition creating method for creating an illumination condition used when an illumination means illuminates a component imaged by an imaging means, comprising:
a first imaging step of capturing an image of the component illuminated by the illumination means under a plurality of illumination conditions;
a learning step of generating a learning model based on the plurality of captured images obtained in the first imaging step and the lighting conditions at the time of imaging;
a second imaging step of imaging one part illuminated by the illumination means under one illumination condition with the imaging means;
Using the learning model generated in the learning step, the image pickup means picks up the one part illuminated by the lighting means under another illumination condition from the one captured image obtained in the second image pickup step. an image estimation step of estimating another captured image obtained when
an illumination condition creating step of creating an illumination condition suitable for illumination means to illuminate the one component based on the other captured image of the one component estimated by the image estimation step; How to create lighting conditions.
前記他の照明条件で照明手段が照明した前記一の部品を前記撮像手段で撮像する第3撮像工程と、
前記第3撮像工程により得られた撮像画像に基づいて、前記他の照明条件の可否を判断する照明条件可否判断工程を、さらに含む、請求項12に記載の照明条件作成方法。
a third imaging step of imaging the one component illuminated by the illumination means under the other illumination condition with the imaging means;
13. The illumination condition creation method according to claim 12, further comprising an illumination condition propriety determination step of judging propriety of said other illumination condition based on the captured image obtained by said third imaging step.
前記第3撮像工程において、姿勢を変化させた前記一の部品が撮像される、請求項13に記載の照明条件作成方法。 14. The illumination condition creation method according to claim 13, wherein the one component whose posture is changed is imaged in the third imaging step. 前記照明手段は、部品を照明する複数の照明部を備え、
前記照明条件は、前記複数の照明部のそれぞれの照明値の組み合わせである、請求項12から14のいずれかに記載の照明条件作成方法。
The illumination means includes a plurality of illumination units that illuminate the parts,
15. The illumination condition creation method according to claim 12, wherein said illumination condition is a combination of illumination values of said plurality of illumination units.
前記照明条件作成工程において、前記第2撮像工程において前記一の部品を照明した照明手段とは異なる照明手段の照明条件が作成される、請求項12から15のいずれかに記載の照明条件作成方法。 16. The illumination condition creating method according to any one of claims 12 to 15, wherein in said illumination condition creating step, an illumination condition is created for an illumination means different from the illumination means that illuminated said one component in said second imaging step. .
JP2021014721A 2021-02-02 2021-02-02 Lighting Condition Creation Support Device, Captured Image Estimation Method, and Lighting Condition Creation Method Pending JP2022118301A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021014721A JP2022118301A (en) 2021-02-02 2021-02-02 Lighting Condition Creation Support Device, Captured Image Estimation Method, and Lighting Condition Creation Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021014721A JP2022118301A (en) 2021-02-02 2021-02-02 Lighting Condition Creation Support Device, Captured Image Estimation Method, and Lighting Condition Creation Method

Publications (1)

Publication Number Publication Date
JP2022118301A true JP2022118301A (en) 2022-08-15

Family

ID=82839984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021014721A Pending JP2022118301A (en) 2021-02-02 2021-02-02 Lighting Condition Creation Support Device, Captured Image Estimation Method, and Lighting Condition Creation Method

Country Status (1)

Country Link
JP (1) JP2022118301A (en)

Similar Documents

Publication Publication Date Title
JP4838095B2 (en) Semiconductor chip mounting apparatus and mounting method
JP6310058B2 (en) Image processing apparatus and substrate production system
US20180089860A1 (en) Component management support system and method for supporting component management
JP5260435B2 (en) Electronic component mounting method and electronic component mounting apparatus
JP2022118301A (en) Lighting Condition Creation Support Device, Captured Image Estimation Method, and Lighting Condition Creation Method
WO2018163384A1 (en) Supplied component inspection device
JP2017139388A (en) Mounting apparatus
JPWO2017145249A1 (en) Image processing system and image processing method
JP4707607B2 (en) Image acquisition method for component recognition data creation and component mounter
JP6836938B2 (en) Manufacturing method of die bonding equipment and semiconductor equipment
JP5740082B2 (en) Board production line consisting of multiple surface mount devices
JP2010050337A (en) Surface mounter
JP4901451B2 (en) Component mounting equipment
JP2017168543A (en) Backup pin arrangement support system, backup pin arrangement support method and backup pin arrangement support management device
JP2010282536A (en) Image processing method and image processing device
JP2005109287A (en) Electronic component mounter
JP5031619B2 (en) Electronic component mounting device
JP2007200990A (en) Part recognition method, part recognition apparatus and surface mounter
JP2000068696A (en) Part recognition/mounting device and part recognition method
JP6064168B2 (en) Mark imaging method and component mounting line
JP6621639B2 (en) Image processing apparatus for substrates
JP7269028B2 (en) decision device
JP7124126B2 (en) Component mounter
JP2022118300A (en) Component data creation support device, sucking possible region estimation method, and component data creation method
JP6855597B2 (en) Working machine and polarity judgment method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20221021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20240213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20240222