JP2017156161A - Illumination condition setting device, illumination condition setting method, and computer for illumination condition setting - Google Patents

Illumination condition setting device, illumination condition setting method, and computer for illumination condition setting Download PDF

Info

Publication number
JP2017156161A
JP2017156161A JP2016038021A JP2016038021A JP2017156161A JP 2017156161 A JP2017156161 A JP 2017156161A JP 2016038021 A JP2016038021 A JP 2016038021A JP 2016038021 A JP2016038021 A JP 2016038021A JP 2017156161 A JP2017156161 A JP 2017156161A
Authority
JP
Japan
Prior art keywords
illumination
image
illumination light
light source
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016038021A
Other languages
Japanese (ja)
Other versions
JP6601264B2 (en
Inventor
布施 貴史
Takashi Fuse
貴史 布施
哲男 肥塚
Tetsuo Hizuka
哲男 肥塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016038021A priority Critical patent/JP6601264B2/en
Publication of JP2017156161A publication Critical patent/JP2017156161A/en
Application granted granted Critical
Publication of JP6601264B2 publication Critical patent/JP6601264B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an illumination condition setting device that allows lighting conditions to be set appropriately.SOLUTION: The illumination condition setting device comprises: a storage unit for storing, for a first illumination light source in which the luminance value of one of pixels of an image is saturated even when an object is illuminated with a minimum set value of light emission luminance, two reference images corresponding to mutually different light emission luminance, and storing, for a second illumination light source other than the first illumination light source, one reference image corresponding to a prescribed light emission luminance; a virtual image generation unit 32 for generating, for each illumination condition, a virtual image for each illumination light source when the illumination light source illuminates the object with light emission luminance that corresponds to the illumination condition; a composite image generation unit 33 for generating, for each illumination condition, a composite image from the virtual image of each illumination light source; and an illumination condition setting unit 35 for selecting an illumination condition on the basis of the composite image of each illumination condition. The virtual image generation unit 32 generates a virtual image for the first illumination light source from the two reference images, and generates a virtual image for the second illumination light source from the one reference image.SELECTED DRAWING: Figure 3

Description

本発明は、例えば、複数の照明光源を用いて対象物を照明する際の照明条件を設定する照明条件設定装置、照明条件設定方法及び照明条件設定用コンピュータプログラムに関する。   The present invention relates to an illumination condition setting device, an illumination condition setting method, and an illumination condition setting computer program for setting an illumination condition when illuminating an object using a plurality of illumination light sources, for example.

従来より、製品あるいは部品置場などを撮影して得られた画像に対して画像認識処理を実行することで、組み立てた製品の検査、あるいは、製品組み立ての際の部品の有無の確認が行われている。このような、画像認識処理に基づく検査などを高精度で実行するためには、画像上で撮影対象となる製品あるいは部品(以下、単に対象物と呼ぶ)が見易いように表されていることが好ましい。そのためには、画像上で対象物が写っている画素の輝度値が飽和せず、かつ、影が生じないといった適切な照明条件でその対象物が照明されることが好ましい。そこで、任意の照明条件による照明状態を作り出す技術が提案されている(例えば、特許文献1を参照)。   Conventionally, by performing image recognition processing on images obtained by photographing products or parts storage, etc., inspection of assembled products or confirmation of the presence of parts during product assembly has been performed. Yes. In order to execute such inspection based on image recognition processing with high accuracy, a product or a part to be photographed (hereinafter simply referred to as an object) is represented on the image so that it can be easily seen. preferable. For that purpose, it is preferable that the object is illuminated under appropriate illumination conditions such that the luminance value of the pixel in which the object is reflected in the image is not saturated and no shadow is generated. Thus, a technique for creating an illumination state under an arbitrary illumination condition has been proposed (see, for example, Patent Document 1).

特許文献1に開示された照明条件抽出方法では、可動照明部がサンプルワークへ一定強度の照明光を照射するライトを、サンプルワークから一定距離だけ離れた照明位置に配置し、照明位置から照明光が照射された状態で、撮像部がサンプルワークを撮像する。そして画像合成部は、照明位置が互いに異なる複数の撮像画像を、画素ごとに輝度の平均あるいは加重平均を算出して合成する。これにより、合成画像表示部に、任意の照明位置から複数の照明光が照射された状態での画像が表示される。そしてこの照明条件抽出方法では、例えば、合成画像の検査領域において、サンプルワークの欠陥部の面積が大きく、かつ、欠陥部と正常部との輝度差が大きい合成画像が抽出され、その合成画像の合成条件が照明条件として選択される。   In the illumination condition extraction method disclosed in Patent Document 1, a light that causes the movable illumination unit to irradiate a sample work with a certain intensity of illumination light is disposed at an illumination position that is a certain distance away from the sample work, and the illumination light is emitted from the illumination position. In a state where is irradiated, the imaging unit images the sample work. Then, the image composition unit synthesizes a plurality of captured images having different illumination positions by calculating an average luminance or a weighted average for each pixel. Thereby, an image in a state in which a plurality of illumination lights are irradiated from an arbitrary illumination position is displayed on the composite image display unit. In this illumination condition extraction method, for example, in the composite image inspection region, a composite image in which the area of the defective portion of the sample work is large and the luminance difference between the defective portion and the normal portion is large is extracted. The synthesis condition is selected as the illumination condition.

特開2002−310935号公報JP 2002-310935 A

特許文献1に開示された技術では、各ライトから照射される照明光の強度を仮想的に変更した合成画像を得るために、照明位置が互いに異なる複数の撮像画像間で、画素ごとに輝度の加重平均が算出される。しかしながら、対象物の表面の一部が鏡面のように反射率が高いことがある。このような場合、その表面の一部により反射された照明光が明るくなり過ぎて、画像上でその表面の一部に対応する画素の輝度値が飽和してしまい、その画素は、その表面の一部の輝度を正確に表せなくなる。その結果、画素ごとの輝度の加重平均を行うことで得られる合成画像では、その表面の一部の輝度が正確に再現されず、最適な照明条件が選択されなくなることがある。   In the technique disclosed in Patent Document 1, in order to obtain a composite image in which the intensity of illumination light emitted from each light is virtually changed, the brightness of each pixel is determined between a plurality of captured images having different illumination positions. A weighted average is calculated. However, a part of the surface of the object may have a high reflectance like a mirror surface. In such a case, the illumination light reflected by a part of the surface becomes too bright, and the luminance value of the pixel corresponding to the part of the surface on the image is saturated. Some luminance cannot be expressed accurately. As a result, in the synthesized image obtained by performing the weighted average of the luminance for each pixel, the luminance of part of the surface is not accurately reproduced, and the optimal illumination condition may not be selected.

一つの側面では、本発明は、照明条件を適切に設定できる照明条件設定装置を提供することを目的とする。   In one aspect, an object of the present invention is to provide an illumination condition setting device that can appropriately set illumination conditions.

一実施形態によれば、照明条件設定装置が提供される。この照明条件設定装置は、複数の照明光源のうち、設定可能な発光輝度の最小値で対象物を照明した場合において対象物を撮像部により撮像して得られる画像上の対象物に相当する領域内で輝度値が飽和する画素が含まれる第1の照明光源について、第1の発光輝度で対象物を照明し、かつ、撮像部により撮像して得られる第1の基準画像と、第1の発光輝度と異なる第2の発光輝度で対象物を照明し、かつ、撮像部により撮像して得られる第2の基準画像とを記憶し、一方、複数の照明光源のうち、第1の照明光源以外の第2の照明光源について、第3の発光輝度で対象物を照明し、かつ、撮像部により撮像して得られる第3の基準画像を記憶する記憶部と、複数の照明条件のそれぞれについて、複数の照明光源のそれぞれごとに、その照明光源がその照明条件に応じた発光輝度で対象物を照明した場合の対象物についての仮想画像を生成する仮想画像生成部と、複数の照明条件のそれぞれについて、複数の照明光源のそれぞれについて生成された仮想画像について対応画素間の輝度値の和を合成画像の対応画素の輝度値として算出することで合成画像を生成する合成画像生成部と、複数の照明条件のそれぞれについての合成画像に基づいて複数の照明条件の何れかを選択する照明条件設定部とを有する。そして仮想画像生成部は、第1の照明光源についての仮想画像を、第1の基準画像及び第2の基準画像に基づいて生成し、一方、第2の照明光源についての仮想画像を、第3の基準画像に基づいて生成する。   According to one embodiment, an illumination condition setting device is provided. This illumination condition setting device is an area corresponding to an object on an image obtained by imaging the object by an imaging unit when the object is illuminated with a minimum settable emission luminance among a plurality of illumination light sources. A first reference image obtained by illuminating an object with a first light emission luminance and picking up an image by an image pickup unit, and a first illumination light source including a pixel whose luminance value is saturated A second reference image obtained by illuminating an object with a second light emission luminance different from the light emission luminance and picked up by an image pickup unit is stored. On the other hand, among the plurality of illumination light sources, the first illumination light source For the second illumination light source other than the above, a storage unit that illuminates the object with the third emission luminance and stores the third reference image obtained by imaging by the imaging unit, and each of the plurality of illumination conditions For each of the multiple illumination sources. Generated for each of a plurality of illumination light sources for each of a plurality of illumination conditions and a virtual image generation unit that generates a virtual image of the object when the light source illuminates the object with light emission luminance according to the illumination conditions A composite image generating unit that generates a composite image by calculating a sum of luminance values between corresponding pixels for the virtual image as a luminance value of the corresponding pixel of the composite image, and a composite image for each of a plurality of illumination conditions And an illumination condition setting unit that selects any one of a plurality of illumination conditions. The virtual image generation unit generates a virtual image for the first illumination light source based on the first reference image and the second reference image, while a virtual image for the second illumination light source is generated by the third reference image. Based on the reference image.

照明条件を適切に設定できる。   Lighting conditions can be set appropriately.

一つの実施形態による照明条件設定装置の概略構成図である。It is a schematic block diagram of the illumination condition setting apparatus by one embodiment. 制御装置のハードウェア構成図である。It is a hardware block diagram of a control apparatus. 照明条件設定処理に関する処理部の機能ブロック図である。It is a functional block diagram of the process part regarding an illumination condition setting process. (a)は、基準画像が2枚生成されている場合における、発光輝度が最小輝度Paである基準画像の所定の画素列における、輝度値のプロファイルの一例を表す。(b)は、発光輝度が輝度Pbである他方の基準画像における、(a)と同じ画素列における、輝度値のプロファイルの一例を表す。(c)は、基準画像が2枚生成されている場合における、各基準画像の輝度値と、仮想画像の対応画素の輝度値との関係を示す図である。(A) represents an example of a luminance value profile in a predetermined pixel row of the reference image having the light emission luminance of the minimum luminance Pa when two reference images are generated. (B) represents an example of a profile of luminance values in the same pixel column as (a) in the other reference image whose emission luminance is the luminance Pb. (C) is a diagram showing the relationship between the luminance value of each reference image and the luminance value of the corresponding pixel of the virtual image when two reference images are generated. 合成画像の一例を示す図である。It is a figure which shows an example of a synthesized image. 照明条件設定処理の動作フローチャートである。It is an operation | movement flowchart of an illumination condition setting process.

以下、図面を参照しつつ、照明条件設定装置について説明する。この照明条件設定装置は、発光輝度を調整可能な複数の照明光源のそれぞれについて、その照明光源から所定の発光輝度の照明光で対象物を照明し、撮像部にてその対象物を撮影して得られた画像を、照明条件を決定するために利用する基準画像とする。その際、発光輝度を最小輝度値に設定しても、得られた画像上で輝度値が飽和している画素がある照明光源については、この照明条件設定装置は、発光輝度が異なる2種類の基準画像を生成する。そしてこの照明条件設定装置は、各照明光源について、仮想的に発光輝度を任意の値に設定したときの対象物の画像である仮想画像を基準画像に基づいて作成し、作成した照明光源ごとの仮想画像を合成することで、任意の照明条件における対象物の合成画像を得る。そしてこの照明条件設定装置は、照明条件ごとの合成画像に基づいて、画像認識による対象物の認識精度が最も良好となる照明条件を求める。その際、この照明条件設定装置は、二つの基準画像が生成される照明光源については、仮想画像の各画素の輝度値を、各基準画像における対応画素の輝度値を線形補間することで算出する。   Hereinafter, an illumination condition setting device will be described with reference to the drawings. This illumination condition setting device illuminates an object with illumination light having a predetermined emission luminance from each of the plurality of illumination light sources whose emission luminance can be adjusted, and images the object with an imaging unit. The obtained image is set as a reference image used for determining the illumination condition. At this time, even if the light emission luminance is set to the minimum luminance value, for an illumination light source having a pixel whose luminance value is saturated on the obtained image, this illumination condition setting device has two types of light emission luminances different from each other. A reference image is generated. Then, the illumination condition setting device creates a virtual image that is an image of the object when the emission luminance is virtually set to an arbitrary value for each illumination light source based on the reference image, and for each illumination light source created By synthesizing the virtual image, a composite image of the object under an arbitrary illumination condition is obtained. And this illumination condition setting apparatus calculates | requires the illumination condition from which the recognition accuracy of the target object by image recognition becomes the best based on the synthesized image for every illumination condition. At this time, the illumination condition setting device calculates the luminance value of each pixel of the virtual image by linearly interpolating the luminance value of the corresponding pixel in each reference image for the illumination light source from which two reference images are generated. .

図1は、一つの実施形態による照明条件設定装置の概略構成図である。照明条件設定装置1は、複数の照明光源11−1〜11−n(ただし、nは2以上の整数)と、光源駆動部12と、撮像部13と、制御装置14とを有する。照明条件設定装置1は、ステージ15上に載置された対象物16を、複数の照明光源11−1〜11−nで照明し、撮像部13により撮影して得られた対象物16の画像に基づいて、対象物16に対する画像認識処理の精度が向上するように、照明条件を設定する。なお、本実施形態では、照明条件には、複数の照明光源11−1〜11−nのそれぞれごとの発光輝度の設定値が含まれる。   FIG. 1 is a schematic configuration diagram of an illumination condition setting device according to one embodiment. The illumination condition setting device 1 includes a plurality of illumination light sources 11-1 to 11-n (where n is an integer of 2 or more), a light source driving unit 12, an imaging unit 13, and a control device 14. The illumination condition setting device 1 illuminates the object 16 placed on the stage 15 with a plurality of illumination light sources 11-1 to 11-n and images the object 16 obtained by photographing with the imaging unit 13. Based on the above, the illumination condition is set so that the accuracy of the image recognition processing for the object 16 is improved. In the present embodiment, the illumination condition includes a set value of light emission luminance for each of the plurality of illumination light sources 11-1 to 11-n.

また、本実施形態では、対象物16は、部品トレイ及び部品トレイ上に載置される部品である。しかし、対象物16は、これに限られず、任意の物品であってよい。   In the present embodiment, the object 16 is a component tray and a component placed on the component tray. However, the object 16 is not limited to this, and may be an arbitrary article.

複数の照明光源11−1〜11−nのそれぞれは、例えば、蛍光灯、発光ダイオード、あるいは、有機エレクトロルミネッセンス光源といった、発光輝度を調整可能な発光素子を有する。なお、各照明光源が有する発光素子からの照明光は、白色光であってもよく、あるいは、単色光もしくは赤外光であってもよい。あるいはまた、複数の照明光源11−1〜11−nのそれぞれは、互いに異なるタイプの発光素子を有していてもよい。そして複数の照明光源11−1〜11−nのそれぞれは、光源駆動部12から供給される電力にしたがって、制御装置14で設定される発光輝度を持つ照明光を発する。   Each of the plurality of illumination light sources 11-1 to 11-n includes a light emitting element capable of adjusting light emission luminance, such as a fluorescent lamp, a light emitting diode, or an organic electroluminescence light source. Note that the illumination light from the light emitting element included in each illumination light source may be white light, or monochromatic light or infrared light. Alternatively, each of the plurality of illumination light sources 11-1 to 11-n may have different types of light emitting elements. Each of the plurality of illumination light sources 11-1 to 11-n emits illumination light having a light emission luminance set by the control device 14 in accordance with the power supplied from the light source driving unit 12.

複数の照明光源11−1〜11−nのそれぞれは、ステージ15の上方において、ステージ15の表面を互いに異なる方向から照明できるように下方を向けて支持部材(図示せず)に取り付けられる。例えば、複数の照明光源11−1〜11−nのそれぞれは、ステージ15の中央に対して等距離、かつ、隣接する照明光源との間隔が等間隔となるように取り付けられる。あるいは、複数の照明光源11−1〜11−nのそれぞれは、ステージ15の中央からの距離が互いに異なるように取り付けられてもよい。   Each of the plurality of illumination light sources 11-1 to 11-n is attached to a support member (not shown) facing the lower side so that the surface of the stage 15 can be illuminated from different directions above the stage 15. For example, each of the plurality of illumination light sources 11-1 to 11-n is mounted so as to be equidistant with respect to the center of the stage 15 and at equal intervals from the adjacent illumination light sources. Or each of the some illumination light sources 11-1 to 11-n may be attached so that the distance from the center of the stage 15 may mutually differ.

光源駆動部12は、信号線を介して受け取った制御装置14からの制御信号に従って、複数の照明光源11−1〜11−nのそれぞれの点灯/消灯の切り替え、及び、発光輝度を調整する。そのために、光源駆動部12は、複数の照明光源11−1〜11−nのそれぞれごとに、その照明光源を駆動するための回路を有する。そして光源駆動部12は、複数の照明光源11−1〜11−nのそれぞれに対して、各照明光源が制御装置14からの制御信号に応じた発光輝度を持つ照明光を発するための電力を各照明光源の駆動方式に従って供給する。   The light source driving unit 12 switches on / off of each of the plurality of illumination light sources 11-1 to 11-n and adjusts the light emission luminance according to the control signal from the control device 14 received via the signal line. Therefore, the light source driving unit 12 includes a circuit for driving the illumination light source for each of the plurality of illumination light sources 11-1 to 11-n. Then, the light source driving unit 12 supplies, for each of the plurality of illumination light sources 11-1 to 11-n, power for each illumination light source to emit illumination light having light emission luminance according to a control signal from the control device 14. It supplies according to the drive system of each illumination light source.

撮像部13は、ステージ15の鉛直上方に、ステージ15へ向けて支持部材(図示せず)に取り付けられる。そして撮像部13は、イメージセンサと、イメージセンサ上に対象物16の像を結像する撮像光学系とを含み、制御装置14からの撮影指示信号に従って、ステージ15上に載置された対象物16を撮影し、対象物16が写った画像を生成する。そして撮像部13は、生成した画像を、信号線を介して制御装置14へ出力する。   The imaging unit 13 is attached to a support member (not shown) vertically above the stage 15 toward the stage 15. The imaging unit 13 includes an image sensor and an imaging optical system that forms an image of the object 16 on the image sensor, and the object placed on the stage 15 in accordance with a shooting instruction signal from the control device 14. 16 is photographed, and an image showing the object 16 is generated. Then, the imaging unit 13 outputs the generated image to the control device 14 via a signal line.

なお、撮像部13により生成される画像は、カラー画像でもよく、あるいは、モノクロ画像でもよい。   Note that the image generated by the imaging unit 13 may be a color image or a monochrome image.

制御装置14は、照明条件設定装置1の各部を制御する。また制御装置14は、キャリブレーション処理の一例として、撮像部13により得られた、複数の照明光源11−1〜11−nのそれぞれについての対象物16の基準画像に基づいて、照明条件を設定する。さらに、制御装置14は、設定した照明条件に従って各照明光源を点灯または消灯させた状態で、撮像部13により対象物16を撮影して得られた画像に対して画像認識処理を実行することで、対象物16の有無判定または良否判定などを実行する。   The control device 14 controls each part of the illumination condition setting device 1. Moreover, the control apparatus 14 sets an illumination condition based on the reference | standard image of the target object 16 about each of several illumination light source 11-1 to 11-n obtained by the imaging part 13 as an example of a calibration process. To do. Furthermore, the control device 14 performs image recognition processing on an image obtained by photographing the object 16 by the imaging unit 13 with each illumination light source turned on or off according to the set illumination condition. The presence / absence determination or pass / fail determination of the object 16 is executed.

図2は、制御装置14のハードウェア構成図である。制御装置14は、通信部21と、記憶部22と、処理部23とを有する。制御装置14は、さらに、ディスプレイを有していてもよい。   FIG. 2 is a hardware configuration diagram of the control device 14. The control device 14 includes a communication unit 21, a storage unit 22, and a processing unit 23. The control device 14 may further include a display.

通信部21は、制御装置14を他の機器、例えば、光源駆動部12及び撮像部13と接続するためのインタフェース及びその制御回路を有する。そして通信部21は、例えば、処理部23から受け取った制御信号などを、光源駆動部12及び撮像部13の何れかへ出力する。あるいは、通信部21は、撮像部13から受け取った画像を処理部23へわたす。   The communication unit 21 includes an interface for connecting the control device 14 to other devices such as the light source driving unit 12 and the imaging unit 13 and a control circuit for the interface. For example, the communication unit 21 outputs the control signal received from the processing unit 23 to either the light source driving unit 12 or the imaging unit 13. Alternatively, the communication unit 21 passes the image received from the imaging unit 13 to the processing unit 23.

記憶部22は、例えば、揮発性又は不揮発性の半導体メモリ回路を有する。さらに、記憶部22は、ハードディスク装置などを有していてもよい。そして記憶部22は、照明条件設定処理において利用される各種のデータを記憶する。また記憶部22は、処理部23で実行される、照明条件設定処理といった各種の処理を実行するためのコンピュータプログラムを記憶する。さらに、記憶部22は、撮像部13から受け取った画像を記憶する。   The storage unit 22 includes, for example, a volatile or non-volatile semiconductor memory circuit. Furthermore, the storage unit 22 may have a hard disk device or the like. The storage unit 22 stores various data used in the illumination condition setting process. In addition, the storage unit 22 stores a computer program for executing various processes such as an illumination condition setting process executed by the processing unit 23. Furthermore, the storage unit 22 stores the image received from the imaging unit 13.

処理部23は、一つまたは複数のプロセッサ及びその周辺回路を有する。そして処理部23は、照明条件設定装置1全体を制御する。
また処理部23は、キャリブレーション処理の一例として、照明条件設定処理を実行することで、予め用意される複数の照明条件の中から最適な照明条件を選択する。
The processing unit 23 includes one or a plurality of processors and their peripheral circuits. And the process part 23 controls the illumination condition setting apparatus 1 whole.
Moreover, the process part 23 selects the optimal illumination condition from the several illumination conditions prepared previously by performing an illumination condition setting process as an example of a calibration process.

個々の照明条件では、照明光源11−1〜11−nのそれぞれについて、点灯するか否か、及び、点灯する場合の発光輝度が指定される。各照明光源について、発光輝度は、例えば、発光輝度の調整範囲内に設定される所定数の値の何れかに指定される。そして照明条件ごとに、各照明光源の発光輝度の値及び点灯の有無の組み合わせが異なるように、複数の照明条件が用意されればよい。   In each illumination condition, whether or not to turn on each of the illumination light sources 11-1 to 11-n and the light emission luminance in the case of turning on are designated. For each illumination light source, the light emission luminance is specified as one of a predetermined number of values set within the light emission luminance adjustment range, for example. And what is necessary is just to prepare several illumination conditions so that the combination of the light emission luminance value of each illumination light source and the presence or absence of lighting may differ for every illumination condition.

図3は、照明条件設定処理に関する処理部23の機能ブロック図である。処理部23は、基準画像取得部31と、仮想画像生成部32と、合成画像生成部33と、評価値算出部34と、照明条件設定部35とを有する。処理部23が有するこれらの各部は、例えば、処理部23が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。なお、これらの各部は、それぞれ、別個の回路として、処理部23とは別個に制御装置14に実装されてもよく、あるいはこれらの各部の機能を実現する一つまたは複数の集積回路として、処理部23とは別個に制御装置14に実装されてもよい。   FIG. 3 is a functional block diagram of the processing unit 23 relating to the illumination condition setting process. The processing unit 23 includes a reference image acquisition unit 31, a virtual image generation unit 32, a composite image generation unit 33, an evaluation value calculation unit 34, and an illumination condition setting unit 35. Each of these units included in the processing unit 23 is a functional module realized by a computer program executed on a processor included in the processing unit 23, for example. Each of these units may be mounted on the control device 14 as a separate circuit and separately from the processing unit 23, or may be processed as one or a plurality of integrated circuits that realize the functions of these units. The controller 23 may be mounted separately from the unit 23.

基準画像取得部31は、複数の照明光源11−1〜11−nのそれぞれごとに、照明条件の設定に利用される基準画像を取得する。   The reference image acquisition unit 31 acquires a reference image used for setting illumination conditions for each of the plurality of illumination light sources 11-1 to 11-n.

本実施形態では、基準画像取得部31は、各照明光源に対して同一の処理を実行するので、以下では、照明光源11−1に対する処理について説明する。   In the present embodiment, the reference image acquisition unit 31 executes the same process for each illumination light source, and therefore, the process for the illumination light source 11-1 will be described below.

基準画像取得部31は、ステージ15上にサンプルとなる対象物16が載置された状態で、照明光源11−1が所定の発光輝度を持つ照明光を発し、かつ、他の照明光源が消灯する制御信号を生成する。そして基準画像取得部31は、その制御信号を通信部21を介して光源駆動部12へ出力する。なお、所定の発光輝度は、例えば、撮像部13により生成される画像上で対象物16が写った各画素の輝度値が0よりも高くなるように設定されることが好ましい。そして基準画像取得部31は、照明光源11−1のみが所定の発光輝度を持つ照明光を発した状態で、撮像部13に、対象物16を撮影させ、得られた画像を撮像部13から通信部21を介して取得する。そして基準画像取得部31は、取得した画像上で、対象物16が写っていることが想定される物体領域内に含まれる各画素について、その画素の輝度値がその上限値となっているか否か判定する。なお、画素の輝度値が0〜255で表される場合、上限値は255である。また、対象物16の位置はステージ15上に予め定められているので、物体領域も予め設定されればよい。なお、物体領域は、画像全体を含んでもよい。   The reference image acquisition unit 31 emits illumination light having a predetermined light emission luminance with the sample object 16 placed on the stage 15 and the other illumination light sources are turned off. A control signal is generated. Then, the reference image acquisition unit 31 outputs the control signal to the light source driving unit 12 via the communication unit 21. Note that the predetermined light emission luminance is preferably set such that the luminance value of each pixel in which the object 16 is captured on the image generated by the imaging unit 13 is higher than 0, for example. Then, the reference image acquisition unit 31 causes the imaging unit 13 to photograph the object 16 in a state where only the illumination light source 11-1 emits illumination light having a predetermined emission luminance, and the obtained image is taken from the imaging unit 13. Obtained via the communication unit 21. Then, the reference image acquisition unit 31 determines whether or not the luminance value of the pixel is the upper limit value for each pixel included in the object region where the object 16 is assumed to be reflected in the acquired image. To determine. When the luminance value of the pixel is represented by 0 to 255, the upper limit value is 255. Further, since the position of the object 16 is predetermined on the stage 15, the object region may be set in advance. The object area may include the entire image.

物体領域内に含まれる各画素の輝度値が上限値未満で対象物16の表面に対する照明光源以外の環境光などの光源による影響が小さい場合、基準画像取得部31は、その画像を照明光源11−1についての基準画像とする。そして基準画像取得部31は、その基準画像を、照明光源11−1を識別するための識別情報及び基準画像生成時の照明光源11−1の発光輝度と関連付けて記憶部22に保存する。一方、物体領域内に含まれる画素の何れかの輝度値が上限値に達している場合、基準画像取得部31は、照明光源11−1の発光輝度を所定値だけ低下させるように制御信号を生成し、その制御信号を通信部21を介して光源駆動部12へ出力する。基準画像取得部31は、照明光源11−1がその低下した発光輝度で発光し、かつ、他の照明光源が消灯している状態で、撮像部13が対象物16を撮像することで得られた画像を取得する。そして基準画像取得部31は、その画像に対して、上記と同様に、物体領域内で基準値の上限値に達している画素があるか否か判定する。そして基準画像取得部31は、物体領域内に含まれる各画素の輝度値が上限値未満である場合、基準画像取得部31は、その画像を照明光源11−1についての基準画像とする。そして基準画像取得部31は、その基準画像を、照明光源11−1を識別するための識別情報及び基準画像生成時の照明光源11−1の発光輝度と関連付けて記憶部22に保存する。一方、物体領域内に含まれる画素の何れかの輝度値が上限値に達している場合、基準画像取得部31は、照明光源11−1の発光輝度をさらに所定値だけ低下させるように制御信号を生成し、その制御信号を通信部21を介して光源駆動部12へ出力する。   When the luminance value of each pixel included in the object region is less than the upper limit value and the influence of light sources such as ambient light other than the illumination light source on the surface of the object 16 is small, the reference image acquisition unit 31 displays the image as the illumination light source 11. The reference image for -1. The reference image acquisition unit 31 stores the reference image in the storage unit 22 in association with the identification information for identifying the illumination light source 11-1 and the emission luminance of the illumination light source 11-1 at the time of generating the reference image. On the other hand, when the luminance value of any of the pixels included in the object region has reached the upper limit value, the reference image acquisition unit 31 sends a control signal so as to decrease the emission luminance of the illumination light source 11-1 by a predetermined value. The control signal is generated and output to the light source driving unit 12 via the communication unit 21. The reference image acquisition unit 31 is obtained by the imaging unit 13 imaging the object 16 in a state where the illumination light source 11-1 emits light with the reduced emission luminance and the other illumination light sources are turned off. Get the image. Then, the reference image acquisition unit 31 determines whether or not there is a pixel that has reached the upper limit value of the reference value in the object region for the image, as described above. When the luminance value of each pixel included in the object region is less than the upper limit value, the reference image acquisition unit 31 sets the image as the reference image for the illumination light source 11-1. The reference image acquisition unit 31 stores the reference image in the storage unit 22 in association with the identification information for identifying the illumination light source 11-1 and the emission luminance of the illumination light source 11-1 at the time of generating the reference image. On the other hand, when the luminance value of any of the pixels included in the object region reaches the upper limit value, the reference image acquisition unit 31 controls the control signal so as to further decrease the emission luminance of the illumination light source 11-1 by a predetermined value. And the control signal is output to the light source driving unit 12 via the communication unit 21.

基準画像取得部31は、基準画像が求められるか、照明光源11−1の発光輝度がその最小値となるまで、上記の処理を繰り返す。そして照明光源11−1の発光輝度がその最小値となったときに得られた画像についても、物体領域内の画素の何れかの輝度値が上限値に達している場合、基準画像取得部31は、その画像を基準画像の一つとする。さらに、この場合、基準画像取得部31は、照明光源11−1について、もう一つ基準画像を取得する。具体的に、基準画像取得部31は、照明光源11−1の発光輝度をその最小輝度から所定値だけ高くする制御信号を生成し、その制御信号を通信部21を介して光源駆動部12へ出力する。そして基準画像取得部31は、照明光源11−1が最小輝度から所定値だけ高くなった発光輝度で発光し、かつ、他の照明光源が消灯している状態で、撮像部13に対象物16を撮像させる。そして基準画像取得部31は、撮像部13から得られた画像を基準画像の他の一つとする。そして基準画像取得部31は、得られた二つの基準画像を、照明光源11−1を識別するための識別情報及び基準画像生成時の照明光源11−1の発光輝度と関連付けて記憶部22に保存する。   The reference image acquisition unit 31 repeats the above processing until a reference image is obtained or the light emission luminance of the illumination light source 11-1 reaches the minimum value. Also, for any image obtained when the light emission luminance of the illumination light source 11-1 reaches its minimum value, if any luminance value of the pixels in the object region has reached the upper limit value, the reference image acquisition unit 31 Uses the image as one of the reference images. Furthermore, in this case, the reference image acquisition unit 31 acquires another reference image for the illumination light source 11-1. Specifically, the reference image acquisition unit 31 generates a control signal that increases the emission luminance of the illumination light source 11-1 by a predetermined value from the minimum luminance, and transmits the control signal to the light source driving unit 12 via the communication unit 21. Output. Then, the reference image acquisition unit 31 emits light with the light emission luminance that the illumination light source 11-1 has increased by a predetermined value from the minimum luminance and the other illumination light sources are turned off. To image. The reference image acquisition unit 31 sets the image obtained from the imaging unit 13 as another one of the reference images. Then, the reference image acquisition unit 31 associates the obtained two reference images with the identification information for identifying the illumination light source 11-1 and the emission luminance of the illumination light source 11-1 at the time of generating the reference image in the storage unit 22. save.

仮想画像生成部32は、複数の照明光源11−1〜11−nのそれぞれについて、対応する基準画像に基づいて、指定された照明条件に応じた発光輝度となるときの対象物16の画像である仮想画像を生成する。   The virtual image generation unit 32 is an image of the object 16 when the light emission luminance is in accordance with the designated illumination condition based on the corresponding reference image for each of the plurality of illumination light sources 11-1 to 11-n. A virtual image is generated.

なお、仮想画像生成部32は、各照明光源に対して同一の処理を実行するので、以下では、照明光源11−1に対する処理について説明する。   In addition, since the virtual image generation part 32 performs the same process with respect to each illumination light source, below, the process with respect to the illumination light source 11-1 is demonstrated.

対象物16の反射率は一定と想定される。また、撮像部13のイメージセンサも、受光強度に対してリニアな特性を持つと想定される。そのため、照明光源11−1について基準画像が1枚だけ生成されている場合、すなわち、基準画像の物体領域内で輝度値が飽和した画素が存在しない場合、仮想画像生成部32は、仮想画像上の任意の画素Aの輝度値f(Pm,A)を、次式に従って算出する。
ここで、Pnは、基準画像生成時における、照明光源11−1の発光輝度であり、Pmは、照明条件にて指定された発光輝度である。そしてf(Pn,A)は、基準画像上の画素Aの輝度値である。ただし、(1)式で算出された輝度値f(Pm,A)が輝度値の上限値を超える場合、輝度値f(Pm,A)はその上限値に設定される。
The reflectance of the object 16 is assumed to be constant. The image sensor of the imaging unit 13 is also assumed to have a linear characteristic with respect to the received light intensity. Therefore, when only one reference image is generated for the illumination light source 11-1, that is, when there is no pixel with a saturated luminance value in the object region of the reference image, the virtual image generation unit 32 performs the operation on the virtual image. The luminance value f (Pm, A) of any pixel A is calculated according to the following equation.
Here, Pn is the light emission luminance of the illumination light source 11-1 at the time of generating the reference image, and Pm is the light emission luminance specified by the illumination condition. F (Pn, A) is the luminance value of the pixel A on the reference image. However, when the luminance value f (Pm, A) calculated by the equation (1) exceeds the upper limit value of the luminance value, the luminance value f (Pm, A) is set to the upper limit value.

一方、照明光源11−1について基準画像が2枚生成されている場合、照明光源11−1が最小輝度で発光しても、基準画像の物体領域内で輝度値が飽和した画素が存在する。そこでこの場合、仮想画像生成部32は、仮想画像上の任意の画素Aの輝度値f(Pm,A)を、次式に従った線形補間により算出する。
ここで、Paは、照明光源11−1の最小輝度であり、Pbは、基準画像生成時における、最小輝度から所定値だけ高くなった発光輝度である。そしてf(Pa,A)は、二つの基準画像のうちの、照明光源11−1が最小輝度で発光しているときの基準画像上の画素Aの輝度値であり、f(Pb,A)は、他方の基準画像上の画素Aの輝度値である。ただし、(2)式で算出された輝度値f(Pm,A)が輝度値の上限値を超える場合、輝度値f(Pm,A)はその上限値に設定される。
On the other hand, when two reference images are generated for the illumination light source 11-1, even if the illumination light source 11-1 emits light with the minimum luminance, there is a pixel with a saturated luminance value in the object region of the reference image. Therefore, in this case, the virtual image generation unit 32 calculates the luminance value f (Pm, A) of an arbitrary pixel A on the virtual image by linear interpolation according to the following equation.
Here, Pa is the minimum luminance of the illumination light source 11-1, and Pb is the emission luminance that is higher by a predetermined value than the minimum luminance at the time of generating the reference image. F (Pa, A) is a luminance value of the pixel A on the reference image when the illumination light source 11-1 emits light with the minimum luminance of the two reference images, and f (Pb, A) Is the luminance value of the pixel A on the other reference image. However, when the luminance value f (Pm, A) calculated by the equation (2) exceeds the upper limit value of the luminance value, the luminance value f (Pm, A) is set to the upper limit value.

図4(a)は、基準画像が2枚生成されている場合における、発光輝度が最小輝度Paである基準画像の所定の画素列における、輝度値のプロファイルの一例を表す。図4(b)は、発光輝度が輝度Pbである他方の基準画像における、図4(a)と同じ画素列における、輝度値のプロファイルの一例を表す。図4(a)及び図4(b)において、横軸は基準画像上の位置を表し、縦軸は、輝度値(撮像部13のイメージセンサの受光強度に対応)を表す。そしてプロファイル401は、発光輝度が最小輝度Paである基準画像上での所定の画素列における、画素ごとの輝度値を表す。一方、プロファイル402は、発光輝度が輝度Pbである他方の基準画像上でのその画素列における、画素ごとの輝度値を表す。   FIG. 4A illustrates an example of a luminance value profile in a predetermined pixel column of the reference image having the light emission luminance of the minimum luminance Pa when two reference images are generated. FIG. 4B shows an example of a luminance value profile in the same pixel column as that in FIG. 4A in the other reference image whose emission luminance is the luminance Pb. 4A and 4B, the horizontal axis represents the position on the reference image, and the vertical axis represents the luminance value (corresponding to the received light intensity of the image sensor of the imaging unit 13). A profile 401 represents a luminance value for each pixel in a predetermined pixel row on the reference image whose emission luminance is the minimum luminance Pa. On the other hand, the profile 402 represents a luminance value for each pixel in the pixel row on the other reference image whose emission luminance is the luminance Pb.

図4(a)及び図4(b)に示される例では、位置Bの近傍にて、輝度値(b、b’)が飽和している。一方、位置Aでは、何れの基準画像についても、輝度値(a、a’)は飽和していない。同様に、位置Cでも、何れの基準画像についても、輝度値(c、c’)は飽和していない。ただし、最小輝度Paで照明光源が発光している場合、位置Aにおける輝度値a及び位置Cにおける輝度値cは、非常に低い値になっている。そのため、輝度値a及び輝度値cは、環境光などによる影響を受け易くなっている。また、プロファイル401及びプロファイル402に示されるように、発光輝度が輝度Pbである他方の基準画像の方が、輝度値が飽和している範囲が広くなっている。   In the example shown in FIGS. 4A and 4B, the luminance values (b, b ′) are saturated in the vicinity of the position B. On the other hand, at position A, the luminance values (a, a ′) are not saturated for any reference image. Similarly, at position C, the luminance values (c, c ′) are not saturated for any reference image. However, when the illumination light source emits light with the minimum luminance Pa, the luminance value a at the position A and the luminance value c at the position C are very low values. Therefore, the luminance value a and the luminance value c are easily affected by ambient light or the like. Further, as shown in the profile 401 and the profile 402, the other reference image whose emission luminance is the luminance Pb has a wider range in which the luminance value is saturated.

図4(c)は、基準画像が2枚生成されている場合における、各基準画像の輝度値と、仮想画像の対応画素の輝度値との関係を示す図である。図4(c)において、横軸は照明光源の発光輝度を表し、縦軸は、基準画像または仮想画像上の画素の輝度値を表す。そして直線411は、位置Aについての、発光輝度Pmと(2)式に従って算出される仮想画像上の輝度値の関係を表す。同様に、直線412及び直線413は、それぞれ、位置B、位置Cについての、発光輝度Pmと(2)式に従って算出される仮想画像上の輝度値の関係を表す。   FIG. 4C is a diagram illustrating a relationship between the luminance value of each reference image and the luminance value of the corresponding pixel of the virtual image when two reference images are generated. In FIG. 4C, the horizontal axis represents the light emission luminance of the illumination light source, and the vertical axis represents the luminance value of the pixel on the reference image or virtual image. A straight line 411 represents the relationship between the light emission luminance Pm and the luminance value on the virtual image calculated according to the equation (2) for the position A. Similarly, the straight line 412 and the straight line 413 represent the relationship between the light emission luminance Pm and the luminance value on the virtual image calculated according to the equation (2) for the position B and the position C, respectively.

各直線で示されるように、発光輝度Pmにおける、仮想画像の輝度値f(Pm,X)(ただし、X∈A,C)は、複数の発光輝度(この例では、Pa及びPb)での基準画像上の対応画素の輝度値に基づいて算出される。したがって、発光輝度Paにおける輝度a、輝度cが低く、環境光による影響を受ける場合でも、仮想画像生成部32は、比較的正確に、発光輝度変化に応じた画像上での輝度変化を推定できる。そのため、仮想画像生成部32は、任意の発光輝度Pmについて、仮想画像上での輝度値f(Pm,X)も比較的正確に推定できる。なお、位置Bのように、最小輝度Paでも基準画像上での輝度値が飽和している画素については、任意の発光輝度Pmにおける仮想画像上の輝度値f(Pm,X)も飽和してしまい、正確には推定されない。しかし、本実施形態では、一方の基準画像について、発光輝度を最小輝度Paとしているので、基準画像上で輝度値が飽和している画素の数も最小化される。そのため、仮想画像生成部32は、仮想画像において輝度値が正確に推定されない画素の数を減らすことができる。   As indicated by each line, the luminance value f (Pm, X) (where X∈A, C) of the virtual image at the emission luminance Pm is a plurality of emission luminances (Pa and Pb in this example). It is calculated based on the luminance value of the corresponding pixel on the reference image. Therefore, even when the luminance a and luminance c at the light emission luminance Pa are low and affected by the ambient light, the virtual image generation unit 32 can estimate the luminance change on the image according to the light emission luminance change relatively accurately. . Therefore, the virtual image generation unit 32 can relatively accurately estimate the luminance value f (Pm, X) on the virtual image for any light emission luminance Pm. Note that for a pixel whose luminance value on the reference image is saturated even at the minimum luminance Pa, such as the position B, the luminance value f (Pm, X) on the virtual image at an arbitrary emission luminance Pm is also saturated. Therefore, it is not estimated accurately. However, in the present embodiment, since the emission luminance is set to the minimum luminance Pa for one reference image, the number of pixels whose luminance values are saturated on the reference image is also minimized. Therefore, the virtual image generation unit 32 can reduce the number of pixels whose luminance values are not accurately estimated in the virtual image.

仮想画像生成部32は、着目する照明光源について、対象物16の表面に対する照明光源以外の環境光などの光源による影響が小さく、物体領域内に含まれる各画素の輝度値が上限値未満の基準画像が1枚だけ生成されている場合、仮想画像の物体領域内の各画素について、(1)式に従って輝度値を算出する。一方、仮想画像生成部32は、着目する照明光源について、基準画像が2枚生成されている場合、仮想画像の物体領域内の各画素について、(2)式に従って輝度値を算出する。これにより、仮想画像生成部32は、物体領域内に輝度値が飽和している画素が含まれず、対象物16の表面に対する照明光源以外の環境光などの光源による影響が小さい場合には、仮想画像の作成に要する演算量を削減できるとともに、物体領域内に輝度値が飽和している画素が含まれる場合または対象物16の表面に対する照明光源以外の環境光などの光源による影響が小さくない場合には、より正確な仮想画像を作成できる。そして仮想画像生成部32は、各照明光源の仮想画像を合成画像生成部33へ渡す。   The virtual image generation unit 32 has a small influence on the surface of the object 16 due to light sources other than the illumination light source, such as ambient light, and the luminance value of each pixel included in the object region is less than the upper limit. When only one image is generated, the luminance value is calculated according to the expression (1) for each pixel in the object area of the virtual image. On the other hand, when two reference images are generated for the illumination light source of interest, the virtual image generation unit 32 calculates a luminance value for each pixel in the object area of the virtual image according to the equation (2). As a result, the virtual image generation unit 32 does not include a pixel whose luminance value is saturated in the object region, and the virtual image generation unit 32 performs virtual processing when the influence of light sources such as ambient light other than the illumination light source on the surface of the object 16 is small. When the amount of calculation required to create an image can be reduced, and when the object area includes pixels with saturated luminance values, or when the influence of light sources such as ambient light other than the illumination light source on the surface of the object 16 is not small Can create a more accurate virtual image. Then, the virtual image generation unit 32 passes a virtual image of each illumination light source to the composite image generation unit 33.

合成画像生成部33は、指定された照明条件で各照明光源が点灯した場合に撮像部13により得られる画像を仮想的に表す合成画像を、その照明条件に対応する、各照明光源についての仮想画像に基づいて生成する。   The composite image generation unit 33 displays a composite image that virtually represents an image obtained by the imaging unit 13 when each illumination light source is turned on under the designated illumination condition, and corresponds to the illumination condition. Generate based on image.

例えば、合成画像生成部33は、指定された照明条件に応じて生成された各照明光源についての仮想画像の物体領域について、対応画素間で輝度値の和を算出することで、合成画像を生成する。なお、合成画像生成部33は、指定された照明条件において、消灯することが指定された照明光源についての仮想画像を、合成画像の生成に利用しなくてもよい。そして合成画像生成部33は、生成した合成画像を評価値算出部34へ渡す。   For example, the composite image generation unit 33 generates a composite image by calculating the sum of luminance values between corresponding pixels for the object region of the virtual image for each illumination light source generated according to the specified illumination condition. To do. Note that the composite image generation unit 33 does not have to use the virtual image for the illumination light source designated to be turned off under the designated illumination condition for the generation of the composite image. Then, the composite image generation unit 33 passes the generated composite image to the evaluation value calculation unit 34.

評価値算出部34は、合成画像に基づいて、指定された照明条件の適切さを表す評価値を算出する。本実施形態では、評価値算出部34は、合成画像から対象物16を正確に認識できる可能性が高いほど、評価値が高くなるように、評価値を算出する。   The evaluation value calculation unit 34 calculates an evaluation value representing the appropriateness of the designated illumination condition based on the composite image. In the present embodiment, the evaluation value calculation unit 34 calculates the evaluation value such that the higher the possibility that the object 16 can be accurately recognized from the composite image, the higher the evaluation value.

図5は、合成画像の一例を示す図である。上記のように、本実施形態では、対象物16は、支持体の一例である部品トレイ、及び、部品トレイ上に載置された部品である。そのため、合成画像500には、部品トレイ501と、1個以上の部品502とが写っている。また、部品トレイ501には、部品502を載置するためのポケット503が複数設けられている。各ポケット503は、物品配置位置の一例である。合成画像500に示されるように、照明条件を設定するために利用される、サンプルとなる対象物16では、部品トレイ501上の所定位置のポケット503にのみ、実際に部品502が載置され、所定位置以外のポケット503には部品502は載置されていない。すなわち、部品トレイ501が有するポケット503の数よりも少ない数の部品502が部品トレイ501上に載置されている。例えば、図5に示される例では、部品トレイ501の各コーナーに位置するポケット503と、中心のポケット503に部品502が載置されており、他のポケット503には、部品502は載置されていない。   FIG. 5 is a diagram illustrating an example of a composite image. As described above, in the present embodiment, the object 16 is a component tray that is an example of a support and a component placed on the component tray. Therefore, the composite image 500 includes a component tray 501 and one or more components 502. The component tray 501 is provided with a plurality of pockets 503 for placing components 502. Each pocket 503 is an example of an article placement position. As shown in the composite image 500, in the target object 16 that is used for setting the illumination condition, the component 502 is actually placed only in the pocket 503 at a predetermined position on the component tray 501, The component 502 is not placed in the pocket 503 other than the predetermined position. That is, a smaller number of components 502 than the number of pockets 503 included in the component tray 501 are placed on the component tray 501. For example, in the example shown in FIG. 5, the component 502 is placed in the pocket 503 located at each corner of the component tray 501 and the central pocket 503, and the component 502 is placed in the other pocket 503. Not.

そこで、評価値算出部34は、部品トレイ501のポケット503ごとに、部品502を表すテンプレートと合成画像との間でテンプレートマッチングを行うことにより、ポケット503ごとに正規化相互相関値を算出する。なお、テンプレート、及び、部品トレイ501上で部品502が載置されたポケット503の位置及び部品502が載置されていないポケット503の位置は、予め記憶部22に記憶される。また、正規化相互相関値は、一致度の一例である。   Therefore, the evaluation value calculation unit 34 calculates a normalized cross-correlation value for each pocket 503 by performing template matching between the template representing the component 502 and the composite image for each pocket 503 of the component tray 501. The template and the position of the pocket 503 where the component 502 is placed on the component tray 501 and the position of the pocket 503 where the component 502 is not placed are stored in the storage unit 22 in advance. The normalized cross correlation value is an example of the degree of coincidence.

部品トレイ501は、ステージ15上の予め設定された位置に置かれるので、合成画像上での各ポケット503の範囲も既知となる。そこで評価値算出部34は、ポケット503ごとに、そのポケットに対応する合成画像上の領域とテンプレートとの相対的な位置関係を変えながら正規化相互相関値を算出する。そして評価値算出部34は、算出した正規化相互相関値のうちの最大値を、そのポケットについての正規化相互相関値とすればよい。   Since the component tray 501 is placed at a preset position on the stage 15, the range of each pocket 503 on the composite image is also known. Therefore, the evaluation value calculation unit 34 calculates the normalized cross-correlation value for each pocket 503 while changing the relative positional relationship between the region on the composite image corresponding to the pocket and the template. Then, the evaluation value calculation unit 34 may set the maximum value among the calculated normalized cross-correlation values as the normalized cross-correlation value for the pocket.

評価値算出部34は、例えば、部品502が載置されていない各ポケット503について算出された正規化相互相関値の第1の代表値を算出する。また評価値算出部34は、部品502が載置されている各ポケット503について算出された正規化相互相関値の第2の代表値を算出する。そして評価値算出部34は、第1の代表値に対する第2の代表値の比を評価値とする。   The evaluation value calculation unit 34 calculates, for example, a first representative value of the normalized cross-correlation value calculated for each pocket 503 on which the component 502 is not placed. The evaluation value calculation unit 34 also calculates a second representative value of the normalized cross-correlation value calculated for each pocket 503 on which the component 502 is placed. Then, the evaluation value calculation unit 34 sets the ratio of the second representative value to the first representative value as the evaluation value.

なお、評価値算出部34は、第1の代表値として、例えば、部品502が載置されていない各ポケット503について算出された正規化相互相関値のうちの最大値CFmaxを算出してもよい。また評価値算出部34は、第2の代表値として、例えば、部品502が載置されている各ポケット503について算出された正規化相互相関値のうちの最小値CTminを算出してもよい。この場合、評価値算出部34は、評価値として、比(CTmin/CFmax)を算出する。   The evaluation value calculation unit 34 may calculate, for example, the maximum value CFmax among the normalized cross-correlation values calculated for each pocket 503 on which the component 502 is not placed as the first representative value. . Further, the evaluation value calculation unit 34 may calculate, for example, the minimum value CTmin among the normalized cross-correlation values calculated for each pocket 503 on which the component 502 is placed as the second representative value. In this case, the evaluation value calculation unit 34 calculates a ratio (CTmin / CFmax) as the evaluation value.

あるいは、評価値算出部34は、第1の代表値として、部品502が載置されていない各ポケット503について算出された正規化相互相関値の平均値または中央値を算出してもよい。同様に、評価値算出部34は、第2の代表値として、部品502が載置されている各ポケット503について算出された正規化相互相関値の平均値または中央値を算出してもよい。   Alternatively, the evaluation value calculation unit 34 may calculate an average value or a median value of normalized cross-correlation values calculated for each pocket 503 on which the component 502 is not placed as the first representative value. Similarly, the evaluation value calculation unit 34 may calculate an average value or median value of normalized cross-correlation values calculated for each pocket 503 on which the component 502 is placed as the second representative value.

合成画像上で部品502の有無を正確に判定するには、実際に部品502が載置されているポケット503についての正規化相互相関値はできるだけ高いことが好ましい。一方、部品502が載置されていないポケット503についての正規化相互相関値はできるだけ低いことが好ましい。したがって、評価値が大きな値となるほど、合成画像上で部品502の有無を正確に判定できることが分かる。   In order to accurately determine the presence or absence of the component 502 on the composite image, it is preferable that the normalized cross-correlation value for the pocket 503 in which the component 502 is actually placed is as high as possible. On the other hand, the normalized cross-correlation value for the pocket 503 on which the part 502 is not placed is preferably as low as possible. Therefore, it can be seen that the larger the evaluation value, the more accurately the presence / absence of the component 502 can be determined on the composite image.

なお、変形例によれば、評価値算出部34は、第2の代表値から第1の代表値を減じて得られる差、例えば、(CTmin-CFmax)を評価値としてもよい。   According to the modification, the evaluation value calculation unit 34 may use a difference obtained by subtracting the first representative value from the second representative value, for example, (CTmin−CFmax) as the evaluation value.

あるいは、評価値算出部34は、部品の有無を誤ったポケットの数を評価値としてもよい。この場合には、評価値算出部34は、部品502が載置されていない各ポケット503のうち、そのポケットについて算出された正規化相互相関値が所定の閾値以上となるポケットの数n1をカウントする。同様に、評価値算出部34は、部品502が載置された各ポケット503のうち、そのポケットについて算出された正規化相互相関値が所定の閾値未満となるポケットの数n2をカウントする。そして評価値算出部34は、それらの数の合計(n1+n2)を評価値とする。なお、所定の閾値は、実際にポケットに部品があるか否かを判定するために利用される閾値とすることができる。   Alternatively, the evaluation value calculation unit 34 may use the number of pockets in which the presence or absence of a component is wrong as the evaluation value. In this case, the evaluation value calculation unit 34 counts the number n1 of the pockets in which the normalized cross-correlation value calculated for the pocket is not less than a predetermined threshold among the pockets 503 on which the component 502 is not placed. To do. Similarly, the evaluation value calculation unit 34 counts the number n2 of pockets in which the normalized cross-correlation value calculated for each pocket is less than a predetermined threshold among the pockets 503 on which the component 502 is placed. Then, the evaluation value calculation unit 34 sets the total of those numbers (n1 + n2) as the evaluation value. Note that the predetermined threshold value can be a threshold value used to determine whether or not there is actually a component in the pocket.

あるいはまた、評価値算出部34は、各ポケット503について、正規化相互相関値を算出する代わりに、一致度の他の例として、誤差二乗和を算出してもよい。この場合、評価値算出部34は、第1の代表値として、例えば、部品502が載置されていない各ポケット503について算出された誤差二乗和のうちの最小値SFminを算出してもよい。また評価値算出部34は、第2の代表値として、例えば、部品502が載置されている各ポケット503について算出された誤差二乗和のうちの最大値STmaxを算出してもよい。そして評価値算出部34は、評価値として、(SFmin-STmax)を算出してもよい。   Alternatively, the evaluation value calculation unit 34 may calculate a sum of squared errors as another example of the degree of matching instead of calculating a normalized cross-correlation value for each pocket 503. In this case, the evaluation value calculation unit 34 may calculate, as the first representative value, for example, the minimum value SFmin of the error sum of squares calculated for each pocket 503 on which the component 502 is not placed. Further, the evaluation value calculation unit 34 may calculate, for example, the maximum value STmax of the error square sum calculated for each pocket 503 on which the component 502 is placed as the second representative value. Then, the evaluation value calculation unit 34 may calculate (SFmin-STmax) as the evaluation value.

評価値算出部34は、指定された照明条件と関連付けて評価値を記憶部22に保存する。   The evaluation value calculation unit 34 stores the evaluation value in the storage unit 22 in association with the designated illumination condition.

照明条件設定部35は、複数の照明条件のうち、対応する評価値が最も良好となる値に対応する照明条件を、設定する照明条件として選択する。例えば、評価値が(CTmin/CFmax)、(CTmin-CFmax)または(SFmin-STmax)である場合、照明条件設定部35は、評価値が最大となるときに対応する照明条件を、設定する照明条件として決定する。あるいは、評価値が部品の有無の検知に失敗したポケットの数(n1+n2)である場合、照明条件設定部35は、評価値が最小となるときに対応する照明条件を、設定する照明条件として決定する。   The illumination condition setting unit 35 selects, as the illumination condition to be set, the illumination condition that corresponds to the value that provides the best corresponding evaluation value among the plurality of illumination conditions. For example, when the evaluation value is (CTmin / CFmax), (CTmin-CFmax), or (SFmin-STmax), the illumination condition setting unit 35 sets the illumination condition corresponding to the maximum evaluation value. Determine as a condition. Alternatively, when the evaluation value is the number of pockets (n1 + n2) in which the presence / absence of the component has failed to be detected, the illumination condition setting unit 35 sets the illumination condition corresponding to the evaluation value that is minimum. Determine as.

図6は、照明条件設定処理の動作フローチャートである。
基準画像取得部31は、複数の照明光源11−1〜11−nのそれぞれについて、撮像部13から基準画像を取得する(ステップS101)。その際、基準画像取得部31は、最小輝度で発光しても画像上の物体領域内に輝度値が飽和する画素が含まれる照明光源については、発光輝度が異なる2枚の基準画像を取得する。
FIG. 6 is an operation flowchart of the illumination condition setting process.
The reference image acquisition unit 31 acquires a reference image from the imaging unit 13 for each of the plurality of illumination light sources 11-1 to 11-n (step S101). At that time, the reference image acquisition unit 31 acquires two reference images having different emission luminances for an illumination light source including a pixel whose luminance value is saturated in the object region on the image even if light is emitted with the minimum luminance. .

次に、処理部23は、予め用意される複数の照明条件の中から着目する照明条件を指定する(ステップS102)。なお、2回目以降では、処理部23は、既に評価値を算出した照明条件とは異なる照明条件を指定する。   Next, the processing unit 23 designates a lighting condition of interest from among a plurality of lighting conditions prepared in advance (step S102). In the second and subsequent times, the processing unit 23 specifies an illumination condition different from the illumination condition for which the evaluation value has already been calculated.

仮想画像生成部32は、複数の照明光源11−1〜11−nのそれぞれについて、指定された照明条件に従って、基準画像に基づいて仮想画像を生成する(ステップS103)。その際、仮想画像生成部32は、最小輝度でも輝度値が飽和する画素がある照明光源については2枚の基準画像から仮想画像を生成し、その他の照明光源については1枚の基準画像から仮想画像を生成する。そして合成画像生成部33は、複数の照明光源11−1〜11−nのそれぞれについて生成された仮想画像について、物体領域内の対応画素間で輝度値の和を算出することで合成画像を生成する(ステップS104)。   The virtual image generation unit 32 generates a virtual image based on the reference image for each of the plurality of illumination light sources 11-1 to 11-n according to the designated illumination condition (step S103). At that time, the virtual image generation unit 32 generates a virtual image from two reference images for an illumination light source having a pixel whose luminance value is saturated even at the minimum luminance, and generates a virtual image from one reference image for the other illumination light sources. Generate an image. Then, the composite image generation unit 33 generates a composite image by calculating the sum of luminance values between corresponding pixels in the object region for the virtual images generated for each of the plurality of illumination light sources 11-1 to 11-n. (Step S104).

評価値算出部34は、合成画像に基づいて、指定された照明条件に対する評価値を算出する(ステップS105)。そして評価値算出部34は、指定された照明条件とともに評価値を記憶部22に保存する。   The evaluation value calculation unit 34 calculates an evaluation value for the designated illumination condition based on the composite image (step S105). Then, the evaluation value calculation unit 34 stores the evaluation value in the storage unit 22 together with the designated illumination condition.

処理部23は、全ての照明条件について評価値を算出したか否か判定する(ステップS106)。何れかの照明条件について評価値が算出されていない場合(ステップS106−No)、処理部23は、ステップS102以降の処理を繰り返す。   The processing unit 23 determines whether or not evaluation values have been calculated for all illumination conditions (step S106). When the evaluation value is not calculated for any of the lighting conditions (No at Step S106), the processing unit 23 repeats the processes after Step S102.

一方、全ての照明条件について評価値が算出されている場合(ステップS106−Yes)、照明条件設定部35は、評価値が最良となる照明条件を特定し、その特定した照明条件を、設定する照明条件と決定する(ステップS107)。そして照明条件設定部35は、設定した照明条件を記憶部22に保存する。その後、処理部23は、照明条件設定処理を終了する。   On the other hand, when the evaluation values are calculated for all the illumination conditions (step S106—Yes), the illumination condition setting unit 35 identifies the illumination condition that provides the best evaluation value, and sets the identified illumination condition. The illumination condition is determined (step S107). The illumination condition setting unit 35 stores the set illumination condition in the storage unit 22. Thereafter, the processing unit 23 ends the illumination condition setting process.

設定された照明条件は、組み立て工程または検査工程などが実行される場合に利用される。例えば、組み立て工程の実行中、処理部23は、設定された照明条件に応じた発光輝度で各照明光源を点灯または消灯する。そしてその工程の実行中、撮像部13は、一定の周期ごとに対象物16を撮像して対象物16が表された画像を生成し、その画像を制御装置14へ出力する。そして処理部23は、その画像に基づいて、評価値算出部34による処理と同様に、部品トレイのポケットごとにテンプレートマッチングを実行して、ポケットごとに正規化相互相関値を算出する。そして処理部23は、ポケットごとに、正規化相互相関値を所定の閾値と比較し、その正規化相互相関値が所定の閾値以上である場合に、そのポケットに部品が有ると判定する。処理部23は、部品が有ると判定されたポケットの数を算出し、その数を、制御装置14と通信ネットワークを介して接続された他の装置へ出力する。あるいは、処理部23は、その数が閾値(例えば、部品トレイが有するポケットの総数の1/10)以下となった場合に、その数を他の装置へ出力してもよい。   The set illumination conditions are used when an assembly process or an inspection process is executed. For example, during the execution of the assembly process, the processing unit 23 turns on or off each illumination light source with light emission luminance corresponding to the set illumination condition. Then, during the execution of the process, the imaging unit 13 captures the object 16 at regular intervals, generates an image representing the object 16, and outputs the image to the control device 14. Then, the processing unit 23 executes template matching for each pocket of the component tray based on the image, and calculates a normalized cross-correlation value for each pocket. Then, the processing unit 23 compares the normalized cross-correlation value with a predetermined threshold value for each pocket, and determines that there is a part in the pocket when the normalized cross-correlation value is equal to or greater than the predetermined threshold value. The processing unit 23 calculates the number of pockets determined to have parts, and outputs the number to other devices connected to the control device 14 via the communication network. Alternatively, when the number becomes equal to or less than a threshold value (for example, 1/10 of the total number of pockets that the component tray has), the processing unit 23 may output the number to another device.

以上に説明してきたように、この照明条件設定装置は、各照明光源について所定の発光輝度で点灯させたときの対象物の画像を基準画像として生成し、その基準画像に基づいて、様々な照明条件で対象物を照明したときの画像に相当する合成画像を生成する。そしてこの照明条件設定装置は、照明条件ごとに、合成画像に基づいて照明条件の適切さを表す評価値を算出し、その評価値が最良となったときの照明条件を、設定する照明条件として決定する。そのため、この照明条件設定装置は、照明条件を指定する度に、対象物を撮影し直す必要が無いので、照明条件を設定するための工数を削減できる。さらに、この照明条件設定装置は、発光輝度が最小の場合でも、画像上の物体領域内に輝度値が飽和する画素が含まれる照明光源については、発光輝度が異なる二つの基準画像を生成する。そのため、この照明条件設定装置は、その二つの基準画像に基づいて指定された照明条件に応じた仮想画像を生成するので、輝度値が飽和する画素が含まれる場合でも、より適切な仮想画像を生成できるので、適切な照明条件を設定できる。   As described above, this illumination condition setting device generates an image of an object when each illumination light source is turned on with a predetermined light emission luminance as a reference image, and various illuminations are generated based on the reference image. A composite image corresponding to an image when the object is illuminated under conditions is generated. And this illumination condition setting device calculates an evaluation value representing the appropriateness of the illumination condition based on the composite image for each illumination condition, and sets the illumination condition when the evaluation value is the best as the illumination condition to be set decide. For this reason, the illumination condition setting device does not need to re-photograph the object every time the illumination condition is specified, and therefore the man-hour for setting the illumination condition can be reduced. Further, the illumination condition setting device generates two reference images having different emission luminances for an illumination light source including pixels whose luminance values are saturated in the object region on the image even when the emission luminance is minimum. Therefore, since this illumination condition setting device generates a virtual image according to the illumination condition designated based on the two reference images, a more appropriate virtual image can be obtained even when a pixel whose luminance value is saturated is included. Since it can generate | occur | produce, an appropriate lighting condition can be set.

なお、複数の照明光源のうちの何れかの照明光源について、照明光源の位置または向きを変更可能な場合がある。このような場合、基準画像取得部31は、照明光源の位置ごと、あるいは、向きごとに、上記の実施形態と同様に基準画像を生成すればよい。そしてこの場合には、各照明条件には、照明光源の位置または向きも含まれる。そのため、仮想画像生成部32は、指定された照明条件における照明光源の位置または向きに対応する基準画像に基づいて、仮想画像を生成すればよい。   In some cases, the position or orientation of the illumination light source can be changed for any one of the plurality of illumination light sources. In such a case, the reference image acquisition unit 31 may generate a reference image in the same manner as in the above embodiment for each position or direction of the illumination light source. In this case, each illumination condition includes the position or orientation of the illumination light source. Therefore, the virtual image generation unit 32 may generate a virtual image based on the reference image corresponding to the position or orientation of the illumination light source under the designated illumination condition.

なお、最小輝度で発光しても物体領域内に輝度値が飽和する画素が含まれる照明光源について、発光輝度を最小輝度よりも所定値だけ高くしても輝度値が飽和する画素の数が変わらないことがある。このような照明光源については、基準画像取得部31は、二つの基準画像の両方について、照明光源の発光輝度を、最小輝度よりも高くしてもよい。これにより、基準画像における各画素の輝度値が照明光源の発光輝度が最小輝度である場合の各画素の輝度値よりも高くなるので、基準画像における、環境光の影響が軽減される。また、照明光源自体または環境光による照明輝度の実際のゆらぎを反映するため、上述の基準画像の各画素の輝度値として、実際に複数回撮像を行って得られた画像間の各対応画素の平均値が用いられてもよい。あるいは、実際に観測した輝度値のゆらぎ範囲を参考にして、基準画像の各画素の輝度値は仮想画像生成時に調整されてもよい。   Note that for an illumination light source that includes pixels whose luminance value is saturated within the object area even when light is emitted at the minimum luminance, the number of pixels whose luminance value is saturated changes even if the emission luminance is higher than the minimum luminance by a predetermined value. There may not be. For such an illumination light source, the reference image acquisition unit 31 may make the emission luminance of the illumination light source higher than the minimum luminance for both of the two reference images. As a result, the luminance value of each pixel in the reference image is higher than the luminance value of each pixel when the emission luminance of the illumination light source is the minimum luminance, thereby reducing the influence of ambient light on the reference image. In addition, in order to reflect the actual fluctuation of the illumination brightness due to the illumination light source itself or the ambient light, the brightness value of each pixel of the above-described reference image is used as the brightness value of each corresponding pixel between images obtained by actually performing imaging a plurality of times. An average value may be used. Alternatively, the luminance value of each pixel of the reference image may be adjusted when the virtual image is generated with reference to the actually observed fluctuation range of the luminance value.

さらに、最小輝度で発光しても物体領域内に輝度値が飽和する画素が含まれる照明光源について、基準画像取得部31は、撮像時の発光輝度が異なる3枚以上の基準画像を生成してもよい。そして仮想画像生成部32は、仮想画像の各画素の輝度値を、各基準画像における対応画素の輝度値に基づく線形補間あるいはスプライン補間処理を実行することで算出してもよい。   Further, for an illumination light source that includes a pixel whose luminance value is saturated in the object region even if light is emitted at the minimum luminance, the reference image acquisition unit 31 generates three or more reference images having different emission luminances at the time of imaging. Also good. The virtual image generation unit 32 may calculate the luminance value of each pixel of the virtual image by executing linear interpolation or spline interpolation processing based on the luminance value of the corresponding pixel in each reference image.

また、処理部23は、照明条件設定処理で利用される各基準画像については、輝度値の階調数を、組み立て工程あるいは検査工程の実行中において撮像部13により取得された画像における、輝度値の階調数よりも多くしてもよい。これにより、合成画像において、指定された照明条件での対象物16の照明状況がより忠実に表される。   In addition, for each reference image used in the illumination condition setting process, the processing unit 23 determines the number of gradations of the luminance value in the image acquired by the imaging unit 13 during the assembly process or the inspection process. The number of gradations may be increased. Thereby, in the composite image, the illumination state of the object 16 under the designated illumination condition is more faithfully represented.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
複数の照明光源のうち、設定可能な発光輝度の最小値で対象物を照明した場合において前記対象物を撮像部により撮像して得られる画像上の前記対象物に相当する領域内で輝度値が飽和する画素が含まれる第1の照明光源について、第1の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第1の基準画像と、前記第1の発光輝度と異なる第2の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第2の基準画像とを記憶し、一方、前記複数の照明光源のうち、前記第1の照明光源以外の第2の照明光源について、第3の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第3の基準画像を記憶する記憶部と、
複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれごとに、当該照明光源が当該照明条件に応じた発光輝度で前記対象物を照明した場合の前記対象物についての仮想画像を生成する仮想画像生成部と、
前記複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれについて生成された前記仮想画像について対応画素間の輝度値の和を合成画像の対応画素の輝度値として算出することで前記合成画像を生成する合成画像生成部と、
前記複数の照明条件のそれぞれについての前記合成画像に基づいて、前記複数の照明条件のうちの何れかを選択する照明条件設定部と、
を有し、
前記仮想画像生成部は、前記第1の照明光源についての前記仮想画像を、前記第1の基準画像及び前記第2の基準画像に基づいて生成し、一方、前記第2の照明光源についての前記仮想画像を、前記第3の基準画像に基づいて生成する、
照明条件設定装置。
(付記2)
前記仮想画像生成部は、前記第1の照明光源についての前記仮想画像の各画素の輝度値を、前記第1の基準画像及び前記第2の基準画像の対応画素の輝度値の補間により算出することで当該仮想画像を生成し、一方、前記第2の照明光源についての前記仮想画像の各画素の輝度値を、前記第3の基準画像の対応画素の輝度値に基づいて算出することで当該仮想画像を生成する、付記1に記載の照明条件設定装置。
(付記3)
前記複数の照明条件のそれぞれについて、当該照明条件に対応する前記合成画像に基づいて当該照明条件の適切さを表す評価値を算出する評価値算出部をさらに有し、
前記照明条件設定部は、前記複数の照明条件のうち、前記評価値が最良となる照明条件を選択する、付記1または2に記載の照明条件設定装置。
(付記4)
前記対象物は、第1の数の物品配置位置を有する支持体と、前記第1の数の物品配置位置のうち、前記第1の数よりも少ない第2の数の物品とを含み、前記第2の数の物品のそれぞれは、前記第1の数の物品配置位置の何れかに配置され、
前記記憶部は、前記物品を表すテンプレート及び前記第1の数の物品配置位置のうちの前記第2の物品が配置された物品配置位置をさらに記憶し、
前記評価値算出部は、前記複数の照明条件のそれぞれについて、当該照明条件に対応する前記合成画像において、前記第1の数の物品配置位置のそれぞれごとに前記テンプレートを用いたテンプレートマッチングにより一致度を算出し、前記物品が配置されていない物品配置位置について算出された前記一致度の第1の代表値と、前記物品が配置された物品配置位置について算出された前記一致度の第2の代表値との比または差を前記評価値として算出する、付記1〜3の何れかに記載の照明条件設定装置。
(付記5)
前記対象物は、第1の数の物品配置位置を有する支持体と、前記第1の数の物品配置位置のうち、前記第1の数よりも少ない第2の数の物品とを含み、前記第2の数の物品のそれぞれは、前記第1の数の物品配置位置の何れかに配置され、
前記記憶部は、前記第1の数の物品配置位置のうちの前記第2の物品が配置された物品配置位置をさらに記憶し、
前記評価値算出部は、前記複数の照明条件のそれぞれについて、当該照明条件に対応する前記合成画像において、前記第1の数の物品配置位置のそれぞれごとに前記物品を検出できるか否か判定し、前記物品が配置されていない前記物品配置位置のうち、前記物品が検出された物品配置位置の数と、前記物品が配置された前記物品配置位置のうち、前記物品が検出されていない物品配置位置の数との合計を前記評価値として算出する、付記1〜3の何れかに記載の照明条件設定装置。
(付記6)
前記第1の発光輝度は前記第1の照明光源の発光輝度の最小値である、付記1〜5の何れかに記載の照明条件設定装置。
(付記7)
複数の照明条件のそれぞれについて、複数の照明光源のそれぞれごとに、当該照明光源が当該照明条件に応じた発光輝度で対象物を照明した場合の前記対象物についての仮想画像を生成し、
前記複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれについて生成された前記仮想画像について対応画素間の輝度値の和を合成画像の対応画素の輝度値として算出することで前記合成画像を生成し、
前記複数の照明条件のそれぞれについての前記合成画像に基づいて、前記複数の照明条件のうちの何れかを選択する、
ことを含み、
前記仮想画像を生成することは、
前記複数の照明光源のうち、設定可能な発光輝度の最小値で前記対象物を照明した場合において前記対象物を撮像部により撮像して得られる画像上の前記対象物に相当する領域内で輝度値が飽和する画素が含まれる第1の照明光源についての前記仮想画像を、前記第1の照明光源が第1の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第1の基準画像と、前記第1の照明光源が前記第1の発光輝度と異なる第2の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第2の基準画像とに基づいて生成し、
前記複数の照明光源のうち、前記第1の照明光源以外の第2の照明光源についての前記仮想画像を、当該第2の照明光源が第3の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第3の基準画像に基づいて生成することを含む、
照明条件設定方法。
(付記8)
複数の照明条件のそれぞれについて、複数の照明光源のそれぞれごとに、当該照明光源が当該照明条件に応じた発光輝度で対象物を照明した場合の前記対象物についての仮想画像を生成し、
前記複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれについて生成された前記仮想画像について対応画素間の輝度値の和を合成画像の対応画素の輝度値として算出することで前記合成画像を生成し、
前記複数の照明条件のそれぞれについての前記合成画像に基づいて、前記複数の照明条件の何れかを選択する、
ことをコンピュータに実行させ、
前記仮想画像を生成することは、
前記複数の照明光源のうち、設定可能な発光輝度の最小値で前記対象物を照明した場合において前記対象物を撮像部により撮像して得られる画像上の前記対象物に相当する領域内で輝度値が飽和する画素が含まれる第1の照明光源についての前記仮想画像を、前記第1の照明光源が第1の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第1の基準画像と、前記第1の照明光源が前記第1の発光輝度と異なる第2の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第2の基準画像とに基づいて生成し、
前記複数の照明光源のうち、前記第1の照明光源以外の第2の照明光源についての前記仮想画像を、当該第2の照明光源が第3の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第3の基準画像に基づいて生成することを含む、
照明条件設定用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
When a target is illuminated with a minimum settable emission luminance among a plurality of illumination light sources, the luminance value is within a region corresponding to the target on an image obtained by imaging the target with an imaging unit. A first reference image obtained by illuminating the object with a first light emission luminance and picking up an image by the image pickup unit with respect to a first illumination light source including a saturated pixel, and the first light emission luminance The second reference image obtained by illuminating the object with a second light emission brightness different from that of the second image and capturing an image by the imaging unit, while the first illumination light source among the plurality of illumination light sources is stored. For a second illumination light source other than the illumination light source, a storage unit that illuminates the object with a third emission luminance and stores a third reference image obtained by imaging with the imaging unit;
For each of a plurality of illumination conditions, for each of the plurality of illumination light sources, a virtual image that generates a virtual image of the object when the illumination light source illuminates the object with a light emission luminance corresponding to the illumination condition. An image generator;
For each of the plurality of illumination conditions, the composite image is calculated by calculating a sum of luminance values between corresponding pixels for the virtual image generated for each of the plurality of illumination light sources as a luminance value of the corresponding pixel of the composite image. A composite image generation unit to generate;
An illumination condition setting unit that selects any of the plurality of illumination conditions based on the composite image for each of the plurality of illumination conditions;
Have
The virtual image generation unit generates the virtual image for the first illumination light source based on the first reference image and the second reference image, whereas the virtual image generation unit generates the virtual image for the second illumination light source. Generating a virtual image based on the third reference image;
Lighting condition setting device.
(Appendix 2)
The virtual image generation unit calculates a luminance value of each pixel of the virtual image for the first illumination light source by interpolation of luminance values of corresponding pixels of the first reference image and the second reference image. The virtual image is generated, and the luminance value of each pixel of the virtual image for the second illumination light source is calculated based on the luminance value of the corresponding pixel of the third reference image. The illumination condition setting device according to appendix 1, which generates a virtual image.
(Appendix 3)
For each of the plurality of illumination conditions, further comprising an evaluation value calculation unit that calculates an evaluation value representing the appropriateness of the illumination condition based on the composite image corresponding to the illumination condition,
The illumination condition setting device according to appendix 1 or 2, wherein the illumination condition setting unit selects an illumination condition in which the evaluation value is the best among the plurality of illumination conditions.
(Appendix 4)
The object includes a support having a first number of article arrangement positions, and a second number of articles less than the first number among the first number of article arrangement positions, Each of the second number of articles is disposed at any of the first number of article placement positions,
The storage unit further stores an article arrangement position where the second article among the template representing the article and the first number of article arrangement positions is arranged,
For each of the plurality of illumination conditions, the evaluation value calculation unit includes a degree of matching by template matching using the template for each of the first number of article placement positions in the composite image corresponding to the illumination condition. And a first representative value of the degree of coincidence calculated for the article arrangement position where the article is not arranged, and a second representative of the degree of coincidence calculated for the article arrangement position where the article is arranged The illumination condition setting device according to any one of appendices 1 to 3, wherein a ratio or difference with a value is calculated as the evaluation value.
(Appendix 5)
The object includes a support having a first number of article arrangement positions, and a second number of articles less than the first number among the first number of article arrangement positions, Each of the second number of articles is disposed at any of the first number of article placement positions,
The storage unit further stores an article arrangement position at which the second article among the first number of article arrangement positions is arranged,
The evaluation value calculation unit determines, for each of the plurality of illumination conditions, whether or not the article can be detected for each of the first number of article placement positions in the composite image corresponding to the illumination condition. The number of the article arrangement positions where the article is detected among the article arrangement positions where the article is not arranged, and the article arrangement where the article is not detected among the article arrangement positions where the article is arranged The illumination condition setting device according to any one of appendices 1 to 3, wherein a total with the number of positions is calculated as the evaluation value.
(Appendix 6)
The illumination condition setting device according to any one of appendices 1 to 5, wherein the first emission luminance is a minimum value of the emission luminance of the first illumination light source.
(Appendix 7)
For each of a plurality of illumination conditions, for each of a plurality of illumination light sources, generate a virtual image about the object when the illumination light source illuminates the object with a light emission luminance according to the illumination condition,
For each of the plurality of illumination conditions, the composite image is calculated by calculating a sum of luminance values between corresponding pixels for the virtual image generated for each of the plurality of illumination light sources as a luminance value of the corresponding pixel of the composite image. Generate
Selecting one of the plurality of illumination conditions based on the composite image for each of the plurality of illumination conditions;
Including
Generating the virtual image includes
Among the plurality of illumination light sources, when the object is illuminated with a minimum value of light emission luminance that can be set, the luminance within an area corresponding to the object on an image obtained by imaging the object by an imaging unit The virtual image of the first illumination light source including pixels whose values are saturated is obtained by the first illumination light source illuminating the object with a first emission luminance and captured by the imaging unit. A second reference image obtained by illuminating the object with a second light emission luminance different from the first light emission luminance and imaged by the imaging unit. Based on the reference image,
Of the plurality of illumination light sources, the virtual image of a second illumination light source other than the first illumination light source is illuminated with the second illumination light source illuminating the object with a third emission luminance; and Generating based on a third reference image obtained by imaging by the imaging unit,
Lighting condition setting method.
(Appendix 8)
For each of a plurality of illumination conditions, for each of a plurality of illumination light sources, generate a virtual image about the object when the illumination light source illuminates the object with a light emission luminance according to the illumination condition,
For each of the plurality of illumination conditions, the composite image is calculated by calculating a sum of luminance values between corresponding pixels for the virtual image generated for each of the plurality of illumination light sources as a luminance value of the corresponding pixel of the composite image. Generate
Selecting any of the plurality of illumination conditions based on the composite image for each of the plurality of illumination conditions;
Let the computer do
Generating the virtual image includes
Among the plurality of illumination light sources, when the object is illuminated with a minimum value of light emission luminance that can be set, the luminance within an area corresponding to the object on an image obtained by imaging the object by an imaging unit The virtual image of the first illumination light source including pixels whose values are saturated is obtained by the first illumination light source illuminating the object with a first emission luminance and captured by the imaging unit. A second reference image obtained by illuminating the object with a second light emission luminance different from the first light emission luminance and imaged by the imaging unit. Based on the reference image,
Of the plurality of illumination light sources, the virtual image of a second illumination light source other than the first illumination light source is illuminated with the second illumination light source illuminating the object with a third emission luminance; and Generating based on a third reference image obtained by imaging by the imaging unit,
Computer program for setting lighting conditions.

1 照明条件設定装置
11−1〜11−n 照明光源
12 光源駆動部
13 撮像部
14 制御装置
15 ステージ
16 対象物
21 通信部
22 記憶部
23 処理部
31 基準画像取得部
32 仮想画像生成部
33 合成画像生成部
34 評価値算出部
35 照明条件設定部
DESCRIPTION OF SYMBOLS 1 Illumination condition setting apparatus 11-1 to 11-n Illumination light source 12 Light source drive part 13 Imaging part 14 Control apparatus 15 Stage 16 Object 21 Communication part 22 Storage part 23 Processing part 31 Reference image acquisition part 32 Virtual image generation part 33 Synthesis | combination Image generation unit 34 Evaluation value calculation unit 35 Illumination condition setting unit

Claims (6)

複数の照明光源のうち、設定可能な発光輝度の最小値で対象物を照明した場合において前記対象物を撮像部により撮像して得られる画像上の前記対象物に相当する領域内で輝度値が飽和する画素が含まれる第1の照明光源について、第1の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第1の基準画像と、前記第1の発光輝度と異なる第2の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第2の基準画像とを記憶し、一方、前記複数の照明光源のうち、前記第1の照明光源以外の第2の照明光源について、第3の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第3の基準画像を記憶する記憶部と、
複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれごとに、当該照明光源が当該照明条件に応じた発光輝度で前記対象物を照明した場合の前記対象物についての仮想画像を生成する仮想画像生成部と、
前記複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれについて生成された前記仮想画像について対応画素間の輝度値の和を合成画像の対応画素の輝度値として算出することで前記合成画像を生成する合成画像生成部と、
前記複数の照明条件のそれぞれについての前記合成画像に基づいて、前記複数の照明条件の何れかを選択する照明条件設定部と、
を有し、
前記仮想画像生成部は、前記第1の照明光源についての前記仮想画像を、前記第1の基準画像及び前記第2の基準画像に基づいて生成し、一方、前記第2の照明光源についての前記仮想画像を、前記第3の基準画像に基づいて生成する、
照明条件設定装置。
When a target is illuminated with a minimum settable emission luminance among a plurality of illumination light sources, the luminance value is within a region corresponding to the target on an image obtained by imaging the target with an imaging unit. A first reference image obtained by illuminating the object with a first light emission luminance and picking up an image by the image pickup unit with respect to a first illumination light source including a saturated pixel, and the first light emission luminance The second reference image obtained by illuminating the object with a second light emission brightness different from that of the second image and capturing an image by the imaging unit, while the first illumination light source among the plurality of illumination light sources is stored. For a second illumination light source other than the illumination light source, a storage unit that illuminates the object with a third emission luminance and stores a third reference image obtained by imaging with the imaging unit;
For each of a plurality of illumination conditions, for each of the plurality of illumination light sources, a virtual image that generates a virtual image of the object when the illumination light source illuminates the object with a light emission luminance corresponding to the illumination condition. An image generator;
For each of the plurality of illumination conditions, the composite image is calculated by calculating a sum of luminance values between corresponding pixels for the virtual image generated for each of the plurality of illumination light sources as a luminance value of the corresponding pixel of the composite image. A composite image generation unit to generate;
An illumination condition setting unit that selects any of the plurality of illumination conditions based on the composite image for each of the plurality of illumination conditions;
Have
The virtual image generation unit generates the virtual image for the first illumination light source based on the first reference image and the second reference image, whereas the virtual image generation unit generates the virtual image for the second illumination light source. Generating a virtual image based on the third reference image;
Lighting condition setting device.
前記仮想画像生成部は、前記第1の照明光源についての前記仮想画像の各画素の輝度値を、前記第1の基準画像及び前記第2の基準画像の対応画素の輝度値の補間により算出することで当該仮想画像を生成し、一方、前記第2の照明光源についての前記仮想画像の各画素の輝度値を、前記第3の基準画像の対応画素の輝度値に基づいて算出することで当該仮想画像を生成する、請求項1に記載の照明条件設定装置。   The virtual image generation unit calculates a luminance value of each pixel of the virtual image for the first illumination light source by interpolation of luminance values of corresponding pixels of the first reference image and the second reference image. The virtual image is generated, and the luminance value of each pixel of the virtual image for the second illumination light source is calculated based on the luminance value of the corresponding pixel of the third reference image. The illumination condition setting device according to claim 1, which generates a virtual image. 前記複数の照明条件のそれぞれについて、当該照明条件に対応する前記合成画像に基づいて当該照明条件の適切さを表す評価値を算出する評価値算出部をさらに有し、
前記照明条件設定部は、前記複数の照明条件のうち、前記評価値が最良となる照明条件を選択する、請求項1または2に記載の照明条件設定装置。
For each of the plurality of illumination conditions, further comprising an evaluation value calculation unit that calculates an evaluation value representing the appropriateness of the illumination condition based on the composite image corresponding to the illumination condition,
The illumination condition setting device according to claim 1, wherein the illumination condition setting unit selects an illumination condition that provides the best evaluation value among the plurality of illumination conditions.
前記対象物は、第1の数の物品配置位置を有する支持体と、前記第1の数の物品配置位置のうち、前記第1の数よりも少ない第2の数の物品とを含み、前記第2の数の物品のそれぞれは、前記第1の数の物品配置位置の何れかに配置され、
前記記憶部は、前記物品を表すテンプレート及び前記第1の数の物品配置位置のうちの前記第2の物品が配置された物品配置位置をさらに記憶し、
前記評価値算出部は、前記複数の照明条件のそれぞれについて、当該照明条件に対応する前記合成画像において、前記第1の数の物品配置位置のそれぞれごとに前記テンプレートを用いたテンプレートマッチングにより一致度を算出し、前記物品が配置されていない物品配置位置について算出された前記一致度の第1の代表値と、前記物品が配置された物品配置位置について算出された前記一致度の第2の代表値との比または差を前記評価値として算出する、請求項1〜3の何れか一項に記載の照明条件設定装置。
The object includes a support having a first number of article arrangement positions, and a second number of articles less than the first number among the first number of article arrangement positions, Each of the second number of articles is disposed at any of the first number of article placement positions,
The storage unit further stores an article arrangement position where the second article among the template representing the article and the first number of article arrangement positions is arranged,
For each of the plurality of illumination conditions, the evaluation value calculation unit includes a degree of matching by template matching using the template for each of the first number of article placement positions in the composite image corresponding to the illumination condition. And a first representative value of the degree of coincidence calculated for the article arrangement position where the article is not arranged, and a second representative of the degree of coincidence calculated for the article arrangement position where the article is arranged The illumination condition setting device according to any one of claims 1 to 3, wherein a ratio or a difference with a value is calculated as the evaluation value.
複数の照明条件のそれぞれについて、複数の照明光源のそれぞれごとに、当該照明光源が当該照明条件に応じた発光輝度で対象物を照明した場合の前記対象物についての仮想画像を生成し、
前記複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれについて生成された前記仮想画像について対応画素間の輝度値の和を合成画像の対応画素の輝度値として算出することで前記合成画像を生成し、
前記複数の照明条件のそれぞれについての前記合成画像に基づいて、前記複数の照明条件の何れかを選択する、
ことを含み、
前記仮想画像を生成することは、
前記複数の照明光源のうち、設定可能な発光輝度の最小値で前記対象物を照明した場合において前記対象物を撮像部により撮像して得られる画像上の前記対象物に相当する領域内で輝度値が飽和する画素が含まれる第1の照明光源についての前記仮想画像を、前記第1の照明光源が第1の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第1の基準画像と、前記第1の照明光源が前記第1の発光輝度と異なる第2の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第2の基準画像とに基づいて生成し、
前記複数の照明光源のうち、前記第1の照明光源以外の第2の照明光源についての前記仮想画像を、当該第2の照明光源が第3の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第3の基準画像に基づいて生成することを含む、
照明条件設定方法。
For each of a plurality of illumination conditions, for each of a plurality of illumination light sources, generate a virtual image about the object when the illumination light source illuminates the object with a light emission luminance according to the illumination condition,
For each of the plurality of illumination conditions, the composite image is calculated by calculating a sum of luminance values between corresponding pixels for the virtual image generated for each of the plurality of illumination light sources as a luminance value of the corresponding pixel of the composite image. Generate
Selecting any of the plurality of illumination conditions based on the composite image for each of the plurality of illumination conditions;
Including
Generating the virtual image includes
Among the plurality of illumination light sources, when the object is illuminated with a minimum value of light emission luminance that can be set, the luminance within an area corresponding to the object on an image obtained by imaging the object by an imaging unit The virtual image of the first illumination light source including pixels whose values are saturated is obtained by the first illumination light source illuminating the object with a first emission luminance and captured by the imaging unit. A second reference image obtained by illuminating the object with a second light emission luminance different from the first light emission luminance and imaged by the imaging unit. Based on the reference image,
Of the plurality of illumination light sources, the virtual image of a second illumination light source other than the first illumination light source is illuminated with the second illumination light source illuminating the object with a third emission luminance; and Generating based on a third reference image obtained by imaging by the imaging unit,
Lighting condition setting method.
複数の照明条件のそれぞれについて、複数の照明光源のそれぞれごとに、当該照明光源が当該照明条件に応じた発光輝度で対象物を照明した場合の前記対象物についての仮想画像を生成し、
前記複数の照明条件のそれぞれについて、前記複数の照明光源のそれぞれについて生成された前記仮想画像について対応画素間の輝度値の和を合成画像の対応画素の輝度値として算出することで前記合成画像を生成し、
前記複数の照明条件のそれぞれについての前記合成画像に基づいて、前記複数の照明条件の何れかを選択する、
ことをコンピュータに実行させ、
前記仮想画像を生成することは、
前記複数の照明光源のうち、設定可能な発光輝度の最小値で前記対象物を照明した場合において前記対象物を撮像部により撮像して得られる画像上の前記対象物に相当する領域内で輝度値が飽和する画素が含まれる第1の照明光源についての前記仮想画像を、前記第1の照明光源が第1の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第1の基準画像と、前記第1の照明光源が前記第1の発光輝度と異なる第2の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第2の基準画像とに基づいて生成し、
前記複数の照明光源のうち、前記第1の照明光源以外の第2の照明光源についての前記仮想画像を、当該第2の照明光源が第3の発光輝度で前記対象物を照明し、かつ、前記撮像部により撮像して得られる第3の基準画像に基づいて生成することを含む、
照明条件設定用コンピュータプログラム。
For each of a plurality of illumination conditions, for each of a plurality of illumination light sources, generate a virtual image about the object when the illumination light source illuminates the object with a light emission luminance according to the illumination condition,
For each of the plurality of illumination conditions, the composite image is calculated by calculating a sum of luminance values between corresponding pixels for the virtual image generated for each of the plurality of illumination light sources as a luminance value of the corresponding pixel of the composite image. Generate
Selecting any of the plurality of illumination conditions based on the composite image for each of the plurality of illumination conditions;
Let the computer do
Generating the virtual image includes
Among the plurality of illumination light sources, when the object is illuminated with a minimum value of light emission luminance that can be set, the luminance within an area corresponding to the object on an image obtained by imaging the object by an imaging unit The virtual image of the first illumination light source including pixels whose values are saturated is obtained by the first illumination light source illuminating the object with a first emission luminance and captured by the imaging unit. A second reference image obtained by illuminating the object with a second light emission luminance different from the first light emission luminance and imaged by the imaging unit. Based on the reference image,
Of the plurality of illumination light sources, the virtual image of a second illumination light source other than the first illumination light source is illuminated with the second illumination light source illuminating the object with a third emission luminance; and Generating based on a third reference image obtained by imaging by the imaging unit,
Computer program for setting lighting conditions.
JP2016038021A 2016-02-29 2016-02-29 Lighting condition setting device, lighting condition setting method, and lighting condition setting computer program Active JP6601264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016038021A JP6601264B2 (en) 2016-02-29 2016-02-29 Lighting condition setting device, lighting condition setting method, and lighting condition setting computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016038021A JP6601264B2 (en) 2016-02-29 2016-02-29 Lighting condition setting device, lighting condition setting method, and lighting condition setting computer program

Publications (2)

Publication Number Publication Date
JP2017156161A true JP2017156161A (en) 2017-09-07
JP6601264B2 JP6601264B2 (en) 2019-11-06

Family

ID=59808615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016038021A Active JP6601264B2 (en) 2016-02-29 2016-02-29 Lighting condition setting device, lighting condition setting method, and lighting condition setting computer program

Country Status (1)

Country Link
JP (1) JP6601264B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI676796B (en) * 2018-02-23 2019-11-11 日商歐姆龍股份有限公司 Visual inspection device and illumination condition setting method of visual inspection device
JP2021018086A (en) * 2019-07-18 2021-02-15 レボックス株式会社 Optical system design information management system
WO2021084773A1 (en) * 2019-10-29 2021-05-06 オムロン株式会社 Image processing system, setting method, and program
CN115877555A (en) * 2023-02-13 2023-03-31 南京木木西里科技有限公司 Microscope illumination simulation system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220058A (en) * 1991-07-12 1995-08-18 Omron Corp Method and device for supporting illumination condition setting
JP2002197448A (en) * 2000-12-15 2002-07-12 Mitsutoyo Corp System/method for image measurement, recording medium used for the same, carrier transmitter and carrier receiver
JP2006228789A (en) * 2005-02-15 2006-08-31 Yamaha Motor Co Ltd Method and apparatus of acquiring image, surface mounting machine, solder printer for printed circuit board, wafer chip feeder, electronic part transfer device, and appearance inspection apparatus for electronic part
JP2008104010A (en) * 2006-10-19 2008-05-01 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program
JP2010014530A (en) * 2008-07-03 2010-01-21 Omron Corp Substrate visual inspection method and substrate visual inspecting device
JP2011163766A (en) * 2010-02-04 2011-08-25 Omron Corp Image processing method and image processing system
JP2014067102A (en) * 2012-09-24 2014-04-17 Fujitsu Ltd Visual line detection device, computer program for visual line detection and display device
JP2016538008A (en) * 2013-09-30 2016-12-08 ケアストリーム ヘルス インク Intraoral imaging method and system using HDR imaging and removing highlights

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220058A (en) * 1991-07-12 1995-08-18 Omron Corp Method and device for supporting illumination condition setting
JP2002197448A (en) * 2000-12-15 2002-07-12 Mitsutoyo Corp System/method for image measurement, recording medium used for the same, carrier transmitter and carrier receiver
JP2006228789A (en) * 2005-02-15 2006-08-31 Yamaha Motor Co Ltd Method and apparatus of acquiring image, surface mounting machine, solder printer for printed circuit board, wafer chip feeder, electronic part transfer device, and appearance inspection apparatus for electronic part
JP2008104010A (en) * 2006-10-19 2008-05-01 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program
JP2010014530A (en) * 2008-07-03 2010-01-21 Omron Corp Substrate visual inspection method and substrate visual inspecting device
JP2011163766A (en) * 2010-02-04 2011-08-25 Omron Corp Image processing method and image processing system
JP2014067102A (en) * 2012-09-24 2014-04-17 Fujitsu Ltd Visual line detection device, computer program for visual line detection and display device
JP2016538008A (en) * 2013-09-30 2016-12-08 ケアストリーム ヘルス インク Intraoral imaging method and system using HDR imaging and removing highlights

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI676796B (en) * 2018-02-23 2019-11-11 日商歐姆龍股份有限公司 Visual inspection device and illumination condition setting method of visual inspection device
US10805552B2 (en) 2018-02-23 2020-10-13 Omron Corporation Visual inspection device and illumination condition setting method of visual inspection device
JP2021018086A (en) * 2019-07-18 2021-02-15 レボックス株式会社 Optical system design information management system
JP7274208B2 (en) 2019-07-18 2023-05-16 レボックス株式会社 Optical system design information management system
WO2021084773A1 (en) * 2019-10-29 2021-05-06 オムロン株式会社 Image processing system, setting method, and program
JP7342616B2 (en) 2019-10-29 2023-09-12 オムロン株式会社 Image processing system, setting method and program
CN115877555A (en) * 2023-02-13 2023-03-31 南京木木西里科技有限公司 Microscope illumination simulation system

Also Published As

Publication number Publication date
JP6601264B2 (en) 2019-11-06

Similar Documents

Publication Publication Date Title
JP6139017B2 (en) Method for determining characteristics of light source and mobile device
JP6601264B2 (en) Lighting condition setting device, lighting condition setting method, and lighting condition setting computer program
US10416086B2 (en) Image inspection device
JP6917762B2 (en) Image inspection equipment
US8363929B2 (en) Shape measurement apparatus and calibration method
JP2019168285A (en) Image processing device
US20140015417A1 (en) Lighting control system
US20150208057A1 (en) Device for generating depth information, method for generating depth information, and stereo camera
JP6981775B2 (en) Image inspection equipment and image inspection method
CN110677949A (en) Lamp control method and system and electronic equipment
JP2003202214A (en) Shape measuring device and shape measuring method
JP2012115505A (en) Visual line detection device and visual line detection method
JP7056131B2 (en) Image processing system, image processing program, and image processing method
US20200258246A1 (en) Inspection Device
US20200258244A1 (en) Inspection Device
JP6102079B2 (en) Projection apparatus, projection method, and program
JP2012149946A (en) Inspection device, inspection method and program
KR20150111627A (en) control system and method of perforamance stage using indexing of objects
US20180130230A1 (en) Recognition apparatus, determination method, and article manufacturing method
WO2019170688A1 (en) System for measuring skin pores
JP6432968B2 (en) Object shape estimation apparatus and program
JP2014078857A (en) Imaging apparatus, imaging method and imaging program
US10859506B2 (en) Image processing system for processing image data generated in different light emission states, non-transitory computer readable recording medium, and image processing method
JP2021090133A (en) Monitoring system and monitoring method
US20210084215A1 (en) Image capture device, image capture method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190923

R150 Certificate of patent or registration of utility model

Ref document number: 6601264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150