WO2022044673A1 - Image processing device, inspection system, and inspection method - Google Patents

Image processing device, inspection system, and inspection method Download PDF

Info

Publication number
WO2022044673A1
WO2022044673A1 PCT/JP2021/027936 JP2021027936W WO2022044673A1 WO 2022044673 A1 WO2022044673 A1 WO 2022044673A1 JP 2021027936 W JP2021027936 W JP 2021027936W WO 2022044673 A1 WO2022044673 A1 WO 2022044673A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
lighting
image data
imaging
condition
Prior art date
Application number
PCT/JP2021/027936
Other languages
French (fr)
Japanese (ja)
Inventor
和真 島軒
Original Assignee
マクセルフロンティア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセルフロンティア株式会社 filed Critical マクセルフロンティア株式会社
Publication of WO2022044673A1 publication Critical patent/WO2022044673A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • an inspection system including an imaging device (typically a camera) that captures an image of an inspection object and a lighting device that irradiates the inspection object with light to assist the imaging by the camera is known.
  • the lighting device includes, for example, a halogen lamp light source, an LED light source, etc., and can adjust lighting conditions such as brightness and color (R, G, B, IR, etc.) so that an image of an inspection object can be clearly captured. It has become.
  • the adjustment of lighting conditions is usually done manually by the user of the device. Therefore, there is a risk that the workload and working time of the user will increase when deriving the optimum value of the lighting condition.
  • the image processing device 18 is not limited to such an implementation form, and the form using FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit), or the like instead of the processor, or a PC (Personal Computer). Or the like may be used. Further, although not shown, the image processing apparatus 18 separately includes, for example, an image analyzer for performing image analysis associated with the inspection of the inspection object 20a and performing a quality determination or the like.
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • PC Personal Computer
  • the image processing apparatus 18 separately includes, for example, an image analyzer for performing image analysis associated with the inspection of the inspection object 20a and performing a quality determination or the like.
  • FIG. 5B shows a histogram showing the relationship between the pixel value (density) and the number of pixels for each pixel value.
  • a group of pixels having a pixel value equal to or less than the threshold value TH is classified into class [1] (that is, one of 0/1), which is larger than the threshold value TH.
  • the pixel group having the pixel value is classified into the class [2] (the other of 0/1).
  • the threshold value TH at which the separation degree S is maximized is searched for by calculating the separation degree S represented by the equation (1) while changing the threshold value TH.
  • S ⁇ b 2 / ⁇ w 2 ... (1)
  • the classification a classification model for guessing which class the input data belongs to in the learned class is used.
  • class classification for example, the lighting condition A predetermined as teacher data is output for the input of the image data 31 of the inspection object A at the time of learning, and the lighting condition A is output for the input of the image day 31 of the inspection object B.
  • Each feature amount, that is, a weighting coefficient is learned so as to output the lighting condition B defined in advance as teacher data.

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Provided are an image processing device, an inspection system, and an inspection method, with which are capable of reducing the work load of a user. An image processing device 18 processes image data for an inspection subject that has been photographed under illumination. An illumination condition searcher 26 variably sets an illumination condition ILC[i] for the illumination. An image interface 25 acquires image data IMD[i] for each illumination condition ILC[i]. An image analyzer 27 carries out image analysis on the image data IMD[i] for each illumination condition ILC[i]. A comparator 28 compares the image analysis result AR[i] from the image analyzer 27 for each illumination condition ILC[i] to select any one illumination condition ILCx among the plurality of illumination conditions ILC[i].

Description

画像処理装置、検査システムおよび検査方法Image processing equipment, inspection system and inspection method
 本発明は、画像処理装置、検査システムおよび検査方法に関し、例えば、検査対象物の画像に基づいて検査を行う技術に関する。 The present invention relates to an image processing device, an inspection system, and an inspection method, and relates to, for example, a technique for performing inspection based on an image of an inspection object.
 例えば、特許文献1には、プロジェクタ、透光性液晶ディスプレイ、撮像装置部および画像処理装置を含み、被照射体の形状や色彩に応じて高精細な演出照明を可能にする照明装置が示される。具体的には、被照射体には、プロジェクタからの光が透光性液晶ディスプレイを介して照射され、撮像装置部は、当該被照射体を撮像する。画像処理装置は、撮像装置部からの映像信号を処理し、被照射体の領域と被照射体以外の領域とを区別する。そして、画像処理装置は、被照射体以外の領域への照射をマスクキングするように透光性液晶ディスプレイを制御する。 For example, Patent Document 1 discloses a lighting device including a projector, a translucent liquid crystal display, an image pickup device unit, and an image processing device, which enables high-definition effect lighting according to the shape and color of an irradiated object. .. Specifically, the light from the projector is irradiated to the irradiated body through the translucent liquid crystal display, and the image pickup apparatus unit images the irradiated body. The image processing device processes the video signal from the image pickup device unit and distinguishes the region of the irradiated body from the region other than the irradiated body. Then, the image processing device controls the translucent liquid crystal display so as to mask the irradiation to the region other than the irradiated body.
 また、特許文献2には、部屋の電気画像を形成し得るCCDセンサと、CCDセンサの測定結果に応じて室内の照明を制御する制御手段とを有する照明制御装置が示される。 Further, Patent Document 2 discloses a lighting control device having a CCD sensor capable of forming an electrical image of a room and a control means for controlling the lighting in the room according to the measurement result of the CCD sensor.
特開平08-271985号公報Japanese Unexamined Patent Publication No. 08-271985 特表2004-501496号公報Japanese Patent Publication No. 2004-501496
 例えば、検査対象物を撮像する撮像装置(代表的にはカメラ)と、カメラによる撮像を補助するため、検査対象物に光を照射する照明装置とを備えた検査システムが知られている。照明装置は、例えば、ハロゲンランプ光源やLED光源等を含み、検査対象物の画像を鮮明に取り込めるように、輝度や色(R,G,B,IR等)等の照明条件を調整できるようになっている。しかし、照明条件の調整は、通常、装置のユーザによる手作業で行われている。このため、照明条件の最適値を導き出す際に、ユーザの作業負荷や作業時間が増大する恐れがあった。 For example, an inspection system including an imaging device (typically a camera) that captures an image of an inspection object and a lighting device that irradiates the inspection object with light to assist the imaging by the camera is known. The lighting device includes, for example, a halogen lamp light source, an LED light source, etc., and can adjust lighting conditions such as brightness and color (R, G, B, IR, etc.) so that an image of an inspection object can be clearly captured. It has become. However, the adjustment of lighting conditions is usually done manually by the user of the device. Therefore, there is a risk that the workload and working time of the user will increase when deriving the optimum value of the lighting condition.
 本発明は、このようなことに鑑みてなされたものであり、その目的の一つは、ユーザの作業負荷を軽減することが可能な画像処理装置、検査システムおよび検査方法を提供することにある。 The present invention has been made in view of the above, and one of the objects thereof is to provide an image processing device, an inspection system, and an inspection method capable of reducing a user's workload. ..
 本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other purposes and novel features of the invention will become apparent from the description and accompanying drawings herein.
 本発明の一実施の態様では、照明を当てた状態で撮像された検査対象物の画像データを処理する画像処理装置を設け、画像処理装置が、照明の照明条件を可変設定する照明条件探索器と、照明条件毎の画像データを取得する画像インタフェースと、照明条件毎の画像データに対して画像解析を行う画像解析器と、画像解析器による照明条件毎の画像解析結果を比較することで、複数の照明条件の中からいずれか一つの照明条件を選択する比較器と、を有する、ように構成されればよい。 In one embodiment of the present invention, an image processing device for processing image data of an inspection object captured in a illuminated state is provided, and the image processing device variably sets lighting conditions for lighting. By comparing the image interface that acquires the image data for each lighting condition, the image analyzer that analyzes the image data for each lighting condition, and the image analysis result for each lighting condition by the image analyzer. It may be configured to have a comparator that selects any one of the lighting conditions from a plurality of lighting conditions.
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば、ユーザの作業負荷を軽減することが可能になる。 By simply explaining the effects obtained by the representative inventions disclosed in the present application, it is possible to reduce the workload of the user.
本発明の実施の形態1による検査システムにおいて、主要部の構成例を示す概略図である。It is a schematic diagram which shows the structural example of the main part in the inspection system by Embodiment 1 of this invention. 図1における画像処理装置の主要部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the main part of the image processing apparatus in FIG. 図2の画像処理装置の処理内容の一例を示すフロー図である。It is a flow diagram which shows an example of the processing content of the image processing apparatus of FIG. 図2における画像解析器および比較器の動作例を説明する模式図である。It is a schematic diagram explaining the operation example of the image analyzer and the comparator in FIG. 図2および図4における画像解析器および比較器の処理内容の一例を示すフロー図である。2 is a flow chart showing an example of processing contents of the image analyzer and the comparator in FIGS. 2 and 4. 図5Aの補足図である。It is a supplementary view of FIG. 5A. 本発明の実施の形態2による画像処理装置において、図2における画像解析器および比較器の動作例を説明する模式図である。It is a schematic diagram explaining the operation example of the image analyzer and the comparator in FIG. 2 in the image processing apparatus according to Embodiment 2 of this invention. 図6において、画像解析器によるソーベルフィルタを用いたエッジ抽出方法の一例を説明する図である。FIG. 6 is a diagram illustrating an example of an edge extraction method using a sobel filter using an image analyzer. 本発明の実施の形態3による画像処理装置において、図2における画像解析器の構成例を示す概略図である。It is a schematic diagram which shows the structural example of the image analyzer in FIG. 2 in the image processing apparatus according to Embodiment 3 of this invention. 本発明の実施の形態4による検査システムにおいて、主要部の構成例を示す概略図である。It is a schematic diagram which shows the structural example of the main part in the inspection system according to Embodiment 4 of this invention. 本発明の実施の形態5による検査システムにおいて、一部の構成例を示す概略図である。It is a schematic diagram which shows some structural examples in the inspection system according to Embodiment 5 of this invention. 本発明の実施の形態6による画像処理装置において、主要部の構成例を示す概略図である。It is a schematic diagram which shows the structural example of the main part in the image processing apparatus according to Embodiment 6 of this invention.
 以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, in all the drawings for explaining the embodiment, the same members are designated by the same reference numerals in principle, and the repeated description thereof will be omitted.
 (実施の形態1)
 《検査システムの概略》
 図1は、本発明の実施の形態1による検査システムにおいて、主要部の構成例を示す概略図である。図1に示す検査システム10は、撮像装置15と、照明装置16と、照明制御装置17と、画像処理装置18とを有する。照明装置16は、例えば、ハロゲンランプ光源やLED(Light Emitting Diode)光源等を含み、検査対象物20aの画像を鮮明に取り込めるように、検査対象物20aに照明を当てる。
(Embodiment 1)
<< Outline of inspection system >>
FIG. 1 is a schematic view showing a configuration example of a main part in the inspection system according to the first embodiment of the present invention. The inspection system 10 shown in FIG. 1 includes an image pickup device 15, a lighting device 16, a lighting control device 17, and an image processing device 18. The lighting device 16 includes, for example, a halogen lamp light source, an LED (Light Emitting Diode) light source, and the like, and illuminates the inspection object 20a so that the image of the inspection object 20a can be clearly captured.
 撮像装置15は、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサまたはCCD(Charge Coupled Device)センサ等を含み、照明を当てた状態の検査対象物20aを撮像することで画像データIMDを作成する。画像処理装置18は、撮像装置15からの画像データIMDをケーブル19aを介して取得し、当該画像データIMDを処理する。一例として、画像処理装置18は、配線基板20b上に実装された電子部品(IC)20aの実装状態(例えば、ICの実装位置、ICリードのピッチや数等)を画像処理によって検査する。この場合、画像データIMDにおいて、配線基板20bは背景となり、電子部品20aは、検査対象物となる。 The image pickup device 15 includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, or the like, and creates an image data IMD by capturing an image of an inspection object 20a in an illuminated state. The image processing device 18 acquires the image data IMD from the image pickup device 15 via the cable 19a and processes the image data IMD. As an example, the image processing apparatus 18 inspects the mounting state of the electronic component (IC) 20a mounted on the wiring board 20b (for example, the mounting position of the IC, the pitch and number of IC leads, etc.) by image processing. In this case, in the image data IMD, the wiring board 20b is the background, and the electronic component 20a is the inspection target.
 さらに、詳細は後述するが、画像処理装置18は、照明装置16に対する照明条件ILCを可変設定しながら、対応する画像データIMDを処理することで、最適な照明条件ILCを探索する。照明制御装置17は、画像処理装置18からの照明条件ILCをケーブル19bを介して受信し、当該照明条件ILCに対応する照明制御信号ICSを送信する。照明装置16は、照明制御装置17からの照明制御信号ICSをケーブル19cを介して受信し、当該照明制御信号ICSに基づく光を生成して検査対象物20aに照射する。なお、照明制御装置17は、画像処理装置18または照明装置16と一体化された形態であってもよい。 Further, although the details will be described later, the image processing device 18 searches for the optimum lighting condition ILC by processing the corresponding image data IMD while variably setting the lighting condition ILC for the lighting device 16. The lighting control device 17 receives the lighting condition ILC from the image processing device 18 via the cable 19b, and transmits the lighting control signal ICS corresponding to the lighting condition ILC. The lighting device 16 receives the lighting control signal ICS from the lighting control device 17 via the cable 19c, generates light based on the lighting control signal ICS, and irradiates the inspection object 20a. The lighting control device 17 may be integrated with the image processing device 18 or the lighting device 16.
 ここで、一般的な検査システム10では、ケーブル19bは設けられず、照明条件ILCは、ユーザによる手作業によって照明制御装置17に設定される。すなわち、ユーザは、例えば、検査対象物20aの種類毎に、検査対象物20aの検査に先立って、照明条件ILCを適宜変更しながら、対応する画像データIMDの鮮明度を目視で評価する。そして、ユーザは、最も鮮明度が高くなる照明条件ILCを導き出す。しかし、このような方式では、ユーザの作業負荷や作業時間が増大し得る。 Here, in the general inspection system 10, the cable 19b is not provided, and the lighting condition ILC is manually set in the lighting control device 17 by the user. That is, for example, the user visually evaluates the sharpness of the corresponding image data IMD for each type of the inspection target 20a while appropriately changing the illumination condition ILC prior to the inspection of the inspection target 20a. Then, the user derives the illumination condition ILC having the highest sharpness. However, in such a method, the workload and working time of the user may increase.
 例えば、照明装置16が単色光源を用いる場合で、256階調の光量設定が可能な場合、照明条件ILCとして256個の選択肢が存在する。また、照明装置16が3色光源(R,G,B)を用いる場合で、それぞれ16階調の光量設定が可能な場合、照明条件ILCとして4096(=16)個の選択肢が存在する。ユーザは、照明条件ILCの選択肢毎に得られる画像データIMDを目視で比較する必要がある。さらに、このような作業負荷の問題に加えて、照明条件ILCの最適値を得るためには、ユーザの習熟度も必要とされる。そこで、実施の形態の画像処理装置18を用いることが有益となる。 For example, when the lighting device 16 uses a monochromatic light source and the light amount of 256 gradations can be set, there are 256 options as the lighting condition ILC. Further, when the lighting device 16 uses a three -color light source (R, G, B) and the light amount of 16 gradations can be set for each, there are 4096 (= 163) options as the lighting condition ILC. The user needs to visually compare the image data IMDs obtained for each lighting condition ILC option. Further, in addition to such a work load problem, a user's proficiency level is also required in order to obtain the optimum value of the lighting condition ILC. Therefore, it is beneficial to use the image processing apparatus 18 of the embodiment.
 《画像処理装置の詳細》
 図2は、図1における画像処理装置の主要部の構成例を示すブロック図である。図2に示す画像処理装置18は、画像インタフェース25と、照明条件探索器26と、画像解析器27と、比較器28と、メモリ29とを備える。照明条件探索器26は、照明装置16の照明条件ILC[i]を可変設定する。画像インタフェース25は、照明条件ILC[i]毎に、撮像装置15によって撮像および作成された検査対象物20aの画像データIMD[i]を取得し、当該画像データIMD[i]を照明条件ILC[i]に対応付けてメモリ29に保存する。
<< Details of image processing equipment >>
FIG. 2 is a block diagram showing a configuration example of a main part of the image processing apparatus in FIG. The image processing device 18 shown in FIG. 2 includes an image interface 25, a lighting condition searcher 26, an image analyzer 27, a comparator 28, and a memory 29. The lighting condition searcher 26 variably sets the lighting condition ILC [i] of the lighting device 16. The image interface 25 acquires the image data IMD [i] of the inspection object 20a imaged and created by the image pickup apparatus 15 for each illumination condition ILC [i], and uses the image data IMD [i] as the illumination condition ILC [i]. It is saved in the memory 29 in association with i].
 画像解析器27は、メモリ29に保存された照明条件ILC[i]毎の画像データIMD[i]に対して画像解析を行い、その画像解析結果AR[i]を照明条件ILC[i]に対応付けてメモリ29に保存する。比較器28は、メモリ29に保存された照明条件ILC[i]毎の画像解析結果AR[i]を比較することで、複数の照明条件ILC[i]の中からいずれか一つの照明条件ILCxを選択する。そして、比較器28は、この選択した照明条件ILCxを、検査対象物20aを検査する際の最終的な照明条件ILCxに定める。 The image analyzer 27 performs image analysis on the image data IMD [i] for each lighting condition ILC [i] stored in the memory 29, and sets the image analysis result AR [i] as the lighting condition ILC [i]. It is stored in the memory 29 in association with each other. The comparator 28 compares the image analysis result AR [i] for each lighting condition ILC [i] stored in the memory 29, and by comparing the image analysis result AR [i], any one of the plurality of lighting conditions ILC [i] is included in the lighting condition ILCx. Select. Then, the comparator 28 determines the selected lighting condition ILCx as the final lighting condition ILCx when inspecting the inspection object 20a.
 なお、図2の画像処理装置18は、例えば、マザーボード上に、単数または複数のプロセッサ(CPU(Central Processing Unit)またはGPU(Graphics Processing Unit))と、メモリ29(RAM(Random access memory)および不揮発性メモリ)とを実装したような形態で構成される。この場合、画像インタフェース25、照明条件探索器26、画像解析器27および比較器28は、このようなプロセッサを用いたプログラム処理で実装される。 The image processing device 18 of FIG. 2 has, for example, a single or a plurality of processors (CPU (Central Processing Unit) or GPU (Graphics Processing Unit)), a memory 29 (RAM (Random access memory)), and a non-volatile processor on the motherboard. It is configured in the form of implementing (sex memory). In this case, the image interface 25, the illumination condition searcher 26, the image analyzer 27, and the comparator 28 are implemented by program processing using such a processor.
 ただし、画像処理装置18は、このような実装形態に限らず、プロセッサの代わりにFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等を用いた形態や、または、PC(Personal Computer)等を用いた形態等であってもよい。また、図示は省略されているが、画像処理装置18は、例えば、検査対象物20aの検査に伴う画像解析を実行し、良否判定等を行うための画像解析器を別途備えている。 However, the image processing device 18 is not limited to such an implementation form, and the form using FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit), or the like instead of the processor, or a PC (Personal Computer). Or the like may be used. Further, although not shown, the image processing apparatus 18 separately includes, for example, an image analyzer for performing image analysis associated with the inspection of the inspection object 20a and performing a quality determination or the like.
 図3は、図2の画像処理装置の処理内容の一例を示すフロー図である。図3のフローは、例えば、検査対象物20aの種類毎に、検査対象物20aの検査に先立って実行される。図3において、まず、照明条件探索器26は、照明条件ILC[i]を初期値に設定する(ステップS101)。続いて、画像インタフェース25は、当該照明条件ILC[i]の下で撮像装置15によって撮像および作成された検査対象物20aの画像データIMD[i]を取得する(ステップS102)。次いで、画像解析器27は、取得された画像データIMD[i]に対して画像解析を実行し(ステップS103)、その画像解析結果AR[i]を照明条件ILC[i]に対応付けてメモリ29に保存する(ステップS104)。 FIG. 3 is a flow chart showing an example of the processing content of the image processing apparatus of FIG. The flow of FIG. 3 is executed, for example, for each type of the inspection target 20a prior to the inspection of the inspection target 20a. In FIG. 3, first, the lighting condition searcher 26 sets the lighting condition ILC [i] to the initial value (step S101). Subsequently, the image interface 25 acquires the image data IMD [i] of the inspection object 20a imaged and created by the image pickup apparatus 15 under the illumination condition ILC [i] (step S102). Next, the image analyzer 27 executes image analysis on the acquired image data IMD [i] (step S103), associates the image analysis result AR [i] with the lighting condition ILC [i], and stores the memory. Save in 29 (step S104).
 続いて、照明条件探索器26は、他の照明条件ILC[i]があるか否かを判定する(ステップS105)。他の照明条件ILC[i]がある場合、照明条件探索器26は、照明条件ILC[i]を変更する(ステップS106)。その後、ステップS102~S104の場合と同様に、画像インタフェース25は、画像データIMD[i]を取得し(ステップS107)、画像解析器27は、画像解析を実行して(ステップS108)、画像解析結果AR[i]をメモリ29に保存する(ステップS109)。そして、画像処理装置18は、ステップS105で他の照明条件ILC[i]が無しとなるまで、ステップS106~S109の処理を繰り返し実行する。 Subsequently, the lighting condition searcher 26 determines whether or not there is another lighting condition ILC [i] (step S105). When there is another lighting condition ILC [i], the lighting condition searcher 26 changes the lighting condition ILC [i] (step S106). After that, as in the case of steps S102 to S104, the image interface 25 acquires the image data IMD [i] (step S107), and the image analyzer 27 executes image analysis (step S108) to perform image analysis. The result AR [i] is saved in the memory 29 (step S109). Then, the image processing apparatus 18 repeatedly executes the processes of steps S106 to S109 until the other lighting condition ILC [i] disappears in step S105.
 これにより、画像解析結果AR[i]が、照明条件ILC[i]の選択肢の数の分だけ得られる。例えば、前述したように、選択肢が256個の場合には、256個の画像解析結果AR[i]が得られ、選択肢が4096個の場合には、4096個の画像解析結果AR[i]が得られる。なお、照明装置16がアナログ的に光量を調整する仕様の場合には、例えば、アナログ値を複数段階に量子化した上で同様の処理を行えばよい。 As a result, the image analysis result AR [i] can be obtained for the number of options of the lighting condition ILC [i]. For example, as described above, when there are 256 options, 256 image analysis results AR [i] are obtained, and when there are 4096 options, 4096 image analysis results AR [i] are obtained. can get. In the case of the specification that the lighting device 16 adjusts the amount of light in an analog manner, for example, the analog value may be quantized in a plurality of stages and then the same processing may be performed.
 一方、ステップS105で他の照明条件ILC[i]が無しと判定された場合、比較器28は、複数の照明条件ILC[i]毎の画像解析結果AR[i]を比較する(ステップS110)。そして、比較器28は、画像解析結果AR[i]が最も良好となる照明条件ILC[i]を最終的な照明条件ILCxに定める(ステップS111)。その後は、この最終的な照明条件ILCxの下で、検査対象物20aの検査が行われる。 On the other hand, when it is determined in step S105 that there is no other lighting condition ILC [i], the comparator 28 compares the image analysis results AR [i] for each of the plurality of lighting conditions ILC [i] (step S110). .. Then, the comparator 28 determines the illumination condition ILC [i] at which the image analysis result AR [i] is the best in the final illumination condition ILCx (step S111). After that, the inspection object 20a is inspected under the final lighting condition ILCx.
 なお、画像処理装置18のフローは、図3のフローに限らず、適宜変更することが可能である。例えば、ステップS105~S109のループ処理の中で、前回の画像解析結果(AR[i-1])と今回の画像解析結果(AR[i])とを比較し、いずれか良好な方の画像解析結果(および対応する照明条件)のみをメモリ29に残していくようなフローであってもよい。 The flow of the image processing device 18 is not limited to the flow of FIG. 3, and can be changed as appropriate. For example, in the loop processing of steps S105 to S109, the previous image analysis result (AR [i-1]) and the current image analysis result (AR [i]) are compared, and whichever is better. The flow may be such that only the analysis result (and the corresponding lighting condition) is left in the memory 29.
 《画像解析器の詳細》
 図4は、図2における画像解析器および比較器の動作例を説明する模式図である。図4において、画像解析器27は、照明条件ILC[1],ILC[2]毎の画像データ31a(IMD),31b(IMD)に対してコントラストを算出する。具体的には、画像解析器27は、各画像データ31a(IMD),31b(IMD)に対して検査対象物20aの濃度と背景20bの濃度とのコントラストを算出する。この例では、説明の便宜上、検査対象物20aは、円形状であるものとする。そして、画像解析器27は、各画像データ31a(IMD),31b(IMD)毎に算出されたコントラストを画像解析結果AR[1],AR[2]として出力する。
<< Details of image analyzer >>
FIG. 4 is a schematic diagram illustrating an operation example of the image analyzer and the comparator in FIG. In FIG. 4, the image analyzer 27 calculates the contrast for the image data 31a (IMD) and 31b (IMD) for each of the illumination conditions ILC [1] and ILC [2]. Specifically, the image analyzer 27 calculates the contrast between the density of the inspection object 20a and the density of the background 20b for each image data 31a (IMD) and 31b (IMD). In this example, for convenience of explanation, the inspection object 20a is assumed to have a circular shape. Then, the image analyzer 27 outputs the contrast calculated for each image data 31a (IMD) and 31b (IMD) as the image analysis results AR [1] and AR [2].
 比較器28は、各画像解析結果AR[1],AR[2](すなわちコントラスト)を比較することで、複数の照明条件ILC[1],ILC[2]の中からいずれか一つの照明条件を選択する。図4の例では、照明条件ILC[2]の画像データ31bの方が、照明条件ILC[1]の画像データ31aよりもコントラストが大きい。この場合、比較器28は、コントラストが大きい照明条件ILC[2]を照明条件ILC[1]よりも良好と判定し、照明条件ILC[2]を選択する。 The comparator 28 compares each image analysis result AR [1] and AR [2] (that is, contrast) to obtain one of a plurality of lighting conditions ILC [1] and ILC [2]. Select. In the example of FIG. 4, the image data 31b under the illumination condition ILC [2] has a larger contrast than the image data 31a under the illumination condition ILC [1]. In this case, the comparator 28 determines that the illumination condition ILC [2] having a large contrast is better than the illumination condition ILC [1], and selects the illumination condition ILC [2].
 図5Aは、図2および図4における画像解析器および比較器の処理内容の一例を示すフロー図である。図5Bは、図5Aの補足図である。図4で述べたコントラストを算出する方式の一つとして、判別分析法を利用する方式が挙げられる。判別分析法は、大津の二値化とも呼ばれ、図5Bに示されるように、画像内の全画素を二値化(白黒化)する際のしきい値THを定める方法である。 FIG. 5A is a flow chart showing an example of the processing contents of the image analyzer and the comparator in FIGS. 2 and 4. FIG. 5B is a supplementary view of FIG. 5A. As one of the methods for calculating the contrast described in FIG. 4, a method using a discriminant analysis method can be mentioned. The discriminant analysis method, also called binarization of Otsu, is a method of determining a threshold value TH when binarizing (black and white) all pixels in an image, as shown in FIG. 5B.
 図5Bには、画素値(濃度)と、画素値毎の画素数との関係を表すヒストグラムが示される。このようなヒストグラムを有する画像を二値化するため、しきい値TH以下の画素値を有する画素群がクラス[1](すなわち0/1の一方)に分類され、しきい値THよりも大きい画素値を有する画素群がクラス[2](0/1の他方)に分類される。判別分析法では、しきい値THを変化させながら式(1)に示される分離度Sを算出することで、分離度Sが最大となるしきい値THが探索される。
 S=σ /σ   …(1)
FIG. 5B shows a histogram showing the relationship between the pixel value (density) and the number of pixels for each pixel value. In order to binarize an image having such a histogram, a group of pixels having a pixel value equal to or less than the threshold value TH is classified into class [1] (that is, one of 0/1), which is larger than the threshold value TH. The pixel group having the pixel value is classified into the class [2] (the other of 0/1). In the discriminant analysis method, the threshold value TH at which the separation degree S is maximized is searched for by calculating the separation degree S represented by the equation (1) while changing the threshold value TH.
S = σ b 2 / σ w 2 … (1)
 式(1)において、σ は、クラス間分散であり、式(2)で与えられる。σ は、クラス内分散であり、式(3)で与えられる。また、式(2)および式(3)において、w,m,σは、それぞれ、クラス[1]の画素数、画素値の平均値、分散であり、w,m,σは、それぞれ、クラス[2]の画素数、画素値の平均値、分散である。
 σ =w(m-m/(w+w  …(2)
 σ =(wσ +wσ )/(w+w)  …(3)
In equation (1), σ b 2 is an interclass variance and is given by equation (2). σ w 2 is an intraclass variance and is given by Eq. (3). Further, in the equations (2) and (3), w 1 , m 1 , and σ 1 are the number of pixels of the class [1], the mean value of the pixel values, and the variance, respectively, and w 2 , m 2 , σ. Reference numeral 2 is the number of pixels of the class [2], the average value of the pixel values, and the variance, respectively.
σ b 2 = w 1 w 2 (m 1 − m 2 ) 2 / (w 1 + w 2 ) 2 … (2)
σ w 2 = (w 1 σ 1 2 + w 2 σ 2 2 ) / (w 1 + w 2 )… (3)
 ここで、式(1)の分離度Sは、式(2)の分子から分かるように、クラス[1]の平均値mとクラス[2]の平均値mとの差分が大きくなるほど大きくなる。この平均値の差分は、コントラストを表すことになる。すなわち、判別分析法を用いると、画像毎に最大の分離度Sを算出することで、間接的に、画像毎のコントラストの指標値を算出することが可能になる。 Here, as can be seen from the numerator of the formula (2), the degree of separation S of the formula (1) increases as the difference between the average value m 1 of the class [1] and the average value m 2 of the class [2] increases. Become. The difference between the average values represents the contrast. That is, when the discriminant analysis method is used, it is possible to indirectly calculate the index value of the contrast for each image by calculating the maximum degree of separation S for each image.
 このような判別分析法を利用して、画像解析器27および比較器28は、図5Aのような処理を実行する。まず、画像解析器27は、照明条件ILC[i]毎の画像解析結果AR[i]として、判別分析法を用いて算出した分離度S(最大の分離度Smax)をメモリ29に保存する(ステップS201)。その後、比較器28は、メモリ29に保存された分離度(Smax)を比較する(ステップS202)。そして、比較器28は、分離度(Smax)が最大となる(言い換えればコントラストが最大となる)照明条件を最終的な照明条件ILCxとして選択する(ステップS203)。 Using such a discriminant analysis method, the image analyzer 27 and the comparator 28 execute the process as shown in FIG. 5A. First, the image analyzer 27 stores the separation degree S (maximum separation degree Smax) calculated by using the discriminant analysis method as the image analysis result AR [i] for each lighting condition ILC [i] in the memory 29 (. Step S201). After that, the comparator 28 compares the degree of separation (Smax) stored in the memory 29 (step S202). Then, the comparator 28 selects the illumination condition at which the degree of separation (Smax) is maximum (in other words, the contrast is maximum) as the final illumination condition ILCx (step S203).
 《実施の形態1の主要な効果》
 以上、実施の形態1の方式を用いることで、代表的には、照明条件の決定に伴うユーザの作業負荷を軽減することが可能になる。また、ユーザの作業時間を短縮することが可能になり、ひいては、検査時間を短縮することが可能になる。さらに、照明条件の決定に際してのユーザの習熟度が不必要となり、客観的な指標(ここではコントラスト)に基づいて照明条件を自動的に決定することが可能になる。その結果、検査精度のばらつきを抑制することが可能になる。
<< Main effect of Embodiment 1 >>
As described above, by using the method of the first embodiment, it is possible to typically reduce the workload of the user associated with the determination of the lighting conditions. In addition, the work time of the user can be shortened, and eventually the inspection time can be shortened. Further, the user's proficiency level is not required when determining the lighting conditions, and the lighting conditions can be automatically determined based on an objective index (here, contrast). As a result, it becomes possible to suppress variations in inspection accuracy.
 (実施の形態2)
 《画像解析器の詳細》
 図6は、本発明の実施の形態2による画像処理装置において、図2における画像解析器および比較器の動作例を説明する模式図である。図6において、画像解析器27は、照明条件ILC[3],ILC[4]毎の画像データ31c(IMD),31d(IMD)に対してエッジ抽出フィルタを用いてエッジ(具体的には検査対象物20aのエッジ)を抽出し、エッジ抽出後の画像データ32c,32dを作成する。また、画像解析器27は、画像データ32c,32dに対して、抽出されたエッジの強度値E[3],E[4]を算出する。そして、画像解析器27は、このエッジの強度値E[3],E[4]を画像解析結果AR[3],AR[4]として出力する。
(Embodiment 2)
<< Details of image analyzer >>
FIG. 6 is a schematic diagram illustrating an operation example of the image analyzer and the comparator in FIG. 2 in the image processing apparatus according to the second embodiment of the present invention. In FIG. 6, the image analyzer 27 uses an edge extraction filter to inspect the image data 31c (IMD) and 31d (IMD) for each illumination condition ILC [3] and ILC [4] using an edge extraction filter (specifically, inspection). The edge of the object 20a) is extracted, and the image data 32c and 32d after the edge extraction are created. Further, the image analyzer 27 calculates the intensity values E [3] and E [4] of the extracted edges for the image data 32c and 32d. Then, the image analyzer 27 outputs the intensity values E [3] and E [4] of the edges as the image analysis results AR [3] and AR [4].
 比較器28は、各画像解析結果AR[3],AR[4](すなわちエッジの強度値E[3],E[4])を比較することで、複数の照明条件ILC[3],ILC[4]の中からいずれか一つの照明条件を選択する。図6には、画像データ32c,32dにおいて、画素の位置(X座標)と、X座標毎にY座標方向に画素値(濃度)を累積した値(累積画素値)との関係が示される。エッジの強度値E[3],E[4]は、例えば、累積画素値のピーク値によって定められる。 The comparator 28 compares each image analysis result AR [3], AR [4] (that is, edge intensity values E [3], E [4]) to obtain a plurality of lighting conditions ILC [3], ILC. Select any one of the lighting conditions from [4]. FIG. 6 shows the relationship between the pixel position (X coordinate) and the cumulative value (cumulative pixel value) of the pixel value (density) in the Y coordinate direction for each X coordinate in the image data 32c and 32d. The edge intensity values E [3] and E [4] are determined by, for example, the peak value of the cumulative pixel value.
 この例では、照明条件ILC[4]の画像データ32dにおけるエッジの強度値E[4]が、照明条件ILC[3]の画像データ32cにおけるエッジの強度値E[3]よりも高い。この場合、比較器28は、エッジの強度値が高い照明条件ILC[4]を照明条件ILC[3]よりも良好と判定し、照明条件ILC[4]を選択する。なお、ここでは、画像解析結果AR[3],AR[4]として、エッジの強度値E[3],E[4]を用いたが、これに加えて、累積画素値の総和等を用いてもよい。具体的には、例えば、エッジの強度値と累積画素値の総和とを所定の重み付けで積和演算した値等を用いてもよい。 In this example, the edge intensity value E [4] in the image data 32d of the illumination condition ILC [4] is higher than the edge intensity value E [3] in the image data 32c of the illumination condition ILC [3]. In this case, the comparator 28 determines that the illumination condition ILC [4] having a high edge intensity value is better than the illumination condition ILC [3], and selects the illumination condition ILC [4]. Here, the edge intensity values E [3] and E [4] are used as the image analysis results AR [3] and AR [4], but in addition to this, the sum of the cumulative pixel values and the like are used. You may. Specifically, for example, a value obtained by multiplying the sum of the edge strength values and the cumulative pixel values by a predetermined weighting may be used.
 ここで、図6で用いるエッジ抽出フィルタとして、代表的には、ソーベルフィルタが挙げられる。図7は、図6において、画像解析器によるソーベルフィルタを用いたエッジ抽出方法の一例を説明する図である。ソーベルフィルタでは、図7に示されるように、行方向のエッジを抽出するための3行3列のカーネルKxと、列方向のエッジを抽出するための3行3列のカーネルKyとが用いられる。 Here, as the edge extraction filter used in FIG. 6, a sobel filter can be typically mentioned. FIG. 7 is a diagram illustrating an example of an edge extraction method using a sobel filter using an image analyzer in FIG. As shown in FIG. 7, the Sobel filter uses a 3-by-3 kernel Kx for extracting row-wise edges and a 3-row-3 kernel Ky for extracting columnar edges. Be done.
 また、画像データIMDは、x行y列の画素値(濃度)I[11]~I[xy]を含んでいる。画像解析器27は、画像データIMDに対してカーネルKxを畳み込み演算することで、行方向のエッジが抽出された画像データを作成する。同様に、画像解析器27は、画像データIMDに対してカーネルKyを畳み込み演算することで、Y方向のエッジが抽出された画像データを作成する。 Further, the image data IMD includes pixel values (density) I [11] to I [xy] in the x-row and y-columns. The image analyzer 27 creates image data in which edges in the row direction are extracted by convolving the kernel Kx with respect to the image data IMD. Similarly, the image analyzer 27 creates image data in which edges in the Y direction are extracted by performing a convolution operation of the kernel Ky with respect to the image data IMD.
 具体的には、画像解析器27は、例えば、画素値I[22]を中心とする3行3列の画素値群に対してカーネルKxを畳み込み演算し、次いで、画素値I[23]を中心とする3行3列の画素値群に対してカーネルKxを畳み込み演算するといった空間フィルタリング処理を全ての画素値に対して行う。その結果、x行y列の画素値を含んだ空間フィルタリング処理後の画像データ(すなわち、行方向のエッジ抽出後の画像データ)が得られる。また、カーネルKyを用いて同様の空間フィルタリング処理を行うことで、列方向のエッジ抽出後の画像データが得られる。なお、エッジ抽出フィルタは、ソーベルフィルタに限らず、微分フィルタやプレヴィットフィルタ等、様々なものであってよい。
 《実施の形態2の主要な効果》
 以上、実施の形態2の方式を用いることでも、実施の形態1の場合と同様の効果が得られる。なお、実施の形態1の方式(コントラスト)と実施の形態2の方式(エッジ強度)のいずれを用いるかは、例えば、図1における検査対象物20aおよび背景20bの種別や、照明装置16の仕様等に応じて適宜定められればよい。また、コントラストかエッジ強度のいずかではなく、コントラストとエッジ強度の両方を適宜組み合わせて判定を行うような方式を用いてもよい。
Specifically, the image analyzer 27, for example, convolves the kernel Kx with respect to the pixel value group of 3 rows and 3 columns centered on the pixel value I [22], and then calculates the pixel value I [23]. Spatial filtering processing such as convolution calculation of kernel Kx for a pixel value group of 3 rows and 3 columns at the center is performed for all pixel values. As a result, the image data after the spatial filtering process including the pixel values of x rows and y columns (that is, the image data after edge extraction in the row direction) can be obtained. Further, by performing the same spatial filtering process using the kernel Ky, image data after edge extraction in the column direction can be obtained. The edge extraction filter is not limited to the Sobel filter, and may be various filters such as a differential filter and a Previt filter.
<< Main effect of Embodiment 2 >>
As described above, even by using the method of the second embodiment, the same effect as that of the first embodiment can be obtained. Whether to use the method of the first embodiment (contrast) or the method of the second embodiment (edge strength) depends on, for example, the types of the inspection object 20a and the background 20b in FIG. 1 and the specifications of the lighting device 16. It may be determined as appropriate according to the above. Further, a method may be used in which the determination is made by appropriately combining both the contrast and the edge strength instead of either the contrast or the edge strength.
 (実施の形態3)
 《画像解析器の詳細》
 図8は、本発明の実施の形態3による画像処理装置において、図2における画像解析器の構成例を示す概略図である。実施の形態1,2では、照明条件ILC[i]を定量的に評価するため、コントラストやエッジ強度を用いた。ただし、従来の習熟したユーザによる画像の評価基準が最適であると仮定すると、この人手による評価基準と、コントラストやエッジ強度を用いた評価基準との間に、差異が生じる可能性がある。
(Embodiment 3)
<< Details of image analyzer >>
FIG. 8 is a schematic view showing a configuration example of the image analyzer in FIG. 2 in the image processing apparatus according to the third embodiment of the present invention. In the first and second embodiments, contrast and edge intensity are used in order to quantitatively evaluate the lighting condition ILC [i]. However, assuming that the conventional evaluation criteria for images by a proficient user are optimal, there may be a difference between this manual evaluation criteria and the evaluation criteria using contrast and edge strength.
 そこで、実施の形態3では、習熟したユーザによる画像の評価基準をAI(Artificial Intelligence)に学習させることで、習熟したユーザの代わりにAIに評価を行わせる。具体的には、画像解析器27は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載する。そして、画像解析器27は、照明条件ILC[i]毎の画像データIMD[i]に対してAIを用いて評価値を算出し、当該評価値を画像解析結果AR[i]として出力する。 Therefore, in the third embodiment, AI (Artificial Intelligence) is made to learn the evaluation criteria of the image by the proficient user, so that the AI is made to evaluate instead of the proficient user. Specifically, the image analyzer 27 is equipped with an AI (Artificial Intelligence) learned to calculate an evaluation value equivalent to an evaluation value based on a user's evaluation standard. Then, the image analyzer 27 calculates an evaluation value for the image data IMD [i] for each lighting condition ILC [i] using AI, and outputs the evaluation value as an image analysis result AR [i].
 図8に示す画像解析器27は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を搭載している。CNNは、画像認識を行うためのAIとして広く知られている。CNNは、主に、入力層35と、畳み込み層36と、プーリング層37と、全結合層38と、出力層39とを備える。畳み込み層36とプーリング層37は、1層に限らず、交互に積み重ねる形で構成されてもよい。 The image analyzer 27 shown in FIG. 8 is equipped with a convolutional neural network (CNN). CNN is widely known as AI for performing image recognition. The CNN mainly includes an input layer 35, a convolution layer 36, a pooling layer 37, a fully connected layer 38, and an output layer 39. The convolutional layer 36 and the pooling layer 37 are not limited to one layer, and may be configured to be stacked alternately.
 入力層35には、行列方向に複数の画素値を含んだ画像データ31(IMD)が入力される。畳み込み層36は、入力層35における画像データ31に対して、複数チャネル(この例では3チャネル)のフィルタ41a,41b,41cを用いてそれぞれ畳み込み演算を行う。これにより、畳み込み層36は、複数チャネルの画像データ42a,42b,42cを作成する。フィルタ41a,41b,41cには、それぞれ、重み係数W ,W ,W が設定される。 Image data 31 (IMD) including a plurality of pixel values in the matrix direction is input to the input layer 35. The convolution layer 36 performs a convolution operation on the image data 31 in the input layer 35 by using filters 41a, 41b, 41c of a plurality of channels (3 channels in this example), respectively. As a result, the convolution layer 36 creates image data 42a, 42b, 42c of a plurality of channels. Weight coefficients W 0 1 , W 0 2 , and W 0 3 are set in the filters 41a, 41b, and 41c, respectively.
 プーリング層37は、畳み込み層36で作成された複数チャネルの画像データ42a,42b,42cに対して、それぞれ、予め定めた演算処理を行う。これにより、プーリング層37は、空間サイズを小さくした複数チャネルの画像データ43a,43b,43cを作成する。具体的には、プーリング層37は、例えば、画像データ42aを複数(この例では2×2)の画素値を含むように区画した状態で、区画毎に複数の画素値の最大値や平均値等を求めることで画像データ43aを作成する。 The pooling layer 37 performs predetermined arithmetic processing on the image data 42a, 42b, 42c of the plurality of channels created by the convolution layer 36, respectively. As a result, the pooling layer 37 creates image data 43a, 43b, 43c of a plurality of channels with a reduced spatial size. Specifically, in the pooling layer 37, for example, in a state where the image data 42a is partitioned so as to include a plurality of (2 × 2 in this example) pixel values, the maximum value or the average value of the plurality of pixel values is partitioned for each partition. The image data 43a is created by obtaining the image data 43a and the like.
 全結合層38は、プーリング層37で作成された複数チャネルの画像データ43a,43b,43cを一次元のベクトルに展開する。出力層39は、全結合層38における一次元のベクトルに対して、それぞれ、所定の重み係数Wiを用いて積和演算を行うことで評価値EVを出力する。 The fully connected layer 38 expands the image data 43a, 43b, 43c of the plurality of channels created by the pooling layer 37 into a one-dimensional vector. The output layer 39 outputs the evaluation value EV by performing a product-sum operation on each of the one-dimensional vectors in the fully connected layer 38 using a predetermined weighting coefficient Wi.
 このような画像解析器27を用いた学習時には、教師データとして、例えば、画像データ31と、当該画像データ31に対して習熟したユーザが定めた評価値とが入力される。画像解析器27は、当該画像データ31を入力層35とした場合に出力層39から出力される評価値EVと、習熟したユーザが定めた評価値との誤差を算出する。そして、画像解析器27は、この誤差をゼロに近づけるように、誤差逆伝播法を用いて、全結合層38と出力層39との間の重み係数Wiやフィルタ41a,41b,41cの重み係数W ,W ,W を更新する。 At the time of learning using such an image analyzer 27, for example, image data 31 and an evaluation value determined by a user who is proficient in the image data 31 are input as teacher data. The image analyzer 27 calculates an error between the evaluation value EV output from the output layer 39 and the evaluation value determined by a proficient user when the image data 31 is used as the input layer 35. Then, the image analyzer 27 uses an error back-propagation method to bring this error closer to zero, and uses a weighting coefficient Wi between the fully coupled layer 38 and the output layer 39 and a weighting coefficient of the filters 41a, 41b, 41c. Update W 0 1 , W 0 2 , and W 0 3 .
 このような学習を繰り返し行うことで、例えば、習熟したユーザが評価値を定める際に重視する画像の特徴が、主に、フィルタ41a,41b,41cの重み係数W ,W ,W として学習される。また、画像の特徴と評価値EVとの関係性は、主に、重み係数Wiとして学習される。その結果、画像解析器27は、推論時において、入力層35に所定の画像データ31を与えると、習熟したユーザの評価基準に基づく評価値と同等の評価値EVを出力層39から出力できるようになる。また、この場合、比較器28は、図3のステップS110,S111において、最も評価値EVが高くなる照明条件を最終的な照明条件ILCxとして選択すればよい。 By repeating such learning, for example, the characteristics of the image that a proficient user attaches importance to when determining the evaluation value are mainly the weighting coefficients W 0 1 , W 0 2 , W of the filters 41a, 41b, 41c. It is learned as 0 3 . Further, the relationship between the feature of the image and the evaluation value EV is mainly learned as the weighting coefficient Wi. As a result, when the predetermined image data 31 is given to the input layer 35 at the time of inference, the image analyzer 27 can output an evaluation value EV equivalent to the evaluation value based on the evaluation criteria of a proficient user from the output layer 39. become. Further, in this case, the comparator 28 may select the lighting condition having the highest evaluation value EV as the final lighting condition ILCx in steps S110 and S111 of FIG.
 《実施の形態3の主要な効果》
 以上、実施の形態3の方式を用いることでも、実施の形態1の場合と同様の効果が得られる。さらに、AIへの学習のさせ方によって、照明条件を定める際の画像の評価基準をより最適化することが可能になる。その結果、検査システムの検査精度を向上させることが可能になる。
<< Main effect of Embodiment 3 >>
As described above, even by using the method of the third embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, depending on how the AI is trained, it becomes possible to further optimize the evaluation criteria of the image when determining the lighting conditions. As a result, it becomes possible to improve the inspection accuracy of the inspection system.
 (実施の形態4)
 《検査システムの概略》
 前述した実施の形態1~3では、画像処理装置18は、照明条件ILC毎に得られる画像データIMDに対して画像解析を行い、その照明条件ILC毎の画像解析結果を比較することで、いずれか一つの照明条件ILCxを選択した。これに加えて、実施の形態4では、画像処理装置18は、照明条件ILCの場合と同様にして、撮像装置15の撮像条件毎に得られる画像データに対して画像解析を行い、その撮像条件毎の画像解析結果を比較することで、いずれか一つの撮像条件を選択する。
(Embodiment 4)
<< Outline of inspection system >>
In the above-described embodiments 1 to 3, the image processing apparatus 18 performs image analysis on the image data IMD obtained for each lighting condition ILC, and compares the image analysis results for each lighting condition ILC. One lighting condition, ILCx, was selected. In addition to this, in the fourth embodiment, the image processing device 18 performs image analysis on the image data obtained for each image pickup condition of the image pickup device 15 in the same manner as in the case of the illumination condition ILC, and the image pickup condition thereof. By comparing the image analysis results for each, one of the imaging conditions is selected.
 図9は、本発明の実施の形態4による検査システムにおいて、主要部の構成例を示す概略図である。図9に示す検査システム10aは、図1に示した構成例と比較して、次の点が異なっている。すなわち、撮像装置15には、撮像の際の撮像条件GLCが設定される。これに伴い、画像処理装置18は、撮像装置15に対する撮像条件GLCを定め、撮像装置15へ、当該撮像条件GLCに対応する撮像制御信号GCSを、ケーブル19aを介して送信する。 FIG. 9 is a schematic diagram showing a configuration example of a main part in the inspection system according to the fourth embodiment of the present invention. The inspection system 10a shown in FIG. 9 differs from the configuration example shown in FIG. 1 in the following points. That is, the image pickup device 15 is set with the image pickup condition GLC at the time of image pickup. Along with this, the image processing device 18 determines the image pickup condition GLC for the image pickup device 15, and transmits the image pickup control signal GCS corresponding to the image pickup condition GLC to the image pickup device 15 via the cable 19a.
 ここで、画像処理装置18は、詳細には、図2の場合と同様の構成で実現される。ただし、図2の場合と異なり、照明条件探索器26は、照明装置16に対する照明条件ILCに加えて、撮像装置15に対して、撮像の際の撮像条件GLCを可変設定する。これに伴い、画像インタフェース25は、撮像条件GLC毎の画像データIMDを取得する。画像解析器27は、撮像条件GLC毎の画像データIMDに対して画像解析を行う。比較器28は、画像解析器27による撮像条件GLC毎の画像解析結果を比較することで、複数の撮像条件GLCの中からいずれか一つの撮像条件(GLCxとする)を選択する。 Here, the image processing device 18 is realized in detail with the same configuration as in the case of FIG. However, unlike the case of FIG. 2, the illumination condition searcher 26 variably sets the imaging condition GLC at the time of imaging for the imaging device 15 in addition to the illumination condition ILC for the lighting device 16. Along with this, the image interface 25 acquires the image data IMD for each image pickup condition GLC. The image analyzer 27 performs image analysis on the image data IMD for each imaging condition GLC. The comparator 28 selects one of the imaging conditions (referred to as GLCx) from the plurality of imaging condition GLCs by comparing the image analysis results for each imaging condition GLC by the image analyzer 27.
 具体例として、撮像装置15に、撮像条件GLCとして、明るさ補正機能の補正値が設定される場合を想定する。まず、図9の構成を用いた処理の前提として、照明装置16には、所定の照明条件ILCが設定される。所定の照明条件ILCは、例えば、実施の形態1~3のいずれか方式によって定められる最終的な照明条件ILCx、すなわち、画像解析結果が最も良好となる照明条件であってよい。 As a specific example, it is assumed that the correction value of the brightness correction function is set in the image pickup device 15 as the image pickup condition GLC. First, as a premise of the process using the configuration of FIG. 9, a predetermined lighting condition ILC is set in the lighting device 16. The predetermined lighting condition ILC may be, for example, the final lighting condition ILCx defined by any of the methods 1 to 3, that is, the lighting condition that gives the best image analysis result.
 画像処理装置18は、この所定の照明条件ILCの下で、明るさ補正機能の補正値を変化させながら画像データIMDを取得し、取得した画像データIMDに対して画像解析を行う。そして、画像処理装置18は、当該画像解析結果が最も良好となる補正値、すなわち撮像条件GLCを、最終的な撮像条件GLCxに定める。 The image processing device 18 acquires the image data IMD while changing the correction value of the brightness correction function under the predetermined lighting condition ILC, and performs image analysis on the acquired image data IMD. Then, the image processing apparatus 18 determines the correction value that gives the best image analysis result, that is, the image pickup condition GLC, as the final image pickup condition GLCx.
 《実施の形態4の主要な効果》
 以上、実施の形態4の方式を用いることで、実施の形態1等で述べた各種効果に加えて、撮像条件GLCの決定に伴うユーザの作業負荷を軽減することが可能になる。また、照明条件ILCに加えて撮像条件GLCを最適化する結果、検査システムの検査精度をさらに向上させることが可能になる。
<< Main effect of Embodiment 4 >>
As described above, by using the method of the fourth embodiment, in addition to the various effects described in the first embodiment and the like, it is possible to reduce the workload of the user associated with the determination of the imaging condition GLC. Further, as a result of optimizing the imaging condition GLC in addition to the illumination condition ILC, it becomes possible to further improve the inspection accuracy of the inspection system.
 (実施の形態5)
 《検査システムの概略》
 図10は、本発明の実施の形態5による検査システムにおいて、一部の構成例を示す概略図である。図10に示す検査システム10bは、図1に示した構成例と比較して、次の点が異なっている。すなわち、配線基板20b上に、認識マーク20cおよび部品基準マーク20dが記されている。なお、図10では記載の簡素化のため省略されているが、当該検査システム10bは、詳細には、図1または図9に示した照明制御装置17および画像処理装置18も備える。
(Embodiment 5)
<< Outline of inspection system >>
FIG. 10 is a schematic view showing a part of a configuration example in the inspection system according to the fifth embodiment of the present invention. The inspection system 10b shown in FIG. 10 differs from the configuration example shown in FIG. 1 in the following points. That is, the recognition mark 20c and the component reference mark 20d are written on the wiring board 20b. Although omitted in FIG. 10 for the sake of brevity, the inspection system 10b also includes, in detail, the lighting control device 17 and the image processing device 18 shown in FIG. 1 or 9.
 認識マーク20cは、配線基板20bの向きを定める際の基準点として使用される。部品基準マーク20dは、配線基板20b上で電子部品20aの向きを定める際の基準点として使用される。認識マーク20cおよび部品基準マーク20dは、様々な形状、色、材質を用いて形成される。検査システム10b内の図示しない画像処理装置18は、通常、電子部品20aの検査を開始する際の事前準備として、このような認識マーク20cおよび部品基準マーク20dを検出することが多い。 The recognition mark 20c is used as a reference point when determining the orientation of the wiring board 20b. The component reference mark 20d is used as a reference point when the electronic component 20a is oriented on the wiring board 20b. The recognition mark 20c and the component reference mark 20d are formed using various shapes, colors, and materials. The image processing apparatus 18 (not shown) in the inspection system 10b usually detects such a recognition mark 20c and a component reference mark 20d as a preliminary preparation when starting the inspection of the electronic component 20a.
 この際に、画像処理装置18は、この認識マーク20cまたは部品基準マーク20dを検査対象物として、実施の形態1~4で述べたような方式を用いて、最終的な照明条件ILCxや、加えて最終的な撮像条件を定めてもよい。すなわち、最終的な照明条件ILCxや最終的な撮像条件を定める際に撮像される検査対象物は、電子部品20aに限らず、認識マーク20cまたは部品基準マーク20dであってもよい。 At this time, the image processing apparatus 18 uses the recognition mark 20c or the component reference mark 20d as an inspection target, and uses the method as described in the first to fourth embodiments to add the final lighting condition ILCx and the addition. The final imaging conditions may be determined. That is, the inspection object to be imaged when determining the final illumination condition ILCx and the final imaging condition is not limited to the electronic component 20a, but may be the recognition mark 20c or the component reference mark 20d.
 (実施の形態6)
 《画像処理装置の詳細》
 図11は、本発明の実施の形態6による画像処理装置において、主要部の構成例を示す概略図である。図11に示す画像処理装置18aは、主に、CPU、GPU等のプロセッサによって実現され、図8の場合と同様に、AIを用いて画像解析を行うものとなっている。当該画像処理装置18aは、AIモデルとして、複数層(この例では4層)の畳み込み層36a~36dと、全結合層38と、出力層39と、を備える。
(Embodiment 6)
<< Details of image processing equipment >>
FIG. 11 is a schematic view showing a configuration example of a main part of the image processing apparatus according to the sixth embodiment of the present invention. The image processing device 18a shown in FIG. 11 is mainly realized by a processor such as a CPU and a GPU, and performs image analysis using AI as in the case of FIG. The image processing apparatus 18a includes, as an AI model, a plurality of layers (four layers in this example) convolution layers 36a to 36d, a fully connected layer 38, and an output layer 39.
 畳み込み層36aには、画像データ31が入力される。画像データ31は、例えば、縦サイズが256画素、横サイズが256画素のモノクロ画像データ等である。畳み込み層36aは、例えば、画像データ31と、学習によって得られた重み係数との畳み込み演算を行った後に、ReLU(Rectified Linear Unit)と呼ばれる活性化関数を用いた演算を実行し、最大値プーリングという手法を用いて必要な特徴量を抽出する。 Image data 31 is input to the convolution layer 36a. The image data 31 is, for example, monochrome image data having a vertical size of 256 pixels and a horizontal size of 256 pixels. For example, the convolution layer 36a performs an operation using an activation function called ReLU (Rectified Linear Unit) after performing a convolution operation of the image data 31 and the weight coefficient obtained by learning, and the maximum value pooling is performed. The required feature quantity is extracted using the method.
 畳み込み層36bは、畳み込み層36aからの出力データに対して、畳み込み層36aの場合と同様の処理を行う。ただし、畳み込み層36bでは、畳み込み演算の回数等が畳み込み層36aとは異なる。同様にして、畳み込み層36c,36dも、前段からの出力データに対して畳み込み演算を行い、必要な特徴量を抽出する。 The convolution layer 36b performs the same processing as in the case of the convolution layer 36a on the output data from the convolution layer 36a. However, in the convolution layer 36b, the number of convolution operations and the like are different from those in the convolution layer 36a. Similarly, the convolution layers 36c and 36d also perform a convolution operation on the output data from the previous stage to extract necessary features.
 全結合層38は、畳み込み層36dからの出力データと、学習によって得られた重み係数との積和演算を行い、1×Nの1次元データを出力する。出力層39は、全結合層38からの出力データに対して、AIの学習方法等に応じた任意の活性化関数を用いて演算を行い、演算結果を出力する。活性化関数として、例えば、シグモイド関数、ソフトマックス関数、恒等関数等が挙げられる。 The fully connected layer 38 performs a product-sum calculation of the output data from the convolution layer 36d and the weighting coefficient obtained by learning, and outputs 1 × N one-dimensional data. The output layer 39 performs an operation on the output data from the fully connected layer 38 using an arbitrary activation function according to the learning method of AI and outputs the operation result. Examples of the activation function include a sigmoid function, a softmax function, an identity function, and the like.
 ここで、AIの学習方法として、主に、回帰(Regression)と呼ばれる方法と、クラス分類(Classification)と呼ばれる方法が知られている。回帰では、連続値等の数値を推測するための回帰モデルが用いられる。回帰モデルを用いると、入力に対して一つの評価値が出力される。前述した実施の形態3には、回帰を用いた場合の一例が示される。回帰を用いる場合、図11の構成例は、図2の画像解析器27に適用される。また、出力層39の活性化関数は、例えば、恒等関数等であってよい。 Here, as a learning method of AI, a method called regression and a method called classification are mainly known. In regression, a regression model is used to infer numerical values such as continuous values. When the regression model is used, one evaluation value is output for each input. In the third embodiment described above, an example in the case of using regression is shown. When regression is used, the configuration example of FIG. 11 is applied to the image analyzer 27 of FIG. Further, the activation function of the output layer 39 may be, for example, an identity function or the like.
 一方、クラス分類では、入力データが学習済みクラスの中のどのクラスに属するかを推測するためのクラス分類モデルが用いられる。クラス分類を用いる場合、学習時には、例えば、検査対象物Aの画像データ31の入力に対して予め教師データとして定めた照明条件Aを出力し、検査対象物Bの画像デー31の入力に対して予め教師データとして定めた照明条件Bを出力するように、各特徴量、すなわち重み係数を学習させる。 On the other hand, in the classification, a classification model for guessing which class the input data belongs to in the learned class is used. When class classification is used, for example, the lighting condition A predetermined as teacher data is output for the input of the image data 31 of the inspection object A at the time of learning, and the lighting condition A is output for the input of the image day 31 of the inspection object B. Each feature amount, that is, a weighting coefficient is learned so as to output the lighting condition B defined in advance as teacher data.
 その結果、運用時、言い換えれば推論時において、画像処理装置18aに、例えば、検査対象物Aの画像データ31を入力すると、画像処理装置18aから照明条件Aを取得することができる。すなわち、この場合、図2に示した、照明条件探索器26による探索処理や、比較器28による比較処理は、不要であり、画像処理装置18aに画像データ31を入力することで、最終的な照明条件ILCxが直接的に得られることになる。また、クラス分類では、出力層39の活性化関数は、例えば、ソフトマックス関数等であってよい。 As a result, when the image data 31 of the inspection object A is input to the image processing device 18a at the time of operation, in other words, at the time of deduction, the lighting condition A can be acquired from the image processing device 18a. That is, in this case, the search process by the lighting condition searcher 26 and the comparison process by the comparator 28 shown in FIG. 2 are unnecessary, and the final image data 31 is input to the image processing device 18a. The lighting condition ILCx will be obtained directly. Further, in the classification, the activation function of the output layer 39 may be, for example, a softmax function or the like.
 なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. .. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
 10,10a,10b:検査システム、15:撮像装置、16:照明装置、17:照明制御装置、18,18a:画像処理装置、19a~19c:ケーブル、20a:電子部品(検査対象物)、20b:配線基板(背景)、20c:認識マーク(検査対象物)、20d:部品基準マーク(検査対象物)、25:画像インタフェース、26:照明条件探索器、27:画像解析器、28:比較器、29:メモリ、31,31a~31d:画像データ、35:入力層、36,36a~36d:畳み込み層、37:プーリング層、38:全結合層、39:出力層、フィルタ41a~41c、42a~42c:画像データ、43a~43c:画像データ、AR:画像解析結果、E:エッジの強度値、EV:評価値、GCS:撮像制御信号、GLC:撮像条件、I:画素値、ICS:照明制御信号、ILC:照明条件、IMD:画像データ 10,10a,10b: Inspection system, 15: Imaging device, 16: Lighting device, 17: Lighting control device, 18,18a: Image processing device, 19a-19c: Cable, 20a: Electronic parts (inspection target), 20b : Wiring board (background), 20c: Recognition mark (inspection object), 20d: Parts reference mark (inspection object), 25: Image interface, 26: Lighting condition searcher, 27: Image analyzer, 28: Comparer , 29: Memory, 31, 31a to 31d: Image data, 35: Input layer, 36, 36a to 36d: Folding layer, 37: Pooling layer, 38: Fully coupled layer, 39: Output layer, Filters 41a to 41c, 42a ~ 42c: image data, 43a ~ 43c: image data, AR: image analysis result, E: edge intensity value, EV: evaluation value, GCS: image pickup control signal, GLC: image pickup condition, I: pixel value, ICS: illumination Control signal, ILC: Lighting conditions, IMD: Image data

Claims (15)

  1.  照明を当てた状態で撮像された検査対象物の画像データを処理する画像処理装置であって、
     前記照明の照明条件を可変設定する照明条件探索器と、
     前記照明条件毎の前記画像データを取得する画像インタフェースと、
     前記照明条件毎の前記画像データに対して画像解析を行う画像解析器と、
     前記画像解析器による前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する比較器と、
    を有する、
    画像処理装置。
    An image processing device that processes image data of an inspection object captured under illumination.
    A lighting condition searcher that variably sets the lighting conditions of the lighting, and
    An image interface for acquiring the image data for each lighting condition, and
    An image analyzer that performs image analysis on the image data for each lighting condition, and
    A comparator that selects any one of the lighting conditions from a plurality of the lighting conditions by comparing the image analysis results for each of the lighting conditions by the image analyzer.
    Have,
    Image processing device.
  2.  請求項1記載の画像処理装置において、
     前記画像解析器は、前記照明条件毎の前記画像データに対してコントラストを算出し、前記コントラストを前記画像解析結果として出力する、
    画像処理装置。
    In the image processing apparatus according to claim 1,
    The image analyzer calculates the contrast with respect to the image data for each of the lighting conditions, and outputs the contrast as the image analysis result.
    Image processing device.
  3.  請求項1記載の画像処理装置において、
     前記画像解析器は、前記照明条件毎の前記画像データに対してエッジを抽出し、抽出されたエッジの強度値を算出し、前記エッジの強度値を前記画像解析結果として出力する、
    画像処理装置。
    In the image processing apparatus according to claim 1,
    The image analyzer extracts an edge from the image data for each lighting condition, calculates the intensity value of the extracted edge, and outputs the intensity value of the edge as the image analysis result.
    Image processing device.
  4.  請求項1記載の画像処理装置において、
     前記画像解析器は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載し、前記照明条件毎の前記画像データに対して前記AIを用いて前記評価値を算出し、前記評価値を前記画像解析結果として出力する、
    画像処理装置。
    In the image processing apparatus according to claim 1,
    The image analyzer is equipped with an AI (Artificial Intelligence) learned to calculate an evaluation value equivalent to an evaluation value based on a user's evaluation standard, and the AI is applied to the image data for each lighting condition. The evaluation value is calculated using the above evaluation value, and the evaluation value is output as the image analysis result.
    Image processing device.
  5.  請求項1記載の画像処理装置において、
     さらに、前記照明を当てた状態の前記検査対象物を撮像することで前記画像データを作成し、当該撮像の際の撮像条件が設定される撮像装置を有し、
     前記照明条件探索器は、前記撮像の際の前記撮像条件を可変設定し、
     前記画像インタフェースは、前記撮像条件毎の前記画像データを取得し、
     前記画像解析器は、前記撮像条件毎の前記画像データに対して画像解析を行い、
     前記比較器は、前記画像解析器による前記撮像条件毎の画像解析結果を比較することで、複数の前記撮像条件の中からいずれか一つの前記撮像条件を選択する、
    画像処理装置。
    In the image processing apparatus according to claim 1,
    Further, the present invention has an imaging device that creates the image data by imaging the inspection object in the illuminated state and sets the imaging conditions at the time of the imaging.
    The illumination condition searcher variably sets the imaging conditions at the time of imaging, and the illumination condition searcher sets the imaging conditions variably.
    The image interface acquires the image data for each image pickup condition, and obtains the image data.
    The image analyzer performs image analysis on the image data for each image pickup condition, and performs image analysis.
    The comparator selects any one of the imaging conditions from the plurality of imaging conditions by comparing the image analysis results for each imaging condition by the image analyzer.
    Image processing device.
  6.  検査対象物に照明を当てる照明装置と、
     前記照明を当てた状態の前記検査対象物を撮像することで画像データを作成する撮像装置と、
     前記画像データを処理する画像処理装置と、
    を有する検査システムであって、
     前記画像処理装置は、
     前記照明装置の照明条件を可変設定する照明条件探索器と、
     前記撮像装置からの前記照明条件毎の前記画像データを取得する画像インタフェースと、
     前記照明条件毎の前記画像データに対して画像解析を行う画像解析器と、
     前記画像解析器による前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する比較器と、
    を有する、
    検査システム。
    A lighting device that illuminates the object to be inspected,
    An image pickup device that creates image data by taking an image of the inspection object in the illuminated state, and an image pickup device.
    An image processing device that processes the image data and
    Is an inspection system that has
    The image processing device is
    A lighting condition searcher that variably sets the lighting conditions of the lighting device,
    An image interface for acquiring the image data for each lighting condition from the image pickup device, and
    An image analyzer that performs image analysis on the image data for each lighting condition, and
    A comparator that selects any one of the lighting conditions from a plurality of the lighting conditions by comparing the image analysis results for each of the lighting conditions by the image analyzer.
    Have,
    Inspection system.
  7.  請求項6記載の検査システムにおいて、
     前記画像解析器は、前記照明条件毎の前記画像データに対してコントラストを算出し、前記コントラストを前記画像解析結果として出力する、
    検査システム。
    In the inspection system according to claim 6,
    The image analyzer calculates the contrast with respect to the image data for each of the lighting conditions, and outputs the contrast as the image analysis result.
    Inspection system.
  8.  請求項6記載の検査システムにおいて、
     前記画像解析器は、前記照明条件毎の前記画像データに対してエッジを抽出し、抽出されたエッジの強度値を算出し、前記エッジの強度値を前記画像解析結果として出力する、
    検査システム。
    In the inspection system according to claim 6,
    The image analyzer extracts an edge from the image data for each lighting condition, calculates the intensity value of the extracted edge, and outputs the intensity value of the edge as the image analysis result.
    Inspection system.
  9.  請求項6記載の検査システムにおいて、
     前記画像解析器は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載し、前記照明条件毎の前記画像データに対して前記AIを用いて前記評価値を算出し、前記評価値を前記画像解析結果として出力する、
    検査システム。
    In the inspection system according to claim 6,
    The image analyzer is equipped with an AI (Artificial Intelligence) learned to calculate an evaluation value equivalent to an evaluation value based on a user's evaluation standard, and the AI is applied to the image data for each lighting condition. The evaluation value is calculated using the above evaluation value, and the evaluation value is output as the image analysis result.
    Inspection system.
  10.  請求項6記載の検査システムにおいて、
     前記撮像装置には、撮像の際の撮像条件が設定され、
     前記照明条件探索器は、前記撮像の際の前記撮像条件を可変設定し、
     前記画像インタフェースは、前記撮像条件毎の前記画像データを取得し、
     前記画像解析器は、前記撮像条件毎の前記画像データに対して画像解析を行い、
     前記比較器は、前記画像解析器による前記撮像条件毎の画像解析結果を比較することで、複数の前記撮像条件の中からいずれか一つの前記撮像条件を選択する、
    検査システム。
    In the inspection system according to claim 6,
    Imaging conditions for imaging are set in the imaging device, and the imaging conditions are set.
    The illumination condition searcher variably sets the imaging conditions at the time of imaging, and the illumination condition searcher sets the imaging conditions variably.
    The image interface acquires the image data for each image pickup condition, and obtains the image data.
    The image analyzer performs image analysis on the image data for each image pickup condition, and performs image analysis.
    The comparator selects any one of the imaging conditions from the plurality of imaging conditions by comparing the image analysis results for each imaging condition by the image analyzer.
    Inspection system.
  11.  検査対象物に照明を当てる照明装置と、
     前記照明を当てた状態の前記検査対象物を撮像することで画像データを作成する撮像装置と、
    を含む検査システムを用いて前記検査対象物を検査する検査方法であって、
     前記照明装置の照明条件を可変設定する第1のステップと、
     前記撮像装置からの前記照明条件毎の前記画像データを取得し、前記照明条件毎の前記画像データに対して画像解析を行う第2のステップと、
     前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する第3のステップと、
    を有する、
    検査方法。
    A lighting device that illuminates the object to be inspected,
    An image pickup device that creates image data by taking an image of the inspection object in the illuminated state, and an image pickup device.
    It is an inspection method for inspecting the inspection object using an inspection system including.
    The first step of variably setting the lighting conditions of the lighting device,
    A second step of acquiring the image data for each of the lighting conditions from the image pickup apparatus and performing image analysis on the image data for each of the lighting conditions.
    A third step of selecting any one of the lighting conditions from the plurality of lighting conditions by comparing the image analysis results for each lighting condition, and
    Have,
    Inspection method.
  12.  請求項11記載の検査方法において、
     前記第2のステップでは、前記照明条件毎の前記画像データに対してコントラストが算出され、前記コントラストが前記画像解析結果として出力される、
    検査方法。
    In the inspection method according to claim 11,
    In the second step, the contrast is calculated for the image data for each of the lighting conditions, and the contrast is output as the image analysis result.
    Inspection method.
  13.  請求項11記載の検査方法において、
     前記第2のステップでは、前記照明条件毎の前記画像データに対してエッジが抽出され、抽出されたエッジの強度値が算出され、前記エッジの強度値が前記画像解析結果として出力される、
    検査方法。
    In the inspection method according to claim 11,
    In the second step, an edge is extracted from the image data for each lighting condition, an intensity value of the extracted edge is calculated, and the intensity value of the edge is output as the image analysis result.
    Inspection method.
  14.  請求項11記載の検査方法において、
     前記第2のステップでは、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を用いて、前記照明条件毎の前記画像データに対して前記評価値が算出され、前記評価値が前記画像解析結果として出力される、
    検査方法。
    In the inspection method according to claim 11,
    In the second step, the evaluation is performed on the image data for each lighting condition by using AI (Artificial Intelligence) learned to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation standard. The value is calculated, and the evaluation value is output as the image analysis result.
    Inspection method.
  15.  請求項11記載の検査方法において、
     前記撮像装置には、撮像の際の撮像条件が設定され、
     前記検査方法は、さらに、
     前記第3のステップで選択された前記照明条件の下で、前記撮像装置の前記撮像条件を可変設定する第4のステップと、
     前記撮像装置からの前記撮像条件毎の前記画像データを取得し、前記撮像条件毎の前記画像データに対して画像解析を行う第5のステップと、
     前記撮像条件毎の画像解析結果を比較することで、複数の前記撮像条件の中からいずれか一つの前記撮像条件を選択する第6のステップと、
    を有する、
    検査方法。
    In the inspection method according to claim 11,
    Imaging conditions for imaging are set in the imaging device, and the imaging conditions are set.
    The above-mentioned inspection method further
    A fourth step of variably setting the imaging conditions of the imaging device under the lighting conditions selected in the third step, and
    A fifth step of acquiring the image data for each imaging condition from the imaging device and performing image analysis on the image data for each imaging condition.
    By comparing the image analysis results for each of the imaging conditions, the sixth step of selecting one of the imaging conditions from the plurality of imaging conditions and the sixth step.
    Have,
    Inspection method.
PCT/JP2021/027936 2020-08-27 2021-07-28 Image processing device, inspection system, and inspection method WO2022044673A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020143073A JP2023153431A (en) 2020-08-27 2020-08-27 Image processing device, inspection system, and inspection method
JP2020-143073 2020-08-27

Publications (1)

Publication Number Publication Date
WO2022044673A1 true WO2022044673A1 (en) 2022-03-03

Family

ID=80353258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027936 WO2022044673A1 (en) 2020-08-27 2021-07-28 Image processing device, inspection system, and inspection method

Country Status (2)

Country Link
JP (1) JP2023153431A (en)
WO (1) WO2022044673A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171293A1 (en) * 2022-03-10 2023-09-14 住友重機械工業株式会社 Image inspection device, machine learning device, image inspection method, and image inspection program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5686987A (en) * 1995-12-29 1997-11-11 Orfield Associates, Inc. Methods for assessing visual tasks to establish desirable lighting and viewing conditions for performance of tasks; apparatus; and, applications
JP2005055447A (en) * 1998-09-18 2005-03-03 Hitachi Ltd Method and apparatus for inspecting defects
JP2019035609A (en) * 2017-08-10 2019-03-07 オムロン株式会社 Image processing system, setting assistance device, and setting assistance program
JP2019101047A (en) * 2019-02-25 2019-06-24 株式会社アセット・ウィッツ Automatic part appearance inspection device
JP2020042668A (en) * 2018-09-12 2020-03-19 ファナック株式会社 Inspection apparatus and machine learning method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5686987A (en) * 1995-12-29 1997-11-11 Orfield Associates, Inc. Methods for assessing visual tasks to establish desirable lighting and viewing conditions for performance of tasks; apparatus; and, applications
JP2005055447A (en) * 1998-09-18 2005-03-03 Hitachi Ltd Method and apparatus for inspecting defects
JP2019035609A (en) * 2017-08-10 2019-03-07 オムロン株式会社 Image processing system, setting assistance device, and setting assistance program
JP2020042668A (en) * 2018-09-12 2020-03-19 ファナック株式会社 Inspection apparatus and machine learning method
JP2019101047A (en) * 2019-02-25 2019-06-24 株式会社アセット・ウィッツ Automatic part appearance inspection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171293A1 (en) * 2022-03-10 2023-09-14 住友重機械工業株式会社 Image inspection device, machine learning device, image inspection method, and image inspection program

Also Published As

Publication number Publication date
JP2023153431A (en) 2023-10-18

Similar Documents

Publication Publication Date Title
US9396531B2 (en) Systems and methods for image and video signal measurement
AU2018282455B2 (en) Diagnosis assisting device, and image processing method in diagnosis assisting device
CN108154502B (en) Through hole welding spot identification method based on convolutional neural network
US10592764B2 (en) Reconstructing document from series of document images
CN112534243B (en) Inspection apparatus and method, and computer-readable non-transitory recording medium
CN111612737B (en) Artificial board surface flaw detection device and detection method
CN108197546A (en) Photo-irradiation treatment method, apparatus, computer equipment and storage medium in recognition of face
JP2021065718A (en) Image processing device, image processing device operating method, and medical imaging system
EP3349359B1 (en) Compressive sensing capturing device and method
US20110116710A1 (en) System and method for detection of specularity in an image
CN112308854B (en) Automatic detection method and system for chip surface flaws and electronic equipment
JP3741672B2 (en) Image feature learning type defect detection method, defect detection apparatus, and defect detection program
US6577775B1 (en) Methods and apparatuses for normalizing the intensity of an image
WO2022044673A1 (en) Image processing device, inspection system, and inspection method
CN113129390B (en) Color blindness image re-coloring method and system based on joint significance
TW201740311A (en) Facial image-processing method and system thereof
Hortinela et al. Classification of Cacao Beans Based on their External Physical Features Using Convolutional Neural Network
Boyun The principles of organizing the search for an object in an image, tracking an object and the selection of informative features based on the visual perception of a person
JP2840347B2 (en) Board mounting inspection equipment
CN116309914A (en) Image signal analysis system and method using layout detection
Bonello et al. A new based image subtraction algorithm for bare PCB defect detection
CN116888621A (en) Image detection method and device and electronic equipment
Abdelhameed et al. A robust methodology for solder joints extraction
CN112348771B (en) Imaging consistency evaluation method based on wavelet transformation
Çelik et al. LCD Pixel Defect Detection using Shallow CNN Based Approach

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21861101

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21861101

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP