JP2023153431A - Image processing device, inspection system, and inspection method - Google Patents

Image processing device, inspection system, and inspection method Download PDF

Info

Publication number
JP2023153431A
JP2023153431A JP2020143073A JP2020143073A JP2023153431A JP 2023153431 A JP2023153431 A JP 2023153431A JP 2020143073 A JP2020143073 A JP 2020143073A JP 2020143073 A JP2020143073 A JP 2020143073A JP 2023153431 A JP2023153431 A JP 2023153431A
Authority
JP
Japan
Prior art keywords
image
image data
illumination
processing device
illumination conditions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020143073A
Other languages
Japanese (ja)
Inventor
和真 島軒
Kazuma Token
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Frontier Co Ltd
Original Assignee
Maxell Frontier Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Frontier Co Ltd filed Critical Maxell Frontier Co Ltd
Priority to JP2020143073A priority Critical patent/JP2023153431A/en
Priority to PCT/JP2021/027936 priority patent/WO2022044673A1/en
Publication of JP2023153431A publication Critical patent/JP2023153431A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To provide an image processing device, an inspection system, and an inspection method capable of reducing a user's workload.SOLUTION: An image processing device 28 processes image data for an inspection object that has been photographed under illumination. An illumination condition searcher 26 variably sets an illumination condition ILC[i] for the illumination. An image interface 25 acquires image data IMD[i] for each illumination condition ILC[i]. An image analyzer 27 carries out image analysis on the image data IMD[i] for each illumination condition ILC[i]. A comparator 28 compares an image analysis result AR[i] from the image analyzer 27 for each illumination condition ILC[i] to select any one illumination condition ILCx of a plurality of illumination conditions ILC[i].SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、検査システムおよび検査方法に関し、例えば、検査対象物の画像に基づいて検査を行う技術に関する。 The present invention relates to an image processing device, an inspection system, and an inspection method, and for example, to a technique for performing an inspection based on an image of an object to be inspected.

例えば、特許文献1には、プロジェクタ、透光性液晶ディスプレイ、撮像装置部および画像処理装置を含み、被照射体の形状や色彩に応じて高精細な演出照明を可能にする照明装置が示される。具体的には、被照射体には、プロジェクタからの光が透光性液晶ディスプレイを介して照射され、撮像装置部は、当該被照射体を撮像する。画像処理装置は、撮像装置部からの映像信号を処理し、被照射体の領域と被照射体以外の領域とを区別する。そして、画像処理装置は、被照射体以外の領域への照射をマスクキングするように透光性液晶ディスプレイを制御する。 For example, Patent Document 1 discloses a lighting device that includes a projector, a translucent liquid crystal display, an imaging device, and an image processing device, and that enables high-definition lighting according to the shape and color of an object to be illuminated. . Specifically, the irradiated object is irradiated with light from a projector via a translucent liquid crystal display, and the imaging device section images the irradiated object. The image processing device processes the video signal from the imaging device section and distinguishes between an area of the irradiated object and an area other than the irradiated object. The image processing device then controls the translucent liquid crystal display to mask irradiation to areas other than the irradiated object.

また、特許文献2には、部屋の電気画像を形成し得るCCDセンサと、CCDセンサの測定結果に応じて室内の照明を制御する制御手段とを有する照明制御装置が示される。 Furthermore, Patent Document 2 discloses a lighting control device that includes a CCD sensor that can form an electrical image of a room, and a control means that controls indoor lighting according to the measurement results of the CCD sensor.

特開平08-271985号公報Japanese Patent Application Publication No. 08-271985 特表2004-501496号公報Special Publication No. 2004-501496

例えば、検査対象物を撮像する撮像装置(代表的にはカメラ)と、カメラによる撮像を補助するため、検査対象物に光を照射する照明装置とを備えた検査システムが知られている。照明装置は、例えば、ハロゲンランプ光源やLED光源等を含み、検査対象物の画像を鮮明に取り込めるように、輝度や色(R,G,B,IR等)等の照明条件を調整できるようになっている。しかし、照明条件の調整は、通常、装置のユーザによる手作業で行われている。このため、照明条件の最適値を導き出す際に、ユーザの作業負荷や作業時間が増大する恐れがあった。 For example, an inspection system is known that includes an imaging device (typically a camera) that captures an image of an object to be inspected, and an illumination device that irradiates the object with light to assist the imaging by the camera. The lighting device includes, for example, a halogen lamp light source, an LED light source, etc., and is capable of adjusting lighting conditions such as brightness and color (R, G, B, IR, etc.) so that a clear image of the object to be inspected can be captured. It has become. However, adjustment of the lighting conditions is typically done manually by the user of the device. For this reason, when deriving the optimal value of the lighting conditions, there is a risk that the user's workload and working time will increase.

本発明は、このようなことに鑑みてなされたものであり、その目的の一つは、ユーザの作業負荷を軽減することが可能な画像処理装置、検査システムおよび検査方法を提供することにある。 The present invention has been made in view of the above, and one of its purposes is to provide an image processing device, an inspection system, and an inspection method that can reduce the workload of the user. .

本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

本発明の一実施の態様では、照明を当てた状態で撮像された検査対象物の画像データを処理する画像処理装置を設け、画像処理装置が、照明の照明条件を可変設定する照明条件探索器と、照明条件毎の画像データを取得する画像インタフェースと、照明条件毎の画像データに対して画像解析を行う画像解析器と、画像解析器による照明条件毎の画像解析結果を比較することで、複数の照明条件の中からいずれか一つの照明条件を選択する比較器と、を有する、ように構成されればよい。 In one embodiment of the present invention, an image processing device is provided that processes image data of an inspection target imaged while being illuminated, and the image processing device is an illumination condition searcher that variably sets the illumination conditions of the illumination. By comparing the image analysis results for each lighting condition, an image interface that acquires image data for each lighting condition, an image analyzer that performs image analysis on the image data for each lighting condition, and an image analyzer for each lighting condition. A comparator that selects any one illumination condition from among a plurality of illumination conditions may be configured.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば、ユーザの作業負荷を軽減することが可能になる。 Of the inventions disclosed in this application, the effects obtained by typical inventions will be briefly described, making it possible to reduce the user's workload.

本発明の実施の形態1による検査システムにおいて、主要部の構成例を示す概略図である。1 is a schematic diagram showing a configuration example of main parts in an inspection system according to Embodiment 1 of the present invention. 図1における画像処理装置の主要部の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of main parts of the image processing device in FIG. 1. FIG. 図2の画像処理装置の処理内容の一例を示すフロー図である。3 is a flow diagram showing an example of processing contents of the image processing apparatus of FIG. 2. FIG. 図2における画像解析器および比較器の動作例を説明する模式図である。3 is a schematic diagram illustrating an example of the operation of an image analyzer and a comparator in FIG. 2. FIG. 図2および図4における画像解析器および比較器の処理内容の一例を示すフロー図である。5 is a flow diagram showing an example of processing contents of an image analyzer and a comparator in FIGS. 2 and 4. FIG. 図5Aの補足図である。FIG. 5A is a supplementary figure to FIG. 5A. 本発明の実施の形態2による画像処理装置において、図2における画像解析器および比較器の動作例を説明する模式図である。3 is a schematic diagram illustrating an example of the operation of an image analyzer and a comparator in FIG. 2 in the image processing apparatus according to Embodiment 2 of the present invention. FIG. 図6において、画像解析器によるソーベルフィルタを用いたエッジ抽出方法の一例を説明する図である。FIG. 6 is a diagram illustrating an example of an edge extraction method using a Sobel filter by an image analyzer. 本発明の実施の形態3による画像処理装置において、図2における画像解析器の構成例を示す概略図である。3 is a schematic diagram showing a configuration example of an image analyzer in FIG. 2 in an image processing apparatus according to Embodiment 3 of the present invention. FIG.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail based on the drawings. In addition, in all the figures for explaining the embodiment, the same members are given the same reference numerals in principle, and repeated explanations thereof will be omitted.

(実施の形態1)
《検査システムの概略》
図1は、本発明の実施の形態1による検査システムにおいて、主要部の構成例を示す概略図である。図1に示す検査システム10は、撮像装置15と、照明装置16と、照明制御装置17と、画像処理装置18とを有する。照明装置16は、例えば、ハロゲンランプ光源やLED(Light Emitting Diode)光源等を含み、検査対象物20aの画像を鮮明に取り込めるように、検査対象物20aに照明を当てる。
(Embodiment 1)
《Inspection system overview》
FIG. 1 is a schematic diagram showing a configuration example of main parts in an inspection system according to Embodiment 1 of the present invention. The inspection system 10 shown in FIG. 1 includes an imaging device 15, a lighting device 16, a lighting control device 17, and an image processing device 18. The illumination device 16 includes, for example, a halogen lamp light source, an LED (Light Emitting Diode) light source, and the like, and illuminates the inspection object 20a so that a clear image of the inspection object 20a can be captured.

撮像装置15は、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサまたはCCD(Charge Coupled Device)センサ等を含み、照明を当てた状態の検査対象物20aを撮像することで画像データIMDを作成する。画像処理装置18は、撮像装置15からの画像データIMDをケーブル19aを介して取得し、当該画像データIMDを処理する。一例として、画像処理装置18は、配線基板20b上に実装された電子部品(IC)20aの実装状態(例えば、ICの実装位置、ICリードのピッチや数等)を画像処理によって検査する。この場合、画像データIMDにおいて、配線基板20bは背景となり、電子部品20aは、検査対象物となる。 The imaging device 15 includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor, and creates image data IMD by capturing an image of the inspection target 20a in a state where it is illuminated. The image processing device 18 acquires image data IMD from the imaging device 15 via the cable 19a, and processes the image data IMD. As an example, the image processing device 18 inspects the mounting state (for example, the mounting position of the IC, the pitch and number of IC leads, etc.) of the electronic component (IC) 20a mounted on the wiring board 20b by image processing. In this case, in the image data IMD, the wiring board 20b becomes the background, and the electronic component 20a becomes the object to be inspected.

さらに、詳細は後述するが、画像処理装置18は、照明装置16に対する照明条件ILCを可変設定しながら、対応する画像データIMDを処理することで、最適な照明条件ILCを探索する。照明制御装置17は、画像処理装置18からの照明条件ILCをケーブル19bを介して受信し、当該照明条件ILCに対応する照明制御信号ICSを送信する。照明装置16は、照明制御装置17からの照明制御信号ICSをケーブル19cを介して受信し、当該照明制御信号ICSに基づく光を生成して検査対象物20aに照射する。なお、照明制御装置17は、画像処理装置18または照明装置16と一体化された形態であってもよい。 Furthermore, although details will be described later, the image processing device 18 searches for the optimal lighting condition ILC by variably setting the lighting condition ILC for the lighting device 16 and processing the corresponding image data IMD. The lighting control device 17 receives the lighting condition ILC from the image processing device 18 via the cable 19b, and transmits the lighting control signal ICS corresponding to the lighting condition ILC. The lighting device 16 receives the lighting control signal ICS from the lighting control device 17 via the cable 19c, generates light based on the lighting control signal ICS, and irradiates the object to be inspected 20a with the light. Note that the lighting control device 17 may be integrated with the image processing device 18 or the lighting device 16.

ここで、一般的な検査システム10では、ケーブル19bは設けられず、照明条件ILCは、ユーザによる手作業によって照明制御装置17に設定される。すなわち、ユーザは、例えば、検査対象物20aの種類毎に、検査対象物20aの検査に先立って、照明条件ILCを適宜変更しながら、対応する画像データIMDの鮮明度を目視で評価する。そして、ユーザは、最も鮮明度が高くなる照明条件ILCを導き出す。しかし、このような方式では、ユーザの作業負荷や作業時間が増大し得る。 Here, in the general inspection system 10, the cable 19b is not provided, and the lighting conditions ILC are manually set in the lighting control device 17 by the user. That is, for example, the user visually evaluates the sharpness of the corresponding image data IMD for each type of inspection object 20a while appropriately changing the illumination condition ILC prior to inspecting the inspection object 20a. Then, the user derives the illumination condition ILC that provides the highest clarity. However, such a method may increase the user's workload and work time.

例えば、照明装置16が単色光源を用いる場合で、256階調の光量設定が可能な場合、照明条件ILCとして256個の選択肢が存在する。また、照明装置16が3色光源(R,G,B)を用いる場合で、それぞれ16階調の光量設定が可能な場合、照明条件ILCとして4096(=16)個の選択肢が存在する。ユーザは、照明条件ILCの選択肢毎に得られる画像データIMDを目視で比較する必要がある。さらに、このような作業負荷の問題に加えて、照明条件ILCの最適値を得るためには、ユーザの習熟度も必要とされる。そこで、実施の形態の画像処理装置18を用いることが有益となる。 For example, when the illumination device 16 uses a monochromatic light source and the light amount can be set in 256 gradations, there are 256 options as the illumination condition ILC. Further, when the illumination device 16 uses three color light sources (R, G, B) and the light amount can be set in 16 gradations for each, there are 4096 (=16 3 ) choices as the illumination condition ILC. The user needs to visually compare the image data IMD obtained for each illumination condition ILC option. Furthermore, in addition to such workload issues, user proficiency is also required in order to obtain the optimal value of the illumination condition ILC. Therefore, it is advantageous to use the image processing device 18 of the embodiment.

《画像処理装置の詳細》
図2は、図1における画像処理装置の主要部の構成例を示すブロック図である。図2に示す画像処理装置18は、画像インタフェース25と、照明条件探索器26と、画像解析器27と、比較器28と、メモリ29とを備える。照明条件探索器26は、照明装置16の照明条件ILC[i]を可変設定する。画像インタフェース25は、照明条件ILC[i]毎に、撮像装置15によって撮像および作成された検査対象物20aの画像データIMD[i]を取得し、当該画像データIMD[i]を照明条件ILC[i]に対応付けてメモリ29に保存する。
《Details of image processing device》
FIG. 2 is a block diagram showing an example of the configuration of main parts of the image processing apparatus in FIG. 1. As shown in FIG. The image processing device 18 shown in FIG. 2 includes an image interface 25, an illumination condition searcher 26, an image analyzer 27, a comparator 28, and a memory 29. The illumination condition searcher 26 variably sets the illumination condition ILC[i] of the illumination device 16. The image interface 25 acquires image data IMD[i] of the inspection object 20a imaged and created by the imaging device 15 for each illumination condition ILC[i], and converts the image data IMD[i] to the illumination condition ILC[i]. i] and stored in the memory 29.

画像解析器27は、メモリ29に保存された照明条件ILC[i]毎の画像データIMD[i]に対して画像解析を行い、その画像解析結果AR[i]を照明条件ILC[i]に対応付けてメモリ29に保存する。比較器28は、メモリ29に保存された照明条件ILC[i]毎の画像解析結果AR[i]を比較することで、複数の照明条件ILC[i]の中からいずれか一つの照明条件ILCxを選択する。そして、比較器28は、この選択した照明条件ILCxを、検査対象物20aを検査する際の最終的な照明条件ILCxに定める。 The image analyzer 27 performs image analysis on the image data IMD[i] for each illumination condition ILC[i] stored in the memory 29, and applies the image analysis result AR[i] to the illumination condition ILC[i]. The data are stored in the memory 29 in association with each other. The comparator 28 compares the image analysis results AR[i] for each illumination condition ILC[i] stored in the memory 29 to select one illumination condition ILCx from among the plurality of illumination conditions ILC[i]. Select. Then, the comparator 28 sets the selected illumination condition ILCx as the final illumination condition ILCx when inspecting the inspection object 20a.

なお、図2の画像処理装置18は、例えば、マザーボード上に、単数または複数のプロセッサ(CPU(Central Processing Unit)またはGPU(Graphics Processing Unit))と、メモリ29(RAM(Random access memory)および不揮発性メモリ)とを実装したような形態で構成される。この場合、画像インタフェース25、照明条件探索器26、画像解析器27および比較器28は、このようなプロセッサを用いたプログラム処理で実装される。 Note that the image processing device 18 in FIG. 2 includes, for example, one or more processors (CPU (Central Processing Unit) or GPU (Graphics Processing Unit)) and memory 29 (RAM (Random access memory) and nonvolatile access memory) on a motherboard. It is configured in a form that implements a physical memory). In this case, the image interface 25, the illumination condition searcher 26, the image analyzer 27, and the comparator 28 are implemented by program processing using such a processor.

ただし、画像処理装置18は、このような実装形態に限らず、プロセッサの代わりにFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等を用いた形態や、または、PC(Personal Computer)等を用いた形態等であってもよい。また、図示は省略されているが、画像処理装置18は、例えば、検査対象物20aの検査に伴う画像解析を実行し、良否判定等を行うための画像解析器を別途備えている。 However, the image processing device 18 is not limited to this implementation form, but may also be a form using an FPGA (Field Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), etc. instead of a processor, or a PC (Personal Computer). It may also be a form using etc. Although not shown in the drawings, the image processing device 18 is additionally equipped with an image analyzer for, for example, performing image analysis associated with the inspection of the inspection object 20a and making a quality determination.

図3は、図2の画像処理装置の処理内容の一例を示すフロー図である。図3のフローは、例えば、検査対象物20aの種類毎に、検査対象物20aの検査に先立って実行される。図3において、まず、照明条件探索器26は、照明条件ILC[i]を初期値に設定する(ステップS101)。続いて、画像インタフェース25は、当該照明条件ILC[i]の下で撮像装置15によって撮像および作成された検査対象物20aの画像データIMD[i]を取得する(ステップS102)。次いで、画像解析器27は、取得された画像データIMD[i]に対して画像解析を実行し(ステップS103)、その画像解析結果AR[i]を照明条件ILC[i]に対応付けてメモリ29に保存する(ステップS104)。 FIG. 3 is a flow diagram illustrating an example of processing contents of the image processing apparatus of FIG. 2. The flow in FIG. 3 is executed, for example, for each type of object 20a to be inspected, prior to the inspection of the object 20a to be inspected. In FIG. 3, first, the illumination condition searcher 26 sets the illumination condition ILC[i] to an initial value (step S101). Subsequently, the image interface 25 acquires image data IMD[i] of the inspection object 20a imaged and created by the imaging device 15 under the illumination condition ILC[i] (step S102). Next, the image analyzer 27 performs image analysis on the acquired image data IMD[i] (step S103), associates the image analysis result AR[i] with the illumination condition ILC[i], and stores it in the memory. 29 (step S104).

続いて、照明条件探索器26は、他の照明条件ILC[i]があるか否かを判定する(ステップS105)。他の照明条件ILC[i]がある場合、照明条件探索器26は、照明条件ILC[i]を変更する(ステップS106)。その後、ステップS102~S104の場合と同様に、画像インタフェース25は、画像データIMD[i]を取得し(ステップS107)、画像解析器27は、画像解析を実行して(ステップS108)、画像解析結果AR[i]をメモリ29に保存する(ステップS109)。そして、画像処理装置18は、ステップS105で他の照明条件ILC[i]が無しとなるまで、ステップS106~S109の処理を繰り返し実行する。 Subsequently, the illumination condition searcher 26 determines whether there is another illumination condition ILC[i] (step S105). If there is another illumination condition ILC[i], the illumination condition searcher 26 changes the illumination condition ILC[i] (step S106). After that, similarly to steps S102 to S104, the image interface 25 acquires the image data IMD[i] (step S107), and the image analyzer 27 performs image analysis (step S108). The result AR[i] is stored in the memory 29 (step S109). Then, the image processing device 18 repeatedly executes the processes of steps S106 to S109 until there is no other illumination condition ILC[i] in step S105.

これにより、画像解析結果AR[i]が、照明条件ILC[i]の選択肢の数の分だけ得られる。例えば、前述したように、選択肢が256個の場合には、256個の画像解析結果AR[i]が得られ、選択肢が4096個の場合には、4096個の画像解析結果AR[i]が得られる。なお、照明装置16がアナログ的に光量を調整する仕様の場合には、例えば、アナログ値を複数段階に量子化した上で同様の処理を行えばよい。 Thereby, image analysis results AR[i] are obtained as many as the number of options for illumination condition ILC[i]. For example, as mentioned above, when there are 256 options, 256 image analysis results AR[i] are obtained, and when there are 4096 options, 4096 image analysis results AR[i] are obtained. can get. Note that if the lighting device 16 is designed to adjust the amount of light in an analog manner, for example, the analog value may be quantized into a plurality of stages and then similar processing may be performed.

一方、ステップS105で他の照明条件ILC[i]が無しと判定された場合、比較器28は、複数の照明条件ILC[i]毎の画像解析結果AR[i]を比較する(ステップS110)。そして、比較器28は、画像解析結果AR[i]が最も良好となる照明条件ILC[i]を最終的な照明条件ILCxに定める(ステップS111)。その後は、この最終的な照明条件ILCxの下で、検査対象物20aの検査が行われる。 On the other hand, if it is determined in step S105 that there is no other illumination condition ILC[i], the comparator 28 compares the image analysis results AR[i] for each of the plurality of illumination conditions ILC[i] (step S110). . Then, the comparator 28 determines the illumination condition ILC[i] that provides the best image analysis result AR[i] as the final illumination condition ILCx (step S111). Thereafter, the inspection object 20a is inspected under this final illumination condition ILCx.

なお、画像処理装置18のフローは、図3のフローに限らず、適宜変更することが可能である。例えば、ステップS105~S109のループ処理の中で、前回の画像解析結果(AR[i-1])と今回の画像解析結果(AR[i])とを比較し、いずれか良好な方の画像解析結果(および対応する照明条件)のみをメモリ29に残していくようなフローであってもよい。 Note that the flow of the image processing device 18 is not limited to the flow shown in FIG. 3, and can be changed as appropriate. For example, in the loop processing of steps S105 to S109, the previous image analysis result (AR[i-1]) and the current image analysis result (AR[i]) are compared, and whichever is better is selected. The flow may be such that only the analysis results (and the corresponding illumination conditions) are left in the memory 29.

《画像解析器の詳細》
図4は、図2における画像解析器および比較器の動作例を説明する模式図である。図4において、画像解析器27は、照明条件ILC[1],ILC[2]毎の画像データ31a(IMD),31b(IMD)に対してコントラストを算出する。具体的には、画像解析器27は、各画像データ31a(IMD),31b(IMD)に対して検査対象物20aの濃度と背景20bの濃度とのコントラストを算出する。この例では、説明の便宜上、検査対象物20aは、円形状であるものとする。そして、画像解析器27は、各画像データ31a(IMD),31b(IMD)毎に算出されたコントラストを画像解析結果AR[1],AR[2]として出力する。
《Details of image analyzer》
FIG. 4 is a schematic diagram illustrating an example of the operation of the image analyzer and comparator in FIG. 2. In FIG. 4, the image analyzer 27 calculates contrast for image data 31a (IMD) and 31b (IMD) for each illumination condition ILC[1] and ILC[2]. Specifically, the image analyzer 27 calculates the contrast between the density of the inspection object 20a and the density of the background 20b for each image data 31a (IMD) and 31b (IMD). In this example, for convenience of explanation, it is assumed that the inspection object 20a has a circular shape. Then, the image analyzer 27 outputs the contrast calculated for each image data 31a (IMD) and 31b (IMD) as image analysis results AR[1] and AR[2].

比較器28は、各画像解析結果AR[1],AR[2](すなわちコントラスト)を比較することで、複数の照明条件ILC[1],ILC[2]の中からいずれか一つの照明条件を選択する。図4の例では、照明条件ILC[2]の画像データ31bの方が、照明条件ILC[1]の画像データ31aよりもコントラストが大きい。この場合、比較器28は、コントラストが大きい照明条件ILC[2]を照明条件ILC[1]よりも良好と判定し、照明条件ILC[2]を選択する。 The comparator 28 compares the image analysis results AR[1] and AR[2] (i.e. contrast) to determine which one of the plurality of illumination conditions ILC[1] and ILC[2]. Select. In the example of FIG. 4, the image data 31b under illumination condition ILC[2] has a higher contrast than the image data 31a under illumination condition ILC[1]. In this case, the comparator 28 determines that the illumination condition ILC[2] with large contrast is better than the illumination condition ILC[1], and selects the illumination condition ILC[2].

図5Aは、図2および図4における画像解析器および比較器の処理内容の一例を示すフロー図である。図5Bは、図5Aの補足図である。図4で述べたコントラストを算出する方式の一つとして、判別分析法を利用する方式が挙げられる。判別分析法は、大津の二値化とも呼ばれ、図5Bに示されるように、画像内の全画素を二値化(白黒化)する際のしきい値THを定める方法である。 FIG. 5A is a flow diagram illustrating an example of processing contents of the image analyzer and comparator in FIGS. 2 and 4. Figure 5B is a supplementary figure to Figure 5A. One of the methods for calculating the contrast described in FIG. 4 is a method using a discriminant analysis method. The discriminant analysis method is also called Otsu's binarization, and as shown in FIG. 5B, is a method of determining a threshold value TH for binarizing (black-and-white) all pixels in an image.

図5Bには、画素値(濃度)と、画素値毎の画素数との関係を表すヒストグラムが示される。このようなヒストグラムを有する画像を二値化するため、しきい値TH以下の画素値を有する画素群がクラス[1](すなわち0/1の一方)に分類され、しきい値THよりも大きい画素値を有する画素群がクラス[2](0/1の他方)に分類される。判別分析法では、しきい値THを変化させながら式(1)に示される分離度Sを算出することで、分離度Sが最大となるしきい値THが探索される。
S=σ /σ …(1)
FIG. 5B shows a histogram representing the relationship between pixel values (density) and the number of pixels for each pixel value. In order to binarize an image with such a histogram, a group of pixels with pixel values less than or equal to the threshold TH are classified into class [1] (i.e. one of 0/1), and a group of pixels larger than the threshold TH is classified into class [1] (i.e. one of 0/1). A pixel group having a pixel value is classified into class [2] (the other of 0/1). In the discriminant analysis method, the threshold value TH with which the degree of separation S is maximized is searched for by calculating the degree of separation S shown in equation (1) while changing the threshold value TH.
S=σ b 2w 2 …(1)

式(1)において、σ は、クラス間分散であり、式(2)で与えられる。σ は、クラス内分散であり、式(3)で与えられる。また、式(2)および式(3)において、w,m,σは、それぞれ、クラス[1]の画素数、画素値の平均値、分散であり、w,m,σは、それぞれ、クラス[2]の画素数、画素値の平均値、分散である。
σ =w(m-m/(w+w …(2)
σ =(wσ +wσ )/(w+w) …(3)
In equation (1), σ b 2 is the inter-class variance and is given by equation (2). σ w 2 is the intra-class variance and is given by equation (3). In addition, in equations (2) and (3), w 1 , m 1 , σ 1 are the number of pixels, the average value of pixel values, and the variance of class [1], respectively, and w 2 , m 2 , σ 2 are the number of pixels, the average value of pixel values, and the variance of class [2], respectively.
σ b 2 = w 1 w 2 (m 1 - m 2 ) 2 / (w 1 + w 2 ) 2 ...(2)
σ w 2 = (w 1 σ 1 2 + w 2 σ 2 2 )/(w 1 +w 2 ) …(3)

ここで、式(1)の分離度Sは、式(2)の分子から分かるように、クラス[1]の平均値mとクラス[2]の平均値mとの差分が大きくなるほど大きくなる。この平均値の差分は、コントラストを表すことになる。すなわち、判別分析法を用いると、画像毎に最大の分離度Sを算出することで、間接的に、画像毎のコントラストの指標値を算出することが可能になる。 Here, as can be seen from the numerator of equation (2), the degree of separation S in equation (1) increases as the difference between the average value m 1 of class [1] and the average value m 2 of class [2] increases. Become. The difference between these average values represents the contrast. That is, when the discriminant analysis method is used, by calculating the maximum degree of separation S for each image, it becomes possible to indirectly calculate the contrast index value for each image.

このような判別分析法を利用して、画像解析器27および比較器28は、図5Aのような処理を実行する。まず、画像解析器27は、照明条件ILC[i]毎の画像解析結果AR[i]として、判別分析法を用いて算出した分離度S(最大の分離度Smax)をメモリ29に保存する(ステップS201)。その後、比較器28は、メモリ29に保存された分離度(Smax)を比較する(ステップS202)。そして、比較器28は、分離度(Smax)が最大となる(言い換えればコントラストが最大となる)照明条件を最終的な照明条件ILCxとして選択する(ステップS203)。 Using such a discriminant analysis method, the image analyzer 27 and the comparator 28 perform processing as shown in FIG. 5A. First, the image analyzer 27 stores the degree of separation S (maximum degree of separation Smax) calculated using the discriminant analysis method in the memory 29 as the image analysis result AR[i] for each illumination condition ILC[i] ( Step S201). After that, the comparator 28 compares the degree of separation (Smax) stored in the memory 29 (step S202). Then, the comparator 28 selects the illumination condition where the degree of separation (Smax) is maximized (in other words, the contrast is maximized) as the final illumination condition ILCx (step S203).

《実施の形態1の主要な効果》
以上、実施の形態1の方式を用いることで、代表的には、照明条件の決定に伴うユーザの作業負荷を軽減することが可能になる。また、ユーザの作業時間を短縮することが可能になり、ひいては、検査時間を短縮することが可能になる。さらに、照明条件の決定に際してのユーザの習熟度が不必要となり、客観的な指標(ここではコントラスト)に基づいて照明条件を自動的に決定することが可能になる。その結果、検査精度のばらつきを抑制することが可能になる。
《Main effects of Embodiment 1》
As described above, by using the method of Embodiment 1, it is typically possible to reduce the user's workload associated with determining lighting conditions. Moreover, it becomes possible to shorten the user's working time, and by extension, it becomes possible to shorten the inspection time. Furthermore, the user's level of proficiency is not required when determining the illumination conditions, and it becomes possible to automatically determine the illumination conditions based on an objective index (in this case, contrast). As a result, it becomes possible to suppress variations in inspection accuracy.

(実施の形態2)
《画像解析器の詳細》
図6は、本発明の実施の形態2による画像処理装置において、図2における画像解析器および比較器の動作例を説明する模式図である。図6において、画像解析器27は、照明条件ILC[3],ILC[4]毎の画像データ31c(IMD),31d(IMD)に対してエッジ抽出フィルタを用いてエッジ(具体的には検査対象物20aのエッジ)を抽出し、エッジ抽出後の画像データ32c,32dを作成する。また、画像解析器27は、画像データ32c,32dに対して、抽出されたエッジの強度値E[3],E[4]を算出する。そして、画像解析器27は、このエッジの強度値E[3],E[4]を画像解析結果AR[3],AR[4]として出力する。
(Embodiment 2)
《Details of image analyzer》
FIG. 6 is a schematic diagram illustrating an example of the operation of the image analyzer and comparator in FIG. 2 in the image processing apparatus according to the second embodiment of the present invention. In FIG. 6, the image analyzer 27 uses an edge extraction filter for image data 31c (IMD) and 31d (IMD) for each illumination condition ILC[3] and ILC[4] to Edges of the object 20a) are extracted, and image data 32c and 32d after edge extraction are created. Furthermore, the image analyzer 27 calculates intensity values E[3] and E[4] of the extracted edges for the image data 32c and 32d. Then, the image analyzer 27 outputs the edge strength values E[3] and E[4] as image analysis results AR[3] and AR[4].

比較器28は、各画像解析結果AR[3],AR[4](すなわちエッジの強度値E[3],E[4])を比較することで、複数の照明条件ILC[3],ILC[4]の中からいずれか一つの照明条件を選択する。図6には、画像データ32c,32dにおいて、画素の位置(X座標)と、X座標毎にY座標方向に画素値(濃度)を累積した値(累積画素値)との関係が示される。エッジの強度値E[3],E[4]は、例えば、累積画素値のピーク値によって定められる。 The comparator 28 compares the image analysis results AR[3] and AR[4] (that is, the edge intensity values E[3] and E[4]), thereby determining the illumination conditions ILC[3] and ILC. Select one of the lighting conditions from [4]. FIG. 6 shows the relationship between pixel positions (X coordinates) and values (cumulative pixel values) obtained by accumulating pixel values (densities) in the Y coordinate direction for each X coordinate in the image data 32c and 32d. The edge strength values E[3] and E[4] are determined, for example, by the peak value of the cumulative pixel values.

この例では、照明条件ILC[4]の画像データ32dにおけるエッジの強度値E[4]が、照明条件ILC[3]の画像データ32cにおけるエッジの強度値E[3]よりも高い。この場合、比較器28は、エッジの強度値が高い照明条件ILC[4]を照明条件ILC[3]よりも良好と判定し、照明条件ILC[4]を選択する。なお、ここでは、画像解析結果AR[3],AR[4]として、エッジの強度値E[3],E[4]を用いたが、これに加えて、累積画素値の総和等を用いてもよい。具体的には、例えば、エッジの強度値と累積画素値の総和とを所定の重み付けで積和演算した値等を用いてもよい。 In this example, the edge intensity value E[4] in the image data 32d under the illumination condition ILC[4] is higher than the edge intensity value E[3] in the image data 32c under the illumination condition ILC[3]. In this case, the comparator 28 determines that the illumination condition ILC[4] with a high edge intensity value is better than the illumination condition ILC[3], and selects the illumination condition ILC[4]. Here, edge intensity values E[3] and E[4] were used as the image analysis results AR[3] and AR[4], but in addition, the sum of cumulative pixel values, etc. It's okay. Specifically, for example, a value obtained by performing a sum-of-products operation on the edge strength value and the total sum of cumulative pixel values with predetermined weighting may be used.

ここで、図6で用いるエッジ抽出フィルタとして、代表的には、ソーベルフィルタが挙げられる。図7は、図6において、画像解析器によるソーベルフィルタを用いたエッジ抽出方法の一例を説明する図である。ソーベルフィルタでは、図7に示されるように、行方向のエッジを抽出するための3行3列のカーネルKxと、列方向のエッジを抽出するための3行3列のカーネルKyとが用いられる。 Here, a typical example of the edge extraction filter used in FIG. 6 is a Sobel filter. FIG. 7 is a diagram illustrating an example of an edge extraction method using a Sobel filter by the image analyzer in FIG. 6. In the Sobel filter, as shown in FIG. 7, a kernel Kx of 3 rows and 3 columns is used to extract edges in the row direction, and a kernel Ky of 3 rows and 3 columns is used to extract edges in the column direction. It will be done.

また、画像データIMDは、x行y列の画素値(濃度)I[11]~I[xy]を含んでいる。画像解析器27は、画像データIMDに対してカーネルKxを畳み込み演算することで、行方向のエッジが抽出された画像データを作成する。同様に、画像解析器27は、画像データIMDに対してカーネルKyを畳み込み演算することで、Y方向のエッジが抽出された画像データを作成する。 Further, the image data IMD includes pixel values (densities) I[11] to I[xy] in x row and y column. The image analyzer 27 creates image data in which edges in the row direction are extracted by convolving the image data IMD with the kernel Kx. Similarly, the image analyzer 27 creates image data in which edges in the Y direction are extracted by convolving the image data IMD with the kernel Ky.

具体的には、画像解析器27は、例えば、画素値I[22]を中心とする3行3列の画素値群に対してカーネルKxを畳み込み演算し、次いで、画素値I[23]を中心とする3行3列の画素値群に対してカーネルKxを畳み込み演算するといった空間フィルタリング処理を全ての画素値に対して行う。その結果、x行y列の画素値を含んだ空間フィルタリング処理後の画像データ(すなわち、行方向のエッジ抽出後の画像データ)が得られる。また、カーネルKyを用いて同様の空間フィルタリング処理を行うことで、列方向のエッジ抽出後の画像データが得られる。なお、エッジ抽出フィルタは、ソーベルフィルタに限らず、微分フィルタやプレヴィットフィルタ等、様々なものであってよい。
《実施の形態2の主要な効果》
以上、実施の形態2の方式を用いることでも、実施の形態1の場合と同様の効果が得られる。なお、実施の形態1の方式(コントラスト)と実施の形態2の方式(エッジ強度)のいずれを用いるかは、例えば、図1における検査対象物20aおよび背景20bの種別や、照明装置16の仕様等に応じて適宜定められればよい。また、コントラストかエッジ強度のいずかではなく、コントラストとエッジ強度の両方を適宜組み合わせて判定を行うような方式を用いてもよい。
Specifically, the image analyzer 27 convolves the kernel Kx on a group of pixel values arranged in 3 rows and 3 columns centered on the pixel value I[22], and then converts the pixel value I[23] into Spatial filtering processing is performed on all pixel values, in which a kernel Kx is convolved with a central group of pixel values arranged in 3 rows and 3 columns. As a result, image data after spatial filtering processing (that is, image data after edge extraction in the row direction) including pixel values in x rows and y columns is obtained. Further, by performing similar spatial filtering processing using the kernel Ky, image data after column-direction edge extraction can be obtained. Note that the edge extraction filter is not limited to the Sobel filter, and may be various types such as a differential filter and a Prewitt filter.
《Main effects of Embodiment 2》
As described above, by using the method of the second embodiment, the same effects as in the first embodiment can be obtained. Note that whether to use the method of the first embodiment (contrast) or the method of the second embodiment (edge strength) depends on, for example, the types of the inspection object 20a and the background 20b in FIG. 1, and the specifications of the illumination device 16. It may be determined as appropriate depending on the situation. Alternatively, a method may be used in which the determination is made by appropriately combining both contrast and edge strength, instead of using either contrast or edge strength.

(実施の形態3)
《画像解析器の詳細》
図8は、本発明の実施の形態3による画像処理装置において、図2における画像解析器の構成例を示す概略図である。実施の形態1,2では、照明条件ILC[i]を定量的に評価するため、コントラストやエッジ強度を用いた。ただし、従来の習熟したユーザによる画像の評価基準が最適であると仮定すると、この人手による評価基準と、コントラストやエッジ強度を用いた評価基準との間に、差異が生じる可能性がある。
(Embodiment 3)
《Details of image analyzer》
FIG. 8 is a schematic diagram showing a configuration example of the image analyzer in FIG. 2 in the image processing apparatus according to Embodiment 3 of the present invention. In the first and second embodiments, contrast and edge strength were used to quantitatively evaluate the illumination condition ILC[i]. However, assuming that the conventional image evaluation criteria by a skilled user is optimal, there is a possibility that a difference will occur between this manual evaluation criteria and the evaluation criteria using contrast or edge strength.

そこで、実施の形態3では、習熟したユーザによる画像の評価基準をAI(Artificial Intelligence)に学習させることで、習熟したユーザの代わりにAIに評価を行わせる。具体的には、画像解析器27は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載する。そして、画像解析器27は、照明条件ILC[i]毎の画像データIMD[i]に対してAIを用いて評価値を算出し、当該評価値を画像解析結果AR[i]として出力する。 Therefore, in Embodiment 3, AI (Artificial Intelligence) is made to learn the evaluation criteria for images by a skilled user, thereby causing the AI to perform evaluation in place of the skilled user. Specifically, the image analyzer 27 is equipped with AI (Artificial Intelligence) that has been trained to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation criteria. Then, the image analyzer 27 uses AI to calculate an evaluation value for the image data IMD[i] for each illumination condition ILC[i], and outputs the evaluation value as an image analysis result AR[i].

図8に示す画像解析器27は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を搭載している。CNNは、画像認識を行うためのAIとして広く知られている。CNNは、主に、入力層35と、畳み込み層36と、プーリング層37と、全結合層38と、出力層39とを備える。畳み込み層36とプーリング層37は、1層に限らず、交互に積み重ねる形で構成されてもよい。 The image analyzer 27 shown in FIG. 8 is equipped with a convolutional neural network (CNN). CNN is widely known as an AI for image recognition. CNN mainly includes an input layer 35, a convolution layer 36, a pooling layer 37, a fully connected layer 38, and an output layer 39. The convolution layer 36 and the pooling layer 37 are not limited to one layer, but may be configured to be stacked alternately.

入力層35には、行列方向に複数の画素値を含んだ画像データ31(IMD)が入力される。畳み込み層36は、入力層35における画像データ31に対して、複数チャネル(この例では3チャネル)のフィルタ41a,41b,41cを用いてそれぞれ畳み込み演算を行う。これにより、畳み込み層36は、複数チャネルの画像データ42a,42b,42cを作成する。フィルタ41a,41b,41cには、それぞれ、重み係数W ,W ,W が設定される。 Image data 31 (IMD) including a plurality of pixel values in the matrix direction is input to the input layer 35 . The convolution layer 36 performs a convolution operation on the image data 31 in the input layer 35 using filters 41a, 41b, and 41c of multiple channels (three channels in this example). Thereby, the convolution layer 36 creates multiple channels of image data 42a, 42b, and 42c. Weighting coefficients W 0 1 , W 0 2 , and W 0 3 are set for the filters 41a, 41b, and 41c, respectively.

プーリング層37は、畳み込み層36で作成された複数チャネルの画像データ42a,42b,42cに対して、それぞれ、予め定めた演算処理を行う。これにより、プーリング層37は、空間サイズを小さくした複数チャネルの画像データ43a,43b,43cを作成する。具体的には、プーリング層37は、例えば、画像データ42aを複数(この例では2×2)の画素値を含むように区画した状態で、区画毎に複数の画素値の最大値や平均値等を求めることで画像データ43aを作成する。 The pooling layer 37 performs predetermined arithmetic processing on the plurality of channels of image data 42a, 42b, and 42c created by the convolution layer 36, respectively. As a result, the pooling layer 37 creates multiple channels of image data 43a, 43b, and 43c with a reduced spatial size. Specifically, the pooling layer 37 divides the image data 42a into sections to include a plurality of (2×2 in this example) pixel values, and calculates the maximum value or average value of the plurality of pixel values for each section. The image data 43a is created by calculating the following.

全結合層38は、プーリング層37で作成された複数チャネルの画像データ43a,43b,43cを一次元のベクトルに展開する。出力層39は、全結合層38における一次元のベクトルに対して、それぞれ、所定の重み係数Wiを用いて積和演算を行うことで評価値EVを出力する。 The fully connected layer 38 expands the multiple channels of image data 43a, 43b, and 43c created by the pooling layer 37 into one-dimensional vectors. The output layer 39 outputs an evaluation value EV by performing a sum-of-products operation on each one-dimensional vector in the fully connected layer 38 using a predetermined weighting coefficient Wi.

このような画像解析器27を用いた学習時には、教師データとして、例えば、画像データ31と、当該画像データ31に対して習熟したユーザが定めた評価値とが入力される。画像解析器27は、当該画像データ31を入力層35とした場合に出力層39から出力される評価値EVと、習熟したユーザが定めた評価値との誤差を算出する。そして、画像解析器27は、この誤差をゼロに近づけるように、誤差逆伝播法を用いて、全結合層38と出力層39との間の重み係数Wiやフィルタ41a,41b,41cの重み係数W ,W ,W を更新する。 During learning using such an image analyzer 27, for example, image data 31 and an evaluation value determined by a user who is familiar with the image data 31 are input as teacher data. The image analyzer 27 calculates the error between the evaluation value EV output from the output layer 39 when the image data 31 is used as the input layer 35 and the evaluation value determined by a skilled user. Then, the image analyzer 27 uses the error backpropagation method to bring this error close to zero, and uses the weighting coefficient Wi between the fully connected layer 38 and the output layer 39 and the weighting coefficients of the filters 41a, 41b, and 41c. W 0 1 , W 0 2 , and W 0 3 are updated.

このような学習を繰り返し行うことで、例えば、習熟したユーザが評価値を定める際に重視する画像の特徴が、主に、フィルタ41a,41b,41cの重み係数W ,W ,W として学習される。また、画像の特徴と評価値EVとの関係性は、主に、重み係数Wiとして学習される。その結果、画像解析器27は、推論時において、入力層35に所定の画像データ31を与えると、習熟したユーザの評価基準に基づく評価値と同等の評価値EVを出力層39から出力できるようになる。また、この場合、比較器28は、図3のステップS110,S111において、最も評価値EVが高くなる照明条件を最終的な照明条件ILCxとして選択すればよい。 By repeatedly performing such learning, for example, the image features that are important when a skilled user determines the evaluation value are mainly the weighting coefficients W 0 1 , W 0 2 , W of the filters 41a, 41b, 41c. 0 3 . Further, the relationship between the image features and the evaluation value EV is mainly learned as a weighting coefficient Wi. As a result, when the image analyzer 27 supplies predetermined image data 31 to the input layer 35 at the time of inference, the output layer 39 can output an evaluation value EV equivalent to the evaluation value based on the evaluation criteria of a skilled user. become. Furthermore, in this case, the comparator 28 may select the illumination condition that gives the highest evaluation value EV as the final illumination condition ILCx in steps S110 and S111 of FIG.

《実施の形態3の主要な効果》
以上、実施の形態3の方式を用いることでも、実施の形態1の場合と同様の効果が得られる。さらに、AIへの学習のさせ方によって、照明条件を定める際の画像の評価基準をより最適化することが可能になる。その結果、検査システムの検査精度を向上させることが可能になる。
《Main effects of Embodiment 3》
As described above, by using the method of the third embodiment, the same effects as in the first embodiment can be obtained. Furthermore, depending on how the AI is trained, it becomes possible to further optimize image evaluation criteria when determining lighting conditions. As a result, it becomes possible to improve the inspection accuracy of the inspection system.

なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the embodiments described above, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. . Furthermore, it is possible to add, delete, or replace some of the configurations of each embodiment with other configurations.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Furthermore, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that implement each function can be stored in a memory, a recording device such as a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered to be interconnected.

10:検査システム、15:撮像装置、16:照明装置、17:照明制御装置、18:画像処理装置、19a~19c:ケーブル、20a:電子部品(検査対象物)、20b:配線基板(背景)、25:画像インタフェース、26:照明条件探索器、27:画像解析器、28:比較器、29:メモリ、31,31a~31d:画像データ、35:入力層、36:畳み込み層、37:プーリング層、38:全結合層、39:出力層、フィルタ41a~41c、42a~42c:画像データ、43a~43c:画像データ、AR:画像解析結果、E:エッジの強度値、EV:評価値、I:画素値、ICS:照明制御信号、ILC:照明条件、IMD:画像データ 10: Inspection system, 15: Imaging device, 16: Lighting device, 17: Lighting control device, 18: Image processing device, 19a to 19c: Cable, 20a: Electronic component (inspection object), 20b: Wiring board (background) , 25: Image interface, 26: Illumination condition searcher, 27: Image analyzer, 28: Comparator, 29: Memory, 31, 31a to 31d: Image data, 35: Input layer, 36: Convolution layer, 37: Pooling layer, 38: fully connected layer, 39: output layer, filters 41a to 41c, 42a to 42c: image data, 43a to 43c: image data, AR: image analysis result, E: edge strength value, EV: evaluation value, I: pixel value, ICS: illumination control signal, ILC: illumination condition, IMD: image data

Claims (12)

照明を当てた状態で撮像された検査対象物の画像データを処理する画像処理装置であって、
前記照明の照明条件を可変設定する照明条件探索器と、
前記照明条件毎の前記画像データを取得する画像インタフェースと、
前記照明条件毎の前記画像データに対して画像解析を行う画像解析器と、
前記画像解析器による前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する比較器と、
を有する、
画像処理装置。
An image processing device that processes image data of an inspection target imaged in a state where it is illuminated,
an illumination condition searcher that variably sets the illumination conditions of the illumination;
an image interface that acquires the image data for each of the illumination conditions;
an image analyzer that performs image analysis on the image data for each of the illumination conditions;
a comparator that selects any one of the illumination conditions from the plurality of illumination conditions by comparing image analysis results for each of the illumination conditions by the image analyzer;
has,
Image processing device.
請求項1記載の画像処理装置において、
前記画像解析器は、前記照明条件毎の前記画像データに対してコントラストを算出し、前記コントラストを前記画像解析結果として出力する、
画像処理装置。
The image processing device according to claim 1,
The image analyzer calculates a contrast for the image data for each illumination condition, and outputs the contrast as the image analysis result.
Image processing device.
請求項1記載の画像処理装置において、
前記画像解析器は、前記照明条件毎の前記画像データに対してエッジを抽出し、抽出されたエッジの強度値を算出し、前記エッジの強度値を前記画像解析結果として出力する、
画像処理装置。
The image processing device according to claim 1,
The image analyzer extracts edges from the image data for each of the illumination conditions, calculates an intensity value of the extracted edge, and outputs the intensity value of the edge as the image analysis result.
Image processing device.
請求項1記載の画像処理装置において、
前記画像解析器は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載し、前記照明条件毎の前記画像データに対して前記AIを用いて前記評価値を算出し、前記評価値を前記画像解析結果として出力する、
画像処理装置。
The image processing device according to claim 1,
The image analyzer is equipped with AI (Artificial Intelligence) that has been trained to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation criteria, and applies the AI to the image data for each of the lighting conditions. calculating the evaluation value using the method, and outputting the evaluation value as the image analysis result.
Image processing device.
検査対象物に照明を当てる照明装置と、
前記照明を当てた状態の前記検査対象物を撮像することで画像データを作成する撮像装置と、
前記画像データを処理する画像処理装置と、
を有する検査システムであって、
前記画像処理装置は、
前記照明装置の照明条件を可変設定する照明条件探索器と、
前記撮像装置からの前記照明条件毎の前記画像データを取得する画像インタフェースと、
前記照明条件毎の前記画像データに対して画像解析を行う画像解析器と、
前記画像解析器による前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する比較器と、
を有する、
検査システム。
A lighting device that illuminates the object to be inspected;
an imaging device that creates image data by imaging the object to be inspected in a state where the illumination is applied;
an image processing device that processes the image data;
An inspection system having
The image processing device includes:
a lighting condition searcher that variably sets lighting conditions of the lighting device;
an image interface that acquires the image data for each of the illumination conditions from the imaging device;
an image analyzer that performs image analysis on the image data for each of the illumination conditions;
a comparator that selects any one of the illumination conditions from the plurality of illumination conditions by comparing image analysis results for each of the illumination conditions by the image analyzer;
has,
Inspection system.
請求項5記載の検査システムにおいて、
前記画像解析器は、前記照明条件毎の前記画像データに対してコントラストを算出し、前記コントラストを前記画像解析結果として出力する、
検査システム。
The inspection system according to claim 5,
The image analyzer calculates a contrast for the image data for each illumination condition, and outputs the contrast as the image analysis result.
Inspection system.
請求項5記載の検査システムにおいて、
前記画像解析器は、前記照明条件毎の前記画像データに対してエッジを抽出し、抽出されたエッジの強度値を算出し、前記エッジの強度値を前記画像解析結果として出力する、
検査システム。
The inspection system according to claim 5,
The image analyzer extracts edges from the image data for each of the illumination conditions, calculates an intensity value of the extracted edge, and outputs the intensity value of the edge as the image analysis result.
Inspection system.
請求項5記載の検査システムにおいて、
前記画像解析器は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載し、前記照明条件毎の前記画像データに対して前記AIを用いて前記評価値を算出し、前記評価値を前記画像解析結果として出力する、
検査システム。
The inspection system according to claim 5,
The image analyzer is equipped with AI (Artificial Intelligence) that has been trained to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation criteria, and applies the AI to the image data for each of the lighting conditions. calculating the evaluation value using the method, and outputting the evaluation value as the image analysis result.
Inspection system.
検査対象物に照明を当てる照明装置と、
前記照明を当てた状態の前記検査対象物を撮像することで画像データを作成する撮像装置と、
を含む検査システムを用いて前記検査対象物を検査する検査方法であって、
前記照明装置の照明条件を可変設定する第1のステップと、
前記撮像装置からの前記照明条件毎の前記画像データを取得し、前記照明条件毎の前記画像データに対して画像解析を行う第2のステップと、
前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する第3のステップと、
を有する、
検査方法。
A lighting device that illuminates the object to be inspected;
an imaging device that creates image data by imaging the object to be inspected in a state where the illumination is applied;
An inspection method for inspecting the object to be inspected using an inspection system comprising:
a first step of variably setting lighting conditions of the lighting device;
a second step of acquiring the image data for each of the illumination conditions from the imaging device and performing image analysis on the image data for each of the illumination conditions;
a third step of selecting one of the plurality of illumination conditions by comparing image analysis results for each of the illumination conditions;
has,
Inspection method.
請求項9記載の検査方法において、
前記第2のステップでは、前記照明条件毎の前記画像データに対してコントラストが算出され、前記コントラストが前記画像解析結果として出力される、
検査方法。
In the testing method according to claim 9,
In the second step, a contrast is calculated for the image data for each of the illumination conditions, and the contrast is output as the image analysis result.
Inspection method.
請求項9記載の検査方法において、
前記第2のステップでは、前記照明条件毎の前記画像データに対してエッジが抽出され、抽出されたエッジの強度値が算出され、前記エッジの強度値が前記画像解析結果として出力される、
検査方法。
In the testing method according to claim 9,
In the second step, edges are extracted from the image data for each illumination condition, intensity values of the extracted edges are calculated, and the intensity values of the edges are output as the image analysis results.
Inspection method.
請求項9記載の検査方法において、
前記第2のステップでは、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を用いて、前記照明条件毎の前記画像データに対して前記評価値が算出され、前記評価値が前記画像解析結果として出力される、
検査方法。
In the testing method according to claim 9,
In the second step, the evaluation is performed on the image data for each lighting condition using AI (Artificial Intelligence) that has been trained to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation criteria. A value is calculated, and the evaluation value is output as the image analysis result.
Inspection method.
JP2020143073A 2020-08-27 2020-08-27 Image processing device, inspection system, and inspection method Pending JP2023153431A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020143073A JP2023153431A (en) 2020-08-27 2020-08-27 Image processing device, inspection system, and inspection method
PCT/JP2021/027936 WO2022044673A1 (en) 2020-08-27 2021-07-28 Image processing device, inspection system, and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020143073A JP2023153431A (en) 2020-08-27 2020-08-27 Image processing device, inspection system, and inspection method

Publications (1)

Publication Number Publication Date
JP2023153431A true JP2023153431A (en) 2023-10-18

Family

ID=80353258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020143073A Pending JP2023153431A (en) 2020-08-27 2020-08-27 Image processing device, inspection system, and inspection method

Country Status (2)

Country Link
JP (1) JP2023153431A (en)
WO (1) WO2022044673A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171293A1 (en) * 2022-03-10 2023-09-14 住友重機械工業株式会社 Image inspection device, machine learning device, image inspection method, and image inspection program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5686987A (en) * 1995-12-29 1997-11-11 Orfield Associates, Inc. Methods for assessing visual tasks to establish desirable lighting and viewing conditions for performance of tasks; apparatus; and, applications
JP3918840B2 (en) * 1998-09-18 2007-05-23 株式会社日立製作所 Defect inspection method and apparatus
JP6834843B2 (en) * 2017-08-10 2021-02-24 オムロン株式会社 Image processing system, setting support device and setting support program
JP6823025B2 (en) * 2018-09-12 2021-01-27 ファナック株式会社 Inspection equipment and machine learning method
JP2019101047A (en) * 2019-02-25 2019-06-24 株式会社アセット・ウィッツ Automatic part appearance inspection device

Also Published As

Publication number Publication date
WO2022044673A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
Sezer et al. Detection of solder paste defects with an optimization‐based deep learning model using image processing techniques
JP4160258B2 (en) A new perceptual threshold determination for gradient-based local contour detection
US7978903B2 (en) Defect detecting method and defect detecting device
US20200005070A1 (en) Optical inspection method, optical inspection device and optical inspection system
US9396531B2 (en) Systems and methods for image and video signal measurement
US20180211138A1 (en) Information processing device, information processing method, and storage medium
CN109919908B (en) Method and device for detecting defects of light-emitting diode chip
US8577135B2 (en) System and method for detection of specularity in an image
CN106934794A (en) Information processor, information processing method and inspection system
US20210133473A1 (en) Learning apparatus and learning method
CN111524137A (en) Cell identification counting method and device based on image identification and computer equipment
Memeu et al. Detection of plasmodium parasites from images of thin blood smears
US6577775B1 (en) Methods and apparatuses for normalizing the intensity of an image
JP3741672B2 (en) Image feature learning type defect detection method, defect detection apparatus, and defect detection program
WO2010124081A1 (en) Optical inspection optimization
CN112534243A (en) Inspection apparatus and method
Yao et al. Automated detection of non-informative frames for colonoscopy through a combination of deep learning and feature extraction
US6714670B1 (en) Methods and apparatuses to determine the state of elements
CN107194971B (en) Golden finger positioning method and device and computer readable storage medium
JP2023153431A (en) Image processing device, inspection system, and inspection method
EP3499178A1 (en) Image processing system, image processing program, and image processing method
KR20220026439A (en) Apparatus and method for checking whether a part is inserted in PCB
Boyun The principles of organizing the search for an object in an image, tracking an object and the selection of informative features based on the visual perception of a person
CN112381751A (en) Online intelligent detection system and method based on image processing algorithm
CN110310235B (en) Fundus image processing method, device and equipment and storage medium