JP2023153431A - Image processing device, inspection system, and inspection method - Google Patents
Image processing device, inspection system, and inspection method Download PDFInfo
- Publication number
- JP2023153431A JP2023153431A JP2020143073A JP2020143073A JP2023153431A JP 2023153431 A JP2023153431 A JP 2023153431A JP 2020143073 A JP2020143073 A JP 2020143073A JP 2020143073 A JP2020143073 A JP 2020143073A JP 2023153431 A JP2023153431 A JP 2023153431A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- illumination
- processing device
- illumination conditions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 60
- 238000007689 inspection Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000005286 illumination Methods 0.000 claims abstract description 107
- 238000010191 image analysis Methods 0.000 claims abstract description 41
- 238000011156 evaluation Methods 0.000 claims description 37
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000013473 artificial intelligence Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims 3
- 239000000284 extract Substances 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 8
- 238000000926 separation method Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 229910052736 halogen Inorganic materials 0.000 description 2
- 150000002367 halogens Chemical class 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Description
本発明は、画像処理装置、検査システムおよび検査方法に関し、例えば、検査対象物の画像に基づいて検査を行う技術に関する。 The present invention relates to an image processing device, an inspection system, and an inspection method, and for example, to a technique for performing an inspection based on an image of an object to be inspected.
例えば、特許文献1には、プロジェクタ、透光性液晶ディスプレイ、撮像装置部および画像処理装置を含み、被照射体の形状や色彩に応じて高精細な演出照明を可能にする照明装置が示される。具体的には、被照射体には、プロジェクタからの光が透光性液晶ディスプレイを介して照射され、撮像装置部は、当該被照射体を撮像する。画像処理装置は、撮像装置部からの映像信号を処理し、被照射体の領域と被照射体以外の領域とを区別する。そして、画像処理装置は、被照射体以外の領域への照射をマスクキングするように透光性液晶ディスプレイを制御する。
For example,
また、特許文献2には、部屋の電気画像を形成し得るCCDセンサと、CCDセンサの測定結果に応じて室内の照明を制御する制御手段とを有する照明制御装置が示される。
Furthermore,
例えば、検査対象物を撮像する撮像装置(代表的にはカメラ)と、カメラによる撮像を補助するため、検査対象物に光を照射する照明装置とを備えた検査システムが知られている。照明装置は、例えば、ハロゲンランプ光源やLED光源等を含み、検査対象物の画像を鮮明に取り込めるように、輝度や色(R,G,B,IR等)等の照明条件を調整できるようになっている。しかし、照明条件の調整は、通常、装置のユーザによる手作業で行われている。このため、照明条件の最適値を導き出す際に、ユーザの作業負荷や作業時間が増大する恐れがあった。 For example, an inspection system is known that includes an imaging device (typically a camera) that captures an image of an object to be inspected, and an illumination device that irradiates the object with light to assist the imaging by the camera. The lighting device includes, for example, a halogen lamp light source, an LED light source, etc., and is capable of adjusting lighting conditions such as brightness and color (R, G, B, IR, etc.) so that a clear image of the object to be inspected can be captured. It has become. However, adjustment of the lighting conditions is typically done manually by the user of the device. For this reason, when deriving the optimal value of the lighting conditions, there is a risk that the user's workload and working time will increase.
本発明は、このようなことに鑑みてなされたものであり、その目的の一つは、ユーザの作業負荷を軽減することが可能な画像処理装置、検査システムおよび検査方法を提供することにある。 The present invention has been made in view of the above, and one of its purposes is to provide an image processing device, an inspection system, and an inspection method that can reduce the workload of the user. .
本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.
本発明の一実施の態様では、照明を当てた状態で撮像された検査対象物の画像データを処理する画像処理装置を設け、画像処理装置が、照明の照明条件を可変設定する照明条件探索器と、照明条件毎の画像データを取得する画像インタフェースと、照明条件毎の画像データに対して画像解析を行う画像解析器と、画像解析器による照明条件毎の画像解析結果を比較することで、複数の照明条件の中からいずれか一つの照明条件を選択する比較器と、を有する、ように構成されればよい。 In one embodiment of the present invention, an image processing device is provided that processes image data of an inspection target imaged while being illuminated, and the image processing device is an illumination condition searcher that variably sets the illumination conditions of the illumination. By comparing the image analysis results for each lighting condition, an image interface that acquires image data for each lighting condition, an image analyzer that performs image analysis on the image data for each lighting condition, and an image analyzer for each lighting condition. A comparator that selects any one illumination condition from among a plurality of illumination conditions may be configured.
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば、ユーザの作業負荷を軽減することが可能になる。 Of the inventions disclosed in this application, the effects obtained by typical inventions will be briefly described, making it possible to reduce the user's workload.
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail based on the drawings. In addition, in all the figures for explaining the embodiment, the same members are given the same reference numerals in principle, and repeated explanations thereof will be omitted.
(実施の形態1)
《検査システムの概略》
図1は、本発明の実施の形態1による検査システムにおいて、主要部の構成例を示す概略図である。図1に示す検査システム10は、撮像装置15と、照明装置16と、照明制御装置17と、画像処理装置18とを有する。照明装置16は、例えば、ハロゲンランプ光源やLED(Light Emitting Diode)光源等を含み、検査対象物20aの画像を鮮明に取り込めるように、検査対象物20aに照明を当てる。
(Embodiment 1)
《Inspection system overview》
FIG. 1 is a schematic diagram showing a configuration example of main parts in an inspection system according to
撮像装置15は、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサまたはCCD(Charge Coupled Device)センサ等を含み、照明を当てた状態の検査対象物20aを撮像することで画像データIMDを作成する。画像処理装置18は、撮像装置15からの画像データIMDをケーブル19aを介して取得し、当該画像データIMDを処理する。一例として、画像処理装置18は、配線基板20b上に実装された電子部品(IC)20aの実装状態(例えば、ICの実装位置、ICリードのピッチや数等)を画像処理によって検査する。この場合、画像データIMDにおいて、配線基板20bは背景となり、電子部品20aは、検査対象物となる。
The
さらに、詳細は後述するが、画像処理装置18は、照明装置16に対する照明条件ILCを可変設定しながら、対応する画像データIMDを処理することで、最適な照明条件ILCを探索する。照明制御装置17は、画像処理装置18からの照明条件ILCをケーブル19bを介して受信し、当該照明条件ILCに対応する照明制御信号ICSを送信する。照明装置16は、照明制御装置17からの照明制御信号ICSをケーブル19cを介して受信し、当該照明制御信号ICSに基づく光を生成して検査対象物20aに照射する。なお、照明制御装置17は、画像処理装置18または照明装置16と一体化された形態であってもよい。
Furthermore, although details will be described later, the
ここで、一般的な検査システム10では、ケーブル19bは設けられず、照明条件ILCは、ユーザによる手作業によって照明制御装置17に設定される。すなわち、ユーザは、例えば、検査対象物20aの種類毎に、検査対象物20aの検査に先立って、照明条件ILCを適宜変更しながら、対応する画像データIMDの鮮明度を目視で評価する。そして、ユーザは、最も鮮明度が高くなる照明条件ILCを導き出す。しかし、このような方式では、ユーザの作業負荷や作業時間が増大し得る。 Here, in the general inspection system 10, the cable 19b is not provided, and the lighting conditions ILC are manually set in the lighting control device 17 by the user. That is, for example, the user visually evaluates the sharpness of the corresponding image data IMD for each type of inspection object 20a while appropriately changing the illumination condition ILC prior to inspecting the inspection object 20a. Then, the user derives the illumination condition ILC that provides the highest clarity. However, such a method may increase the user's workload and work time.
例えば、照明装置16が単色光源を用いる場合で、256階調の光量設定が可能な場合、照明条件ILCとして256個の選択肢が存在する。また、照明装置16が3色光源(R,G,B)を用いる場合で、それぞれ16階調の光量設定が可能な場合、照明条件ILCとして4096(=163)個の選択肢が存在する。ユーザは、照明条件ILCの選択肢毎に得られる画像データIMDを目視で比較する必要がある。さらに、このような作業負荷の問題に加えて、照明条件ILCの最適値を得るためには、ユーザの習熟度も必要とされる。そこで、実施の形態の画像処理装置18を用いることが有益となる。
For example, when the illumination device 16 uses a monochromatic light source and the light amount can be set in 256 gradations, there are 256 options as the illumination condition ILC. Further, when the illumination device 16 uses three color light sources (R, G, B) and the light amount can be set in 16 gradations for each, there are 4096 (=16 3 ) choices as the illumination condition ILC. The user needs to visually compare the image data IMD obtained for each illumination condition ILC option. Furthermore, in addition to such workload issues, user proficiency is also required in order to obtain the optimal value of the illumination condition ILC. Therefore, it is advantageous to use the
《画像処理装置の詳細》
図2は、図1における画像処理装置の主要部の構成例を示すブロック図である。図2に示す画像処理装置18は、画像インタフェース25と、照明条件探索器26と、画像解析器27と、比較器28と、メモリ29とを備える。照明条件探索器26は、照明装置16の照明条件ILC[i]を可変設定する。画像インタフェース25は、照明条件ILC[i]毎に、撮像装置15によって撮像および作成された検査対象物20aの画像データIMD[i]を取得し、当該画像データIMD[i]を照明条件ILC[i]に対応付けてメモリ29に保存する。
《Details of image processing device》
FIG. 2 is a block diagram showing an example of the configuration of main parts of the image processing apparatus in FIG. 1. As shown in FIG. The
画像解析器27は、メモリ29に保存された照明条件ILC[i]毎の画像データIMD[i]に対して画像解析を行い、その画像解析結果AR[i]を照明条件ILC[i]に対応付けてメモリ29に保存する。比較器28は、メモリ29に保存された照明条件ILC[i]毎の画像解析結果AR[i]を比較することで、複数の照明条件ILC[i]の中からいずれか一つの照明条件ILCxを選択する。そして、比較器28は、この選択した照明条件ILCxを、検査対象物20aを検査する際の最終的な照明条件ILCxに定める。
The
なお、図2の画像処理装置18は、例えば、マザーボード上に、単数または複数のプロセッサ(CPU(Central Processing Unit)またはGPU(Graphics Processing Unit))と、メモリ29(RAM(Random access memory)および不揮発性メモリ)とを実装したような形態で構成される。この場合、画像インタフェース25、照明条件探索器26、画像解析器27および比較器28は、このようなプロセッサを用いたプログラム処理で実装される。
Note that the
ただし、画像処理装置18は、このような実装形態に限らず、プロセッサの代わりにFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等を用いた形態や、または、PC(Personal Computer)等を用いた形態等であってもよい。また、図示は省略されているが、画像処理装置18は、例えば、検査対象物20aの検査に伴う画像解析を実行し、良否判定等を行うための画像解析器を別途備えている。
However, the
図3は、図2の画像処理装置の処理内容の一例を示すフロー図である。図3のフローは、例えば、検査対象物20aの種類毎に、検査対象物20aの検査に先立って実行される。図3において、まず、照明条件探索器26は、照明条件ILC[i]を初期値に設定する(ステップS101)。続いて、画像インタフェース25は、当該照明条件ILC[i]の下で撮像装置15によって撮像および作成された検査対象物20aの画像データIMD[i]を取得する(ステップS102)。次いで、画像解析器27は、取得された画像データIMD[i]に対して画像解析を実行し(ステップS103)、その画像解析結果AR[i]を照明条件ILC[i]に対応付けてメモリ29に保存する(ステップS104)。
FIG. 3 is a flow diagram illustrating an example of processing contents of the image processing apparatus of FIG. 2. The flow in FIG. 3 is executed, for example, for each type of object 20a to be inspected, prior to the inspection of the object 20a to be inspected. In FIG. 3, first, the
続いて、照明条件探索器26は、他の照明条件ILC[i]があるか否かを判定する(ステップS105)。他の照明条件ILC[i]がある場合、照明条件探索器26は、照明条件ILC[i]を変更する(ステップS106)。その後、ステップS102~S104の場合と同様に、画像インタフェース25は、画像データIMD[i]を取得し(ステップS107)、画像解析器27は、画像解析を実行して(ステップS108)、画像解析結果AR[i]をメモリ29に保存する(ステップS109)。そして、画像処理装置18は、ステップS105で他の照明条件ILC[i]が無しとなるまで、ステップS106~S109の処理を繰り返し実行する。
Subsequently, the
これにより、画像解析結果AR[i]が、照明条件ILC[i]の選択肢の数の分だけ得られる。例えば、前述したように、選択肢が256個の場合には、256個の画像解析結果AR[i]が得られ、選択肢が4096個の場合には、4096個の画像解析結果AR[i]が得られる。なお、照明装置16がアナログ的に光量を調整する仕様の場合には、例えば、アナログ値を複数段階に量子化した上で同様の処理を行えばよい。 Thereby, image analysis results AR[i] are obtained as many as the number of options for illumination condition ILC[i]. For example, as mentioned above, when there are 256 options, 256 image analysis results AR[i] are obtained, and when there are 4096 options, 4096 image analysis results AR[i] are obtained. can get. Note that if the lighting device 16 is designed to adjust the amount of light in an analog manner, for example, the analog value may be quantized into a plurality of stages and then similar processing may be performed.
一方、ステップS105で他の照明条件ILC[i]が無しと判定された場合、比較器28は、複数の照明条件ILC[i]毎の画像解析結果AR[i]を比較する(ステップS110)。そして、比較器28は、画像解析結果AR[i]が最も良好となる照明条件ILC[i]を最終的な照明条件ILCxに定める(ステップS111)。その後は、この最終的な照明条件ILCxの下で、検査対象物20aの検査が行われる。
On the other hand, if it is determined in step S105 that there is no other illumination condition ILC[i], the
なお、画像処理装置18のフローは、図3のフローに限らず、適宜変更することが可能である。例えば、ステップS105~S109のループ処理の中で、前回の画像解析結果(AR[i-1])と今回の画像解析結果(AR[i])とを比較し、いずれか良好な方の画像解析結果(および対応する照明条件)のみをメモリ29に残していくようなフローであってもよい。
Note that the flow of the
《画像解析器の詳細》
図4は、図2における画像解析器および比較器の動作例を説明する模式図である。図4において、画像解析器27は、照明条件ILC[1],ILC[2]毎の画像データ31a(IMD),31b(IMD)に対してコントラストを算出する。具体的には、画像解析器27は、各画像データ31a(IMD),31b(IMD)に対して検査対象物20aの濃度と背景20bの濃度とのコントラストを算出する。この例では、説明の便宜上、検査対象物20aは、円形状であるものとする。そして、画像解析器27は、各画像データ31a(IMD),31b(IMD)毎に算出されたコントラストを画像解析結果AR[1],AR[2]として出力する。
《Details of image analyzer》
FIG. 4 is a schematic diagram illustrating an example of the operation of the image analyzer and comparator in FIG. 2. In FIG. 4, the
比較器28は、各画像解析結果AR[1],AR[2](すなわちコントラスト)を比較することで、複数の照明条件ILC[1],ILC[2]の中からいずれか一つの照明条件を選択する。図4の例では、照明条件ILC[2]の画像データ31bの方が、照明条件ILC[1]の画像データ31aよりもコントラストが大きい。この場合、比較器28は、コントラストが大きい照明条件ILC[2]を照明条件ILC[1]よりも良好と判定し、照明条件ILC[2]を選択する。
The
図5Aは、図2および図4における画像解析器および比較器の処理内容の一例を示すフロー図である。図5Bは、図5Aの補足図である。図4で述べたコントラストを算出する方式の一つとして、判別分析法を利用する方式が挙げられる。判別分析法は、大津の二値化とも呼ばれ、図5Bに示されるように、画像内の全画素を二値化(白黒化)する際のしきい値THを定める方法である。 FIG. 5A is a flow diagram illustrating an example of processing contents of the image analyzer and comparator in FIGS. 2 and 4. Figure 5B is a supplementary figure to Figure 5A. One of the methods for calculating the contrast described in FIG. 4 is a method using a discriminant analysis method. The discriminant analysis method is also called Otsu's binarization, and as shown in FIG. 5B, is a method of determining a threshold value TH for binarizing (black-and-white) all pixels in an image.
図5Bには、画素値(濃度)と、画素値毎の画素数との関係を表すヒストグラムが示される。このようなヒストグラムを有する画像を二値化するため、しきい値TH以下の画素値を有する画素群がクラス[1](すなわち0/1の一方)に分類され、しきい値THよりも大きい画素値を有する画素群がクラス[2](0/1の他方)に分類される。判別分析法では、しきい値THを変化させながら式(1)に示される分離度Sを算出することで、分離度Sが最大となるしきい値THが探索される。
S=σb
2/σw
2 …(1)
FIG. 5B shows a histogram representing the relationship between pixel values (density) and the number of pixels for each pixel value. In order to binarize an image with such a histogram, a group of pixels with pixel values less than or equal to the threshold TH are classified into class [1] (i.e. one of 0/1), and a group of pixels larger than the threshold TH is classified into class [1] (i.e. one of 0/1). A pixel group having a pixel value is classified into class [2] (the other of 0/1). In the discriminant analysis method, the threshold value TH with which the degree of separation S is maximized is searched for by calculating the degree of separation S shown in equation (1) while changing the threshold value TH.
S=σ b 2 /σ w 2 …(1)
式(1)において、σb
2は、クラス間分散であり、式(2)で与えられる。σw
2は、クラス内分散であり、式(3)で与えられる。また、式(2)および式(3)において、w1,m1,σ1は、それぞれ、クラス[1]の画素数、画素値の平均値、分散であり、w2,m2,σ2は、それぞれ、クラス[2]の画素数、画素値の平均値、分散である。
σb
2=w1w2(m1-m2)2/(w1+w2)2 …(2)
σw
2=(w1σ1
2+w2σ2
2)/(w1+w2) …(3)
In equation (1), σ b 2 is the inter-class variance and is given by equation (2). σ w 2 is the intra-class variance and is given by equation (3). In addition, in equations (2) and (3), w 1 , m 1 , σ 1 are the number of pixels, the average value of pixel values, and the variance of class [1], respectively, and w 2 , m 2 , σ 2 are the number of pixels, the average value of pixel values, and the variance of class [2], respectively.
σ b 2 = w 1 w 2 (m 1 - m 2 ) 2 / (w 1 + w 2 ) 2 ...(2)
σ w 2 = (w 1 σ 1 2 + w 2 σ 2 2 )/(w 1 +w 2 ) …(3)
ここで、式(1)の分離度Sは、式(2)の分子から分かるように、クラス[1]の平均値m1とクラス[2]の平均値m2との差分が大きくなるほど大きくなる。この平均値の差分は、コントラストを表すことになる。すなわち、判別分析法を用いると、画像毎に最大の分離度Sを算出することで、間接的に、画像毎のコントラストの指標値を算出することが可能になる。 Here, as can be seen from the numerator of equation (2), the degree of separation S in equation (1) increases as the difference between the average value m 1 of class [1] and the average value m 2 of class [2] increases. Become. The difference between these average values represents the contrast. That is, when the discriminant analysis method is used, by calculating the maximum degree of separation S for each image, it becomes possible to indirectly calculate the contrast index value for each image.
このような判別分析法を利用して、画像解析器27および比較器28は、図5Aのような処理を実行する。まず、画像解析器27は、照明条件ILC[i]毎の画像解析結果AR[i]として、判別分析法を用いて算出した分離度S(最大の分離度Smax)をメモリ29に保存する(ステップS201)。その後、比較器28は、メモリ29に保存された分離度(Smax)を比較する(ステップS202)。そして、比較器28は、分離度(Smax)が最大となる(言い換えればコントラストが最大となる)照明条件を最終的な照明条件ILCxとして選択する(ステップS203)。
Using such a discriminant analysis method, the
《実施の形態1の主要な効果》
以上、実施の形態1の方式を用いることで、代表的には、照明条件の決定に伴うユーザの作業負荷を軽減することが可能になる。また、ユーザの作業時間を短縮することが可能になり、ひいては、検査時間を短縮することが可能になる。さらに、照明条件の決定に際してのユーザの習熟度が不必要となり、客観的な指標(ここではコントラスト)に基づいて照明条件を自動的に決定することが可能になる。その結果、検査精度のばらつきを抑制することが可能になる。
《Main effects of
As described above, by using the method of
(実施の形態2)
《画像解析器の詳細》
図6は、本発明の実施の形態2による画像処理装置において、図2における画像解析器および比較器の動作例を説明する模式図である。図6において、画像解析器27は、照明条件ILC[3],ILC[4]毎の画像データ31c(IMD),31d(IMD)に対してエッジ抽出フィルタを用いてエッジ(具体的には検査対象物20aのエッジ)を抽出し、エッジ抽出後の画像データ32c,32dを作成する。また、画像解析器27は、画像データ32c,32dに対して、抽出されたエッジの強度値E[3],E[4]を算出する。そして、画像解析器27は、このエッジの強度値E[3],E[4]を画像解析結果AR[3],AR[4]として出力する。
(Embodiment 2)
《Details of image analyzer》
FIG. 6 is a schematic diagram illustrating an example of the operation of the image analyzer and comparator in FIG. 2 in the image processing apparatus according to the second embodiment of the present invention. In FIG. 6, the
比較器28は、各画像解析結果AR[3],AR[4](すなわちエッジの強度値E[3],E[4])を比較することで、複数の照明条件ILC[3],ILC[4]の中からいずれか一つの照明条件を選択する。図6には、画像データ32c,32dにおいて、画素の位置(X座標)と、X座標毎にY座標方向に画素値(濃度)を累積した値(累積画素値)との関係が示される。エッジの強度値E[3],E[4]は、例えば、累積画素値のピーク値によって定められる。
The
この例では、照明条件ILC[4]の画像データ32dにおけるエッジの強度値E[4]が、照明条件ILC[3]の画像データ32cにおけるエッジの強度値E[3]よりも高い。この場合、比較器28は、エッジの強度値が高い照明条件ILC[4]を照明条件ILC[3]よりも良好と判定し、照明条件ILC[4]を選択する。なお、ここでは、画像解析結果AR[3],AR[4]として、エッジの強度値E[3],E[4]を用いたが、これに加えて、累積画素値の総和等を用いてもよい。具体的には、例えば、エッジの強度値と累積画素値の総和とを所定の重み付けで積和演算した値等を用いてもよい。
In this example, the edge intensity value E[4] in the image data 32d under the illumination condition ILC[4] is higher than the edge intensity value E[3] in the image data 32c under the illumination condition ILC[3]. In this case, the
ここで、図6で用いるエッジ抽出フィルタとして、代表的には、ソーベルフィルタが挙げられる。図7は、図6において、画像解析器によるソーベルフィルタを用いたエッジ抽出方法の一例を説明する図である。ソーベルフィルタでは、図7に示されるように、行方向のエッジを抽出するための3行3列のカーネルKxと、列方向のエッジを抽出するための3行3列のカーネルKyとが用いられる。 Here, a typical example of the edge extraction filter used in FIG. 6 is a Sobel filter. FIG. 7 is a diagram illustrating an example of an edge extraction method using a Sobel filter by the image analyzer in FIG. 6. In the Sobel filter, as shown in FIG. 7, a kernel Kx of 3 rows and 3 columns is used to extract edges in the row direction, and a kernel Ky of 3 rows and 3 columns is used to extract edges in the column direction. It will be done.
また、画像データIMDは、x行y列の画素値(濃度)I[11]~I[xy]を含んでいる。画像解析器27は、画像データIMDに対してカーネルKxを畳み込み演算することで、行方向のエッジが抽出された画像データを作成する。同様に、画像解析器27は、画像データIMDに対してカーネルKyを畳み込み演算することで、Y方向のエッジが抽出された画像データを作成する。
Further, the image data IMD includes pixel values (densities) I[11] to I[xy] in x row and y column. The
具体的には、画像解析器27は、例えば、画素値I[22]を中心とする3行3列の画素値群に対してカーネルKxを畳み込み演算し、次いで、画素値I[23]を中心とする3行3列の画素値群に対してカーネルKxを畳み込み演算するといった空間フィルタリング処理を全ての画素値に対して行う。その結果、x行y列の画素値を含んだ空間フィルタリング処理後の画像データ(すなわち、行方向のエッジ抽出後の画像データ)が得られる。また、カーネルKyを用いて同様の空間フィルタリング処理を行うことで、列方向のエッジ抽出後の画像データが得られる。なお、エッジ抽出フィルタは、ソーベルフィルタに限らず、微分フィルタやプレヴィットフィルタ等、様々なものであってよい。
《実施の形態2の主要な効果》
以上、実施の形態2の方式を用いることでも、実施の形態1の場合と同様の効果が得られる。なお、実施の形態1の方式(コントラスト)と実施の形態2の方式(エッジ強度)のいずれを用いるかは、例えば、図1における検査対象物20aおよび背景20bの種別や、照明装置16の仕様等に応じて適宜定められればよい。また、コントラストかエッジ強度のいずかではなく、コントラストとエッジ強度の両方を適宜組み合わせて判定を行うような方式を用いてもよい。
Specifically, the
《Main effects of
As described above, by using the method of the second embodiment, the same effects as in the first embodiment can be obtained. Note that whether to use the method of the first embodiment (contrast) or the method of the second embodiment (edge strength) depends on, for example, the types of the inspection object 20a and the background 20b in FIG. 1, and the specifications of the illumination device 16. It may be determined as appropriate depending on the situation. Alternatively, a method may be used in which the determination is made by appropriately combining both contrast and edge strength, instead of using either contrast or edge strength.
(実施の形態3)
《画像解析器の詳細》
図8は、本発明の実施の形態3による画像処理装置において、図2における画像解析器の構成例を示す概略図である。実施の形態1,2では、照明条件ILC[i]を定量的に評価するため、コントラストやエッジ強度を用いた。ただし、従来の習熟したユーザによる画像の評価基準が最適であると仮定すると、この人手による評価基準と、コントラストやエッジ強度を用いた評価基準との間に、差異が生じる可能性がある。
(Embodiment 3)
《Details of image analyzer》
FIG. 8 is a schematic diagram showing a configuration example of the image analyzer in FIG. 2 in the image processing apparatus according to Embodiment 3 of the present invention. In the first and second embodiments, contrast and edge strength were used to quantitatively evaluate the illumination condition ILC[i]. However, assuming that the conventional image evaluation criteria by a skilled user is optimal, there is a possibility that a difference will occur between this manual evaluation criteria and the evaluation criteria using contrast or edge strength.
そこで、実施の形態3では、習熟したユーザによる画像の評価基準をAI(Artificial Intelligence)に学習させることで、習熟したユーザの代わりにAIに評価を行わせる。具体的には、画像解析器27は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載する。そして、画像解析器27は、照明条件ILC[i]毎の画像データIMD[i]に対してAIを用いて評価値を算出し、当該評価値を画像解析結果AR[i]として出力する。
Therefore, in Embodiment 3, AI (Artificial Intelligence) is made to learn the evaluation criteria for images by a skilled user, thereby causing the AI to perform evaluation in place of the skilled user. Specifically, the
図8に示す画像解析器27は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を搭載している。CNNは、画像認識を行うためのAIとして広く知られている。CNNは、主に、入力層35と、畳み込み層36と、プーリング層37と、全結合層38と、出力層39とを備える。畳み込み層36とプーリング層37は、1層に限らず、交互に積み重ねる形で構成されてもよい。
The
入力層35には、行列方向に複数の画素値を含んだ画像データ31(IMD)が入力される。畳み込み層36は、入力層35における画像データ31に対して、複数チャネル(この例では3チャネル)のフィルタ41a,41b,41cを用いてそれぞれ畳み込み演算を行う。これにより、畳み込み層36は、複数チャネルの画像データ42a,42b,42cを作成する。フィルタ41a,41b,41cには、それぞれ、重み係数W0
1,W0
2,W0
3が設定される。
Image data 31 (IMD) including a plurality of pixel values in the matrix direction is input to the
プーリング層37は、畳み込み層36で作成された複数チャネルの画像データ42a,42b,42cに対して、それぞれ、予め定めた演算処理を行う。これにより、プーリング層37は、空間サイズを小さくした複数チャネルの画像データ43a,43b,43cを作成する。具体的には、プーリング層37は、例えば、画像データ42aを複数(この例では2×2)の画素値を含むように区画した状態で、区画毎に複数の画素値の最大値や平均値等を求めることで画像データ43aを作成する。 The pooling layer 37 performs predetermined arithmetic processing on the plurality of channels of image data 42a, 42b, and 42c created by the convolution layer 36, respectively. As a result, the pooling layer 37 creates multiple channels of image data 43a, 43b, and 43c with a reduced spatial size. Specifically, the pooling layer 37 divides the image data 42a into sections to include a plurality of (2×2 in this example) pixel values, and calculates the maximum value or average value of the plurality of pixel values for each section. The image data 43a is created by calculating the following.
全結合層38は、プーリング層37で作成された複数チャネルの画像データ43a,43b,43cを一次元のベクトルに展開する。出力層39は、全結合層38における一次元のベクトルに対して、それぞれ、所定の重み係数Wiを用いて積和演算を行うことで評価値EVを出力する。 The fully connected layer 38 expands the multiple channels of image data 43a, 43b, and 43c created by the pooling layer 37 into one-dimensional vectors. The output layer 39 outputs an evaluation value EV by performing a sum-of-products operation on each one-dimensional vector in the fully connected layer 38 using a predetermined weighting coefficient Wi.
このような画像解析器27を用いた学習時には、教師データとして、例えば、画像データ31と、当該画像データ31に対して習熟したユーザが定めた評価値とが入力される。画像解析器27は、当該画像データ31を入力層35とした場合に出力層39から出力される評価値EVと、習熟したユーザが定めた評価値との誤差を算出する。そして、画像解析器27は、この誤差をゼロに近づけるように、誤差逆伝播法を用いて、全結合層38と出力層39との間の重み係数Wiやフィルタ41a,41b,41cの重み係数W0
1,W0
2,W0
3を更新する。
During learning using such an
このような学習を繰り返し行うことで、例えば、習熟したユーザが評価値を定める際に重視する画像の特徴が、主に、フィルタ41a,41b,41cの重み係数W0
1,W0
2,W0
3として学習される。また、画像の特徴と評価値EVとの関係性は、主に、重み係数Wiとして学習される。その結果、画像解析器27は、推論時において、入力層35に所定の画像データ31を与えると、習熟したユーザの評価基準に基づく評価値と同等の評価値EVを出力層39から出力できるようになる。また、この場合、比較器28は、図3のステップS110,S111において、最も評価値EVが高くなる照明条件を最終的な照明条件ILCxとして選択すればよい。
By repeatedly performing such learning, for example, the image features that are important when a skilled user determines the evaluation value are mainly the weighting coefficients W 0 1 , W 0 2 , W of the filters 41a, 41b, 41c. 0 3 . Further, the relationship between the image features and the evaluation value EV is mainly learned as a weighting coefficient Wi. As a result, when the
《実施の形態3の主要な効果》
以上、実施の形態3の方式を用いることでも、実施の形態1の場合と同様の効果が得られる。さらに、AIへの学習のさせ方によって、照明条件を定める際の画像の評価基準をより最適化することが可能になる。その結果、検査システムの検査精度を向上させることが可能になる。
《Main effects of Embodiment 3》
As described above, by using the method of the third embodiment, the same effects as in the first embodiment can be obtained. Furthermore, depending on how the AI is trained, it becomes possible to further optimize image evaluation criteria when determining lighting conditions. As a result, it becomes possible to improve the inspection accuracy of the inspection system.
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the embodiments described above, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. . Furthermore, it is possible to add, delete, or replace some of the configurations of each embodiment with other configurations.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Furthermore, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that implement each function can be stored in a memory, a recording device such as a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered to be interconnected.
10:検査システム、15:撮像装置、16:照明装置、17:照明制御装置、18:画像処理装置、19a~19c:ケーブル、20a:電子部品(検査対象物)、20b:配線基板(背景)、25:画像インタフェース、26:照明条件探索器、27:画像解析器、28:比較器、29:メモリ、31,31a~31d:画像データ、35:入力層、36:畳み込み層、37:プーリング層、38:全結合層、39:出力層、フィルタ41a~41c、42a~42c:画像データ、43a~43c:画像データ、AR:画像解析結果、E:エッジの強度値、EV:評価値、I:画素値、ICS:照明制御信号、ILC:照明条件、IMD:画像データ 10: Inspection system, 15: Imaging device, 16: Lighting device, 17: Lighting control device, 18: Image processing device, 19a to 19c: Cable, 20a: Electronic component (inspection object), 20b: Wiring board (background) , 25: Image interface, 26: Illumination condition searcher, 27: Image analyzer, 28: Comparator, 29: Memory, 31, 31a to 31d: Image data, 35: Input layer, 36: Convolution layer, 37: Pooling layer, 38: fully connected layer, 39: output layer, filters 41a to 41c, 42a to 42c: image data, 43a to 43c: image data, AR: image analysis result, E: edge strength value, EV: evaluation value, I: pixel value, ICS: illumination control signal, ILC: illumination condition, IMD: image data
Claims (12)
前記照明の照明条件を可変設定する照明条件探索器と、
前記照明条件毎の前記画像データを取得する画像インタフェースと、
前記照明条件毎の前記画像データに対して画像解析を行う画像解析器と、
前記画像解析器による前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する比較器と、
を有する、
画像処理装置。 An image processing device that processes image data of an inspection target imaged in a state where it is illuminated,
an illumination condition searcher that variably sets the illumination conditions of the illumination;
an image interface that acquires the image data for each of the illumination conditions;
an image analyzer that performs image analysis on the image data for each of the illumination conditions;
a comparator that selects any one of the illumination conditions from the plurality of illumination conditions by comparing image analysis results for each of the illumination conditions by the image analyzer;
has,
Image processing device.
前記画像解析器は、前記照明条件毎の前記画像データに対してコントラストを算出し、前記コントラストを前記画像解析結果として出力する、
画像処理装置。 The image processing device according to claim 1,
The image analyzer calculates a contrast for the image data for each illumination condition, and outputs the contrast as the image analysis result.
Image processing device.
前記画像解析器は、前記照明条件毎の前記画像データに対してエッジを抽出し、抽出されたエッジの強度値を算出し、前記エッジの強度値を前記画像解析結果として出力する、
画像処理装置。 The image processing device according to claim 1,
The image analyzer extracts edges from the image data for each of the illumination conditions, calculates an intensity value of the extracted edge, and outputs the intensity value of the edge as the image analysis result.
Image processing device.
前記画像解析器は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載し、前記照明条件毎の前記画像データに対して前記AIを用いて前記評価値を算出し、前記評価値を前記画像解析結果として出力する、
画像処理装置。 The image processing device according to claim 1,
The image analyzer is equipped with AI (Artificial Intelligence) that has been trained to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation criteria, and applies the AI to the image data for each of the lighting conditions. calculating the evaluation value using the method, and outputting the evaluation value as the image analysis result.
Image processing device.
前記照明を当てた状態の前記検査対象物を撮像することで画像データを作成する撮像装置と、
前記画像データを処理する画像処理装置と、
を有する検査システムであって、
前記画像処理装置は、
前記照明装置の照明条件を可変設定する照明条件探索器と、
前記撮像装置からの前記照明条件毎の前記画像データを取得する画像インタフェースと、
前記照明条件毎の前記画像データに対して画像解析を行う画像解析器と、
前記画像解析器による前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する比較器と、
を有する、
検査システム。 A lighting device that illuminates the object to be inspected;
an imaging device that creates image data by imaging the object to be inspected in a state where the illumination is applied;
an image processing device that processes the image data;
An inspection system having
The image processing device includes:
a lighting condition searcher that variably sets lighting conditions of the lighting device;
an image interface that acquires the image data for each of the illumination conditions from the imaging device;
an image analyzer that performs image analysis on the image data for each of the illumination conditions;
a comparator that selects any one of the illumination conditions from the plurality of illumination conditions by comparing image analysis results for each of the illumination conditions by the image analyzer;
has,
Inspection system.
前記画像解析器は、前記照明条件毎の前記画像データに対してコントラストを算出し、前記コントラストを前記画像解析結果として出力する、
検査システム。 The inspection system according to claim 5,
The image analyzer calculates a contrast for the image data for each illumination condition, and outputs the contrast as the image analysis result.
Inspection system.
前記画像解析器は、前記照明条件毎の前記画像データに対してエッジを抽出し、抽出されたエッジの強度値を算出し、前記エッジの強度値を前記画像解析結果として出力する、
検査システム。 The inspection system according to claim 5,
The image analyzer extracts edges from the image data for each of the illumination conditions, calculates an intensity value of the extracted edge, and outputs the intensity value of the edge as the image analysis result.
Inspection system.
前記画像解析器は、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を搭載し、前記照明条件毎の前記画像データに対して前記AIを用いて前記評価値を算出し、前記評価値を前記画像解析結果として出力する、
検査システム。 The inspection system according to claim 5,
The image analyzer is equipped with AI (Artificial Intelligence) that has been trained to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation criteria, and applies the AI to the image data for each of the lighting conditions. calculating the evaluation value using the method, and outputting the evaluation value as the image analysis result.
Inspection system.
前記照明を当てた状態の前記検査対象物を撮像することで画像データを作成する撮像装置と、
を含む検査システムを用いて前記検査対象物を検査する検査方法であって、
前記照明装置の照明条件を可変設定する第1のステップと、
前記撮像装置からの前記照明条件毎の前記画像データを取得し、前記照明条件毎の前記画像データに対して画像解析を行う第2のステップと、
前記照明条件毎の画像解析結果を比較することで、複数の前記照明条件の中からいずれか一つの前記照明条件を選択する第3のステップと、
を有する、
検査方法。 A lighting device that illuminates the object to be inspected;
an imaging device that creates image data by imaging the object to be inspected in a state where the illumination is applied;
An inspection method for inspecting the object to be inspected using an inspection system comprising:
a first step of variably setting lighting conditions of the lighting device;
a second step of acquiring the image data for each of the illumination conditions from the imaging device and performing image analysis on the image data for each of the illumination conditions;
a third step of selecting one of the plurality of illumination conditions by comparing image analysis results for each of the illumination conditions;
has,
Inspection method.
前記第2のステップでは、前記照明条件毎の前記画像データに対してコントラストが算出され、前記コントラストが前記画像解析結果として出力される、
検査方法。 In the testing method according to claim 9,
In the second step, a contrast is calculated for the image data for each of the illumination conditions, and the contrast is output as the image analysis result.
Inspection method.
前記第2のステップでは、前記照明条件毎の前記画像データに対してエッジが抽出され、抽出されたエッジの強度値が算出され、前記エッジの強度値が前記画像解析結果として出力される、
検査方法。 In the testing method according to claim 9,
In the second step, edges are extracted from the image data for each illumination condition, intensity values of the extracted edges are calculated, and the intensity values of the edges are output as the image analysis results.
Inspection method.
前記第2のステップでは、ユーザの評価基準に基づく評価値と同等の評価値を算出するように学習されたAI(Artificial Intelligence)を用いて、前記照明条件毎の前記画像データに対して前記評価値が算出され、前記評価値が前記画像解析結果として出力される、
検査方法。 In the testing method according to claim 9,
In the second step, the evaluation is performed on the image data for each lighting condition using AI (Artificial Intelligence) that has been trained to calculate an evaluation value equivalent to the evaluation value based on the user's evaluation criteria. A value is calculated, and the evaluation value is output as the image analysis result.
Inspection method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020143073A JP2023153431A (en) | 2020-08-27 | 2020-08-27 | Image processing device, inspection system, and inspection method |
PCT/JP2021/027936 WO2022044673A1 (en) | 2020-08-27 | 2021-07-28 | Image processing device, inspection system, and inspection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020143073A JP2023153431A (en) | 2020-08-27 | 2020-08-27 | Image processing device, inspection system, and inspection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023153431A true JP2023153431A (en) | 2023-10-18 |
Family
ID=80353258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020143073A Pending JP2023153431A (en) | 2020-08-27 | 2020-08-27 | Image processing device, inspection system, and inspection method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023153431A (en) |
WO (1) | WO2022044673A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023171293A1 (en) * | 2022-03-10 | 2023-09-14 | 住友重機械工業株式会社 | Image inspection device, machine learning device, image inspection method, and image inspection program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5686987A (en) * | 1995-12-29 | 1997-11-11 | Orfield Associates, Inc. | Methods for assessing visual tasks to establish desirable lighting and viewing conditions for performance of tasks; apparatus; and, applications |
JP3918840B2 (en) * | 1998-09-18 | 2007-05-23 | 株式会社日立製作所 | Defect inspection method and apparatus |
JP6834843B2 (en) * | 2017-08-10 | 2021-02-24 | オムロン株式会社 | Image processing system, setting support device and setting support program |
JP6823025B2 (en) * | 2018-09-12 | 2021-01-27 | ファナック株式会社 | Inspection equipment and machine learning method |
JP2019101047A (en) * | 2019-02-25 | 2019-06-24 | 株式会社アセット・ウィッツ | Automatic part appearance inspection device |
-
2020
- 2020-08-27 JP JP2020143073A patent/JP2023153431A/en active Pending
-
2021
- 2021-07-28 WO PCT/JP2021/027936 patent/WO2022044673A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022044673A1 (en) | 2022-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sezer et al. | Detection of solder paste defects with an optimization‐based deep learning model using image processing techniques | |
JP4160258B2 (en) | A new perceptual threshold determination for gradient-based local contour detection | |
US7978903B2 (en) | Defect detecting method and defect detecting device | |
US20200005070A1 (en) | Optical inspection method, optical inspection device and optical inspection system | |
US9396531B2 (en) | Systems and methods for image and video signal measurement | |
US20180211138A1 (en) | Information processing device, information processing method, and storage medium | |
CN109919908B (en) | Method and device for detecting defects of light-emitting diode chip | |
US8577135B2 (en) | System and method for detection of specularity in an image | |
CN106934794A (en) | Information processor, information processing method and inspection system | |
US20210133473A1 (en) | Learning apparatus and learning method | |
CN111524137A (en) | Cell identification counting method and device based on image identification and computer equipment | |
Memeu et al. | Detection of plasmodium parasites from images of thin blood smears | |
US6577775B1 (en) | Methods and apparatuses for normalizing the intensity of an image | |
JP3741672B2 (en) | Image feature learning type defect detection method, defect detection apparatus, and defect detection program | |
WO2010124081A1 (en) | Optical inspection optimization | |
CN112534243A (en) | Inspection apparatus and method | |
Yao et al. | Automated detection of non-informative frames for colonoscopy through a combination of deep learning and feature extraction | |
US6714670B1 (en) | Methods and apparatuses to determine the state of elements | |
CN107194971B (en) | Golden finger positioning method and device and computer readable storage medium | |
JP2023153431A (en) | Image processing device, inspection system, and inspection method | |
EP3499178A1 (en) | Image processing system, image processing program, and image processing method | |
KR20220026439A (en) | Apparatus and method for checking whether a part is inserted in PCB | |
Boyun | The principles of organizing the search for an object in an image, tracking an object and the selection of informative features based on the visual perception of a person | |
CN112381751A (en) | Online intelligent detection system and method based on image processing algorithm | |
CN110310235B (en) | Fundus image processing method, device and equipment and storage medium |