JP2018005640A - Classifying unit generation device, image inspection device, and program - Google Patents

Classifying unit generation device, image inspection device, and program Download PDF

Info

Publication number
JP2018005640A
JP2018005640A JP2016132923A JP2016132923A JP2018005640A JP 2018005640 A JP2018005640 A JP 2018005640A JP 2016132923 A JP2016132923 A JP 2016132923A JP 2016132923 A JP2016132923 A JP 2016132923A JP 2018005640 A JP2018005640 A JP 2018005640A
Authority
JP
Japan
Prior art keywords
classifier
image
cnn
teacher data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016132923A
Other languages
Japanese (ja)
Inventor
英俊 安藤
Hidetoshi Ando
英俊 安藤
昌樹 平澤
Masaki Hirasawa
昌樹 平澤
矢島 正男
Masao Yajima
正男 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takano Co Ltd
University of Yamanashi NUC
Original Assignee
Takano Co Ltd
University of Yamanashi NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takano Co Ltd, University of Yamanashi NUC filed Critical Takano Co Ltd
Priority to JP2016132923A priority Critical patent/JP2018005640A/en
Publication of JP2018005640A publication Critical patent/JP2018005640A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a classifying unit generation device capable of easily generating a classifying unit with high classifying accuracy.SOLUTION: A control part 30 of a classifying unit generation device generates a CNN (Convolutional Neutral Network) 313 by deep layer learning based on first teacher data (for example, each teacher data in a first teacher data base or the like) including a plurality of sample images capturing a defect. Moreover, each of a plurality of sample images capturing the defect is inputted into the intermediate layer of the CNN, and a plurality of kinds of feature amounts are obtained from the intermediate layer with respect to a plural kinds of second images. Further, a decision tree group 327 is generated by machine learning based on the plurality of kinds of feature amounts.SELECTED DRAWING: Figure 5

Description

本発明は、分類器生成装置、画像検査装置、及び、プログラムに関する。   The present invention relates to a classifier generation device, an image inspection device, and a program.

従来から、検査対象を撮像した撮像画像(特に、特徴量)に基づいて、当該検査対象の欠陥(キズ、異物など)の有無などを検査する画像検査装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an image inspection apparatus that inspects the presence or absence of defects (scratches, foreign matter, etc.) of an inspection target based on a captured image (particularly, a feature amount) obtained by imaging the inspection target is known (for example, Patent Documents). 1).

特開2006−266872号公報JP 2006-266872 A

特許文献1の上記特徴量として、どのような種類の特徴量を用いるかは、人(画像を分類する分類器の生成を管理する者、分類器の使用者等)が決定する。しかしながら、通常、画像を分類するときの有用な特徴量を見出すことは難しく、有用な特徴量を使用する、精度の良い分類器を得ることは難しい。   It is determined by a person (a person who manages generation of a classifier that classifies images, a user of a classifier, etc.) what kind of feature quantity is used as the feature quantity of Patent Document 1. However, it is usually difficult to find a useful feature amount when classifying an image, and it is difficult to obtain an accurate classifier that uses a useful feature amount.

本発明は、分類精度の良い分類器を容易に生成することができる分類器生成装置、画像検査装置、及び、プログラムを提供することを目的とする。   It is an object of the present invention to provide a classifier generation device, an image inspection device, and a program that can easily generate a classifier with high classification accuracy.

上記目的を達成するため、本発明の第1の観点に係る分類器生成装置は、
欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成手段と、
前記CNN生成手段により生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得手段と、
前記特徴量取得手段により取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成手段と、
を備える。
In order to achieve the above object, a classifier generation device according to a first aspect of the present invention includes:
CNN generation means for generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are shown;
A feature amount for inputting each of a plurality of second images showing a defect to the intermediate layer constituting the CNN generated by the CNN generation means, and acquiring a plurality of types of feature amounts for each of the plurality of second images. Acquisition means;
A classifier generating means for generating a classifier by machine learning based on second teacher data including at least some types of feature quantities of the plurality of types of feature quantities acquired by the feature quantity acquisition means;
Is provided.

上記目的を達成するため、本発明の第2の観点に係る画像検査装置は、
前記分類器生成装置と、
前記分類器生成装置により生成された前記分類器と、を備え、
検査対象を撮像した画像であって欠陥が写った画像を前記分類器により分類する。
In order to achieve the above object, an image inspection apparatus according to the second aspect of the present invention provides:
The classifier generator;
The classifier generated by the classifier generator, and
An image in which an inspection object is captured and an image of a defect is classified by the classifier.

上記目的を達成するため、本発明の第3の観点に係るプログラムは、
コンピュータに、
欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成ステップと、
前記CNN生成ステップにより生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得ステップと、
前記特徴量取得ステップにより取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成ステップと、
を実行させる。
In order to achieve the above object, a program according to the third aspect of the present invention provides:
On the computer,
A CNN generating step of generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are reflected;
A feature amount for inputting each of a plurality of second images showing defects to the intermediate layer forming the CNN generated by the CNN generation step, and acquiring a plurality of types of feature amounts for each of the plurality of second images. An acquisition step;
A classifier generation step of generating a classifier by machine learning based on second teacher data including at least some types of feature amounts of the plurality of types of feature amounts acquired by the feature amount acquisition step;
Is executed.

本発明によれば、分類精度の良い分類器を容易に生成することができる。   According to the present invention, a classifier having high classification accuracy can be easily generated.

本発明の一実施形態に係る外観検査装置の構成例を示す図である。It is a figure which shows the structural example of the external appearance inspection apparatus which concerns on one Embodiment of this invention. 欠陥の例である。It is an example of a defect. CNN生成機能を実現するための制御部等の構成例を示す図である。It is a figure which shows the structural example of the control part etc. for implement | achieving a CNN production | generation function. CNNの構成例を示す図である。It is a figure which shows the structural example of CNN. 決定木生成機能を実現するための制御部等の構成例を示す図である。It is a figure which shows the structural example of the control part etc. for implement | achieving a decision tree production | generation function. 画像検査機能を実現するための制御部等の構成例を示す図である。It is a figure which shows the structural example of the control part etc. for implement | achieving an image inspection function. 特徴量削減処理の一例を示すフローチャートである。It is a flowchart which shows an example of a feature-value reduction process. 教師データベース(教師データ)の構築機能を実現するための制御部等の構成例を示す図である。It is a figure which shows the structural example of the control part etc. for implement | achieving the construction function of a teacher database (teacher data). 教師データ生成部が実行する教師データ生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the teacher data generation process which a teacher data generation part performs. 教師データ生成部の制御のもとで表示部に表示される画面の一例である。It is an example of the screen displayed on a display part under control of a teacher data generation part.

(外観検査装置100の概要等)
本発明の一実施形態に係る画像検査装置100は、以下の機能を有する。
(1)深層学習によりCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)を生成するCNN生成機能
(2)前記CNNの中間層から出力される特徴量を教師データとした機械学習により、複数の決定木からなる決定木群をランダムフォレスト法により生成する決定木生成機能
(3)検査対象(例えば、実際の製造ラインにおいて欠陥の有無を検査したい製品等)を撮像した画像に基づいて画像検査を行う機能、具体的には、検査対象を撮像した画像に基づいて欠陥候補を検出するとともに、検出した欠陥候補の種別を、前記CNNの中間層と前記決定木群とを用いて分類する画像検査機能
(Outline of the appearance inspection apparatus 100)
The image inspection apparatus 100 according to an embodiment of the present invention has the following functions.
(1) CNN generation function for generating CNN (Convolutional Neural Network) by deep learning (2) From a plurality of decision trees by machine learning using feature values output from the intermediate layer of the CNN as teacher data A decision tree generation function for generating a decision tree group by a random forest method (3) a function of performing an image inspection based on an image obtained by imaging an inspection target (for example, a product to be inspected for defects in an actual production line); Specifically, an image inspection function that detects a defect candidate based on an image obtained by imaging an inspection object and classifies the type of the detected defect candidate using the intermediate layer of the CNN and the decision tree group.

この実施の形態では、検査対象は、透明フィルムである。欠陥は、透明フィルムについた異物(黒点)、キズ(黒キズ)などである。CNNの生成、及び、決定木群の生成では、教師データとして、欠陥が実際に付いた透明フィルム(サンプル)が写ったサンプル画像(予め用意されているものとする。)が使用される。なお、CNNは、特に、DCNN(Deep Convolutional Neural Network)であるとよい。   In this embodiment, the inspection object is a transparent film. Defects include foreign matter (black spots), scratches (black scratches), etc. on the transparent film. In the generation of the CNN and the generation of the decision tree group, a sample image (assumed to be prepared in advance) in which a transparent film (sample) with defects actually attached is used as teacher data. The CNN is particularly preferably DCNN (Deep Convolutional Neural Network).

(画像検査装置100の構成)
画像検査装置100は、図1に示すように、撮像部10、記憶部20、制御部30、操作部40、表示部50を備える。これらは、バス60に接続されている。
(Configuration of the image inspection apparatus 100)
As shown in FIG. 1, the image inspection apparatus 100 includes an imaging unit 10, a storage unit 20, a control unit 30, an operation unit 40, and a display unit 50. These are connected to the bus 60.

撮像部10は、CCD(Charge Coupled Device)イメージセンサを用いたカメラ、又は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラなどからなる。撮像部10は、制御部30により制御され、検査対象を撮像し、当該検査対象が写った撮像画像を得る。撮像部10は、撮像画像の画像データを、制御部30に供給する。   The imaging unit 10 includes a camera using a CCD (Charge Coupled Device) image sensor or a camera using a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The imaging unit 10 is controlled by the control unit 30 to image the inspection target and obtain a captured image in which the inspection target is captured. The imaging unit 10 supplies the image data of the captured image to the control unit 30.

記憶部20は、ハードディスク、又は、フラッシュメモリなどからなる。記憶部20は、プログラムと、第1教師データベース(詳しくは後述)、第2教師データベース(詳しくは後述)、それぞれを構成するデータを含む各種データと、を記憶する。   The storage unit 20 includes a hard disk or a flash memory. The storage unit 20 stores a program, a first teacher database (detailed later), a second teacher database (detailed later), and various data including data constituting each.

制御部30は、CPU(Central Processing Unit)、及び、RAM(Random Access Memory)などを含んで構成される。記憶部20に記憶されているプログラムやデータは、RAMに読み出される。CPUは、RAMに読み出されたプログラムに従って、かつ、RAMに読み出されたデータを用いて、所定の処理を行うことで、制御部30の各部分(教師データ供給部311、CNN313、特徴量取得部321、次元削減部323、ランダムフォレスト処理部325、決定木群327、画像処理部331、及び、解析部333など)として動作し、画像検査装置100の上記(1)〜(3)の機能を実現する。   The control unit 30 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. Programs and data stored in the storage unit 20 are read out to the RAM. The CPU performs predetermined processing in accordance with the program read into the RAM and using the data read into the RAM, so that each part (teacher data supply unit 311, CNN 313, feature quantity) of the control unit 30 is performed. The acquisition unit 321, the dimension reduction unit 323, the random forest processing unit 325, the decision tree group 327, the image processing unit 331, the analysis unit 333, and the like), and the above (1) to (3) of the image inspection apparatus 100. Realize the function.

操作部40は、キーボード、及び、マウスなどから構成され、ユーザからの操作を受け付ける。   The operation unit 40 includes a keyboard, a mouse, and the like, and receives an operation from the user.

表示部50は、液晶ディスプレイ、又は、EL(Electro Luminescence)ディスプレイなどからなり、各種の画像を表示する。なお、表示部50は、タッチパネルからなってもよく、この場合、当該タッチパネルは操作部40でもある。   The display unit 50 includes a liquid crystal display, an EL (Electro Luminescence) display, or the like, and displays various images. The display unit 50 may be a touch panel. In this case, the touch panel is also the operation unit 40.

(制御部30の構成と動作)
次に、制御部30の構成と動作を、図2〜6などを参照しながら説明する。なお、ここでの画像検査での欠陥又は欠陥候補の種別は、図2に示すような、黒点、黒キズとする。黒点は、検査対象(透明フィルム)に付着した異物(ゴミ等)の画像である。黒キズは、検査対象に付着したキズの画像である。図2(A−1)〜図2(A−4)に例示するように、同じ黒点でも、様々な態様がある。制御部30は、態様が異なるが同じ黒点と分類できる欠陥を黒点と分類する。このようなことは、黒キズでも同じである(図2(B−1))〜図2(B−3)参照)。
(Configuration and operation of control unit 30)
Next, the configuration and operation of the control unit 30 will be described with reference to FIGS. The types of defects or defect candidates in the image inspection here are black spots and black scratches as shown in FIG. Black dots are images of foreign matters (dust etc.) adhering to the inspection target (transparent film). The black scratch is an image of a scratch attached to the inspection target. As illustrated in FIGS. 2A-1 to 2A-4, there are various modes even with the same black spot. The control unit 30 classifies defects that have different aspects but can be classified as the same black spot as black spots. Such a thing is the same also in a black crack (refer to Drawing 2 (B-1))-Drawing 2 (B-3)).

(深層学習によりCNNを生成する制御部30)
制御部30は、図3に示すように、教師データ供給部311と、CNN313と、を備える。教師データ供給部311は、記憶部20に格納されている第1教師データベース(Data Base)の教師データを読み出してCNN313に供給する。CNN313は、供給された教師データを用いて深層学習を行う。
(Control unit 30 that generates CNN by deep learning)
As illustrated in FIG. 3, the control unit 30 includes a teacher data supply unit 311 and a CNN 313. The teacher data supply unit 311 reads out teacher data of the first teacher database (Data Base) stored in the storage unit 20 and supplies it to the CNN 313. The CNN 313 performs deep learning using the supplied teacher data.

第1教師データベースは、予め作成されるものであり、複数の教師データ(教師データA等)から構成されている。1つの教師データは、欠陥付きの透明フィルム(検査対象のサンプル)が写ったサンプル画像(画像A等)と、当該サンプル画像に写った欠陥の種別(黒キズ等。以下、正解種別という。)とからなる。サンプル画像は、検査対象のサンプルを撮像して得られた撮像画像の他、当該撮像画像にノイズ除去やコントラスト強調等を施したあとの画像であってもよい。サンプル画像は、例えば、グレースケールの画像である。第1教師データベースでは、1つの教師データ毎に、サンプル画像と正解種別とが対応付けて記憶されている。正解種別は、当該画像を人が目視により確認して分類した種別であり、各教師データにおける正解のデータである。   The first teacher database is created in advance and includes a plurality of teacher data (teacher data A and the like). One teacher data includes a sample image (image A or the like) in which a transparent film with a defect (sample to be inspected) is shown, and a type of defect (black scratch or the like in the sample image; hereinafter referred to as a correct answer type). It consists of. The sample image may be an image obtained by performing noise removal or contrast enhancement on the captured image in addition to the captured image obtained by capturing the sample to be inspected. The sample image is, for example, a gray scale image. In the first teacher database, a sample image and a correct answer type are stored in association with each other for each teacher data. The correct answer type is a type in which the person visually confirms and classifies the image, and is correct data in each teacher data.

教師データ供給部311は、第1教師データベースから、1つずつ教師データを取得してCNN313に供給する。CNN313は、1つの教師データが供給される度に学習する。   The teacher data supply unit 311 acquires teacher data one by one from the first teacher database and supplies the teacher data to the CNN 313. The CNN 313 learns whenever one piece of teacher data is supplied.

CNN313の構成は、例えば、図4に示すように、畳み込み層313B、プーリング層313C、畳み込み層313D、プーリング層313E、正規化層313F、第1パーセプトロン層313G、第2パーセプトロン層313H、第3パーセプトロン層313Iを備える。CNN313は、画像の種別を分類(画像に写った欠陥候補の種別の分類等を含む。)する。なお、画像の種別を分類するとは、画像に写った被写体(欠陥及び欠陥候補を含む。)の種別を分類することと同義である。   The configuration of the CNN 313 is, for example, as shown in FIG. Layer 313I is provided. The CNN 313 classifies the type of image (including classification of the type of defect candidate shown in the image). Note that classifying the type of image is synonymous with classifying the type of the subject (including defects and defect candidates) in the image.

畳み込み層313Bには、種別を分類したい画像(輝度データ等)が入力される。この画像を以下では、入力画像という。畳み込み層313Bは、CNN313の入力層としての役割も有している。   An image (luminance data or the like) whose classification is to be classified is input to the convolution layer 313B. Hereinafter, this image is referred to as an input image. The convolution layer 313B also has a role as an input layer of the CNN 313.

畳み込み層313Bは、入力画像に対して畳み込みを行い、プーリング層313Cは、畳み込み後の入力画像に対してプーリングを行う。畳み込み層313Dは、プーリング後の入力画像に対して再度畳み込みを行い、プーリング層313Eは、畳み込み後の入力画像に対して再度プーリングを行う。畳み込みは、ある画素を中心としたある領域内の画素に畳み込み演算を行うことである。このような畳み込みにより、画像のボカシ処理や輪郭抽出処理などを表現でき、画像上の局所的特徴を抽出することができる。プーリングは、画像の各画素の輝度値等を一定領域毎に1つの値に変換する処理であり、1つの値としては、その領域内の輝度値等の最大値(Max Pooling)又は平均値(Average Pooling)などを採用できる。プーリングにより、領域内の位置的な感度を低下させることにより、画像の平行移動不変性(平行移動に対するロバストネス)を得ることができる。   The convolution layer 313B performs convolution on the input image, and the pooling layer 313C performs pooling on the input image after convolution. The convolution layer 313D performs convolution again on the input image after pooling, and the pooling layer 313E performs pooling again on the input image after convolution. Convolution is to perform a convolution operation on a pixel in a certain area centered on a certain pixel. Such convolution can express image blur processing, contour extraction processing, and the like, and can extract local features on the image. Pooling is a process of converting the luminance value of each pixel of an image into one value for each fixed region. One value is a maximum value (Max Pooling) or an average value (such as a luminance value in the region). Average Pooling) can be used. By reducing the positional sensitivity within the region by pooling, it is possible to obtain the translation invariance (robustness against translation) of the image.

正規化層313Fは、プーリング層313Eから出力された情報を、後の識別層が処理しやすいように正規化する。正規化は、適宜の方法で行われればよい。例えば、この正規化層313Fでは、画像の輝度差等の濃淡差を吸収する。   The normalization layer 313F normalizes the information output from the pooling layer 313E so that the subsequent identification layer can be easily processed. Normalization may be performed by an appropriate method. For example, the normalization layer 313F absorbs light and shade differences such as image brightness differences.

第1パーセプトロン層313G〜第3パーセプトロン層313Iは、正規化層313Fから出力された情報を処理することで、入力画像の種別を識別(分類)する。第3パーセプトロン層313Iから出力される情報は、分類により特定された入力画像の種別を示す情報である。この情報は、例えば、分類により特定された入力画像の種別と、その種別の確からしさ(その種別である可能性)と、が対応付けられた形式で出力される。例えば、分類により特定された入力画像の欠陥の種別が、黒キズ:90%、黒点:10%などのような形式で出力される。CNN313は、最も可能性が高い種別を分類結果として出力してもよい。   The first perceptron layer 313G to the third perceptron layer 313I process the information output from the normalization layer 313F to identify (classify) the type of the input image. The information output from the third perceptron layer 313I is information indicating the type of the input image specified by the classification. This information is output in a format in which, for example, the type of the input image specified by the classification and the likelihood of the type (possibility of the type) are associated with each other. For example, the type of defect of the input image specified by the classification is output in a format such as black scratch: 90%, black point: 10%. The CNN 313 may output the most likely type as a classification result.

畳み込み層313B、プーリング層313C、畳み込み層313D、プーリング層313E、及び、正規化層313Fは、まとめて中間層と呼ばれる。なお、畳み込み層313Bの前段に中間層の一層目としての入力層を設けてもよい。正規化層313Fは、適宜の位置に複数設けてもよい。第1パーセプトロン層313G〜第3パーセプトロン層313Iは、まとめて識別層(画像を分類する分類器に相当している。)と呼ばれる。なお、第3パーセプトロン層313Iの後段に識別層の最終層としての出力層を設けてもよい。中間層は、識別層の前段にあり、入力画像の特徴量を抽出する層として捉えることができる。ここでは、正規化層313Fから、第1パーセプトロン層313Gに供給される情報が、入力画像の特徴量である。ここでは、複数種類(例えば、4096種類)の特徴量(数値によって表される)が抽出され、識別層に出力される。   The convolution layer 313B, the pooling layer 313C, the convolution layer 313D, the pooling layer 313E, and the normalization layer 313F are collectively referred to as an intermediate layer. Note that an input layer as the first layer of the intermediate layer may be provided before the convolution layer 313B. A plurality of normalization layers 313F may be provided at appropriate positions. The first perceptron layer 313G to the third perceptron layer 313I are collectively referred to as an identification layer (corresponding to a classifier that classifies images). An output layer as the final layer of the identification layer may be provided after the third perceptron layer 313I. The intermediate layer is in the preceding stage of the identification layer and can be regarded as a layer for extracting the feature amount of the input image. Here, information supplied from the normalization layer 313F to the first perceptron layer 313G is a feature amount of the input image. Here, a plurality of types (for example, 4096 types) of feature quantities (represented by numerical values) are extracted and output to the identification layer.

畳み込み層及びプーリング層は、3つ以上設け、畳み込みとプーリングとを1セットとする処理を3回以上行ってもよい。また、1つの畳み込み層では、畳み込みを2回以上行ってもよい。また、畳み込み層では、畳み込みの他に他の演算処理を行ってもよい。上記中間層のように、入力画像に対して、畳み込みを行ってからプーリングを行う処理を複数回施すことで、適切な特徴量を抽出できる。特に、ここで抽出される特徴量は、人が把握困難という意味での非常に抽象的な特徴(人が見出す、真円度などの具体的な特徴ではない。)に関する量であり、人が見出せる特徴量よりも画像の分類等に適切な特徴量であることが多い(後述の決定木群327などの他の分類器でも適切な特徴量であると考えられる)。また、識別層を構成するパーセプトロン層の数も適宜の数を採用できる。   Three or more convolution layers and pooling layers may be provided, and the processing of convolution and pooling as one set may be performed three or more times. Moreover, in one convolution layer, the convolution may be performed twice or more. In the convolution layer, other arithmetic processing may be performed in addition to the convolution. As in the intermediate layer, an appropriate feature amount can be extracted by performing a process of performing pooling a plurality of times after performing convolution on the input image. In particular, the feature quantity extracted here is a quantity related to a very abstract feature (not a specific feature such as a roundness found by a person) in the sense that it is difficult for a person to grasp. In many cases, the feature amount is more appropriate for classifying the image than the feature amount that can be found. Further, an appropriate number of perceptron layers constituting the identification layer can be adopted.

前記の教師データの供給が開始される前のCNN313は、既存のものを採用できる(学習方法も公知のものを採用できる)。CNN313は、畳み込みやプーリングで使用される変数(畳み込みに使用されるフィルタの変数等)を更新することで、深層学習する。教師データが供給開始される前のCNN313は、ある程度学習したもの(欠陥以外を被写体とした画像により学習をしたものを含む)であってもよいし(所謂、ファインチューニング)、未学習のものであってもよい。CNN313の学習は、第1教師データベースに含まれる全ての教師データが使用されたときに終了する。また、予め用意されたテストデータを用いてCNN313に欠陥の種別の分類を行わせ、所望の正解率が得られたときにCNN313の学習を終了させてもよい。なお、これ以降に使用されるCNN313は、それ以上の学習を行わないものとするが、言及しない適宜のタイミングでさらなる学習をしてもよい。また、これ以降では、CNN313の中間層をのみ用いるので、識別層は削除してもよい。   As the CNN 313 before the supply of the teacher data is started, an existing one can be adopted (a well-known learning method can also be adopted). The CNN 313 performs deep learning by updating variables used in convolution and pooling (such as filter variables used for convolution). The CNN 313 before the start of supplying the teacher data may be learned to some extent (including those learned by using an image other than a defect) (so-called fine tuning) or unlearned. There may be. The learning of the CNN 313 ends when all the teacher data included in the first teacher database is used. Alternatively, the CNN 313 may be classified using the test data prepared in advance, and the learning of the CNN 313 may be terminated when a desired accuracy rate is obtained. Note that the CNN 313 used thereafter does not perform any further learning, but may perform further learning at an appropriate timing not mentioned. In addition, since only the intermediate layer of CNN 313 is used thereafter, the identification layer may be deleted.

(ランダムフォレスト法により決定木群を生成する制御部30)
制御部30は、上記で生成したCNN313の他、図5に示すように、特徴量取得部321、次元削減部323、ランダムフォレスト処理部325を備える。
(Control unit 30 for generating a decision tree group by the random forest method)
In addition to the CNN 313 generated above, the control unit 30 includes a feature amount acquisition unit 321, a dimension reduction unit 323, and a random forest processing unit 325 as shown in FIG.

特徴量取得部321は、記憶部20に予め格納されている第2教師データベースにアクセスする。第2教師データベースは、予め作成されるものであり、複数の教師データ(教師データa等)から構成されている。1つの教師データは、欠陥付きの透明フィルム(検査対象のサンプル)が写ったサンプル画像(画像a等)と、当該サンプル画像の特徴量(以下、サンプル特徴量ともいう。)と、当該サンプル画像に写った欠陥の種別(黒キズ等。以下、正解種別という。)と、を有する。なお、サンプル特徴量は、最初は第2教師データベースに格納されておらず、後述のタイミングにて追加される。第2教師データベースでは、1つの教師データ毎に、サンプル画像とサンプル特徴量と正解種別とが対応付けて記憶される。正解種別とサンプル画像とについての説明は、第1教師データベースに準じる。   The feature amount acquisition unit 321 accesses the second teacher database stored in advance in the storage unit 20. The second teacher database is created in advance and includes a plurality of teacher data (teacher data a and the like). One teacher data includes a sample image (image a or the like) showing a transparent film with a defect (sample to be inspected), a feature amount of the sample image (hereinafter also referred to as a sample feature amount), and the sample image. And the type of defect (black scratch etc., hereinafter referred to as correct answer type). Note that the sample feature amount is not initially stored in the second teacher database, but is added at a later-described timing. In the second teacher database, a sample image, a sample feature amount, and a correct answer type are stored in association with each other for each teacher data. The explanation about the correct answer type and the sample image is based on the first teacher database.

第2教師データベースと第1教師データベースとにおける、サンプル画像及び正解種別は、少なくとも一部が共通であってもよい。サンプル画像及び正解種別を全て共通としてもよく、その場合は、第2教師データベースのみを用意してもよい。両データベースでサンプル画像及び正解種別を共通にすることで、必要なデータ量を少なくできる。   At least a part of the sample images and the correct answer types in the second teacher database and the first teacher database may be common. The sample image and the correct answer type may all be common, and in that case, only the second teacher database may be prepared. By sharing the sample image and the correct answer type in both databases, the required data amount can be reduced.

特徴量取得部321は、第2教師データベースから1つの教師データを読み出し、読み出した教師データ(処理対象の教師データ)に含まれるサンプル画像をCNN313に入力する。CNN313は、供給されたサンプル画像を表す複数種類の特徴量を中間層で抽出して出力する。特徴量取得部321は、当該中間層で抽出された複数種類の特徴量を今回の処理対象の教師データに含まれるサンプル特徴量として第2教師データベースに追加する。特徴量取得部321は、第2教師データベースの全ての教師データについて、これらの処理を行う。これにより、図5における第2教師データベース(特徴量追加前)から、第2教師データベース(特徴量追加後)が生成される。なお、サンプル特徴量と、正解種別と、で第2教師データベースとは異なるデータベースを生成し、そのデータベースに基づいて以下の処理を行ってもよい。   The feature amount acquisition unit 321 reads one teacher data from the second teacher database, and inputs a sample image included in the read teacher data (processing target teacher data) to the CNN 313. The CNN 313 extracts and outputs a plurality of types of feature amounts representing the supplied sample image in the intermediate layer. The feature quantity acquisition unit 321 adds a plurality of types of feature quantities extracted in the intermediate layer to the second teacher database as sample feature quantities included in the teacher data to be processed this time. The feature quantity acquisition unit 321 performs these processes for all teacher data in the second teacher database. Thereby, the second teacher database (after the addition of the feature amount) is generated from the second teacher database (before the addition of the feature amount) in FIG. A database different from the second teacher database may be generated for the sample feature amount and the correct answer type, and the following processing may be performed based on the database.

その後、次元削減部323は、特徴量取得部321が抽出する特徴量の次元(特徴量の種類)を削減する。一例として、次元削減部323は、第2教師データベースに格納されている全てのサンプル特徴量に基づいて、主成分分析、多様体学習(ISOマップを用いたものを含む)などの統計的処理を行い、CNN313から出力される複数種類の特徴量の中から削減可能な1種類以上の特徴量を特定する。ここで特定された特徴量を削減特徴量という。次元削減部323は、第2教師データベースに格納されている、教師データ毎の複数種類のサンプル特徴量から1種類以上の削減特徴量を削除して、第2教師データベースを更新する(図5の第2教師データベース(特徴量削減後)を参照。ここでは、xi(i=1,2,3,4,・・・)が削減されている。)。削除後の特徴量は、複数種類残る。以下、複数種類の特徴量から削減特徴量を削減したあとの残りの特徴量それぞれを、残特徴量という。なお、次元削減部323は、削減特徴量がどの種類の特徴量であるかを特定する情報を、記憶部20に記録しておく。   Thereafter, the dimension reduction unit 323 reduces the dimension of the feature amount (type of feature amount) extracted by the feature amount acquisition unit 321. As an example, the dimension reduction unit 323 performs statistical processing such as principal component analysis and manifold learning (including those using an ISO map) based on all sample feature amounts stored in the second teacher database. And one or more feature amounts that can be reduced are specified from among a plurality of types of feature amounts output from the CNN 313. The feature amount specified here is referred to as a reduced feature amount. The dimension reduction unit 323 deletes one or more types of reduction feature amounts from a plurality of types of sample feature amounts for each teacher data stored in the second teacher database, and updates the second teacher database (FIG. 5). Refer to the second teacher database (after feature amount reduction), where xi (i = 1, 2, 3, 4,... Is reduced). Plural types of feature quantities remain after deletion. Hereinafter, each remaining feature amount after reducing the reduced feature amount from a plurality of types of feature amounts is referred to as a remaining feature amount. Note that the dimension reduction unit 323 records, in the storage unit 20, information that identifies which type of feature quantity the reduction feature quantity is.

ランダムフォレスト処理部325は、第3教師データベースの各教師データを正解を含む教師データとして、ランダムフォレスト法による機械学習により、複数の決定木からなる決定木群327を生成する。ここでの各教師データは、複数種類の残特徴量と正解種別とからなる。ここで生成された決定木群327は、制御部の構成要素であり、CNN313の中間層とともに、画像の種別を分類する分類装置の構成要素となる。決定木群327を構成する複数の決定木それぞれは、相関の低い、分類精度の低い弱分類器といえるが、当該弱分類器を生成するときに与えられるランダム性により(例えば、どの特徴量を使用するかを各決定木についてランダムで選択するなどにより)、複数の決定木(決定木群)全体は、高い分類性能を持つ分類器となる。   The random forest processing unit 325 generates a decision tree group 327 including a plurality of decision trees by machine learning based on the random forest method using each teacher data in the third teacher database as teacher data including a correct answer. Each teacher data here includes a plurality of types of remaining feature amounts and correct answer types. The decision tree group 327 generated here is a component of the control unit, and a component of a classification device that classifies image types together with the intermediate layer of the CNN 313. Each of the plurality of decision trees constituting the decision tree group 327 can be said to be a weak classifier with low correlation and low classification accuracy, but depending on the randomness given when the weak classifier is generated (for example, which feature amount The decision tree (decision tree group) as a whole is a classifier having high classification performance by, for example, randomly selecting whether to use each decision tree).

なお、次元削減部323は、第2教師データベースから削減特徴量を削除するのではなく、次元削減部323は、記憶部20に記録された、削減特徴量がどの種類の特徴量であるかを特定する情報を参照し、ランダムフォレスト処理部325が決定木群327を生成する際に、サンプル特徴量から削減特徴量を削除してもよい。   Note that the dimension reduction unit 323 does not delete the reduction feature quantity from the second teacher database, but the dimension reduction unit 323 determines what type of feature quantity the reduction feature quantity recorded in the storage unit 20 is. With reference to the information to be identified, when the random forest processing unit 325 generates the decision tree group 327, the reduced feature amount may be deleted from the sample feature amount.

(検査対象を撮像した画像に基づいて画像検査を行う制御部30)
制御部30は、上記で生成したCNN313(特に中間層)、次元削減部323、決定木群327の他、図6に示すように、画像処理部331、解析部333を備える。画像処理部331は、撮像部10に接続されている。撮像部10は、適宜のタイミングで検査対象を撮像する。例えば、制御部30が備える撮像制御部により、撮像部10を制御して撮像を行わせる。画像処理部331は、撮像部10から検査対象を撮像した画像を取得する。画像処理部331は、取得した画像に欠陥が写っているかを判定する処理を行う。例えば、画像処理部331は、撮像部10からの画像(ノイズ除去やコントラスト強調などを施したものであってもよい。)を所定の閾値により2値化し、2値化した画像における黒の領域をラベリング処理などにより特定する。画像処理部331は、特定した領域の画素が所定の数以上であれば、当該領域が欠陥であると判定し、当該欠陥を中心にした所定範囲の画像を前記撮像画像から切り出す。
(Control unit 30 that performs image inspection based on an image obtained by imaging an inspection object)
The control unit 30 includes an image processing unit 331 and an analysis unit 333 as shown in FIG. 6 in addition to the CNN 313 (particularly the intermediate layer), the dimension reduction unit 323, and the decision tree group 327 generated as described above. The image processing unit 331 is connected to the imaging unit 10. The imaging unit 10 images the inspection target at an appropriate timing. For example, the imaging control unit included in the control unit 30 controls the imaging unit 10 to perform imaging. The image processing unit 331 acquires an image obtained by imaging the inspection target from the imaging unit 10. The image processing unit 331 performs processing for determining whether a defect is included in the acquired image. For example, the image processing unit 331 binarizes the image from the imaging unit 10 (which may have been subjected to noise removal, contrast enhancement, or the like) with a predetermined threshold, and a black region in the binarized image Is identified by a labeling process or the like. If the number of pixels in the specified area is equal to or greater than a predetermined number, the image processing unit 331 determines that the area is a defect, and cuts out an image in a predetermined range centered on the defect from the captured image.

そして、画像処理部331は、切り出した画像を、欠陥候補有り画像として、CNN313に入力する。なお、上記サンプル画像がグレースケールの画像であれば、欠陥候補有り画像もグレースケールとする。この場合、撮像部10が出力する画像がグレースケールでもよいし、画像処理部331が、カラー画像をグレースケールに変換してもよい。このように、上記サンプル画像の形式と欠陥候補有り画像の形式は、同じものとする。   Then, the image processing unit 331 inputs the clipped image to the CNN 313 as an image with a defect candidate. If the sample image is a grayscale image, the image with a defect candidate is also grayscale. In this case, the image output from the imaging unit 10 may be grayscale, or the image processing unit 331 may convert the color image to grayscale. As described above, the format of the sample image and the format of the image with defect candidates are the same.

CNN313の中間層は、入力された欠陥候補有り画像の複数種類の特徴量を抽出する。抽出された複数種類の特徴量は、次元削減部323により削減される。具体的には、次元削減部323は、削減特徴量がどの種類の特徴量であるかを特定する情報を記憶部20から読み出す。そして、次元削減部323は、読み出した情報に基づいて、CNN313の中間層が抽出した前記複数種類の特徴量から、削減特徴量を削除し、削除したあとの種類の特徴量(複数種類の残特徴量)を決定木群327に供給する。決定木群327は、供給された複数種類の残特徴量に基づいて、欠陥候補有り画像に写った欠陥候補の種別を決定木それぞれにより分類し、各決定木の分類結果(分類した種別)を解析部333に供給する。なお、各決定木は、ランダムフォレスト法により生成されており、次元削減部323からの全ての種類の残特徴量のうちの一部又は全部の種類の残特徴量を使用して、種別を分類する。従って、決定木群327を生成するときにランダムに選択された特徴量の種類によっては、決定木群327は、全ての種類の残特徴量を使用するとは限らない。   The intermediate layer of the CNN 313 extracts a plurality of types of feature amounts of the input defect candidate image. The extracted plural types of feature amounts are reduced by the dimension reduction unit 323. Specifically, the dimension reduction unit 323 reads information specifying which type of feature quantity the reduction feature quantity is from the storage unit 20. Then, based on the read information, the dimension reduction unit 323 deletes the reduced feature amount from the plurality of types of feature values extracted by the intermediate layer of the CNN 313, and deletes the types of feature values (a plurality of types of remaining feature values). Feature amount) is supplied to the decision tree group 327. The decision tree group 327 classifies the types of defect candidates shown in the defect candidate image based on the supplied plural types of remaining feature amounts, and classifies each decision tree classification result (classified type). The data is supplied to the analysis unit 333. Note that each decision tree is generated by the random forest method, and the classification is classified using some or all of the remaining feature amounts of all types from the dimension reduction unit 323. To do. Therefore, depending on the type of feature quantity randomly selected when generating the decision tree group 327, the decision tree group 327 may not use all types of remaining feature quantities.

解析部333は、決定木群327の各決定木による分類結果を集計し、集計結果を決定木群327全体の分類結果として表示部50に出力する。解析部333は、例えば、今回の分類で特定された、欠陥候補有り画像に写った欠陥候補の種別と、その種別の確からしさ(その種別である可能性)と、が対応付けて表示部50に表示する。解析部333は、例えば、欠陥候補の種別を、黒キズ:90%、黒点:10%などのような形式で表示する。なお、解析部333は、決定木群327の各決定木による分類結果の多数決をとり、最も多い分類結果を決定木群327全体の分類結果として表示部50に出力してもよい。解析部333は、決定木群327の各決定木による分類結果の確率分布を取り、その平均値が最大の分類結果を決定木群327全体の分類結果として表示部50に出力してもよい。   The analysis unit 333 aggregates the classification results of each decision tree of the decision tree group 327, and outputs the aggregation result to the display unit 50 as the classification result of the entire decision tree group 327. For example, the analysis unit 333 associates the type of the defect candidate identified in the image with the defect candidate identified in the current classification with the probability of the type (possibility of the type) in association with the display unit 50. To display. For example, the analysis unit 333 displays the types of defect candidates in a format such as black flaws: 90%, black dots: 10%, and the like. Note that the analysis unit 333 may take the majority of the classification results of each decision tree of the decision tree group 327 and output the largest number of classification results to the display unit 50 as the classification result of the entire decision tree group 327. The analysis unit 333 may take the probability distribution of the classification result of each decision tree of the decision tree group 327 and output the classification result having the maximum average value to the display unit 50 as the classification result of the entire decision tree group 327.

(本実施形態の効果等)
本実施形態によれば、決定木群327に入力される特徴量を学習済みのCNN313の中間層(特に、畳み込み及びプーリングを1セットした処理を複数回行うこと)により抽出するので、欠陥候補の種別の分類に有用な特徴量(上述のように、人が把握困難という意味で抽象的な特徴の量であるが有用な特徴量)を機械により得ることができる。さらに、CNN313の識別層の代わりにランダムフォレスト法で生成した決定木群327を使用することで、分類精度が向上している。以上のように、本実施形態での画像検査は、分類精度はよい(実験により分類精度が向上していることが分かっている)。また、どのような種類の特徴量を決定木群327に入力するかを人が決定しないので、使用する特徴量の決定を人の経験に頼る必要がなくなる。このため、本実施形態によれば、欠陥候補の種別の分類を高精度に保つことができる。
(Effects of this embodiment)
According to the present embodiment, the feature quantity input to the decision tree group 327 is extracted by the learned intermediate layer of the CNN 313 (particularly, the process of performing one set of convolution and pooling is performed a plurality of times). A feature amount useful for classification of types (as described above, an abstract feature amount but a useful feature amount in the sense that it is difficult for a person to grasp) can be obtained by a machine. Further, the classification accuracy is improved by using the decision tree group 327 generated by the random forest method instead of the identification layer of the CNN 313. As described above, the image inspection in the present embodiment has good classification accuracy (it is known that the classification accuracy is improved by experiments). In addition, since the person does not determine what kind of feature quantity is input to the decision tree group 327, it is not necessary to rely on human experience to determine the feature quantity to be used. For this reason, according to the present embodiment, the classification of defect candidate types can be maintained with high accuracy.

また、欠陥の種別の分類に使用する分類器(ここでは、決定木群327)の生成に使用する特徴量を、学習済みのCNNの中間層により抽出するので、当該分類器を生成するための有用な特徴量を機械により得ることができ、その結果、欠陥の種別の分類を高精度にすることができる(実験により、上記の構成は、欠陥の分類にも適していることが分かっている)。   Further, since the feature quantity used for generating the classifier (in this case, the decision tree group 327) used for classifying the defect type is extracted by the intermediate layer of the learned CNN, the classifier for generating the classifier is generated. Useful features can be obtained by machine, and as a result, the classification of defect types can be made highly accurate (experiment shows that the above configuration is also suitable for defect classification. ).

また、次元削減部323がCNN313の中間層から出力される複数種類の特徴量のうちの一部の種類の特徴量を削減するので、決定木群327の生成に関する処理、及び、画像検査時の処理の負担を軽減できる。   In addition, since the dimension reduction unit 323 reduces some types of feature amounts of the plurality of types of feature amounts output from the intermediate layer of the CNN 313, processing related to generation of the decision tree group 327, and image inspection The burden of processing can be reduced.

(特徴量削減について)
次元削減部323は、図7に例示する特徴量削減処理を実行することで、特徴量を削減してもよい。
(About feature reduction)
The dimension reduction unit 323 may reduce the feature amount by executing the feature amount reduction process illustrated in FIG.

次元削減部323は、第2教師データベース(次元削減前のデータベース)に格納されている、各種類の特徴量の1つ1つについて、正答率に対する寄与度を測定する(ステップS301)。次元削減部323は、例えば、全種類の特徴量を使用して生成し、生成した分類器の正答率を測定する。次元削減部323は、次に、寄与度の測定対象とする特徴量を削除し、削除後の残った特徴量を使用して生成し、生成した分類器の正答率を測定する。なお、ここでの分類器は、例えば、サポートベクタマシン、ニューラルネットワーク、ランダムフォレストによる分類器等の分類器であればよい。正答率の測定は、例えば、別途用意したテストデータで行う。次元削減部323は、前記で生成した2つの分類器それぞれの正答率の差を寄与度として特定する。次元削減部323は、上記測定を全ての特徴量について行い、全ての特徴量について寄与度を特定する。なお、正答率の劣化(正答率の差)が大きいほど寄与度が高い。   The dimension reduction unit 323 measures the degree of contribution to the correct answer rate for each one of each type of feature quantity stored in the second teacher database (database before dimension reduction) (step S301). The dimension reduction unit 323 generates, for example, all types of feature quantities, and measures the correct answer rate of the generated classifier. Next, the dimension reduction unit 323 deletes the feature amount as a contribution measurement target, generates it using the remaining feature amount after the deletion, and measures the correct answer rate of the generated classifier. The classifier here may be a classifier such as a support vector machine, a neural network, or a random forest classifier. The measurement of the correct answer rate is performed using test data prepared separately, for example. The dimension reduction unit 323 specifies the difference between the correct answer rates of the two classifiers generated as a contribution. The dimension reduction unit 323 performs the above measurement for all feature amounts, and specifies contributions for all feature amounts. The greater the deterioration of the correct answer rate (the difference in correct answer rate), the higher the contribution.

次に、次元削減部323は、寄与度の低い順に特徴量をソートしたテーブルを作成する(ステップS302)。その後、次元削減部323は、削除する特徴量の数を表すカウンタKを「1」に設定する(ステップS303)。次に、次元削減部323は、前記のテーブルを参照し、寄与度の低い上位K個の特徴量を削除前の全種類の特徴量から削減する。またK=K+1の処理を行う(ステップS304)。そして、次元削減部323は、削除後の残った特徴量を使用して分類器を生成し、生成した分類器の正答率を測定する(ステップS305)。   Next, the dimension reduction unit 323 creates a table in which the feature amounts are sorted in ascending order of contribution (step S302). Thereafter, the dimension reduction unit 323 sets a counter K indicating the number of feature values to be deleted to “1” (step S303). Next, the dimension reduction unit 323 refers to the table, and reduces the top K feature values with a low contribution from all types of feature values before deletion. Further, the process of K = K + 1 is performed (step S304). Then, the dimension reduction unit 323 generates a classifier using the remaining feature amount after deletion, and measures the correct answer rate of the generated classifier (step S305).

次に、次元削減部323は、測定した正答率が予め設定されている閾値以上であるか否かを判別する(ステップS306)。次元削減部323は、閾値以上であった場合(ステップS306:Yes)、ステップS304以降の処理を再度行う。これによって、削除する特徴量の数が順次増えていく(これに伴って分類器の正答率も下がっていく)。   Next, the dimension reduction unit 323 determines whether or not the measured correct answer rate is equal to or greater than a preset threshold value (step S306). The dimension reduction part 323 performs the process after step S304 again, when it is more than a threshold value (step S306: Yes). As a result, the number of feature values to be deleted increases sequentially (with this, the correct answer rate of the classifier also decreases).

測定した正答率が予め設定した閾値未満となった場合(ステップS306:No)、次元削減部323は、K=K−1の処理を行う。正答率の閾値条件を満たすKの値を取得するためである。そして、次元削減部323は、寄与度が低い順にK番目までの特徴量を削減する(ステップS307)。   When the measured correct answer rate is less than the preset threshold value (step S306: No), the dimension reduction unit 323 performs the process of K = K-1. This is because the value of K that satisfies the threshold value of the correct answer rate is acquired. Then, the dimension reduction unit 323 reduces the feature amounts up to the Kth in ascending order of contribution (step S307).

このような処理により、特徴量を削減できる。   By such processing, the feature amount can be reduced.

(教師データの生成について)
深層学習では、膨大な数の教師データが必要になる。ここで、第1教師データベース及び第2教師データベースを構成する教師データは、上述のように、欠陥付きの透明フィルム(検査対象のサンプル)のサンプル画像と、当該サンプル画像に写った欠陥の正解種別と、を含む。第1教師データベース及び第2教師データベースを生成するとき(教師データの生成時)、欠陥の種別は、人が画像を目視して与えるが、膨大な数の教師データについてこれを行うと時間も労力も非常にかかってしまう。このため、以下のようにして、教師データベースを構築してもよい。なお、以下では、第1教師データベースの構築を例に取って説明するが、第2教師データベースも同様にして構築できる。また、以下の説明では、正解種別が格納されていない第1教師データベース(サンプル画像のみ格納されている図8の第1教師データベース(正解種別追加前)参照)が予め用意されているものとする。また、サンプル画像の特徴量を抽出するアルゴリズムの情報(プログラム等)も、予め人により設計され、記憶部20に用意されているものとする。サンプル画像の数は、ここでは、10000枚とする。サンプル画像は、欠陥付きの透明フィルム全体を撮像した撮像画像から欠陥とその周囲とを切り出した画像(ノイズ除去やコントラスト強調などを施したものであってもよい)である。
(About generation of teacher data)
Deep learning requires a huge amount of teacher data. Here, as described above, the teacher data constituting the first teacher database and the second teacher database are the sample image of the transparent film with defect (sample to be inspected) and the correct answer type of the defect reflected in the sample image. And including. When the first teacher database and the second teacher database are generated (when generating the teacher data), the type of defect is given by a person visually observing the image. However, if this is performed for a large number of teacher data, it takes time and effort. It will take very much. For this reason, a teacher database may be constructed as follows. In the following, the construction of the first teacher database will be described as an example, but the second teacher database can be constructed in the same manner. In the following description, it is assumed that a first teacher database in which the correct answer type is not stored (see the first teacher database (before adding the correct answer type in FIG. 8 in which only sample images are stored)) is prepared in advance. . In addition, it is assumed that information (program or the like) of an algorithm for extracting the feature amount of the sample image is designed in advance by a person and prepared in the storage unit 20. Here, the number of sample images is 10,000. The sample image is an image in which the defect and its surroundings are cut out from a captured image obtained by imaging the entire transparent film with a defect (may be subjected to noise removal, contrast enhancement, or the like).

このような処理を行う制御部30は、図8に示すように、教師データ生成部341を有し、当該教師データ生成部341は、図9に例示する教師データ生成処理を行う。   As illustrated in FIG. 8, the control unit 30 that performs such processing includes a teacher data generation unit 341. The teacher data generation unit 341 performs teacher data generation processing illustrated in FIG.

まず、教師データ生成部341は、記憶部20に格納された10000枚のサンプル画像のうち、500枚のサンプル画像をランダムに選択して取得する(ステップS401)。教師データ生成部341は、選択したサンプル画像を表示部50に表示するとともに、正解の入力を受け付ける(ステップS402)。ユーザは、操作部40を操作して、表示部50に表示された画像に写った種別を正解種別として入力する。教師データ生成部341は、入力された正解種別を、当該正解種別の対象となるサンプル画像に対応付けて、第1教師データベースに追加する。その後、教師データ生成部341は、第1教師データベースに格納されている、正解種別が追加されている教師データを全て用いて、ランダムフォレスト法により、決定木群343を生成する(ステップS403)。具体的には、教師データ生成部341は、記憶部20に用意された上記アルゴリズムの情報を用いて、各サンプル画像について特徴量を算出し、算出した特徴量と、正解種別とに基づいて決定木群343を生成する。なお、2回目以降のステップS403では、古い決定木群343を、今回生成した新たな決定木群343に置き換える。   First, the teacher data generation unit 341 randomly selects and acquires 500 sample images from among the 10,000 sample images stored in the storage unit 20 (step S401). The teacher data generation unit 341 displays the selected sample image on the display unit 50 and accepts an input of a correct answer (step S402). The user operates the operation unit 40 to input the type shown in the image displayed on the display unit 50 as the correct answer type. The teacher data generation unit 341 adds the input correct answer type to the first teacher database in association with the sample image that is the target of the correct answer type. Thereafter, the teacher data generation unit 341 generates the decision tree group 343 by the random forest method using all the teacher data stored in the first teacher database and to which the correct answer type is added (step S403). Specifically, the teacher data generation unit 341 calculates a feature amount for each sample image using the algorithm information prepared in the storage unit 20, and determines based on the calculated feature amount and the correct answer type. A tree group 343 is generated. In the second and subsequent steps S403, the old decision tree group 343 is replaced with the new decision tree group 343 generated this time.

次に、教師データ生成部341は、10000枚のサンプル画像のうち、他の所定枚数(例えば、1000枚)のサンプル画像をランダムに選択する(ステップS404)。なお、ステップS404は、10000枚のサンプル画像全てに正解種別が対応付けられるまで、繰り返される。このため、最後のステップS404では、正解種別が対応付けられていない残りのサンプル画像(例えば、500枚のサンプル画像)が全て選択される。教師データ生成部341は、ステップS404で選択したサンプル画像を、決定木群343を用いて分類する(ステップS405)。具体的には、教師データ生成部341は、選択したサンプル画像それぞれについて特徴量を算出し(算出方法は、上記参照)、算出した特徴量を決定木群343に入力して、サンプル画像それぞれの種別(欠陥の種別)を分類させる。   Next, the teacher data generation unit 341 randomly selects another predetermined number (for example, 1000) of sample images from the 10,000 sample images (step S404). Note that step S404 is repeated until the correct answer type is associated with all 10,000 sample images. For this reason, in the last step S404, all remaining sample images (for example, 500 sample images) not associated with the correct answer type are selected. The teacher data generation unit 341 classifies the sample image selected in step S404 using the decision tree group 343 (step S405). Specifically, the teacher data generation unit 341 calculates a feature amount for each of the selected sample images (refer to the above for the calculation method), inputs the calculated feature amount to the decision tree group 343, and inputs each of the sample images. The type (type of defect) is classified.

その後、教師データ生成部341は、今回の分類対象のサンプル画像と、決定木群343を用いた分類結果とを、サンプル画像毎に表示部50に一覧表示し、分類が間違っているものについての正解の入力を受け付ける(ステップS406)。分類の結果は、決定木群343の各決定木による分類結果の多数決の結果、最も多い分類結果とするとよい。なお、分類の結果が共通するもの同士をソートして表示することで、画面を見やすくしてもよい。分類の正解、不正解は、ユーザの目視により判断され、ユーザは、不正解のものについてのみ、種別を訂正する(操作部40を介して行う)。例えば、図10のように、サンプル画像51と分類結果52とをマトリックス状にセットで表示し、分類結果が誤っているものをユーザが選択して正解を入力する。なお、図10では、サンプル画像と分類結果とについて一部にのみ符号を付した。また、教師データ生成部341は、決定木群343による分類結果、又は、ユーザによる入力(訂正)がある場合には入力された種別を、正解種別として、当該正解種別の対象となるサンプル画像に対応付けて、第1教師データベースに追加格納する(ステップS406)。その後、教師データ生成部341は、未処理のサンプル画像(正解種別が対応付けられていない画像)が無いかを判別し(ステップS407)、未処理のサンプル画像がある場合には(ステップS407;No)、ステップS403の処理を再度行う。未処理のサンプル画像がない場合には(ステップS407;Yes)、本処理を終了する。   After that, the teacher data generation unit 341 displays a list of the sample images to be classified this time and the classification results using the decision tree group 343 on the display unit 50 for each sample image. A correct answer is received (step S406). The classification result may be the largest classification result as a result of the majority of the classification results by each decision tree of the decision tree group 343. In addition, you may make it easy to see a screen by sorting and displaying those with the same classification result. The correct answer and incorrect answer of the classification are determined by visual observation of the user, and the user corrects the type only for the incorrect answer (performed via the operation unit 40). For example, as shown in FIG. 10, sample images 51 and classification results 52 are displayed as a set in a matrix, and the user selects an incorrect classification result and inputs a correct answer. In FIG. 10, only part of the sample images and the classification results are denoted by reference numerals. In addition, the teacher data generation unit 341 sets the classification result obtained by the decision tree group 343 or the input type when there is an input (correction) by the user as the correct answer type as a sample image that is the target of the correct answer type. Correspondingly, it is additionally stored in the first teacher database (step S406). Thereafter, the teacher data generation unit 341 determines whether there is an unprocessed sample image (an image that is not associated with the correct answer type) (step S407). If there is an unprocessed sample image (step S407; No), the process of step S403 is performed again. If there is no unprocessed sample image (step S407; Yes), this process is terminated.

このような一連の処理により、第1教師データベース(又は第2教師データベース)を比較的容易に構築できる。なお、ステップS403の処理による決定木群の生成は、所定の正答率を有する決定木群343を得られた時点で省略してもよい。正答率は、ステップS406でユーザにより入力(訂正)された正解の数から得られる。なお、ユーザにより入力(訂正)された正解の数が所定数以下のときに、以降の決定木群343の生成を省略してもよい。なお、決定木群343は、他のサポートベクタマシン等の分類器(必要な教師データの数がCNNの深層学習よりも少なくて済むもの)に変更してもよい。このような教師データの生成方法は、正解データを含む教師データ一般に利用できる。   By such a series of processes, the first teacher database (or the second teacher database) can be constructed relatively easily. The generation of the decision tree group by the process of step S403 may be omitted when the decision tree group 343 having a predetermined correct answer rate is obtained. The correct answer rate is obtained from the number of correct answers input (corrected) by the user in step S406. When the number of correct answers input (corrected) by the user is equal to or less than a predetermined number, the subsequent generation of the decision tree group 343 may be omitted. Note that the decision tree group 343 may be changed to a classifier such as another support vector machine (the number of necessary teacher data is smaller than the deep learning of the CNN). Such a method for generating teacher data can be generally used for teacher data including correct answer data.

(変形例)
本発明は、上記の実施の形態に限られない。上記実施の形態に種々の変更(構成や処理の削除を含む)を加えてもよい。以下に変形例を例示するが、各変形例の少なくとも一部同士を組み合わせてもよい。
(Modification)
The present invention is not limited to the above embodiment. Various changes (including deletion of configuration and processing) may be added to the above embodiment. Although a modification is illustrated below, you may combine at least one part of each modification.

(変形例1)
次元量削減部323は、省略してもよい。この場合、CNN313の中間層から出力される全ての種類の特徴量により決定木群327が生成され、画像検査時には全ての種類の特徴量が決定木群327に入力される。
(Modification 1)
The dimension amount reduction unit 323 may be omitted. In this case, the decision tree group 327 is generated from all types of feature amounts output from the intermediate layer of the CNN 313, and all types of feature amounts are input to the decision tree group 327 during image inspection.

(変形例2)
特徴量を抽出する部分は、CNN313における、中間層と、識別層の第1層目(つまり、第1パーセプトロン層313G)又は1〜2層目(つまり、第1〜第2パーセプトロン層313G〜313H)と、から構成されてもよい(上記説明における中間層を、これら層に置き換えてもよい)。何層目まで使用するかは、識別層のパーセプトロン層の数に応じて決定すればよい。これら層(中間層側から数えてN(1以上の整数)番目のパーセプトロン層)からの出力も、特徴量と捉えることができ、このような構成により、分類精度を向上させることができる。
(Modification 2)
The part for extracting the feature amount is the intermediate layer and the first layer (that is, the first perceptron layer 313G) or the first or second layer (that is, the first to second perceptron layers 313G to 313H) of the CNN 313. (The intermediate layer in the above description may be replaced with these layers). The number of layers used may be determined according to the number of perceptron layers of the identification layer. Outputs from these layers (N (an integer greater than or equal to 1) perceptron layer counting from the intermediate layer side) can also be regarded as feature amounts, and with such a configuration, classification accuracy can be improved.

(変形例3)
決定木群327等を生成するときに、教師データを増やすようにしてもよい。例えば、ある教師データのある特徴量の数値を所定の範囲で変化させ、変化後の数値を有する教師データを当該ある教師データとは別の他の教師データとしてもよい。これにより、少ない教師データしか用意できない場合であっても、決定木群327等を生成できる。
(Modification 3)
When generating the decision tree group 327 and the like, the teacher data may be increased. For example, the numerical value of a certain feature amount of certain teacher data may be changed within a predetermined range, and the teacher data having the changed numerical value may be used as other teacher data different from the certain teacher data. Thereby, even when only a small amount of teacher data can be prepared, the decision tree group 327 and the like can be generated.

(変形例4)
教師データ供給部311、CNN313、特徴量取得部321、次元削減部323、ランダムフォレスト処理部325、決定木群327、画像処理部331、解析部333、教師データ生成部341、決定木群343のそれぞれ、又は、2以上の組合せは、プログラムを実行する1以上のプロセッサ(GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などを含む)、プログラムによらない1以上の処理回路、前記プロセッサと前記処理回路との組合せなどから構成されてもよい。記憶部20、制御部30、操作部40、表示部50は、パーソナルコンピュータ等の各種コンピュータにより構成されてもよい。プログラムは、CD−ROM(Compact Disc Read Only Memory)等の各種の記憶媒体、インターネットからのダウンロード等により供給されてもよい。
(Modification 4)
Teacher data supply unit 311, CNN 313, feature quantity acquisition unit 321, dimension reduction unit 323, random forest processing unit 325, decision tree group 327, image processing unit 331, analysis unit 333, teacher data generation unit 341, decision tree group 343 Each or a combination of two or more includes one or more processors (including GPU (Graphics Processing Unit), DSP (Digital Signal Processor), etc.), one or more processing circuits that do not depend on the program, and the processor. You may comprise from the combination with the said processing circuit. The storage unit 20, the control unit 30, the operation unit 40, and the display unit 50 may be configured by various computers such as a personal computer. The program may be supplied by various storage media such as a CD-ROM (Compact Disc Read Only Memory), download from the Internet, or the like.

(変形例5)
画像検査において分類を行うのは、サポートベクタマシンや、CNNの識別層等の他の分類器であってもよい。また、分類する欠陥は、上記の実施の形態では、説明の理解のため、上記の黒点、黒キズとしたが、これらに限らず、種々のものがある(実際には、2種類に限らず、多数設定される)。例えば、白キズ、白点などを含んでもよい(この場合、画像処理部331は、撮像部10からの画像を2値化した画像における白の領域をラベリング処理などにより特定して、白キズ等の欠陥を検出する)。また、分類する欠陥の種別として、予め用意された種別のどれにも属さない「その他」があってもよい。検査対象は、透明フィルムに限らない。検査対象は、フィルムの他、例えば、ガラス基板、半導体ウェーハなどの微細パターンを有する、または、無地の被検査物であればよい。また、画像検査により分類したい対象は、欠陥でなくてもよい。
(Modification 5)
The classification in the image inspection may be performed by another classifier such as a support vector machine or a CNN identification layer. Further, in the above embodiment, the defect to be classified is the above-described black point or black scratch for the sake of understanding of the description, but is not limited to these, and there are various types (in fact, not limited to two types). , Many are set). For example, white scratches, white spots, and the like may be included (in this case, the image processing unit 331 specifies a white region in an image obtained by binarizing the image from the imaging unit 10 by labeling processing, etc. Detect defects). Further, as the type of defect to be classified, there may be “others” that do not belong to any of the types prepared in advance. The inspection object is not limited to a transparent film. The inspection object may be a plain object to be inspected having a fine pattern such as a glass substrate or a semiconductor wafer in addition to a film, or a plain pattern. Further, the object to be classified by the image inspection may not be a defect.

(本明細書が開示する構成等)
上記実施の形態や、変形例を一例とする構成を以下に記載する。以下の各構成は、少なくとも一部同士を組み合わせることができる。
(Configuration disclosed in this specification)
Configurations taking the above embodiment and modifications as an example will be described below. Each of the following configurations can be combined at least partially.

(1)画像に対して、畳み込みを行ってからプーリングを行う処理を複数回施し、当該画像から複数種類の特徴量を抽出する特徴量抽出手段(例えば、CNN313の中間層など)と、
前記特徴量抽出手段が抽出した前記複数種類の特徴量のうちの少なくとも一部の種類の特徴量(例えば、残特徴量、次元削減部323が無い場合のCNN313の中間層から出力される特徴量など)を複数の決定木に入力し、当該複数の決定木それぞれの出力に基づいて前記画像を分類する分類手段(例えば、次元削減部323、決定木群327、解析部333の組合せなど)と、
を備える画像分類装置(例えば、制御部30、制御部30等を備えるコンピュータなど)。
(1) A feature amount extraction means (for example, an intermediate layer of CNN 313) that performs a process of performing pooling after performing convolution on an image a plurality of times and extracts a plurality of types of feature amounts from the image;
Feature quantity output from the intermediate layer of the CNN 313 when there is no feature quantity of at least a part of the plurality of types of feature quantities extracted by the feature quantity extraction unit (for example, the remaining feature quantity and the dimension reduction unit 323) Etc.) to a plurality of decision trees, and classifying means (for example, a combination of a dimension reduction unit 323, a decision tree group 327, an analysis unit 333, etc.) for classifying the image based on the outputs of the plurality of decision trees ,
(For example, a computer provided with the control part 30, the control part 30, etc.).

なお、特徴量抽出手段は、例えば、学習済みのCNN313から中間層を取り出したものであってもよいし、学習済みのCNN313に含まれたままの中間層であってもよい。特徴量抽出手段は、畳み込みを行ってからプーリングを行う処理を複数回施す以外の処理をさらに行うものを含む。特徴量抽出手段は、例えば、CNN313における、中間層と、識別層の第1層目(つまり、第1パーセプトロン層313G)又は1〜2層目(つまり、第1〜第2パーセプトロン層313G〜313H)と、から構成されてもよい。   Note that the feature amount extraction unit may be, for example, one obtained by extracting the intermediate layer from the learned CNN 313, or may be an intermediate layer that is included in the learned CNN 313. The feature amount extraction means includes a unit that further performs a process other than performing the pooling process a plurality of times after performing the convolution. For example, the feature amount extraction unit includes the intermediate layer and the first layer (that is, the first perceptron layer 313G) or the first or second layer (that is, the first to second perceptron layers 313G to 313H) of the CNN 313. ).

分類手段は、複数の決定木を備えるものであってもよい。特徴量を複数の決定木に入力するときの、各決定木に入力される特徴量は、当然各決定木により異なってもよい(ランダムフォレストにより生成されるため)。複数の決定木は、ランダムフォレストにより生成されたものを含むので、全体として、入力可能な特徴量(残特徴量、又は、次元削減部323が無い場合のCNN313の中間層から出力される特徴量など)のうちの全ての種類の特徴量を使用しなくてもよい。従って、「少なくとも一部の種類の特徴量」は、実際に複数の決定木で使用される特徴量のみであってもよい。例えば、制御部30のランダムフォレスト処理部325は、決定木群327を生成するときに、各決定木で使用する特徴量の情報を記憶部20に記録しておき、制御部30における、決定木群327の各決定木に特徴量を入力する部分は、前記情報を参照して、特徴量を各決定木に入力する(なお、当該情報を参照して次元削減部323が特徴量を削減してもよい)。   The classification means may include a plurality of decision trees. When inputting feature quantities to a plurality of decision trees, the feature quantities inputted to each decision tree may naturally be different for each decision tree (since they are generated by a random forest). Since the plurality of decision trees include those generated by a random forest, as a whole, inputable feature values (remaining feature values or feature values output from the intermediate layer of CNN 313 when there is no dimension reduction unit 323) Etc.) may not be used. Therefore, “at least some types of feature amounts” may be only feature amounts that are actually used in a plurality of decision trees. For example, when generating the decision tree group 327, the random forest processing unit 325 of the control unit 30 records the feature amount information used in each decision tree in the storage unit 20, and the control unit 30 uses the decision tree. The part of the group 327 that inputs the feature quantity to each decision tree refers to the information and inputs the feature quantity to each decision tree (note that the dimension reduction unit 323 reduces the feature quantity by referring to the information. May be)

複数の決定木、CNNの中間層などは、機械学習により得られるものであり、特に、機械学習の方法により、その性質や構造を特定できるものである。   A plurality of decision trees, CNN intermediate layers, and the like are obtained by machine learning, and in particular, their properties and structure can be specified by a machine learning method.

(2)前記特徴量抽出手段が抽出した前記複数種類の特徴量から一部の種類の特徴量を削減する削減手段(例えば、次元削減部323など)をさらに備え、
前記分類手段は、前記複数種類の特徴量のうちの、前記削減手段により削減されたあとの残りの特徴量の少なくとも一部の種類の特徴量(例えば、実際に複数の決定木で使用される特徴量のみであってもよい。)を前記複数の決定木に入力する、
ようにしてもよい。
(2) It further comprises a reduction means (for example, a dimension reduction unit 323) that reduces some types of feature quantities from the plurality of types of feature quantities extracted by the feature quantity extraction means
The classification unit includes at least some types of feature amounts (for example, actually used in a plurality of decision trees after the feature amount reduced by the reduction unit among the plurality of types of feature amounts. Only the feature amount may be input to the plurality of decision trees.
You may do it.

(3)前記特徴量抽出手段は、CNN(Convolutional Neural Network)の中間層及び前記CNNの識別層のうちの一部の層である第1〜N(Nは、1以上の整数)番目の層と、同じ機能を有し(例えば、前記中間層及び前記第1〜N(Nは、1以上の整数)番目の層そのもの(CNNから抜き出したものを含む)であってもよい。)、
前記特徴量抽出手段により抽出される前記複数種類の特徴量は、前記第N番目の層から出力されたものである、
ようにしてもよい。
(3) The feature quantity extraction means includes first to Nth layers (N is an integer equal to or greater than 1) which is a partial layer of a CNN (Convolutional Neural Network) intermediate layer and the CNN identification layer. And the same function (for example, the intermediate layer and the first to Nth layers (N is an integer of 1 or more)) (including those extracted from CNN).
The plurality of types of feature amounts extracted by the feature amount extraction means are output from the Nth layer,
You may do it.

(4)上記画像分類装置に撮像部10を加えた画像検査装置、上記画像分類装置が実行する処理をコンピュータに実行させるプログラム。 (4) An image inspection apparatus in which the imaging unit 10 is added to the image classification apparatus, and a program that causes a computer to execute processing executed by the image classification apparatus.

(5)欠陥が写った複数の第1画像(例えば、サンプル画像などであり、欠陥有りのサンプルを撮像した撮像画像や、当該撮像画像についてノイズ除去やコントラスト強調などの処理を施した画像など)を含む第1教師データ(例えば、第1教師データベースの各教師データなど)に基づいて深層学習によりCNN(Convolutional Neural Network)(例えば、CNN313など)を生成するCNN生成手段(例えば、制御部30など)と、
前記CNN生成手段により生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像(例えば、サンプル画像などであり、欠陥有りのサンプルを撮像した撮像画像や、当該撮像画像についてノイズ除去やコントラスト強調などの処理を施した画像など)それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得手段(例えば、CNNの中間層から特徴量取得部321など。なお、特徴量取得手段は、CNNの中間層及び当該CNNの識別層のうちの一部の層である中間層側から第1〜N(Nは、1以上の整数)番目の層のうちの最後の層である第N番目の層からの出力により特徴量を取得してもよい。中間層、又は、中間層及び第1〜N番目の層をここで用いるとき、CNNのそれ以外の層は削除されていてもよい。)と、
前記特徴量取得手段により取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データ(例えば、第2教師データベースの各教師データの特徴量と正解種別など)に基づいて機械学習により分類器を生成する分類器生成手段(例えば、ランダムフォレスト処理部325など)と、
を備える分類器生成装置(例えば、制御部30、制御部30等を備えるコンピュータなど)。
(5) A plurality of first images showing a defect (for example, a sample image or the like, a captured image obtained by capturing a sample having a defect, an image obtained by performing noise removal, contrast enhancement, or the like on the captured image) CNN generating means (for example, control unit 30 or the like) that generates a CNN (Convolutional Neural Network) (for example, CNN 313 or the like) by deep learning based on first teacher data (for example, each teacher data of the first teacher database) including )When,
A plurality of second images (for example, sample images or the like, which are images of defects and images of the samples with defects), or the captured images that are captured in the intermediate layer that constitutes the CNN generated by the CNN generation unit Feature quantity acquisition means (for example, a feature quantity from an intermediate layer of the CNN) that inputs a plurality of types of feature quantities for each of the plurality of second images. The acquisition unit 321 etc. Note that the feature amount acquisition means is the first to Nth (N is an integer of 1 or more) th from the intermediate layer side which is a part of the CNN intermediate layer and the identification layer of the CNN. The feature amount may be obtained from an output from the Nth layer, which is the last layer of the intermediate layer, or when the intermediate layer or the intermediate layer and the first to Nth layers are used here, CNN More than that The layers may be deleted. A),
In the second teacher data (for example, the feature amount and correct answer type of each teacher data in the second teacher database) including at least some types of feature amounts of the plurality of types of feature amounts acquired by the feature amount acquisition unit. A classifier generating means (for example, a random forest processing unit 325) that generates a classifier by machine learning based on it,
(For example, a computer including the control unit 30, the control unit 30, etc.).

上記複数の第1画像の少なくとも一部の画像と、上記複数の第2画像の少なくとも一部の画像と、は、共通の画像であってもよい。分類器は、サポートベクタマシンなどであってもよい。   At least some images of the plurality of first images and at least some images of the plurality of second images may be a common image. The classifier may be a support vector machine or the like.

(6)前記特徴量取得手段が取得した前記複数種類の特徴量から一部の種類の特徴量を削減する削減手段(例えば、統計的処理により特徴量の種類を減らす次元削減部323など)をさらに備え、
前記分類器生成手段は、前記複数種類の特徴量のうちの、前記削減手段により削減されたあとの残りの特徴量を含む第2教師データに基づいて前記分類器を生成する、
ようにしてもよい。
(6) Reduction means for reducing some types of feature quantities from the plurality of types of feature quantities acquired by the feature quantity acquisition means (for example, a dimension reduction unit 323 that reduces the types of feature quantities by statistical processing). In addition,
The classifier generating unit generates the classifier based on second teacher data including the remaining feature amount after being reduced by the reduction unit among the plurality of types of feature amounts.
You may do it.

(7)前記第1教師データは、前記複数の第1画像と、当該複数の第1画像それぞれに写っている欠陥の正解種別(例えば、正解のデータである欠陥の正解種別など)と、を含み、
前記複数の第1画像のうちの一部の第1画像をユーザに提示する第1提示手段(例えば、サンプル画像を表示部50に表示する教師データ生成部341など)と、
前記第1提示手段によりユーザに提示した前記一部の第1画像それぞれに写った欠陥の種別の正解をユーザから受け付ける正解受付手段(例えば、操作部40を介してユーザからの操作を受け付ける教師データ生成部341など)と、
前記正解受付手段が受け付けた正解と前記一部の第1画像とに基づいて、第2の分類器(例えば、決定木群343など)を生成する第2の分類器生成手段(例えば、ランダムフォレストにより決定木群を生成する教師データ生成部341など)と、
前記第2の分類器を用いて、前記複数の第1画像のうちの他の第1画像に写った欠陥の種別を分類する分類手段(例えば、決定木群343を用いて画像を分類する教師データ生成部341など)と、
前記分類手段が分類した分類結果をユーザに提示する第2提示手段(例えば、図10の画面を表示部50に表示する教師データ生成部341など)と、
ユーザによる、前記分類結果の誤りを訂正する訂正操作を受け付ける訂正受付手段(例えば、操作部40を介してユーザからの訂正操作を受け付ける教師データ生成部341など)と、
前記訂正受付手段により受け付けられた訂正操作により訂正された前記分類結果と、前記分類手段が分類した正解の前記分類結果と、を前記第1教師データに含まれる前記正解種別として設定する設定手段(例えば、ステップS406などの処理を行う教師データ生成部341)と、
をさらに備えるようにしてもよい。
(7) The first teacher data includes the plurality of first images, and the correct answer types of defects (for example, correct answer types of defects that are correct data) reflected in each of the plurality of first images. Including
First presenting means for presenting a part of the first images to the user (for example, a teacher data generating unit 341 for displaying a sample image on the display unit 50);
Correct answer accepting means (for example, teacher data for accepting an operation from the user via the operation unit 40) that accepts a correct answer of a defect type reflected in each of the first images presented to the user by the first presenting means. Generating unit 341),
Second classifier generating means (for example, random forest) that generates a second classifier (for example, decision tree group 343) based on the correct answer received by the correct answer receiving means and the part of the first image. Teacher data generation unit 341 for generating a decision tree group by the
Classifying means (for example, a teacher for classifying an image using the decision tree group 343) that classifies the type of defect reflected in another first image of the plurality of first images by using the second classifier. Data generation unit 341),
A second presentation unit (for example, a teacher data generation unit 341 that displays the screen of FIG. 10 on the display unit 50) that presents the classification result classified by the classification unit to the user;
Correction accepting means (for example, a teacher data generation unit 341 that accepts a correction operation from the user via the operation unit 40) that accepts a correction operation by the user to correct the classification result error;
Setting means for setting the classification result corrected by the correction operation received by the correction receiving means and the classification result of the correct answer classified by the classification means as the correct answer type included in the first teacher data ( For example, a teacher data generation unit 341) that performs processing such as step S406,
May be further provided.

(8)上記分類器生成装置が実行する処理をコンピュータに実行させるプログラム。また、前記分類器生成装置と、前記分類器生成装置により生成された前記分類器と、を備え、検査対象を撮像した画像であって欠陥が写った画像(検査対象を撮像した撮像画像や、当該撮像画像についてノイズ除去やコントラスト強調などの処理を施した画像など)を前記分類器により分類する画像検査装置。 (8) A program for causing a computer to execute processing executed by the classifier generation device. In addition, the classifier generating device and the classifier generated by the classifier generating device, an image obtained by imaging an inspection object and an image of a defect (a captured image obtained by imaging the inspection object, An image inspection apparatus that classifies an image obtained by performing processing such as noise removal and contrast enhancement on the captured image) using the classifier.

(9)なお、上記構成とは別に、複数の第1画像(例えば、サンプル画像)それぞれと、当該複数の第1画像それぞれの正解種別(例えば、サンプル画像に写った欠陥の正解種別など)と、が互いに対応付けられた教師データベースを構築する装置(例えば、制御部30、制御部30等を備えるコンピュータなど)であって、
前記複数の第1画像のうちの一部の第1画像をユーザに提示する第1提示手段(例えば、サンプル画像を表示部50に表示する教師データ生成部341など)と、
前記第1提示手段によりユーザに提示した前記一部の第1画像の種別の正解をユーザから受け付ける正解受付手段(例えば、操作部40を介してユーザからの操作を受け付ける教師データ生成部341など)と、
前記正解受付手段が受け付けた正解と前記一部の第1画像とに基づいて、第2の分類器(例えば、決定木群343など)を生成する第2の分類器生成手段(例えば、ランダムフォレストにより決定木群を生成する教師データ生成部341など)と、
前記第2の分類器を用いて、前記複数の第1画像のうちの他の第1画像の種別を分類する分類手段(例えば、決定木群343を用いて画像を分類する教師データ生成部341など)と、
前記分類手段が分類した分類結果をユーザに提示する第2提示手段(例えば、図10の画面を表示部50に表示する教師データ生成部341など)と、
ユーザによる、前記分類結果の誤りを訂正する訂正操作を受け付ける訂正受付手段(例えば、操作部40を介してユーザからの訂正操作を受け付ける教師データ生成部341など)と、
前記訂正受付手段により受け付けられた訂正操作により訂正された前記分類結果と、前記分類手段が分類した正解の前記分類結果と、を前記第1教師データに含まれる前記正解種別として設定する設定手段(例えば、ステップS406などの処理を行う教師データ生成部341)と、
を備える教師データベース構築装置。
又は、上記各種の手段をコンピュータに実行させるプログラム、又は、上記手段が実行する処理と同様の方法により教師データベースを生成する方法。
(9) In addition to the above-described configuration, each of the plurality of first images (for example, sample images) and the correct type of each of the plurality of first images (for example, the correct type of defects reflected in the sample image) , Are apparatuses for constructing teacher databases associated with each other (for example, a computer including the control unit 30, the control unit 30, etc.),
First presenting means for presenting a part of the first images to the user (for example, a teacher data generating unit 341 for displaying a sample image on the display unit 50);
Correct answer accepting means (for example, a teacher data generating part 341 that accepts an operation from the user via the operation unit 40) that accepts the correct answer of the type of the first image presented to the user by the first presenting means. When,
Second classifier generating means (for example, random forest) that generates a second classifier (for example, decision tree group 343) based on the correct answer received by the correct answer receiving means and the part of the first image. Teacher data generation unit 341 for generating a decision tree group by the
Classifying means for classifying the type of another first image among the plurality of first images using the second classifier (for example, a teacher data generation unit 341 for classifying an image using the decision tree group 343) etc,
A second presentation unit (for example, a teacher data generation unit 341 that displays the screen of FIG. 10 on the display unit 50) that presents the classification result classified by the classification unit to the user;
Correction accepting means (for example, a teacher data generation unit 341 that accepts a correction operation from the user via the operation unit 40) that accepts a correction operation by the user to correct the classification result error;
Setting means for setting the classification result corrected by the correction operation received by the correction receiving means and the classification result of the correct answer classified by the classification means as the correct answer type included in the first teacher data ( For example, a teacher data generation unit 341) that performs processing such as step S406,
A teacher database construction device comprising:
Alternatively, a program for causing a computer to execute the above various means, or a method for generating a teacher database by a method similar to the process executed by the above means.

以上のような構成により、正解種別を全て人が入力するよりも、教師データベースが容易になる。   With the configuration described above, the teacher database becomes easier than when all correct answer types are entered by a person.

10 撮像部
20 記憶部
30 制御部
40 操作部
50 表示部
100 画像検査装置
311 教師データ供給部
313 CNN
321 特徴量取得部
323 次元削減部
325 ランダムフォレスト処理部
327 決定木群
331 画像処理部
333 解析部
341 教師データ生成部
343 決定木群
DESCRIPTION OF SYMBOLS 10 Imaging part 20 Storage part 30 Control part 40 Operation part 50 Display part 100 Image inspection apparatus 311 Teacher data supply part 313 CNN
321 feature quantity acquisition unit 323 dimension reduction unit 325 random forest processing unit 327 decision tree group 331 image processing unit 333 analysis unit 341 teacher data generation unit 343 decision tree group

Claims (5)

欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成手段と、
前記CNN生成手段により生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得手段と、
前記特徴量取得手段により取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成手段と、
を備える分類器生成装置。
CNN generation means for generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are shown;
A feature amount for inputting each of a plurality of second images showing a defect to the intermediate layer constituting the CNN generated by the CNN generation means, and acquiring a plurality of types of feature amounts for each of the plurality of second images. Acquisition means;
A classifier generating means for generating a classifier by machine learning based on second teacher data including at least some types of feature quantities of the plurality of types of feature quantities acquired by the feature quantity acquisition means;
A classifier generating apparatus comprising:
前記特徴量取得手段が取得した前記複数種類の特徴量から一部の種類の特徴量を削減する削減手段をさらに備え、
前記分類器生成手段は、前記複数種類の特徴量のうちの、前記削減手段により削減されたあとの残りの特徴量を含む第2教師データに基づいて前記分類器を生成する、
請求項1に記載の分類器生成装置。
A reduction means for reducing some types of feature quantities from the plurality of types of feature quantities acquired by the feature quantity acquisition means;
The classifier generating unit generates the classifier based on second teacher data including the remaining feature amount after being reduced by the reduction unit among the plurality of types of feature amounts.
The classifier generation device according to claim 1.
前記第1教師データは、前記複数の第1画像と、当該複数の第1画像それぞれに写っている欠陥の正解種別と、を含み、
前記複数の第1画像のうちの一部の第1画像をユーザに提示する第1提示手段と、
前記第1提示手段によりユーザに提示した前記一部の第1画像それぞれに写った欠陥の種別の正解をユーザから受け付ける正解受付手段と、
前記正解受付手段が受け付けた正解と前記一部の第1画像とに基づいて、第2の分類器を生成する第2の分類器生成手段と、
前記第2の分類器を用いて、前記複数の第1画像のうちの他の第1画像に写った欠陥の種別を分類する分類手段と、
前記分類手段が分類した分類結果をユーザに提示する第2提示手段と、
ユーザによる、前記分類結果の誤りを訂正する訂正操作を受け付ける訂正受付手段と、
前記訂正受付手段により受け付けられた訂正操作により訂正された前記分類結果と、前記分類手段が分類した正解の前記分類結果と、を前記第1教師データに含まれる前記正解種別として設定する設定手段と、
をさらに備える請求項1又は2に記載の分類器生成装置。
The first teacher data includes the plurality of first images and a correct answer type of a defect reflected in each of the plurality of first images.
First presentation means for presenting a part of the first images to the user among the plurality of first images;
Correct answer accepting means for accepting from the user a correct answer of the type of defect reflected in each of the partial first images presented to the user by the first presenting means;
Second classifier generating means for generating a second classifier based on the correct answer received by the correct answer receiving means and the partial first image;
Using the second classifier, classifying means for classifying the type of defect reflected in another first image of the plurality of first images;
Second presentation means for presenting the classification results classified by the classification means to the user;
Correction accepting means for accepting a correction operation by the user to correct an error in the classification result;
Setting means for setting the classification result corrected by the correction operation received by the correction receiving means and the classification result of the correct answer classified by the classification means as the correct answer type included in the first teacher data; ,
The classifier generation device according to claim 1, further comprising:
請求項1〜3のいずれかに記載の分類器生成装置と、
前記分類器生成装置により生成された前記分類器と、を備え、
検査対象を撮像した画像であって欠陥が写った画像を前記分類器により分類する、
画像検査装置。
The classifier generator according to any one of claims 1 to 3,
The classifier generated by the classifier generator, and
Classifying an image obtained by imaging an inspection object and showing a defect by the classifier,
Image inspection device.
コンピュータに、
欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成ステップと、
前記CNN生成ステップにより生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得ステップと、
前記特徴量取得ステップにより取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成ステップと、
を実行させるプログラム。
On the computer,
A CNN generating step of generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are reflected;
A feature amount for inputting each of a plurality of second images showing defects to the intermediate layer forming the CNN generated by the CNN generation step, and acquiring a plurality of types of feature amounts for each of the plurality of second images. An acquisition step;
A classifier generation step of generating a classifier by machine learning based on second teacher data including at least some types of feature amounts of the plurality of types of feature amounts acquired by the feature amount acquisition step;
A program that executes
JP2016132923A 2016-07-04 2016-07-04 Classifying unit generation device, image inspection device, and program Pending JP2018005640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016132923A JP2018005640A (en) 2016-07-04 2016-07-04 Classifying unit generation device, image inspection device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016132923A JP2018005640A (en) 2016-07-04 2016-07-04 Classifying unit generation device, image inspection device, and program

Publications (1)

Publication Number Publication Date
JP2018005640A true JP2018005640A (en) 2018-01-11

Family

ID=60949366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016132923A Pending JP2018005640A (en) 2016-07-04 2016-07-04 Classifying unit generation device, image inspection device, and program

Country Status (1)

Country Link
JP (1) JP2018005640A (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109060838A (en) * 2018-07-23 2018-12-21 三固(厦门)科技有限公司 A kind of product surface scratch detection method based on machine vision
CN109978868A (en) * 2019-03-29 2019-07-05 北京百度网讯科技有限公司 Toy appearance quality determining method and its relevant device
JP2019124591A (en) * 2018-01-17 2019-07-25 東京エレクトロン株式会社 Substrate defect inspection device, substrate defect inspection, and storage medium
WO2019142597A1 (en) * 2018-01-19 2019-07-25 ソニー株式会社 Information processing device, information processing method and program
JP2019161073A (en) * 2018-03-14 2019-09-19 富士通株式会社 Scratch determination program, scratch determination device, and scratch determination method
JP2020003954A (en) * 2018-06-26 2020-01-09 横河電機株式会社 Device, method, program, and storage medium
WO2020036192A1 (en) * 2018-08-15 2020-02-20 日本電信電話株式会社 Classifier evaluation device, classifier evaluation method, and program
WO2020036082A1 (en) * 2018-08-15 2020-02-20 味の素株式会社 Inspection device, inspection method, and inspection program
CN110866891A (en) * 2018-08-28 2020-03-06 株式会社摩如富 Image recognition device, image recognition method, and image recognition program
JP2020051982A (en) * 2018-09-28 2020-04-02 Jfeテクノリサーチ株式会社 Image inspection device and inspection model construction system
JP2020060398A (en) * 2018-10-05 2020-04-16 オムロン株式会社 Estimation unit generator, inspection device, method for generating estimation unit, and estimation generation program
WO2020080556A1 (en) * 2018-10-18 2020-04-23 株式会社シンクアウト Information processing system
WO2020137123A1 (en) * 2018-12-27 2020-07-02 オムロン株式会社 Image determination device, training method, and image determination program
JP6727478B1 (en) * 2019-03-28 2020-07-22 三菱電機株式会社 Learning device, learning method and program
WO2020175666A1 (en) * 2019-02-28 2020-09-03 大日本印刷株式会社 Color filter inspection device, inspection device, color filter inspection method, and inspection method
CN111758117A (en) * 2018-03-14 2020-10-09 欧姆龙株式会社 Inspection system, recognition system, and learning data generation device
WO2020209087A1 (en) * 2019-04-11 2020-10-15 日本電信電話株式会社 Classification device, classification method, and classification program
JP2020530126A (en) * 2018-07-02 2020-10-15 北京百度網訊科技有限公司 Display screen peripheral circuit detection method, display screen peripheral circuit detection device, electronic devices and storage media
KR20200121206A (en) * 2019-04-15 2020-10-23 계명대학교 산학협력단 Teacher-student framework for light weighted ensemble classifier combined with deep network and random forest and the classification method based on thereof
JP2020187657A (en) * 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device
JP2021042988A (en) * 2019-09-06 2021-03-18 住友ゴム工業株式会社 Appearance inspection method and appearance inspection device
US11042977B2 (en) 2019-05-16 2021-06-22 Keyence Corporation Image inspection apparatus and setting method for image inspection apparatus
US11042976B2 (en) 2019-02-01 2021-06-22 Keyence Corporation Image inspection apparatus
US11087456B2 (en) 2019-05-16 2021-08-10 Keyence Corporation Image inspection apparatus and setting method for image inspection apparatus
CN113260854A (en) * 2018-12-25 2021-08-13 杰富意钢铁株式会社 Method for creating learning completion model, surface defect detection method, steel product manufacturing method, method for determining acceptability, grade determination method, surface defect determination program, acceptability determination program, determination system, and steel product manufacturing facility
CN113424208A (en) * 2019-03-14 2021-09-21 欧姆龙株式会社 Learning device, estimation device, data generation device, learning method, and learning program
JP2021152489A (en) * 2020-03-24 2021-09-30 株式会社 システムスクエア Teacher data generation device, inspection device, and program
CN113557536A (en) * 2019-04-25 2021-10-26 欧姆龙株式会社 Learning system, data generation device, data generation method, and data generation program
JP2022511313A (en) * 2018-11-20 2022-01-31 ビーエヌエスエフ レイルウェイ カンパニー Systems and methods for determining defects in physical objects
US11308596B2 (en) 2019-02-12 2022-04-19 Samsung Electronics Co., Ltd. Display system for sensing defect on large-size display
US11367225B2 (en) 2019-05-16 2022-06-21 Keyence Corporation Image inspection apparatus
CN115078552A (en) * 2022-07-06 2022-09-20 江南大学 Flip chip defect detection method and system
WO2022269960A1 (en) * 2021-06-23 2022-12-29 ソニーグループ株式会社 Particle analysis system, information processing device, and collecting device
US11842476B2 (en) 2018-11-20 2023-12-12 Bnsf Railway Company System and method for minimizing lost motion of an axle of a vehicle and filtering erroneous electrical signals
US11861819B2 (en) 2018-11-20 2024-01-02 Bnsf Railway Company Systems and methods for calibrating image capturing modules

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124591A (en) * 2018-01-17 2019-07-25 東京エレクトロン株式会社 Substrate defect inspection device, substrate defect inspection, and storage medium
JP7087397B2 (en) 2018-01-17 2022-06-21 東京エレクトロン株式会社 Substrate defect inspection equipment, substrate defect inspection method and storage medium
JP7322714B2 (en) 2018-01-19 2023-08-08 ソニーグループ株式会社 Information processing device, information processing method and program
EP3742356A4 (en) * 2018-01-19 2021-04-14 Sony Corporation Information processing device, information processing method and program
WO2019142597A1 (en) * 2018-01-19 2019-07-25 ソニー株式会社 Information processing device, information processing method and program
JPWO2019142597A1 (en) * 2018-01-19 2021-01-07 ソニー株式会社 Information processing equipment, information processing methods and programs
CN111758117A (en) * 2018-03-14 2020-10-09 欧姆龙株式会社 Inspection system, recognition system, and learning data generation device
CN111758117B (en) * 2018-03-14 2023-10-27 欧姆龙株式会社 Inspection system, recognition system, and learning data generation device
JP2019161073A (en) * 2018-03-14 2019-09-19 富士通株式会社 Scratch determination program, scratch determination device, and scratch determination method
JP7073806B2 (en) 2018-03-14 2022-05-24 富士通株式会社 Scratch judgment program, scratch judgment device and scratch judgment method
JP2020003954A (en) * 2018-06-26 2020-01-09 横河電機株式会社 Device, method, program, and storage medium
JP7196433B2 (en) 2018-06-26 2022-12-27 横河電機株式会社 Apparatus, method, program and recording medium
JP2020530126A (en) * 2018-07-02 2020-10-15 北京百度網訊科技有限公司 Display screen peripheral circuit detection method, display screen peripheral circuit detection device, electronic devices and storage media
JP7025452B2 (en) 2018-07-02 2022-02-24 北京百度網訊科技有限公司 Display screen peripheral circuit detection method, display screen peripheral circuit detection device, electronic device and storage medium
CN109060838B (en) * 2018-07-23 2020-12-29 三固(厦门)科技有限公司 Product surface scratch detection method based on machine vision
CN109060838A (en) * 2018-07-23 2018-12-21 三固(厦门)科技有限公司 A kind of product surface scratch detection method based on machine vision
JP7060824B2 (en) 2018-08-15 2022-04-27 日本電信電話株式会社 Classifier evaluation device, classifier evaluation method, and program
JP2022031555A (en) * 2018-08-15 2022-02-18 日本電信電話株式会社 Sorter evaluation device, sorter evaluation method, and program
WO2020036192A1 (en) * 2018-08-15 2020-02-20 日本電信電話株式会社 Classifier evaluation device, classifier evaluation method, and program
JPWO2020036192A1 (en) * 2018-08-15 2021-06-03 日本電信電話株式会社 Classifier evaluation device, classifier evaluation method, and program
WO2020036082A1 (en) * 2018-08-15 2020-02-20 味の素株式会社 Inspection device, inspection method, and inspection program
CN110866891B (en) * 2018-08-28 2023-12-26 株式会社摩如富 Image recognition device, image recognition method, and storage medium
CN110866891A (en) * 2018-08-28 2020-03-06 株式会社摩如富 Image recognition device, image recognition method, and image recognition program
JP2020051982A (en) * 2018-09-28 2020-04-02 Jfeテクノリサーチ株式会社 Image inspection device and inspection model construction system
JP7070308B2 (en) 2018-10-05 2022-05-18 オムロン株式会社 Estimator generator, inspection device, estimator generator method, and estimator generator
JP2020060398A (en) * 2018-10-05 2020-04-16 オムロン株式会社 Estimation unit generator, inspection device, method for generating estimation unit, and estimation generation program
JP7060852B2 (en) 2018-10-18 2022-04-27 株式会社シンクアウト Information processing system
JP2020064581A (en) * 2018-10-18 2020-04-23 株式会社シンクアウト Information processing system
WO2020080556A1 (en) * 2018-10-18 2020-04-23 株式会社シンクアウト Information processing system
US11620743B2 (en) 2018-11-20 2023-04-04 Bnsf Railway Company Systems and methods for determining defects in physical objects
JP7261527B2 (en) 2018-11-20 2023-04-20 ビーエヌエスエフ レイルウェイ カンパニー Systems and methods for determining defects in physical objects
US11842476B2 (en) 2018-11-20 2023-12-12 Bnsf Railway Company System and method for minimizing lost motion of an axle of a vehicle and filtering erroneous electrical signals
US11861819B2 (en) 2018-11-20 2024-01-02 Bnsf Railway Company Systems and methods for calibrating image capturing modules
JP2022511313A (en) * 2018-11-20 2022-01-31 ビーエヌエスエフ レイルウェイ カンパニー Systems and methods for determining defects in physical objects
CN113260854A (en) * 2018-12-25 2021-08-13 杰富意钢铁株式会社 Method for creating learning completion model, surface defect detection method, steel product manufacturing method, method for determining acceptability, grade determination method, surface defect determination program, acceptability determination program, determination system, and steel product manufacturing facility
US11922319B2 (en) 2018-12-27 2024-03-05 Omron Corporation Image determination device, training method and non-transitory computer readable medium storing program
WO2020137123A1 (en) * 2018-12-27 2020-07-02 オムロン株式会社 Image determination device, training method, and image determination program
US11042976B2 (en) 2019-02-01 2021-06-22 Keyence Corporation Image inspection apparatus
US11308596B2 (en) 2019-02-12 2022-04-19 Samsung Electronics Co., Ltd. Display system for sensing defect on large-size display
JPWO2020175666A1 (en) * 2019-02-28 2020-09-03
JP7415286B2 (en) 2019-02-28 2024-01-17 大日本印刷株式会社 Color filter inspection equipment, inspection equipment, color filter inspection method and inspection method
TWI822968B (en) * 2019-02-28 2023-11-21 日商大日本印刷股份有限公司 Color filter inspection device, inspection device, color filter inspection method, and inspection method
WO2020175666A1 (en) * 2019-02-28 2020-09-03 大日本印刷株式会社 Color filter inspection device, inspection device, color filter inspection method, and inspection method
CN113424208A (en) * 2019-03-14 2021-09-21 欧姆龙株式会社 Learning device, estimation device, data generation device, learning method, and learning program
WO2020194716A1 (en) * 2019-03-28 2020-10-01 三菱電機株式会社 Signal selection device, learning device, and signal selection method and program
JP6727478B1 (en) * 2019-03-28 2020-07-22 三菱電機株式会社 Learning device, learning method and program
US11367020B2 (en) 2019-03-28 2022-06-21 Mitsubishi Electric Corporation Signal selection device, learning device, and signal selection method and program
CN109978868A (en) * 2019-03-29 2019-07-05 北京百度网讯科技有限公司 Toy appearance quality determining method and its relevant device
JP7159955B2 (en) 2019-04-11 2022-10-25 日本電信電話株式会社 Classification device, classification method and classification program
JP2020173624A (en) * 2019-04-11 2020-10-22 日本電信電話株式会社 Classification device, classification method and classification program
WO2020209087A1 (en) * 2019-04-11 2020-10-15 日本電信電話株式会社 Classification device, classification method, and classification program
KR102224253B1 (en) * 2019-04-15 2021-03-08 계명대학교 산학협력단 Teacher-student framework for light weighted ensemble classifier combined with deep network and random forest and the classification method based on thereof
KR20200121206A (en) * 2019-04-15 2020-10-23 계명대학교 산학협력단 Teacher-student framework for light weighted ensemble classifier combined with deep network and random forest and the classification method based on thereof
CN113557536A (en) * 2019-04-25 2021-10-26 欧姆龙株式会社 Learning system, data generation device, data generation method, and data generation program
US11367225B2 (en) 2019-05-16 2022-06-21 Keyence Corporation Image inspection apparatus
JP2020187657A (en) * 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device
US11042977B2 (en) 2019-05-16 2021-06-22 Keyence Corporation Image inspection apparatus and setting method for image inspection apparatus
US11087456B2 (en) 2019-05-16 2021-08-10 Keyence Corporation Image inspection apparatus and setting method for image inspection apparatus
JP7367408B2 (en) 2019-09-06 2023-10-24 住友ゴム工業株式会社 Appearance inspection method and apparatus
JP2021042988A (en) * 2019-09-06 2021-03-18 住友ゴム工業株式会社 Appearance inspection method and appearance inspection device
JP2021152489A (en) * 2020-03-24 2021-09-30 株式会社 システムスクエア Teacher data generation device, inspection device, and program
WO2022269960A1 (en) * 2021-06-23 2022-12-29 ソニーグループ株式会社 Particle analysis system, information processing device, and collecting device
CN115078552B (en) * 2022-07-06 2023-09-08 江南大学 Flip chip defect detection method and system
CN115078552A (en) * 2022-07-06 2022-09-20 江南大学 Flip chip defect detection method and system

Similar Documents

Publication Publication Date Title
JP2018005640A (en) Classifying unit generation device, image inspection device, and program
JP2018005639A (en) Image classification device, image inspection device, and program
JP6403261B2 (en) Classifier generation device, visual inspection device, classifier generation method, and program
JP7015001B2 (en) Defect inspection equipment, defect inspection methods, and their programs
JP7004145B2 (en) Defect inspection equipment, defect inspection methods, and their programs
WO2023077404A1 (en) Defect detection method, apparatus and system
JP6869490B2 (en) Defect inspection equipment, defect inspection methods, and their programs
TWI787296B (en) Optical inspection method, optical inspection device and optical inspection system
US11176650B2 (en) Data generation apparatus, data generation method, and data generation program
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
WO2019117065A1 (en) Data generation device, data generation method and data generation program
WO2021143343A1 (en) Method and device for testing product quality
CN111693534B (en) Surface defect detection method, model training method, device, equipment and medium
JP5255953B2 (en) Defect inspection method and apparatus
CN111915704A (en) Apple hierarchical identification method based on deep learning
WO2023179122A1 (en) Defect detection method and apparatus, electronic device, and readable storage medium
JP2014178229A (en) Teacher data creation method, image classification method and image classification device
CN109584202A (en) Image processing apparatus, method and non-transitory computer-readable storage media
JP2014142871A (en) Instructor data creation support device, instructor data creation device, image classification device, instructor data creation support method, instructor data creation method, and image classification method
JP7393313B2 (en) Defect classification device, defect classification method and program
US20200292463A1 (en) Apparatus for optimizing inspection of exterior of target object and method thereof
US20190272627A1 (en) Automatically generating image datasets for use in image recognition and detection
CN111967490A (en) Model training method for map detection and map detection method
CN110866931A (en) Image segmentation model training method and classification-based enhanced image segmentation method
CN114187438A (en) Image detection method and system

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160729