JP2018005640A - Classifying unit generation device, image inspection device, and program - Google Patents
Classifying unit generation device, image inspection device, and program Download PDFInfo
- Publication number
- JP2018005640A JP2018005640A JP2016132923A JP2016132923A JP2018005640A JP 2018005640 A JP2018005640 A JP 2018005640A JP 2016132923 A JP2016132923 A JP 2016132923A JP 2016132923 A JP2016132923 A JP 2016132923A JP 2018005640 A JP2018005640 A JP 2018005640A
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- image
- cnn
- teacher data
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、分類器生成装置、画像検査装置、及び、プログラムに関する。 The present invention relates to a classifier generation device, an image inspection device, and a program.
従来から、検査対象を撮像した撮像画像(特に、特徴量)に基づいて、当該検査対象の欠陥(キズ、異物など)の有無などを検査する画像検査装置が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an image inspection apparatus that inspects the presence or absence of defects (scratches, foreign matter, etc.) of an inspection target based on a captured image (particularly, a feature amount) obtained by imaging the inspection target is known (for example, Patent Documents). 1).
特許文献1の上記特徴量として、どのような種類の特徴量を用いるかは、人(画像を分類する分類器の生成を管理する者、分類器の使用者等)が決定する。しかしながら、通常、画像を分類するときの有用な特徴量を見出すことは難しく、有用な特徴量を使用する、精度の良い分類器を得ることは難しい。
It is determined by a person (a person who manages generation of a classifier that classifies images, a user of a classifier, etc.) what kind of feature quantity is used as the feature quantity of
本発明は、分類精度の良い分類器を容易に生成することができる分類器生成装置、画像検査装置、及び、プログラムを提供することを目的とする。 It is an object of the present invention to provide a classifier generation device, an image inspection device, and a program that can easily generate a classifier with high classification accuracy.
上記目的を達成するため、本発明の第1の観点に係る分類器生成装置は、
欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成手段と、
前記CNN生成手段により生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得手段と、
前記特徴量取得手段により取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成手段と、
を備える。
In order to achieve the above object, a classifier generation device according to a first aspect of the present invention includes:
CNN generation means for generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are shown;
A feature amount for inputting each of a plurality of second images showing a defect to the intermediate layer constituting the CNN generated by the CNN generation means, and acquiring a plurality of types of feature amounts for each of the plurality of second images. Acquisition means;
A classifier generating means for generating a classifier by machine learning based on second teacher data including at least some types of feature quantities of the plurality of types of feature quantities acquired by the feature quantity acquisition means;
Is provided.
上記目的を達成するため、本発明の第2の観点に係る画像検査装置は、
前記分類器生成装置と、
前記分類器生成装置により生成された前記分類器と、を備え、
検査対象を撮像した画像であって欠陥が写った画像を前記分類器により分類する。
In order to achieve the above object, an image inspection apparatus according to the second aspect of the present invention provides:
The classifier generator;
The classifier generated by the classifier generator, and
An image in which an inspection object is captured and an image of a defect is classified by the classifier.
上記目的を達成するため、本発明の第3の観点に係るプログラムは、
コンピュータに、
欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成ステップと、
前記CNN生成ステップにより生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得ステップと、
前記特徴量取得ステップにより取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成ステップと、
を実行させる。
In order to achieve the above object, a program according to the third aspect of the present invention provides:
On the computer,
A CNN generating step of generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are reflected;
A feature amount for inputting each of a plurality of second images showing defects to the intermediate layer forming the CNN generated by the CNN generation step, and acquiring a plurality of types of feature amounts for each of the plurality of second images. An acquisition step;
A classifier generation step of generating a classifier by machine learning based on second teacher data including at least some types of feature amounts of the plurality of types of feature amounts acquired by the feature amount acquisition step;
Is executed.
本発明によれば、分類精度の良い分類器を容易に生成することができる。 According to the present invention, a classifier having high classification accuracy can be easily generated.
(外観検査装置100の概要等)
本発明の一実施形態に係る画像検査装置100は、以下の機能を有する。
(1)深層学習によりCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)を生成するCNN生成機能
(2)前記CNNの中間層から出力される特徴量を教師データとした機械学習により、複数の決定木からなる決定木群をランダムフォレスト法により生成する決定木生成機能
(3)検査対象(例えば、実際の製造ラインにおいて欠陥の有無を検査したい製品等)を撮像した画像に基づいて画像検査を行う機能、具体的には、検査対象を撮像した画像に基づいて欠陥候補を検出するとともに、検出した欠陥候補の種別を、前記CNNの中間層と前記決定木群とを用いて分類する画像検査機能
(Outline of the appearance inspection apparatus 100)
The
(1) CNN generation function for generating CNN (Convolutional Neural Network) by deep learning (2) From a plurality of decision trees by machine learning using feature values output from the intermediate layer of the CNN as teacher data A decision tree generation function for generating a decision tree group by a random forest method (3) a function of performing an image inspection based on an image obtained by imaging an inspection target (for example, a product to be inspected for defects in an actual production line); Specifically, an image inspection function that detects a defect candidate based on an image obtained by imaging an inspection object and classifies the type of the detected defect candidate using the intermediate layer of the CNN and the decision tree group.
この実施の形態では、検査対象は、透明フィルムである。欠陥は、透明フィルムについた異物(黒点)、キズ(黒キズ)などである。CNNの生成、及び、決定木群の生成では、教師データとして、欠陥が実際に付いた透明フィルム(サンプル)が写ったサンプル画像(予め用意されているものとする。)が使用される。なお、CNNは、特に、DCNN(Deep Convolutional Neural Network)であるとよい。 In this embodiment, the inspection object is a transparent film. Defects include foreign matter (black spots), scratches (black scratches), etc. on the transparent film. In the generation of the CNN and the generation of the decision tree group, a sample image (assumed to be prepared in advance) in which a transparent film (sample) with defects actually attached is used as teacher data. The CNN is particularly preferably DCNN (Deep Convolutional Neural Network).
(画像検査装置100の構成)
画像検査装置100は、図1に示すように、撮像部10、記憶部20、制御部30、操作部40、表示部50を備える。これらは、バス60に接続されている。
(Configuration of the image inspection apparatus 100)
As shown in FIG. 1, the
撮像部10は、CCD(Charge Coupled Device)イメージセンサを用いたカメラ、又は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラなどからなる。撮像部10は、制御部30により制御され、検査対象を撮像し、当該検査対象が写った撮像画像を得る。撮像部10は、撮像画像の画像データを、制御部30に供給する。
The
記憶部20は、ハードディスク、又は、フラッシュメモリなどからなる。記憶部20は、プログラムと、第1教師データベース(詳しくは後述)、第2教師データベース(詳しくは後述)、それぞれを構成するデータを含む各種データと、を記憶する。
The
制御部30は、CPU(Central Processing Unit)、及び、RAM(Random Access Memory)などを含んで構成される。記憶部20に記憶されているプログラムやデータは、RAMに読み出される。CPUは、RAMに読み出されたプログラムに従って、かつ、RAMに読み出されたデータを用いて、所定の処理を行うことで、制御部30の各部分(教師データ供給部311、CNN313、特徴量取得部321、次元削減部323、ランダムフォレスト処理部325、決定木群327、画像処理部331、及び、解析部333など)として動作し、画像検査装置100の上記(1)〜(3)の機能を実現する。
The
操作部40は、キーボード、及び、マウスなどから構成され、ユーザからの操作を受け付ける。
The
表示部50は、液晶ディスプレイ、又は、EL(Electro Luminescence)ディスプレイなどからなり、各種の画像を表示する。なお、表示部50は、タッチパネルからなってもよく、この場合、当該タッチパネルは操作部40でもある。
The
(制御部30の構成と動作)
次に、制御部30の構成と動作を、図2〜6などを参照しながら説明する。なお、ここでの画像検査での欠陥又は欠陥候補の種別は、図2に示すような、黒点、黒キズとする。黒点は、検査対象(透明フィルム)に付着した異物(ゴミ等)の画像である。黒キズは、検査対象に付着したキズの画像である。図2(A−1)〜図2(A−4)に例示するように、同じ黒点でも、様々な態様がある。制御部30は、態様が異なるが同じ黒点と分類できる欠陥を黒点と分類する。このようなことは、黒キズでも同じである(図2(B−1))〜図2(B−3)参照)。
(Configuration and operation of control unit 30)
Next, the configuration and operation of the
(深層学習によりCNNを生成する制御部30)
制御部30は、図3に示すように、教師データ供給部311と、CNN313と、を備える。教師データ供給部311は、記憶部20に格納されている第1教師データベース(Data Base)の教師データを読み出してCNN313に供給する。CNN313は、供給された教師データを用いて深層学習を行う。
(
As illustrated in FIG. 3, the
第1教師データベースは、予め作成されるものであり、複数の教師データ(教師データA等)から構成されている。1つの教師データは、欠陥付きの透明フィルム(検査対象のサンプル)が写ったサンプル画像(画像A等)と、当該サンプル画像に写った欠陥の種別(黒キズ等。以下、正解種別という。)とからなる。サンプル画像は、検査対象のサンプルを撮像して得られた撮像画像の他、当該撮像画像にノイズ除去やコントラスト強調等を施したあとの画像であってもよい。サンプル画像は、例えば、グレースケールの画像である。第1教師データベースでは、1つの教師データ毎に、サンプル画像と正解種別とが対応付けて記憶されている。正解種別は、当該画像を人が目視により確認して分類した種別であり、各教師データにおける正解のデータである。 The first teacher database is created in advance and includes a plurality of teacher data (teacher data A and the like). One teacher data includes a sample image (image A or the like) in which a transparent film with a defect (sample to be inspected) is shown, and a type of defect (black scratch or the like in the sample image; hereinafter referred to as a correct answer type). It consists of. The sample image may be an image obtained by performing noise removal or contrast enhancement on the captured image in addition to the captured image obtained by capturing the sample to be inspected. The sample image is, for example, a gray scale image. In the first teacher database, a sample image and a correct answer type are stored in association with each other for each teacher data. The correct answer type is a type in which the person visually confirms and classifies the image, and is correct data in each teacher data.
教師データ供給部311は、第1教師データベースから、1つずつ教師データを取得してCNN313に供給する。CNN313は、1つの教師データが供給される度に学習する。
The teacher
CNN313の構成は、例えば、図4に示すように、畳み込み層313B、プーリング層313C、畳み込み層313D、プーリング層313E、正規化層313F、第1パーセプトロン層313G、第2パーセプトロン層313H、第3パーセプトロン層313Iを備える。CNN313は、画像の種別を分類(画像に写った欠陥候補の種別の分類等を含む。)する。なお、画像の種別を分類するとは、画像に写った被写体(欠陥及び欠陥候補を含む。)の種別を分類することと同義である。
The configuration of the
畳み込み層313Bには、種別を分類したい画像(輝度データ等)が入力される。この画像を以下では、入力画像という。畳み込み層313Bは、CNN313の入力層としての役割も有している。
An image (luminance data or the like) whose classification is to be classified is input to the
畳み込み層313Bは、入力画像に対して畳み込みを行い、プーリング層313Cは、畳み込み後の入力画像に対してプーリングを行う。畳み込み層313Dは、プーリング後の入力画像に対して再度畳み込みを行い、プーリング層313Eは、畳み込み後の入力画像に対して再度プーリングを行う。畳み込みは、ある画素を中心としたある領域内の画素に畳み込み演算を行うことである。このような畳み込みにより、画像のボカシ処理や輪郭抽出処理などを表現でき、画像上の局所的特徴を抽出することができる。プーリングは、画像の各画素の輝度値等を一定領域毎に1つの値に変換する処理であり、1つの値としては、その領域内の輝度値等の最大値(Max Pooling)又は平均値(Average Pooling)などを採用できる。プーリングにより、領域内の位置的な感度を低下させることにより、画像の平行移動不変性(平行移動に対するロバストネス)を得ることができる。
The
正規化層313Fは、プーリング層313Eから出力された情報を、後の識別層が処理しやすいように正規化する。正規化は、適宜の方法で行われればよい。例えば、この正規化層313Fでは、画像の輝度差等の濃淡差を吸収する。
The
第1パーセプトロン層313G〜第3パーセプトロン層313Iは、正規化層313Fから出力された情報を処理することで、入力画像の種別を識別(分類)する。第3パーセプトロン層313Iから出力される情報は、分類により特定された入力画像の種別を示す情報である。この情報は、例えば、分類により特定された入力画像の種別と、その種別の確からしさ(その種別である可能性)と、が対応付けられた形式で出力される。例えば、分類により特定された入力画像の欠陥の種別が、黒キズ:90%、黒点:10%などのような形式で出力される。CNN313は、最も可能性が高い種別を分類結果として出力してもよい。
The
畳み込み層313B、プーリング層313C、畳み込み層313D、プーリング層313E、及び、正規化層313Fは、まとめて中間層と呼ばれる。なお、畳み込み層313Bの前段に中間層の一層目としての入力層を設けてもよい。正規化層313Fは、適宜の位置に複数設けてもよい。第1パーセプトロン層313G〜第3パーセプトロン層313Iは、まとめて識別層(画像を分類する分類器に相当している。)と呼ばれる。なお、第3パーセプトロン層313Iの後段に識別層の最終層としての出力層を設けてもよい。中間層は、識別層の前段にあり、入力画像の特徴量を抽出する層として捉えることができる。ここでは、正規化層313Fから、第1パーセプトロン層313Gに供給される情報が、入力画像の特徴量である。ここでは、複数種類(例えば、4096種類)の特徴量(数値によって表される)が抽出され、識別層に出力される。
The
畳み込み層及びプーリング層は、3つ以上設け、畳み込みとプーリングとを1セットとする処理を3回以上行ってもよい。また、1つの畳み込み層では、畳み込みを2回以上行ってもよい。また、畳み込み層では、畳み込みの他に他の演算処理を行ってもよい。上記中間層のように、入力画像に対して、畳み込みを行ってからプーリングを行う処理を複数回施すことで、適切な特徴量を抽出できる。特に、ここで抽出される特徴量は、人が把握困難という意味での非常に抽象的な特徴(人が見出す、真円度などの具体的な特徴ではない。)に関する量であり、人が見出せる特徴量よりも画像の分類等に適切な特徴量であることが多い(後述の決定木群327などの他の分類器でも適切な特徴量であると考えられる)。また、識別層を構成するパーセプトロン層の数も適宜の数を採用できる。 Three or more convolution layers and pooling layers may be provided, and the processing of convolution and pooling as one set may be performed three or more times. Moreover, in one convolution layer, the convolution may be performed twice or more. In the convolution layer, other arithmetic processing may be performed in addition to the convolution. As in the intermediate layer, an appropriate feature amount can be extracted by performing a process of performing pooling a plurality of times after performing convolution on the input image. In particular, the feature quantity extracted here is a quantity related to a very abstract feature (not a specific feature such as a roundness found by a person) in the sense that it is difficult for a person to grasp. In many cases, the feature amount is more appropriate for classifying the image than the feature amount that can be found. Further, an appropriate number of perceptron layers constituting the identification layer can be adopted.
前記の教師データの供給が開始される前のCNN313は、既存のものを採用できる(学習方法も公知のものを採用できる)。CNN313は、畳み込みやプーリングで使用される変数(畳み込みに使用されるフィルタの変数等)を更新することで、深層学習する。教師データが供給開始される前のCNN313は、ある程度学習したもの(欠陥以外を被写体とした画像により学習をしたものを含む)であってもよいし(所謂、ファインチューニング)、未学習のものであってもよい。CNN313の学習は、第1教師データベースに含まれる全ての教師データが使用されたときに終了する。また、予め用意されたテストデータを用いてCNN313に欠陥の種別の分類を行わせ、所望の正解率が得られたときにCNN313の学習を終了させてもよい。なお、これ以降に使用されるCNN313は、それ以上の学習を行わないものとするが、言及しない適宜のタイミングでさらなる学習をしてもよい。また、これ以降では、CNN313の中間層をのみ用いるので、識別層は削除してもよい。
As the
(ランダムフォレスト法により決定木群を生成する制御部30)
制御部30は、上記で生成したCNN313の他、図5に示すように、特徴量取得部321、次元削減部323、ランダムフォレスト処理部325を備える。
(
In addition to the
特徴量取得部321は、記憶部20に予め格納されている第2教師データベースにアクセスする。第2教師データベースは、予め作成されるものであり、複数の教師データ(教師データa等)から構成されている。1つの教師データは、欠陥付きの透明フィルム(検査対象のサンプル)が写ったサンプル画像(画像a等)と、当該サンプル画像の特徴量(以下、サンプル特徴量ともいう。)と、当該サンプル画像に写った欠陥の種別(黒キズ等。以下、正解種別という。)と、を有する。なお、サンプル特徴量は、最初は第2教師データベースに格納されておらず、後述のタイミングにて追加される。第2教師データベースでは、1つの教師データ毎に、サンプル画像とサンプル特徴量と正解種別とが対応付けて記憶される。正解種別とサンプル画像とについての説明は、第1教師データベースに準じる。
The feature
第2教師データベースと第1教師データベースとにおける、サンプル画像及び正解種別は、少なくとも一部が共通であってもよい。サンプル画像及び正解種別を全て共通としてもよく、その場合は、第2教師データベースのみを用意してもよい。両データベースでサンプル画像及び正解種別を共通にすることで、必要なデータ量を少なくできる。 At least a part of the sample images and the correct answer types in the second teacher database and the first teacher database may be common. The sample image and the correct answer type may all be common, and in that case, only the second teacher database may be prepared. By sharing the sample image and the correct answer type in both databases, the required data amount can be reduced.
特徴量取得部321は、第2教師データベースから1つの教師データを読み出し、読み出した教師データ(処理対象の教師データ)に含まれるサンプル画像をCNN313に入力する。CNN313は、供給されたサンプル画像を表す複数種類の特徴量を中間層で抽出して出力する。特徴量取得部321は、当該中間層で抽出された複数種類の特徴量を今回の処理対象の教師データに含まれるサンプル特徴量として第2教師データベースに追加する。特徴量取得部321は、第2教師データベースの全ての教師データについて、これらの処理を行う。これにより、図5における第2教師データベース(特徴量追加前)から、第2教師データベース(特徴量追加後)が生成される。なお、サンプル特徴量と、正解種別と、で第2教師データベースとは異なるデータベースを生成し、そのデータベースに基づいて以下の処理を行ってもよい。
The feature
その後、次元削減部323は、特徴量取得部321が抽出する特徴量の次元(特徴量の種類)を削減する。一例として、次元削減部323は、第2教師データベースに格納されている全てのサンプル特徴量に基づいて、主成分分析、多様体学習(ISOマップを用いたものを含む)などの統計的処理を行い、CNN313から出力される複数種類の特徴量の中から削減可能な1種類以上の特徴量を特定する。ここで特定された特徴量を削減特徴量という。次元削減部323は、第2教師データベースに格納されている、教師データ毎の複数種類のサンプル特徴量から1種類以上の削減特徴量を削除して、第2教師データベースを更新する(図5の第2教師データベース(特徴量削減後)を参照。ここでは、xi(i=1,2,3,4,・・・)が削減されている。)。削除後の特徴量は、複数種類残る。以下、複数種類の特徴量から削減特徴量を削減したあとの残りの特徴量それぞれを、残特徴量という。なお、次元削減部323は、削減特徴量がどの種類の特徴量であるかを特定する情報を、記憶部20に記録しておく。
Thereafter, the
ランダムフォレスト処理部325は、第3教師データベースの各教師データを正解を含む教師データとして、ランダムフォレスト法による機械学習により、複数の決定木からなる決定木群327を生成する。ここでの各教師データは、複数種類の残特徴量と正解種別とからなる。ここで生成された決定木群327は、制御部の構成要素であり、CNN313の中間層とともに、画像の種別を分類する分類装置の構成要素となる。決定木群327を構成する複数の決定木それぞれは、相関の低い、分類精度の低い弱分類器といえるが、当該弱分類器を生成するときに与えられるランダム性により(例えば、どの特徴量を使用するかを各決定木についてランダムで選択するなどにより)、複数の決定木(決定木群)全体は、高い分類性能を持つ分類器となる。
The random
なお、次元削減部323は、第2教師データベースから削減特徴量を削除するのではなく、次元削減部323は、記憶部20に記録された、削減特徴量がどの種類の特徴量であるかを特定する情報を参照し、ランダムフォレスト処理部325が決定木群327を生成する際に、サンプル特徴量から削減特徴量を削除してもよい。
Note that the
(検査対象を撮像した画像に基づいて画像検査を行う制御部30)
制御部30は、上記で生成したCNN313(特に中間層)、次元削減部323、決定木群327の他、図6に示すように、画像処理部331、解析部333を備える。画像処理部331は、撮像部10に接続されている。撮像部10は、適宜のタイミングで検査対象を撮像する。例えば、制御部30が備える撮像制御部により、撮像部10を制御して撮像を行わせる。画像処理部331は、撮像部10から検査対象を撮像した画像を取得する。画像処理部331は、取得した画像に欠陥が写っているかを判定する処理を行う。例えば、画像処理部331は、撮像部10からの画像(ノイズ除去やコントラスト強調などを施したものであってもよい。)を所定の閾値により2値化し、2値化した画像における黒の領域をラベリング処理などにより特定する。画像処理部331は、特定した領域の画素が所定の数以上であれば、当該領域が欠陥であると判定し、当該欠陥を中心にした所定範囲の画像を前記撮像画像から切り出す。
(
The
そして、画像処理部331は、切り出した画像を、欠陥候補有り画像として、CNN313に入力する。なお、上記サンプル画像がグレースケールの画像であれば、欠陥候補有り画像もグレースケールとする。この場合、撮像部10が出力する画像がグレースケールでもよいし、画像処理部331が、カラー画像をグレースケールに変換してもよい。このように、上記サンプル画像の形式と欠陥候補有り画像の形式は、同じものとする。
Then, the
CNN313の中間層は、入力された欠陥候補有り画像の複数種類の特徴量を抽出する。抽出された複数種類の特徴量は、次元削減部323により削減される。具体的には、次元削減部323は、削減特徴量がどの種類の特徴量であるかを特定する情報を記憶部20から読み出す。そして、次元削減部323は、読み出した情報に基づいて、CNN313の中間層が抽出した前記複数種類の特徴量から、削減特徴量を削除し、削除したあとの種類の特徴量(複数種類の残特徴量)を決定木群327に供給する。決定木群327は、供給された複数種類の残特徴量に基づいて、欠陥候補有り画像に写った欠陥候補の種別を決定木それぞれにより分類し、各決定木の分類結果(分類した種別)を解析部333に供給する。なお、各決定木は、ランダムフォレスト法により生成されており、次元削減部323からの全ての種類の残特徴量のうちの一部又は全部の種類の残特徴量を使用して、種別を分類する。従って、決定木群327を生成するときにランダムに選択された特徴量の種類によっては、決定木群327は、全ての種類の残特徴量を使用するとは限らない。
The intermediate layer of the
解析部333は、決定木群327の各決定木による分類結果を集計し、集計結果を決定木群327全体の分類結果として表示部50に出力する。解析部333は、例えば、今回の分類で特定された、欠陥候補有り画像に写った欠陥候補の種別と、その種別の確からしさ(その種別である可能性)と、が対応付けて表示部50に表示する。解析部333は、例えば、欠陥候補の種別を、黒キズ:90%、黒点:10%などのような形式で表示する。なお、解析部333は、決定木群327の各決定木による分類結果の多数決をとり、最も多い分類結果を決定木群327全体の分類結果として表示部50に出力してもよい。解析部333は、決定木群327の各決定木による分類結果の確率分布を取り、その平均値が最大の分類結果を決定木群327全体の分類結果として表示部50に出力してもよい。
The
(本実施形態の効果等)
本実施形態によれば、決定木群327に入力される特徴量を学習済みのCNN313の中間層(特に、畳み込み及びプーリングを1セットした処理を複数回行うこと)により抽出するので、欠陥候補の種別の分類に有用な特徴量(上述のように、人が把握困難という意味で抽象的な特徴の量であるが有用な特徴量)を機械により得ることができる。さらに、CNN313の識別層の代わりにランダムフォレスト法で生成した決定木群327を使用することで、分類精度が向上している。以上のように、本実施形態での画像検査は、分類精度はよい(実験により分類精度が向上していることが分かっている)。また、どのような種類の特徴量を決定木群327に入力するかを人が決定しないので、使用する特徴量の決定を人の経験に頼る必要がなくなる。このため、本実施形態によれば、欠陥候補の種別の分類を高精度に保つことができる。
(Effects of this embodiment)
According to the present embodiment, the feature quantity input to the
また、欠陥の種別の分類に使用する分類器(ここでは、決定木群327)の生成に使用する特徴量を、学習済みのCNNの中間層により抽出するので、当該分類器を生成するための有用な特徴量を機械により得ることができ、その結果、欠陥の種別の分類を高精度にすることができる(実験により、上記の構成は、欠陥の分類にも適していることが分かっている)。 Further, since the feature quantity used for generating the classifier (in this case, the decision tree group 327) used for classifying the defect type is extracted by the intermediate layer of the learned CNN, the classifier for generating the classifier is generated. Useful features can be obtained by machine, and as a result, the classification of defect types can be made highly accurate (experiment shows that the above configuration is also suitable for defect classification. ).
また、次元削減部323がCNN313の中間層から出力される複数種類の特徴量のうちの一部の種類の特徴量を削減するので、決定木群327の生成に関する処理、及び、画像検査時の処理の負担を軽減できる。
In addition, since the
(特徴量削減について)
次元削減部323は、図7に例示する特徴量削減処理を実行することで、特徴量を削減してもよい。
(About feature reduction)
The
次元削減部323は、第2教師データベース(次元削減前のデータベース)に格納されている、各種類の特徴量の1つ1つについて、正答率に対する寄与度を測定する(ステップS301)。次元削減部323は、例えば、全種類の特徴量を使用して生成し、生成した分類器の正答率を測定する。次元削減部323は、次に、寄与度の測定対象とする特徴量を削除し、削除後の残った特徴量を使用して生成し、生成した分類器の正答率を測定する。なお、ここでの分類器は、例えば、サポートベクタマシン、ニューラルネットワーク、ランダムフォレストによる分類器等の分類器であればよい。正答率の測定は、例えば、別途用意したテストデータで行う。次元削減部323は、前記で生成した2つの分類器それぞれの正答率の差を寄与度として特定する。次元削減部323は、上記測定を全ての特徴量について行い、全ての特徴量について寄与度を特定する。なお、正答率の劣化(正答率の差)が大きいほど寄与度が高い。
The
次に、次元削減部323は、寄与度の低い順に特徴量をソートしたテーブルを作成する(ステップS302)。その後、次元削減部323は、削除する特徴量の数を表すカウンタKを「1」に設定する(ステップS303)。次に、次元削減部323は、前記のテーブルを参照し、寄与度の低い上位K個の特徴量を削除前の全種類の特徴量から削減する。またK=K+1の処理を行う(ステップS304)。そして、次元削減部323は、削除後の残った特徴量を使用して分類器を生成し、生成した分類器の正答率を測定する(ステップS305)。
Next, the
次に、次元削減部323は、測定した正答率が予め設定されている閾値以上であるか否かを判別する(ステップS306)。次元削減部323は、閾値以上であった場合(ステップS306:Yes)、ステップS304以降の処理を再度行う。これによって、削除する特徴量の数が順次増えていく(これに伴って分類器の正答率も下がっていく)。
Next, the
測定した正答率が予め設定した閾値未満となった場合(ステップS306:No)、次元削減部323は、K=K−1の処理を行う。正答率の閾値条件を満たすKの値を取得するためである。そして、次元削減部323は、寄与度が低い順にK番目までの特徴量を削減する(ステップS307)。
When the measured correct answer rate is less than the preset threshold value (step S306: No), the
このような処理により、特徴量を削減できる。 By such processing, the feature amount can be reduced.
(教師データの生成について)
深層学習では、膨大な数の教師データが必要になる。ここで、第1教師データベース及び第2教師データベースを構成する教師データは、上述のように、欠陥付きの透明フィルム(検査対象のサンプル)のサンプル画像と、当該サンプル画像に写った欠陥の正解種別と、を含む。第1教師データベース及び第2教師データベースを生成するとき(教師データの生成時)、欠陥の種別は、人が画像を目視して与えるが、膨大な数の教師データについてこれを行うと時間も労力も非常にかかってしまう。このため、以下のようにして、教師データベースを構築してもよい。なお、以下では、第1教師データベースの構築を例に取って説明するが、第2教師データベースも同様にして構築できる。また、以下の説明では、正解種別が格納されていない第1教師データベース(サンプル画像のみ格納されている図8の第1教師データベース(正解種別追加前)参照)が予め用意されているものとする。また、サンプル画像の特徴量を抽出するアルゴリズムの情報(プログラム等)も、予め人により設計され、記憶部20に用意されているものとする。サンプル画像の数は、ここでは、10000枚とする。サンプル画像は、欠陥付きの透明フィルム全体を撮像した撮像画像から欠陥とその周囲とを切り出した画像(ノイズ除去やコントラスト強調などを施したものであってもよい)である。
(About generation of teacher data)
Deep learning requires a huge amount of teacher data. Here, as described above, the teacher data constituting the first teacher database and the second teacher database are the sample image of the transparent film with defect (sample to be inspected) and the correct answer type of the defect reflected in the sample image. And including. When the first teacher database and the second teacher database are generated (when generating the teacher data), the type of defect is given by a person visually observing the image. However, if this is performed for a large number of teacher data, it takes time and effort. It will take very much. For this reason, a teacher database may be constructed as follows. In the following, the construction of the first teacher database will be described as an example, but the second teacher database can be constructed in the same manner. In the following description, it is assumed that a first teacher database in which the correct answer type is not stored (see the first teacher database (before adding the correct answer type in FIG. 8 in which only sample images are stored)) is prepared in advance. . In addition, it is assumed that information (program or the like) of an algorithm for extracting the feature amount of the sample image is designed in advance by a person and prepared in the
このような処理を行う制御部30は、図8に示すように、教師データ生成部341を有し、当該教師データ生成部341は、図9に例示する教師データ生成処理を行う。
As illustrated in FIG. 8, the
まず、教師データ生成部341は、記憶部20に格納された10000枚のサンプル画像のうち、500枚のサンプル画像をランダムに選択して取得する(ステップS401)。教師データ生成部341は、選択したサンプル画像を表示部50に表示するとともに、正解の入力を受け付ける(ステップS402)。ユーザは、操作部40を操作して、表示部50に表示された画像に写った種別を正解種別として入力する。教師データ生成部341は、入力された正解種別を、当該正解種別の対象となるサンプル画像に対応付けて、第1教師データベースに追加する。その後、教師データ生成部341は、第1教師データベースに格納されている、正解種別が追加されている教師データを全て用いて、ランダムフォレスト法により、決定木群343を生成する(ステップS403)。具体的には、教師データ生成部341は、記憶部20に用意された上記アルゴリズムの情報を用いて、各サンプル画像について特徴量を算出し、算出した特徴量と、正解種別とに基づいて決定木群343を生成する。なお、2回目以降のステップS403では、古い決定木群343を、今回生成した新たな決定木群343に置き換える。
First, the teacher
次に、教師データ生成部341は、10000枚のサンプル画像のうち、他の所定枚数(例えば、1000枚)のサンプル画像をランダムに選択する(ステップS404)。なお、ステップS404は、10000枚のサンプル画像全てに正解種別が対応付けられるまで、繰り返される。このため、最後のステップS404では、正解種別が対応付けられていない残りのサンプル画像(例えば、500枚のサンプル画像)が全て選択される。教師データ生成部341は、ステップS404で選択したサンプル画像を、決定木群343を用いて分類する(ステップS405)。具体的には、教師データ生成部341は、選択したサンプル画像それぞれについて特徴量を算出し(算出方法は、上記参照)、算出した特徴量を決定木群343に入力して、サンプル画像それぞれの種別(欠陥の種別)を分類させる。
Next, the teacher
その後、教師データ生成部341は、今回の分類対象のサンプル画像と、決定木群343を用いた分類結果とを、サンプル画像毎に表示部50に一覧表示し、分類が間違っているものについての正解の入力を受け付ける(ステップS406)。分類の結果は、決定木群343の各決定木による分類結果の多数決の結果、最も多い分類結果とするとよい。なお、分類の結果が共通するもの同士をソートして表示することで、画面を見やすくしてもよい。分類の正解、不正解は、ユーザの目視により判断され、ユーザは、不正解のものについてのみ、種別を訂正する(操作部40を介して行う)。例えば、図10のように、サンプル画像51と分類結果52とをマトリックス状にセットで表示し、分類結果が誤っているものをユーザが選択して正解を入力する。なお、図10では、サンプル画像と分類結果とについて一部にのみ符号を付した。また、教師データ生成部341は、決定木群343による分類結果、又は、ユーザによる入力(訂正)がある場合には入力された種別を、正解種別として、当該正解種別の対象となるサンプル画像に対応付けて、第1教師データベースに追加格納する(ステップS406)。その後、教師データ生成部341は、未処理のサンプル画像(正解種別が対応付けられていない画像)が無いかを判別し(ステップS407)、未処理のサンプル画像がある場合には(ステップS407;No)、ステップS403の処理を再度行う。未処理のサンプル画像がない場合には(ステップS407;Yes)、本処理を終了する。
After that, the teacher
このような一連の処理により、第1教師データベース(又は第2教師データベース)を比較的容易に構築できる。なお、ステップS403の処理による決定木群の生成は、所定の正答率を有する決定木群343を得られた時点で省略してもよい。正答率は、ステップS406でユーザにより入力(訂正)された正解の数から得られる。なお、ユーザにより入力(訂正)された正解の数が所定数以下のときに、以降の決定木群343の生成を省略してもよい。なお、決定木群343は、他のサポートベクタマシン等の分類器(必要な教師データの数がCNNの深層学習よりも少なくて済むもの)に変更してもよい。このような教師データの生成方法は、正解データを含む教師データ一般に利用できる。
By such a series of processes, the first teacher database (or the second teacher database) can be constructed relatively easily. The generation of the decision tree group by the process of step S403 may be omitted when the
(変形例)
本発明は、上記の実施の形態に限られない。上記実施の形態に種々の変更(構成や処理の削除を含む)を加えてもよい。以下に変形例を例示するが、各変形例の少なくとも一部同士を組み合わせてもよい。
(Modification)
The present invention is not limited to the above embodiment. Various changes (including deletion of configuration and processing) may be added to the above embodiment. Although a modification is illustrated below, you may combine at least one part of each modification.
(変形例1)
次元量削減部323は、省略してもよい。この場合、CNN313の中間層から出力される全ての種類の特徴量により決定木群327が生成され、画像検査時には全ての種類の特徴量が決定木群327に入力される。
(Modification 1)
The dimension
(変形例2)
特徴量を抽出する部分は、CNN313における、中間層と、識別層の第1層目(つまり、第1パーセプトロン層313G)又は1〜2層目(つまり、第1〜第2パーセプトロン層313G〜313H)と、から構成されてもよい(上記説明における中間層を、これら層に置き換えてもよい)。何層目まで使用するかは、識別層のパーセプトロン層の数に応じて決定すればよい。これら層(中間層側から数えてN(1以上の整数)番目のパーセプトロン層)からの出力も、特徴量と捉えることができ、このような構成により、分類精度を向上させることができる。
(Modification 2)
The part for extracting the feature amount is the intermediate layer and the first layer (that is, the
(変形例3)
決定木群327等を生成するときに、教師データを増やすようにしてもよい。例えば、ある教師データのある特徴量の数値を所定の範囲で変化させ、変化後の数値を有する教師データを当該ある教師データとは別の他の教師データとしてもよい。これにより、少ない教師データしか用意できない場合であっても、決定木群327等を生成できる。
(Modification 3)
When generating the
(変形例4)
教師データ供給部311、CNN313、特徴量取得部321、次元削減部323、ランダムフォレスト処理部325、決定木群327、画像処理部331、解析部333、教師データ生成部341、決定木群343のそれぞれ、又は、2以上の組合せは、プログラムを実行する1以上のプロセッサ(GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などを含む)、プログラムによらない1以上の処理回路、前記プロセッサと前記処理回路との組合せなどから構成されてもよい。記憶部20、制御部30、操作部40、表示部50は、パーソナルコンピュータ等の各種コンピュータにより構成されてもよい。プログラムは、CD−ROM(Compact Disc Read Only Memory)等の各種の記憶媒体、インターネットからのダウンロード等により供給されてもよい。
(Modification 4)
Teacher
(変形例5)
画像検査において分類を行うのは、サポートベクタマシンや、CNNの識別層等の他の分類器であってもよい。また、分類する欠陥は、上記の実施の形態では、説明の理解のため、上記の黒点、黒キズとしたが、これらに限らず、種々のものがある(実際には、2種類に限らず、多数設定される)。例えば、白キズ、白点などを含んでもよい(この場合、画像処理部331は、撮像部10からの画像を2値化した画像における白の領域をラベリング処理などにより特定して、白キズ等の欠陥を検出する)。また、分類する欠陥の種別として、予め用意された種別のどれにも属さない「その他」があってもよい。検査対象は、透明フィルムに限らない。検査対象は、フィルムの他、例えば、ガラス基板、半導体ウェーハなどの微細パターンを有する、または、無地の被検査物であればよい。また、画像検査により分類したい対象は、欠陥でなくてもよい。
(Modification 5)
The classification in the image inspection may be performed by another classifier such as a support vector machine or a CNN identification layer. Further, in the above embodiment, the defect to be classified is the above-described black point or black scratch for the sake of understanding of the description, but is not limited to these, and there are various types (in fact, not limited to two types). , Many are set). For example, white scratches, white spots, and the like may be included (in this case, the
(本明細書が開示する構成等)
上記実施の形態や、変形例を一例とする構成を以下に記載する。以下の各構成は、少なくとも一部同士を組み合わせることができる。
(Configuration disclosed in this specification)
Configurations taking the above embodiment and modifications as an example will be described below. Each of the following configurations can be combined at least partially.
(1)画像に対して、畳み込みを行ってからプーリングを行う処理を複数回施し、当該画像から複数種類の特徴量を抽出する特徴量抽出手段(例えば、CNN313の中間層など)と、
前記特徴量抽出手段が抽出した前記複数種類の特徴量のうちの少なくとも一部の種類の特徴量(例えば、残特徴量、次元削減部323が無い場合のCNN313の中間層から出力される特徴量など)を複数の決定木に入力し、当該複数の決定木それぞれの出力に基づいて前記画像を分類する分類手段(例えば、次元削減部323、決定木群327、解析部333の組合せなど)と、
を備える画像分類装置(例えば、制御部30、制御部30等を備えるコンピュータなど)。
(1) A feature amount extraction means (for example, an intermediate layer of CNN 313) that performs a process of performing pooling after performing convolution on an image a plurality of times and extracts a plurality of types of feature amounts from the image;
Feature quantity output from the intermediate layer of the
(For example, a computer provided with the
なお、特徴量抽出手段は、例えば、学習済みのCNN313から中間層を取り出したものであってもよいし、学習済みのCNN313に含まれたままの中間層であってもよい。特徴量抽出手段は、畳み込みを行ってからプーリングを行う処理を複数回施す以外の処理をさらに行うものを含む。特徴量抽出手段は、例えば、CNN313における、中間層と、識別層の第1層目(つまり、第1パーセプトロン層313G)又は1〜2層目(つまり、第1〜第2パーセプトロン層313G〜313H)と、から構成されてもよい。
Note that the feature amount extraction unit may be, for example, one obtained by extracting the intermediate layer from the learned
分類手段は、複数の決定木を備えるものであってもよい。特徴量を複数の決定木に入力するときの、各決定木に入力される特徴量は、当然各決定木により異なってもよい(ランダムフォレストにより生成されるため)。複数の決定木は、ランダムフォレストにより生成されたものを含むので、全体として、入力可能な特徴量(残特徴量、又は、次元削減部323が無い場合のCNN313の中間層から出力される特徴量など)のうちの全ての種類の特徴量を使用しなくてもよい。従って、「少なくとも一部の種類の特徴量」は、実際に複数の決定木で使用される特徴量のみであってもよい。例えば、制御部30のランダムフォレスト処理部325は、決定木群327を生成するときに、各決定木で使用する特徴量の情報を記憶部20に記録しておき、制御部30における、決定木群327の各決定木に特徴量を入力する部分は、前記情報を参照して、特徴量を各決定木に入力する(なお、当該情報を参照して次元削減部323が特徴量を削減してもよい)。
The classification means may include a plurality of decision trees. When inputting feature quantities to a plurality of decision trees, the feature quantities inputted to each decision tree may naturally be different for each decision tree (since they are generated by a random forest). Since the plurality of decision trees include those generated by a random forest, as a whole, inputable feature values (remaining feature values or feature values output from the intermediate layer of
複数の決定木、CNNの中間層などは、機械学習により得られるものであり、特に、機械学習の方法により、その性質や構造を特定できるものである。 A plurality of decision trees, CNN intermediate layers, and the like are obtained by machine learning, and in particular, their properties and structure can be specified by a machine learning method.
(2)前記特徴量抽出手段が抽出した前記複数種類の特徴量から一部の種類の特徴量を削減する削減手段(例えば、次元削減部323など)をさらに備え、
前記分類手段は、前記複数種類の特徴量のうちの、前記削減手段により削減されたあとの残りの特徴量の少なくとも一部の種類の特徴量(例えば、実際に複数の決定木で使用される特徴量のみであってもよい。)を前記複数の決定木に入力する、
ようにしてもよい。
(2) It further comprises a reduction means (for example, a dimension reduction unit 323) that reduces some types of feature quantities from the plurality of types of feature quantities extracted by the feature quantity extraction means
The classification unit includes at least some types of feature amounts (for example, actually used in a plurality of decision trees after the feature amount reduced by the reduction unit among the plurality of types of feature amounts. Only the feature amount may be input to the plurality of decision trees.
You may do it.
(3)前記特徴量抽出手段は、CNN(Convolutional Neural Network)の中間層及び前記CNNの識別層のうちの一部の層である第1〜N(Nは、1以上の整数)番目の層と、同じ機能を有し(例えば、前記中間層及び前記第1〜N(Nは、1以上の整数)番目の層そのもの(CNNから抜き出したものを含む)であってもよい。)、
前記特徴量抽出手段により抽出される前記複数種類の特徴量は、前記第N番目の層から出力されたものである、
ようにしてもよい。
(3) The feature quantity extraction means includes first to Nth layers (N is an integer equal to or greater than 1) which is a partial layer of a CNN (Convolutional Neural Network) intermediate layer and the CNN identification layer. And the same function (for example, the intermediate layer and the first to Nth layers (N is an integer of 1 or more)) (including those extracted from CNN).
The plurality of types of feature amounts extracted by the feature amount extraction means are output from the Nth layer,
You may do it.
(4)上記画像分類装置に撮像部10を加えた画像検査装置、上記画像分類装置が実行する処理をコンピュータに実行させるプログラム。
(4) An image inspection apparatus in which the
(5)欠陥が写った複数の第1画像(例えば、サンプル画像などであり、欠陥有りのサンプルを撮像した撮像画像や、当該撮像画像についてノイズ除去やコントラスト強調などの処理を施した画像など)を含む第1教師データ(例えば、第1教師データベースの各教師データなど)に基づいて深層学習によりCNN(Convolutional Neural Network)(例えば、CNN313など)を生成するCNN生成手段(例えば、制御部30など)と、
前記CNN生成手段により生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像(例えば、サンプル画像などであり、欠陥有りのサンプルを撮像した撮像画像や、当該撮像画像についてノイズ除去やコントラスト強調などの処理を施した画像など)それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得手段(例えば、CNNの中間層から特徴量取得部321など。なお、特徴量取得手段は、CNNの中間層及び当該CNNの識別層のうちの一部の層である中間層側から第1〜N(Nは、1以上の整数)番目の層のうちの最後の層である第N番目の層からの出力により特徴量を取得してもよい。中間層、又は、中間層及び第1〜N番目の層をここで用いるとき、CNNのそれ以外の層は削除されていてもよい。)と、
前記特徴量取得手段により取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データ(例えば、第2教師データベースの各教師データの特徴量と正解種別など)に基づいて機械学習により分類器を生成する分類器生成手段(例えば、ランダムフォレスト処理部325など)と、
を備える分類器生成装置(例えば、制御部30、制御部30等を備えるコンピュータなど)。
(5) A plurality of first images showing a defect (for example, a sample image or the like, a captured image obtained by capturing a sample having a defect, an image obtained by performing noise removal, contrast enhancement, or the like on the captured image) CNN generating means (for example,
A plurality of second images (for example, sample images or the like, which are images of defects and images of the samples with defects), or the captured images that are captured in the intermediate layer that constitutes the CNN generated by the CNN generation unit Feature quantity acquisition means (for example, a feature quantity from an intermediate layer of the CNN) that inputs a plurality of types of feature quantities for each of the plurality of second images. The
In the second teacher data (for example, the feature amount and correct answer type of each teacher data in the second teacher database) including at least some types of feature amounts of the plurality of types of feature amounts acquired by the feature amount acquisition unit. A classifier generating means (for example, a random forest processing unit 325) that generates a classifier by machine learning based on it,
(For example, a computer including the
上記複数の第1画像の少なくとも一部の画像と、上記複数の第2画像の少なくとも一部の画像と、は、共通の画像であってもよい。分類器は、サポートベクタマシンなどであってもよい。 At least some images of the plurality of first images and at least some images of the plurality of second images may be a common image. The classifier may be a support vector machine or the like.
(6)前記特徴量取得手段が取得した前記複数種類の特徴量から一部の種類の特徴量を削減する削減手段(例えば、統計的処理により特徴量の種類を減らす次元削減部323など)をさらに備え、
前記分類器生成手段は、前記複数種類の特徴量のうちの、前記削減手段により削減されたあとの残りの特徴量を含む第2教師データに基づいて前記分類器を生成する、
ようにしてもよい。
(6) Reduction means for reducing some types of feature quantities from the plurality of types of feature quantities acquired by the feature quantity acquisition means (for example, a
The classifier generating unit generates the classifier based on second teacher data including the remaining feature amount after being reduced by the reduction unit among the plurality of types of feature amounts.
You may do it.
(7)前記第1教師データは、前記複数の第1画像と、当該複数の第1画像それぞれに写っている欠陥の正解種別(例えば、正解のデータである欠陥の正解種別など)と、を含み、
前記複数の第1画像のうちの一部の第1画像をユーザに提示する第1提示手段(例えば、サンプル画像を表示部50に表示する教師データ生成部341など)と、
前記第1提示手段によりユーザに提示した前記一部の第1画像それぞれに写った欠陥の種別の正解をユーザから受け付ける正解受付手段(例えば、操作部40を介してユーザからの操作を受け付ける教師データ生成部341など)と、
前記正解受付手段が受け付けた正解と前記一部の第1画像とに基づいて、第2の分類器(例えば、決定木群343など)を生成する第2の分類器生成手段(例えば、ランダムフォレストにより決定木群を生成する教師データ生成部341など)と、
前記第2の分類器を用いて、前記複数の第1画像のうちの他の第1画像に写った欠陥の種別を分類する分類手段(例えば、決定木群343を用いて画像を分類する教師データ生成部341など)と、
前記分類手段が分類した分類結果をユーザに提示する第2提示手段(例えば、図10の画面を表示部50に表示する教師データ生成部341など)と、
ユーザによる、前記分類結果の誤りを訂正する訂正操作を受け付ける訂正受付手段(例えば、操作部40を介してユーザからの訂正操作を受け付ける教師データ生成部341など)と、
前記訂正受付手段により受け付けられた訂正操作により訂正された前記分類結果と、前記分類手段が分類した正解の前記分類結果と、を前記第1教師データに含まれる前記正解種別として設定する設定手段(例えば、ステップS406などの処理を行う教師データ生成部341)と、
をさらに備えるようにしてもよい。
(7) The first teacher data includes the plurality of first images, and the correct answer types of defects (for example, correct answer types of defects that are correct data) reflected in each of the plurality of first images. Including
First presenting means for presenting a part of the first images to the user (for example, a teacher
Correct answer accepting means (for example, teacher data for accepting an operation from the user via the operation unit 40) that accepts a correct answer of a defect type reflected in each of the first images presented to the user by the first presenting means. Generating unit 341),
Second classifier generating means (for example, random forest) that generates a second classifier (for example, decision tree group 343) based on the correct answer received by the correct answer receiving means and the part of the first image. Teacher
Classifying means (for example, a teacher for classifying an image using the decision tree group 343) that classifies the type of defect reflected in another first image of the plurality of first images by using the second classifier. Data generation unit 341),
A second presentation unit (for example, a teacher
Correction accepting means (for example, a teacher
Setting means for setting the classification result corrected by the correction operation received by the correction receiving means and the classification result of the correct answer classified by the classification means as the correct answer type included in the first teacher data ( For example, a teacher data generation unit 341) that performs processing such as step S406,
May be further provided.
(8)上記分類器生成装置が実行する処理をコンピュータに実行させるプログラム。また、前記分類器生成装置と、前記分類器生成装置により生成された前記分類器と、を備え、検査対象を撮像した画像であって欠陥が写った画像(検査対象を撮像した撮像画像や、当該撮像画像についてノイズ除去やコントラスト強調などの処理を施した画像など)を前記分類器により分類する画像検査装置。 (8) A program for causing a computer to execute processing executed by the classifier generation device. In addition, the classifier generating device and the classifier generated by the classifier generating device, an image obtained by imaging an inspection object and an image of a defect (a captured image obtained by imaging the inspection object, An image inspection apparatus that classifies an image obtained by performing processing such as noise removal and contrast enhancement on the captured image) using the classifier.
(9)なお、上記構成とは別に、複数の第1画像(例えば、サンプル画像)それぞれと、当該複数の第1画像それぞれの正解種別(例えば、サンプル画像に写った欠陥の正解種別など)と、が互いに対応付けられた教師データベースを構築する装置(例えば、制御部30、制御部30等を備えるコンピュータなど)であって、
前記複数の第1画像のうちの一部の第1画像をユーザに提示する第1提示手段(例えば、サンプル画像を表示部50に表示する教師データ生成部341など)と、
前記第1提示手段によりユーザに提示した前記一部の第1画像の種別の正解をユーザから受け付ける正解受付手段(例えば、操作部40を介してユーザからの操作を受け付ける教師データ生成部341など)と、
前記正解受付手段が受け付けた正解と前記一部の第1画像とに基づいて、第2の分類器(例えば、決定木群343など)を生成する第2の分類器生成手段(例えば、ランダムフォレストにより決定木群を生成する教師データ生成部341など)と、
前記第2の分類器を用いて、前記複数の第1画像のうちの他の第1画像の種別を分類する分類手段(例えば、決定木群343を用いて画像を分類する教師データ生成部341など)と、
前記分類手段が分類した分類結果をユーザに提示する第2提示手段(例えば、図10の画面を表示部50に表示する教師データ生成部341など)と、
ユーザによる、前記分類結果の誤りを訂正する訂正操作を受け付ける訂正受付手段(例えば、操作部40を介してユーザからの訂正操作を受け付ける教師データ生成部341など)と、
前記訂正受付手段により受け付けられた訂正操作により訂正された前記分類結果と、前記分類手段が分類した正解の前記分類結果と、を前記第1教師データに含まれる前記正解種別として設定する設定手段(例えば、ステップS406などの処理を行う教師データ生成部341)と、
を備える教師データベース構築装置。
又は、上記各種の手段をコンピュータに実行させるプログラム、又は、上記手段が実行する処理と同様の方法により教師データベースを生成する方法。
(9) In addition to the above-described configuration, each of the plurality of first images (for example, sample images) and the correct type of each of the plurality of first images (for example, the correct type of defects reflected in the sample image) , Are apparatuses for constructing teacher databases associated with each other (for example, a computer including the
First presenting means for presenting a part of the first images to the user (for example, a teacher
Correct answer accepting means (for example, a teacher
Second classifier generating means (for example, random forest) that generates a second classifier (for example, decision tree group 343) based on the correct answer received by the correct answer receiving means and the part of the first image. Teacher
Classifying means for classifying the type of another first image among the plurality of first images using the second classifier (for example, a teacher
A second presentation unit (for example, a teacher
Correction accepting means (for example, a teacher
Setting means for setting the classification result corrected by the correction operation received by the correction receiving means and the classification result of the correct answer classified by the classification means as the correct answer type included in the first teacher data ( For example, a teacher data generation unit 341) that performs processing such as step S406,
A teacher database construction device comprising:
Alternatively, a program for causing a computer to execute the above various means, or a method for generating a teacher database by a method similar to the process executed by the above means.
以上のような構成により、正解種別を全て人が入力するよりも、教師データベースが容易になる。 With the configuration described above, the teacher database becomes easier than when all correct answer types are entered by a person.
10 撮像部
20 記憶部
30 制御部
40 操作部
50 表示部
100 画像検査装置
311 教師データ供給部
313 CNN
321 特徴量取得部
323 次元削減部
325 ランダムフォレスト処理部
327 決定木群
331 画像処理部
333 解析部
341 教師データ生成部
343 決定木群
DESCRIPTION OF
321 feature
Claims (5)
前記CNN生成手段により生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得手段と、
前記特徴量取得手段により取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成手段と、
を備える分類器生成装置。 CNN generation means for generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are shown;
A feature amount for inputting each of a plurality of second images showing a defect to the intermediate layer constituting the CNN generated by the CNN generation means, and acquiring a plurality of types of feature amounts for each of the plurality of second images. Acquisition means;
A classifier generating means for generating a classifier by machine learning based on second teacher data including at least some types of feature quantities of the plurality of types of feature quantities acquired by the feature quantity acquisition means;
A classifier generating apparatus comprising:
前記分類器生成手段は、前記複数種類の特徴量のうちの、前記削減手段により削減されたあとの残りの特徴量を含む第2教師データに基づいて前記分類器を生成する、
請求項1に記載の分類器生成装置。 A reduction means for reducing some types of feature quantities from the plurality of types of feature quantities acquired by the feature quantity acquisition means;
The classifier generating unit generates the classifier based on second teacher data including the remaining feature amount after being reduced by the reduction unit among the plurality of types of feature amounts.
The classifier generation device according to claim 1.
前記複数の第1画像のうちの一部の第1画像をユーザに提示する第1提示手段と、
前記第1提示手段によりユーザに提示した前記一部の第1画像それぞれに写った欠陥の種別の正解をユーザから受け付ける正解受付手段と、
前記正解受付手段が受け付けた正解と前記一部の第1画像とに基づいて、第2の分類器を生成する第2の分類器生成手段と、
前記第2の分類器を用いて、前記複数の第1画像のうちの他の第1画像に写った欠陥の種別を分類する分類手段と、
前記分類手段が分類した分類結果をユーザに提示する第2提示手段と、
ユーザによる、前記分類結果の誤りを訂正する訂正操作を受け付ける訂正受付手段と、
前記訂正受付手段により受け付けられた訂正操作により訂正された前記分類結果と、前記分類手段が分類した正解の前記分類結果と、を前記第1教師データに含まれる前記正解種別として設定する設定手段と、
をさらに備える請求項1又は2に記載の分類器生成装置。 The first teacher data includes the plurality of first images and a correct answer type of a defect reflected in each of the plurality of first images.
First presentation means for presenting a part of the first images to the user among the plurality of first images;
Correct answer accepting means for accepting from the user a correct answer of the type of defect reflected in each of the partial first images presented to the user by the first presenting means;
Second classifier generating means for generating a second classifier based on the correct answer received by the correct answer receiving means and the partial first image;
Using the second classifier, classifying means for classifying the type of defect reflected in another first image of the plurality of first images;
Second presentation means for presenting the classification results classified by the classification means to the user;
Correction accepting means for accepting a correction operation by the user to correct an error in the classification result;
Setting means for setting the classification result corrected by the correction operation received by the correction receiving means and the classification result of the correct answer classified by the classification means as the correct answer type included in the first teacher data; ,
The classifier generation device according to claim 1, further comprising:
前記分類器生成装置により生成された前記分類器と、を備え、
検査対象を撮像した画像であって欠陥が写った画像を前記分類器により分類する、
画像検査装置。 The classifier generator according to any one of claims 1 to 3,
The classifier generated by the classifier generator, and
Classifying an image obtained by imaging an inspection object and showing a defect by the classifier,
Image inspection device.
欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成ステップと、
前記CNN生成ステップにより生成された前記CNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得ステップと、
前記特徴量取得ステップにより取得された前記複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成ステップと、
を実行させるプログラム。 On the computer,
A CNN generating step of generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images in which defects are reflected;
A feature amount for inputting each of a plurality of second images showing defects to the intermediate layer forming the CNN generated by the CNN generation step, and acquiring a plurality of types of feature amounts for each of the plurality of second images. An acquisition step;
A classifier generation step of generating a classifier by machine learning based on second teacher data including at least some types of feature amounts of the plurality of types of feature amounts acquired by the feature amount acquisition step;
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016132923A JP2018005640A (en) | 2016-07-04 | 2016-07-04 | Classifying unit generation device, image inspection device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016132923A JP2018005640A (en) | 2016-07-04 | 2016-07-04 | Classifying unit generation device, image inspection device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018005640A true JP2018005640A (en) | 2018-01-11 |
Family
ID=60949366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016132923A Pending JP2018005640A (en) | 2016-07-04 | 2016-07-04 | Classifying unit generation device, image inspection device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018005640A (en) |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109060838A (en) * | 2018-07-23 | 2018-12-21 | 三固(厦门)科技有限公司 | A kind of product surface scratch detection method based on machine vision |
CN109978868A (en) * | 2019-03-29 | 2019-07-05 | 北京百度网讯科技有限公司 | Toy appearance quality determining method and its relevant device |
JP2019124591A (en) * | 2018-01-17 | 2019-07-25 | 東京エレクトロン株式会社 | Substrate defect inspection device, substrate defect inspection, and storage medium |
WO2019142597A1 (en) * | 2018-01-19 | 2019-07-25 | ソニー株式会社 | Information processing device, information processing method and program |
JP2019161073A (en) * | 2018-03-14 | 2019-09-19 | 富士通株式会社 | Scratch determination program, scratch determination device, and scratch determination method |
JP2020003954A (en) * | 2018-06-26 | 2020-01-09 | 横河電機株式会社 | Device, method, program, and storage medium |
WO2020036192A1 (en) * | 2018-08-15 | 2020-02-20 | 日本電信電話株式会社 | Classifier evaluation device, classifier evaluation method, and program |
WO2020036082A1 (en) * | 2018-08-15 | 2020-02-20 | 味の素株式会社 | Inspection device, inspection method, and inspection program |
CN110866891A (en) * | 2018-08-28 | 2020-03-06 | 株式会社摩如富 | Image recognition device, image recognition method, and image recognition program |
JP2020051982A (en) * | 2018-09-28 | 2020-04-02 | Jfeテクノリサーチ株式会社 | Image inspection device and inspection model construction system |
JP2020060398A (en) * | 2018-10-05 | 2020-04-16 | オムロン株式会社 | Estimation unit generator, inspection device, method for generating estimation unit, and estimation generation program |
WO2020080556A1 (en) * | 2018-10-18 | 2020-04-23 | 株式会社シンクアウト | Information processing system |
WO2020137123A1 (en) * | 2018-12-27 | 2020-07-02 | オムロン株式会社 | Image determination device, training method, and image determination program |
JP6727478B1 (en) * | 2019-03-28 | 2020-07-22 | 三菱電機株式会社 | Learning device, learning method and program |
WO2020175666A1 (en) * | 2019-02-28 | 2020-09-03 | 大日本印刷株式会社 | Color filter inspection device, inspection device, color filter inspection method, and inspection method |
CN111758117A (en) * | 2018-03-14 | 2020-10-09 | 欧姆龙株式会社 | Inspection system, recognition system, and learning data generation device |
WO2020209087A1 (en) * | 2019-04-11 | 2020-10-15 | 日本電信電話株式会社 | Classification device, classification method, and classification program |
JP2020530126A (en) * | 2018-07-02 | 2020-10-15 | 北京百度網訊科技有限公司 | Display screen peripheral circuit detection method, display screen peripheral circuit detection device, electronic devices and storage media |
KR20200121206A (en) * | 2019-04-15 | 2020-10-23 | 계명대학교 산학협력단 | Teacher-student framework for light weighted ensemble classifier combined with deep network and random forest and the classification method based on thereof |
JP2020187657A (en) * | 2019-05-16 | 2020-11-19 | 株式会社キーエンス | Image inspection device |
JP2021042988A (en) * | 2019-09-06 | 2021-03-18 | 住友ゴム工業株式会社 | Appearance inspection method and appearance inspection device |
US11042977B2 (en) | 2019-05-16 | 2021-06-22 | Keyence Corporation | Image inspection apparatus and setting method for image inspection apparatus |
US11042976B2 (en) | 2019-02-01 | 2021-06-22 | Keyence Corporation | Image inspection apparatus |
US11087456B2 (en) | 2019-05-16 | 2021-08-10 | Keyence Corporation | Image inspection apparatus and setting method for image inspection apparatus |
CN113260854A (en) * | 2018-12-25 | 2021-08-13 | 杰富意钢铁株式会社 | Method for creating learning completion model, surface defect detection method, steel product manufacturing method, method for determining acceptability, grade determination method, surface defect determination program, acceptability determination program, determination system, and steel product manufacturing facility |
CN113424208A (en) * | 2019-03-14 | 2021-09-21 | 欧姆龙株式会社 | Learning device, estimation device, data generation device, learning method, and learning program |
JP2021152489A (en) * | 2020-03-24 | 2021-09-30 | 株式会社 システムスクエア | Teacher data generation device, inspection device, and program |
CN113557536A (en) * | 2019-04-25 | 2021-10-26 | 欧姆龙株式会社 | Learning system, data generation device, data generation method, and data generation program |
JP2022511313A (en) * | 2018-11-20 | 2022-01-31 | ビーエヌエスエフ レイルウェイ カンパニー | Systems and methods for determining defects in physical objects |
US11308596B2 (en) | 2019-02-12 | 2022-04-19 | Samsung Electronics Co., Ltd. | Display system for sensing defect on large-size display |
US11367225B2 (en) | 2019-05-16 | 2022-06-21 | Keyence Corporation | Image inspection apparatus |
CN115078552A (en) * | 2022-07-06 | 2022-09-20 | 江南大学 | Flip chip defect detection method and system |
WO2022269960A1 (en) * | 2021-06-23 | 2022-12-29 | ソニーグループ株式会社 | Particle analysis system, information processing device, and collecting device |
US11842476B2 (en) | 2018-11-20 | 2023-12-12 | Bnsf Railway Company | System and method for minimizing lost motion of an axle of a vehicle and filtering erroneous electrical signals |
US11861819B2 (en) | 2018-11-20 | 2024-01-02 | Bnsf Railway Company | Systems and methods for calibrating image capturing modules |
-
2016
- 2016-07-04 JP JP2016132923A patent/JP2018005640A/en active Pending
Cited By (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019124591A (en) * | 2018-01-17 | 2019-07-25 | 東京エレクトロン株式会社 | Substrate defect inspection device, substrate defect inspection, and storage medium |
JP7087397B2 (en) | 2018-01-17 | 2022-06-21 | 東京エレクトロン株式会社 | Substrate defect inspection equipment, substrate defect inspection method and storage medium |
JP7322714B2 (en) | 2018-01-19 | 2023-08-08 | ソニーグループ株式会社 | Information processing device, information processing method and program |
EP3742356A4 (en) * | 2018-01-19 | 2021-04-14 | Sony Corporation | Information processing device, information processing method and program |
WO2019142597A1 (en) * | 2018-01-19 | 2019-07-25 | ソニー株式会社 | Information processing device, information processing method and program |
JPWO2019142597A1 (en) * | 2018-01-19 | 2021-01-07 | ソニー株式会社 | Information processing equipment, information processing methods and programs |
CN111758117A (en) * | 2018-03-14 | 2020-10-09 | 欧姆龙株式会社 | Inspection system, recognition system, and learning data generation device |
CN111758117B (en) * | 2018-03-14 | 2023-10-27 | 欧姆龙株式会社 | Inspection system, recognition system, and learning data generation device |
JP2019161073A (en) * | 2018-03-14 | 2019-09-19 | 富士通株式会社 | Scratch determination program, scratch determination device, and scratch determination method |
JP7073806B2 (en) | 2018-03-14 | 2022-05-24 | 富士通株式会社 | Scratch judgment program, scratch judgment device and scratch judgment method |
JP2020003954A (en) * | 2018-06-26 | 2020-01-09 | 横河電機株式会社 | Device, method, program, and storage medium |
JP7196433B2 (en) | 2018-06-26 | 2022-12-27 | 横河電機株式会社 | Apparatus, method, program and recording medium |
JP2020530126A (en) * | 2018-07-02 | 2020-10-15 | 北京百度網訊科技有限公司 | Display screen peripheral circuit detection method, display screen peripheral circuit detection device, electronic devices and storage media |
JP7025452B2 (en) | 2018-07-02 | 2022-02-24 | 北京百度網訊科技有限公司 | Display screen peripheral circuit detection method, display screen peripheral circuit detection device, electronic device and storage medium |
CN109060838B (en) * | 2018-07-23 | 2020-12-29 | 三固(厦门)科技有限公司 | Product surface scratch detection method based on machine vision |
CN109060838A (en) * | 2018-07-23 | 2018-12-21 | 三固(厦门)科技有限公司 | A kind of product surface scratch detection method based on machine vision |
JP7060824B2 (en) | 2018-08-15 | 2022-04-27 | 日本電信電話株式会社 | Classifier evaluation device, classifier evaluation method, and program |
JP2022031555A (en) * | 2018-08-15 | 2022-02-18 | 日本電信電話株式会社 | Sorter evaluation device, sorter evaluation method, and program |
WO2020036192A1 (en) * | 2018-08-15 | 2020-02-20 | 日本電信電話株式会社 | Classifier evaluation device, classifier evaluation method, and program |
JPWO2020036192A1 (en) * | 2018-08-15 | 2021-06-03 | 日本電信電話株式会社 | Classifier evaluation device, classifier evaluation method, and program |
WO2020036082A1 (en) * | 2018-08-15 | 2020-02-20 | 味の素株式会社 | Inspection device, inspection method, and inspection program |
CN110866891B (en) * | 2018-08-28 | 2023-12-26 | 株式会社摩如富 | Image recognition device, image recognition method, and storage medium |
CN110866891A (en) * | 2018-08-28 | 2020-03-06 | 株式会社摩如富 | Image recognition device, image recognition method, and image recognition program |
JP2020051982A (en) * | 2018-09-28 | 2020-04-02 | Jfeテクノリサーチ株式会社 | Image inspection device and inspection model construction system |
JP7070308B2 (en) | 2018-10-05 | 2022-05-18 | オムロン株式会社 | Estimator generator, inspection device, estimator generator method, and estimator generator |
JP2020060398A (en) * | 2018-10-05 | 2020-04-16 | オムロン株式会社 | Estimation unit generator, inspection device, method for generating estimation unit, and estimation generation program |
JP7060852B2 (en) | 2018-10-18 | 2022-04-27 | 株式会社シンクアウト | Information processing system |
JP2020064581A (en) * | 2018-10-18 | 2020-04-23 | 株式会社シンクアウト | Information processing system |
WO2020080556A1 (en) * | 2018-10-18 | 2020-04-23 | 株式会社シンクアウト | Information processing system |
US11620743B2 (en) | 2018-11-20 | 2023-04-04 | Bnsf Railway Company | Systems and methods for determining defects in physical objects |
JP7261527B2 (en) | 2018-11-20 | 2023-04-20 | ビーエヌエスエフ レイルウェイ カンパニー | Systems and methods for determining defects in physical objects |
US11842476B2 (en) | 2018-11-20 | 2023-12-12 | Bnsf Railway Company | System and method for minimizing lost motion of an axle of a vehicle and filtering erroneous electrical signals |
US11861819B2 (en) | 2018-11-20 | 2024-01-02 | Bnsf Railway Company | Systems and methods for calibrating image capturing modules |
JP2022511313A (en) * | 2018-11-20 | 2022-01-31 | ビーエヌエスエフ レイルウェイ カンパニー | Systems and methods for determining defects in physical objects |
CN113260854A (en) * | 2018-12-25 | 2021-08-13 | 杰富意钢铁株式会社 | Method for creating learning completion model, surface defect detection method, steel product manufacturing method, method for determining acceptability, grade determination method, surface defect determination program, acceptability determination program, determination system, and steel product manufacturing facility |
US11922319B2 (en) | 2018-12-27 | 2024-03-05 | Omron Corporation | Image determination device, training method and non-transitory computer readable medium storing program |
WO2020137123A1 (en) * | 2018-12-27 | 2020-07-02 | オムロン株式会社 | Image determination device, training method, and image determination program |
US11042976B2 (en) | 2019-02-01 | 2021-06-22 | Keyence Corporation | Image inspection apparatus |
US11308596B2 (en) | 2019-02-12 | 2022-04-19 | Samsung Electronics Co., Ltd. | Display system for sensing defect on large-size display |
JPWO2020175666A1 (en) * | 2019-02-28 | 2020-09-03 | ||
JP7415286B2 (en) | 2019-02-28 | 2024-01-17 | 大日本印刷株式会社 | Color filter inspection equipment, inspection equipment, color filter inspection method and inspection method |
TWI822968B (en) * | 2019-02-28 | 2023-11-21 | 日商大日本印刷股份有限公司 | Color filter inspection device, inspection device, color filter inspection method, and inspection method |
WO2020175666A1 (en) * | 2019-02-28 | 2020-09-03 | 大日本印刷株式会社 | Color filter inspection device, inspection device, color filter inspection method, and inspection method |
CN113424208A (en) * | 2019-03-14 | 2021-09-21 | 欧姆龙株式会社 | Learning device, estimation device, data generation device, learning method, and learning program |
WO2020194716A1 (en) * | 2019-03-28 | 2020-10-01 | 三菱電機株式会社 | Signal selection device, learning device, and signal selection method and program |
JP6727478B1 (en) * | 2019-03-28 | 2020-07-22 | 三菱電機株式会社 | Learning device, learning method and program |
US11367020B2 (en) | 2019-03-28 | 2022-06-21 | Mitsubishi Electric Corporation | Signal selection device, learning device, and signal selection method and program |
CN109978868A (en) * | 2019-03-29 | 2019-07-05 | 北京百度网讯科技有限公司 | Toy appearance quality determining method and its relevant device |
JP7159955B2 (en) | 2019-04-11 | 2022-10-25 | 日本電信電話株式会社 | Classification device, classification method and classification program |
JP2020173624A (en) * | 2019-04-11 | 2020-10-22 | 日本電信電話株式会社 | Classification device, classification method and classification program |
WO2020209087A1 (en) * | 2019-04-11 | 2020-10-15 | 日本電信電話株式会社 | Classification device, classification method, and classification program |
KR102224253B1 (en) * | 2019-04-15 | 2021-03-08 | 계명대학교 산학협력단 | Teacher-student framework for light weighted ensemble classifier combined with deep network and random forest and the classification method based on thereof |
KR20200121206A (en) * | 2019-04-15 | 2020-10-23 | 계명대학교 산학협력단 | Teacher-student framework for light weighted ensemble classifier combined with deep network and random forest and the classification method based on thereof |
CN113557536A (en) * | 2019-04-25 | 2021-10-26 | 欧姆龙株式会社 | Learning system, data generation device, data generation method, and data generation program |
US11367225B2 (en) | 2019-05-16 | 2022-06-21 | Keyence Corporation | Image inspection apparatus |
JP2020187657A (en) * | 2019-05-16 | 2020-11-19 | 株式会社キーエンス | Image inspection device |
US11042977B2 (en) | 2019-05-16 | 2021-06-22 | Keyence Corporation | Image inspection apparatus and setting method for image inspection apparatus |
US11087456B2 (en) | 2019-05-16 | 2021-08-10 | Keyence Corporation | Image inspection apparatus and setting method for image inspection apparatus |
JP7367408B2 (en) | 2019-09-06 | 2023-10-24 | 住友ゴム工業株式会社 | Appearance inspection method and apparatus |
JP2021042988A (en) * | 2019-09-06 | 2021-03-18 | 住友ゴム工業株式会社 | Appearance inspection method and appearance inspection device |
JP2021152489A (en) * | 2020-03-24 | 2021-09-30 | 株式会社 システムスクエア | Teacher data generation device, inspection device, and program |
WO2022269960A1 (en) * | 2021-06-23 | 2022-12-29 | ソニーグループ株式会社 | Particle analysis system, information processing device, and collecting device |
CN115078552B (en) * | 2022-07-06 | 2023-09-08 | 江南大学 | Flip chip defect detection method and system |
CN115078552A (en) * | 2022-07-06 | 2022-09-20 | 江南大学 | Flip chip defect detection method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018005640A (en) | Classifying unit generation device, image inspection device, and program | |
JP2018005639A (en) | Image classification device, image inspection device, and program | |
JP6403261B2 (en) | Classifier generation device, visual inspection device, classifier generation method, and program | |
JP7015001B2 (en) | Defect inspection equipment, defect inspection methods, and their programs | |
JP7004145B2 (en) | Defect inspection equipment, defect inspection methods, and their programs | |
WO2023077404A1 (en) | Defect detection method, apparatus and system | |
JP6869490B2 (en) | Defect inspection equipment, defect inspection methods, and their programs | |
TWI787296B (en) | Optical inspection method, optical inspection device and optical inspection system | |
US11176650B2 (en) | Data generation apparatus, data generation method, and data generation program | |
JP5546317B2 (en) | Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program | |
WO2019117065A1 (en) | Data generation device, data generation method and data generation program | |
WO2021143343A1 (en) | Method and device for testing product quality | |
CN111693534B (en) | Surface defect detection method, model training method, device, equipment and medium | |
JP5255953B2 (en) | Defect inspection method and apparatus | |
CN111915704A (en) | Apple hierarchical identification method based on deep learning | |
WO2023179122A1 (en) | Defect detection method and apparatus, electronic device, and readable storage medium | |
JP2014178229A (en) | Teacher data creation method, image classification method and image classification device | |
CN109584202A (en) | Image processing apparatus, method and non-transitory computer-readable storage media | |
JP2014142871A (en) | Instructor data creation support device, instructor data creation device, image classification device, instructor data creation support method, instructor data creation method, and image classification method | |
JP7393313B2 (en) | Defect classification device, defect classification method and program | |
US20200292463A1 (en) | Apparatus for optimizing inspection of exterior of target object and method thereof | |
US20190272627A1 (en) | Automatically generating image datasets for use in image recognition and detection | |
CN111967490A (en) | Model training method for map detection and map detection method | |
CN110866931A (en) | Image segmentation model training method and classification-based enhanced image segmentation method | |
CN114187438A (en) | Image detection method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20160729 |