JP7083721B2 - Classifier generation method and classifier generator - Google Patents
Classifier generation method and classifier generator Download PDFInfo
- Publication number
- JP7083721B2 JP7083721B2 JP2018143662A JP2018143662A JP7083721B2 JP 7083721 B2 JP7083721 B2 JP 7083721B2 JP 2018143662 A JP2018143662 A JP 2018143662A JP 2018143662 A JP2018143662 A JP 2018143662A JP 7083721 B2 JP7083721 B2 JP 7083721B2
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- class
- teaching
- teacher data
- subclass
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
この発明は、データが持つ複数種類の特徴量に応じて当該データを分類する技術に関する。 The present invention relates to a technique for classifying the data according to a plurality of types of features of the data.
半導体基板、ガラス基板、プリント配線基板等の製造では、異物や傷、エッチング不良等の欠陥を検査するために光学顕微鏡や走査電子顕微鏡等を用いて外観検査が行われる。また、このような検査工程において検出された欠陥に対して、詳細な解析を行うことによって、その欠陥の発生原因を特定し、欠陥に対する対策が施される。 In the manufacture of semiconductor substrates, glass substrates, printed wiring substrates, etc., visual inspection is performed using an optical microscope, scanning electron microscope, or the like in order to inspect defects such as foreign matter, scratches, and etching defects. Further, by performing a detailed analysis on the defects detected in such an inspection step, the cause of the occurrence of the defects is identified, and countermeasures against the defects are taken.
近年では、基板上のパターンの複雑化および微細化に伴い、検出される欠陥の種類および数量が増加する傾向にあり、検査工程で検出された欠陥を自動的に分類する自動分類も用いられる。自動分類により欠陥の解析を迅速かつ効率的に行うことが実現される。自動分類では、ニューラルネットワークや決定木、判別分析等を利用した分類器が用いられる。分類器に自動分類を行わせるには、欠陥画像およびそのカテゴリ(すなわち、欠陥画像の種類(クラス))を示す信号を含む教師データを用意して分類器を学習させる必要がある(分類器の生成について、例えば、特許文献1参照)。典型的には、各欠陥画像のカテゴリをオペレータが決定することにより、教師データが作成される。 In recent years, as the pattern on the substrate becomes more complicated and miniaturized, the types and quantities of defects detected tend to increase, and automatic classification that automatically classifies the defects detected in the inspection process is also used. Defect analysis can be performed quickly and efficiently by automatic classification. In automatic classification, a classifier using a neural network, decision tree, discriminant analysis, etc. is used. In order for the classifier to perform automatic classification, it is necessary to prepare teacher data including signals indicating the defect image and its category (that is, the type (class) of the defect image) to train the classifier (classifier). For generation, see, for example, Patent Document 1). Typically, the teacher data is created by the operator determining the category of each defect image.
教師データの作成においてオペレータによるカテゴリの判定が曖昧な場合、分類器の学習用データに矛盾したデータが含まれることによって、分類器の性能が低下するおそれがある。そこで、特許文献2~5には、学習中または学習後に学習の妨げになる学習用入力パターンを検出して、除去あるいは変更した後に再学習などを行なうニューラルネットワークの学習装置が開示されている。
If the operator's determination of the category is ambiguous in the creation of teacher data, the performance of the classifier may deteriorate due to the inclusion of inconsistent data in the training data of the classifier. Therefore,
特許文献6には、上記矛盾したデータの抽出を図る技術が開示されている。当該欠陥分類方法では、教師データを使用した学習により判別関数が求められ、当該判別関数を用いて教師データが各カテゴリに分類される。そして、分類カテゴリが初期カテゴリと一致しない教師データがオペレータに提示される。それに応じて、オペレータは、当該教師データの初期カテゴリを修正し、または、当該データを教師データから除外する。
特許文献7には、検査画像から抽出された欠陥領域が分類されるべき正解カテゴリを確信レベル付きで入力することで正解カテゴリおよび確信レベルの情報を含む教師データを作成する教師データ作成手段と、確信レベルが高い教師データを確信レベルが低い教師データより有意なデータとして分類を行う分類手段とを備える分類装置が開示されている。
従来技術では、分類器が提示した結果に基づき、該当する教師データが真に不適切であるかどうかを、オペレータが再確認する場合があった。このため、オペレータの作業の負担が大きくなっていた。また、不適切な学習データを削除する場合には、教師データが減少してしまう。さらに、実在する一部データを無視した再学習によって生成された分類器では、その無視されたデータに類似するデータに遭遇したときに、それに対する分類結果が成り行き任せになるおそれがあった。 In the prior art, the operator may reconfirm whether the relevant teacher data is truly inappropriate based on the results presented by the classifier. For this reason, the work load of the operator has increased. In addition, when inappropriate learning data is deleted, the teacher data is reduced. Furthermore, in a classifier generated by re-learning that ignores some existing data, when encountering data similar to the ignored data, there is a risk that the classification result for it will be left to the discretion.
また、機械学習の分野では、学習に使用されなかったデータに対しても正しい分類結果を与える能力(汎化能力)が重視されるが、それは母集団から偏りなくデータを取り出して作られた標本分布で学習した場合を前提にしている。このため、意図的に一部のデータを除外して学習した場合には、不都合なデータに対しても正しい分類結果を与えることは困難であった。 Also, in the field of machine learning, the ability to give correct classification results (generalization ability) even for data that was not used for learning is emphasized, but it is a sample created by extracting data evenly from the population. It is assumed that the learning is based on the distribution. Therefore, when learning by intentionally excluding some data, it is difficult to give correct classification results even for inconvenient data.
本発明の目的は、汎化能力に優れた分類器を生成する技術を提供することである。 An object of the present invention is to provide a technique for producing a classifier having excellent generalization ability.
上記課題を解決するため、第1態様は、データを特徴量に応じて分類する分類器を生成する分類器生成方法であって、(a)複数の教示用データのそれぞれについて、複数種類の特徴量を算出する工程と、(b)前記複数の教示用データのそれぞれについて、異なる正クラスのいずれか1つを教示することによって、複数の教師データを含む教師データ群を生成する工程と、(c)前記教師データ群を用いて分類器を生成する工程と、(d)前記工程(c)によって生成された前記分類器で前記教師データ群を分類する工程と、(e)前記教師データ群のうち、前記工程(d)において分類先が教示とは異なった教師データについて、教示クラスを元の正クラスの対である副クラスに変更する工程と、(f)前記工程(e)によって教示クラスが前記副クラスに変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程と、(g)前記工程(f)によって生成された前記分類器で前記教師データ群を分類する工程と、(h)前記工程(g)において分類先が教示とは異なった前記教師データについて、教示が正クラスである場合には教示クラスをその対である副クラスに変更し、教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更する工程と、(i)前記工程(h)において教示クラスが変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程とを含む。 In order to solve the above problems, the first aspect is a classifier generation method for generating a classifier that classifies data according to feature quantities, and (a) a plurality of types of features for each of a plurality of teaching data. A step of calculating the amount, and (b) a step of generating a teacher data group including a plurality of teacher data by teaching one of different positive classes for each of the plurality of teaching data, and ( c) a step of generating a classifier using the teacher data group, (d) a step of classifying the teacher data group with the classifier generated by the step (c), and (e) the teacher data group. Of these, for teacher data whose classification destination is different from the teaching in the step (d), the teaching class is changed to a subclass which is a pair of the original positive class, and (f) the teaching is performed by the step (e). A step of generating a new classifier using a teacher data group containing teacher data whose class has been changed to the subclass, and (g) the teacher data group being generated by the classifier generated by the step (f). Regarding the step of classifying and (h) the teacher data whose classification destination is different from the teaching in the step (g), if the teaching is a positive class, the teaching class is changed to a subclass which is a pair thereof, and the teaching is performed. Is a subclass and the classification destination is a positive class that is a pair of the subclass, the step of changing the teaching class to the positive class and (i) the teaching class is changed in the step (h). It includes a step of generating a new classifier using a teacher data group including teacher data.
第2態様は、第1態様の分類器生成方法であって、(j)前記工程(g)から前記工程(i)までを再度行う工程をさらに備える。 The second aspect is the method for generating a classifier of the first aspect, further comprising (j) a step of repeating the steps (g) to (i).
第3態様は、第2態様の分類器生成方法であって、前記工程(j)は、所定の終了条件を満たすまで、前記工程(g)から前記工程(i)までを2回以上行う工程である。 The third aspect is the classifier generation method of the second aspect, in which the step (j) is a step of performing the steps (g) to the step (i) twice or more until a predetermined end condition is satisfied. Is.
第4態様は、第3態様の分類器生成方法であって、前記終了条件が、前記工程(h)において、教示クラスの変更が起こらないことである。 The fourth aspect is the classifier generation method of the third aspect, in which the termination condition is that the teaching class does not change in the step (h).
第5態様は、第3態様の分類器生成方法であって、前記終了条件が、前記工程(g)の分類結果において、前記正クラスについての正答率が所定の閾値を上回ることである。 A fifth aspect is the method for generating a classifier according to the third aspect, wherein the end condition is that the correct answer rate for the positive class exceeds a predetermined threshold value in the classification result of the step (g).
第6態様は、データを特徴量に応じて分類する分類器を生成する分類器生成装置であって、異なるクラスのうち1つが教示された教師データ群を用いて分類器を生成する分類器生成部と、前記分類器による前記教師データの分類先に応じて、前記教師データの教示クラスを、正クラスとその対である副クラスとの間で変更する教示クラス変更部と、を備え、前記教示クラス変更部は、前記教師データ群を前記分類器で分類したときに、前記分類器による分類先が教示とは異なった教師データについて、教示が正クラスであった場合には教示クラスをその正クラスの対である副クラスに変更し、教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更し、前記分類器生成部は、前記教示クラス変更部によって教示クラスが変更された教師データを含む教師データ群を用いて、新たな分類器を生成する。 The sixth aspect is a classifier generator that generates a classifier that classifies data according to features, and generates a classifier using a teacher data group taught by one of different classes. A unit and a teaching class changing unit that changes the teaching class of the teacher data between a normal class and a subclass that is a pair thereof according to the classification destination of the teacher data by the classifier. When the teacher data group is classified by the classifier, the teaching class change unit sets the teaching class to the teaching class when the teaching is a positive class for the teacher data whose classification destination by the classifier is different from the teaching. If the teaching is a subclass and the classification destination is a positive class that is a pair of the subclass, the teaching class is changed to the positive class and the classifier is generated. The unit generates a new classifier using the teacher data group including the teacher data whose teaching class has been changed by the teaching class changing unit.
第1態様の分類器生成方法によると、教示されたクラスが不適切であった教師データが、教示の信頼性が低いことを前提にした副クラスに自動的に変更され、その副クラスも含めた再学習によって分類器が生成される。このように教師データを除去せずに再学習が行われるため、汎化能力に優れた分類器を得ることができる。また、正クラスへ分類された結果については確信度が高く、かつ、副クラスへ分類されたものは確信度の低い分類器を得ることができる。したがって、分類結果に対して確信度の情報が付加される分類器を得ることができる。 According to the classifier generation method of the first aspect, the teacher data for which the taught class was inappropriate is automatically changed to a subclass assuming that the teaching is unreliable, and the subclass is also included. A classifier is generated by re-learning. Since the re-learning is performed without removing the teacher data in this way, it is possible to obtain a classifier having excellent generalization ability. Further, it is possible to obtain a classifier having a high degree of certainty for the result classified into the normal class and having a low degree of certainty for the result classified into the subclass. Therefore, it is possible to obtain a classifier in which information on the degree of certainty is added to the classification result.
第2態様の分類器生成方法によると、正クラスの対となる副クラスを含めた分類器の生成を繰り返し行うことによって、分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the second aspect, the accuracy of the information of the degree of certainty given to the classification result can be improved by repeatedly generating the classifier including the subclass paired with the positive class.
第3態様の分類器生成方法によると、終了条件が満たされるまで副クラスを含めた再学習による分類器の生成を繰り返し行うことによって、分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the third aspect, the accuracy of the certainty information given to the classification result is determined by repeatedly generating the classifier by re-learning including the subclass until the end condition is satisfied. Can be improved.
第4態様の分類器生成方法によると、教示クラスの変更が起こらなくなるまで再学習による分類器の生成を繰り返し行うことによって、分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the fourth aspect, the accuracy of the certainty information given to the classification result can be improved by repeatedly generating the classifier by re-learning until the teaching class is not changed.
第5態様の分類器生成方法によると、正クラスの正答率が所定の閾値を上回るまで再学習による分類器の生成を繰り返し行うことによって、正クラス間での分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the fifth aspect, the confidence given to the classification result between the positive classes by repeatedly generating the classifier by re-learning until the correct answer rate of the positive class exceeds a predetermined threshold value. The accuracy of the information of the degree can be improved.
第6態様の分類器生成装置によると、教示されたクラスが不適切であった教師データが、教示の信頼性が低いことを前提にした副クラスに自動的に変更され、その副クラスも含めた再学習によって分類器が生成される。このように教師データを除去せずに再学習が行われるため、汎化能力に優れた分類器を得ることができる。また、正クラスへ分類された結果については確信度が高く、かつ、副クラスへ分類されたものは確信度の低い分類器を得ることができる。したがって、分類結果に対して確信度の情報が付加される分類器を得ることができる。 According to the classifier generator of the sixth aspect, the teacher data for which the taught class was inappropriate is automatically changed to a subclass assuming that the teaching is unreliable, and the subclass is also included. A classifier is generated by re-learning. Since the re-learning is performed without removing the teacher data in this way, it is possible to obtain a classifier having excellent generalization ability. Further, it is possible to obtain a classifier having a high degree of certainty for the result classified into the normal class and having a low degree of certainty for the result classified into the subclass. Therefore, it is possible to obtain a classifier in which information on the degree of certainty is added to the classification result.
以下、添付の図面を参照しながら、本発明の実施形態について説明する。なお、この実施形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。図面においては、理解容易のため、必要に応じて各部の寸法や数が誇張又は簡略化して図示されている場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the components described in this embodiment are merely examples, and the scope of the present invention is not limited to them. In the drawings, the dimensions and numbers of each part may be exaggerated or simplified as necessary for easy understanding.
等しい状態であることを示す表現(例えば「同一」「等しい」「均質」等)は、特に断らない限り、定量的に厳密に等しい状態を表すのみならず、公差もしくは同程度の機能が得られる差が存在する状態も表すものとする。 Expressions indicating equal states (eg, "same", "equal", "homogeneous", etc.) not only represent quantitatively exactly equal states, but also provide tolerance or similar functionality, unless otherwise noted. It shall also represent the state in which there is a difference.
<1.実施形態>
図1は、実施形態の画像分類装置1の概略構成を示す図である。画像分類装置1は、半導体基板9上のパターン欠陥を示す欠陥画像を取得し、その欠陥画像の分類を行う。画像分類装置1は、撮像装置2、検査・分類装置4およびホストコンピュータ5を備えている。
<1. Embodiment>
FIG. 1 is a diagram showing a schematic configuration of the
撮像装置2は、半導体基板9上の検査対象領域を撮像する。検査・分類装置4は、撮像装置2によって取得された画像データに基づく欠陥検査を行う。検査・分類装置4は、欠陥が検出された場合に、その欠陥を欠陥の種別毎に分類する。以下、この種別を「クラス」とも称する。半導体基板9上に存在するパターンの欠陥のクラスは、例えば、「欠損」、「突起」、「断線」、「ショート」、「異物」などである。ホストコンピュータ5は、画像分類装置1の全体動作を制御するとともに、検査・分類装置4における欠陥の分類に利用される分類器422を生成する。ホストコンピュータ5は分類器生成装置の一例である。
The
撮像装置2は、半導体基板9の製造ラインに組み込まれてもよい。画像分類装置1は、いわゆるインライン型のシステムとされてもよい。画像分類装置1は、欠陥検査装置に自動欠陥分類の機能が付加された装置である。
The
撮像装置2は、撮像部21、ステージ22およびステージ駆動部23を備えている。撮像部21は、半導体基板9の表面における検査対象領域を撮像する。ステージ22は、半導体基板9を水平姿勢に保持する。「水平姿勢」とは、半導体基板9が水平面に対して平行な状態をいう。ステージ駆動部23は、撮像部21に対してステージ22を半導体基板9の表面に平行な方向に相対的に移動させる。
The
撮像部21は、照明部211、光学系212および撮像デバイス213を備えている。光学系212は半導体基板9に照明部211からの照明光を導く。半導体基板9の表面にて反射した光は、再び光学系212に入射する。撮像デバイス213は、光学系212によって結像された半導体基板9の像を電気信号に変換する。
The
ステージ駆動部23は、ボールネジ、ガイドレールおよびモータなどを備えている。ホストコンピュータ5がステージ駆動部23および撮像部21を制御することによって、半導体基板9上の検査対象領域が撮像される。
The
検査・分類装置4は、欠陥検出部41および分類制御部42を備えている。欠陥検出部41は、検査対象領域の画像データを処理しつつ欠陥を検出する。詳細には、欠陥検出部41は、検査対象領域の画像データを高速に処理する専用の電気的回路を有し、撮像により得られた画像と参照画像(欠陥が存在しない画像)との比較や画像処理により検査対象領域の欠陥検査を行う。分類制御部42は、欠陥検出部41が検出した欠陥画像を分類する。分類制御部42は、各種演算処理を行うCPUや各種情報を記憶するメモリ等により構成され、特徴量算出部421および分類器422を有する。分類器422は、ニューラルネットワーク、決定木、判別分析等を利用して欠陥の分類、すなわち、欠陥画像の分類を実行する。
The inspection /
図2は、実施形態の画像分類装置1による欠陥画像の分類の流れを示す図である。撮像装置2が半導体基板9の表面を撮像することによって、検査・分類装置4の欠陥検出部41が画像データを取得する(ステップS11)。続いて、欠陥検出部41が検査対象領域の欠陥検査を行うことによって、欠陥の検出を行う(ステップS12)。ステップS12において欠陥が検出された場合(ステップS12においてYES)、欠陥部分の画像(すなわち欠陥画像)のデータが分類制御部42へと送信される。欠陥が検出されない場合(ステップS12においてNO)、ステップS11に戻って画像データの取得が行われる。
FIG. 2 is a diagram showing a flow of classification of defective images by the
分類制御部42は、欠陥画像を受け取ると、その欠陥画像の複数種類の特徴量を算出する(ステップS13)。複数種類の特徴量の配列を、特徴量ベクトルとも称する。算出された特徴量ベクトルは分類器422に入力され、分類器422によって分類が行われる(ステップS14)。すなわち、分類器422によって欠陥画像が複数のクラスのいずれかに分類される。画像分類装置1では、欠陥検出部41にて欠陥が検出されるたびに、特徴量ベクトルの算出がリアルタイムに行われ、多数の欠陥画像の自動分類が高速に行われる。
Upon receiving the defect image, the
図3は、実施形態のホストコンピュータ5の構成を示すブロック図である。ホストコンピュータ5は、機械学習によって分類器422を生成する分類器生成装置の一例である。
FIG. 3 is a block diagram showing the configuration of the
ホストコンピュータ5は、CPU51、ROM52およびRAM53を備えている。CPU51は各種演算処理を行う演算回路を含む。ROM52は本プログラムを記憶している。RAM53は各種情報を記憶する揮発性の主記憶装置である。ホストコンピュータ5は、バスライン501によって互いに接続されているCPU51、ROM52およびRAM53を有する一般的なコンピュータシステムを備えている。
The
ホストコンピュータ5は、固定ディスク54、ディスプレイ55、入力部56、読取装置57および通信部58を備えている。これらの各要素は、インターフェース(I/F)を介してバスライン501に接続されている。
The
固定ディスク54は、情報記憶を行う補助記憶装置である。ディスプレイ55は、画像などの各種情報を表示する出力装置である。入力部56は、キーボード56aおよびマウス56bなどを含む入力用デバイスである。読取装置57は、可搬性を有する一過性の記録媒体8から情報を読み取る装置である。記録媒体8は、例えば、光ディスク、磁気ディスク、光磁気ディスクまたは半導体メモリである。通信部58は、画像分類装置1の他の要素との間で信号を送受信する。
The fixed
ホストコンピュータ5は、読取装置57を介して記録媒体8からプログラム80を読み取る。読み取られたプログラム80は、固定ディスク54に記録される。プログラム80は、適宜RAM53に格納される。そして、CPU51が、RAM53に格納されたプログラム80に従って、各種演算処理を行う。
The
図4は、分類器422を生成するためのホストコンピュータ5の機能構成を示すブロック図である。ホストコンピュータ5は、制御部61、記憶部63を備えている。ホストコンピュータ5のCPU51がプログラム80に従って動作することにより、制御部61は特徴量算出部611、分類器生成部613、教示クラス変更部615および終了判定部617として機能する。
FIG. 4 is a block diagram showing a functional configuration of the
特徴量算出部611は、欠陥画像から特徴量ベクトルを算出する。特徴量ベクトルに含まれる特徴量の項目としては、例えば、欠陥部分の面積、明度平均、周囲長、平坦度または欠陥部分を楕円形に近似した場合の長軸の傾きなどが含まれる。
The feature
分類器生成部613は、複数の教師データ82を含む教師データ群を用いた機械学習を行うことによって、欠陥画像を分類する分類器84を生成する。機械学習とは、教師データ群82Gについて、付与されたクラス間の判別を行う判別関数を計算することを意味する。判別関数の算出方法としては、例えば、ニューラルネットワーク、決定木、判別分析などである。
The
図5は、教師データ群82Gの一例を示す図である。教師データ82は、欠陥画像から抽出された特徴量ベクトル822、および、予めオペレータが教示したクラス(以下、教示クラス824とも称する。)を示す情報であるクラスラベルを含む。各欠陥画像について、クラスを教示する(クラスを付与する)にあたっては、予め複数の正クラスが定義されている。正クラスは、例えばオペレータが想定する欠陥の種類毎に定義されるクラスである。オペレータが複数の正クラスのうち1つの正クラスを、各欠陥画像に対して教示することにより、教師データ82が生成される。
FIG. 5 is a diagram showing an example of the
本実施形態では、後述するように、再学習が繰り返し行われることによって、新たな分類器84が次々と生成されるようになっている。その再学習による分類器84の生成過程においては、副クラスが定義される場合がある。副クラスは、最初に定義された正クラスとは対になるクラスであって、正クラスとは1対1の関係にある。すなわち、1つの正クラスについては、副クラスが1つだけ定義される。なお、副クラスは必要に応じて定義されるものであり、必ずしもすべての正クラスに対して定義されるとは限らない。また、再学習による分類器84の生成過程において、不要となった副クラスは適宜除去される場合もある。
In the present embodiment, as will be described later,
教示クラス変更部615は、予め定められた変更規則に従って、教師データ82における教示クラス822を変更する。この変更規則については、後に詳述する。なお、教示クラス変更部615は、教師データ82の教示クラス824を変更する場合、最初に教示された正クラスとその正クラスの対である副クラスとの間で教示クラス824を変更する。すなわち、各教師データ82の教示クラス824は、1つの正クラスとその正クラスに対応する副クラスとの間でのみ変更される。
The teaching
終了判定部617は、終了条件を満たすかどうかを判断することによって、分類器84の生成処理を終了するか否かを判定する。後述するように、制御部61は、終了判定部617の判定結果に基づいて、再学習を停止し、新たな分類器84の生成を終了する。ホストコンピュータ5において生成された分類器84は、検査・分類装置4に送られ、分類器422として利用される。
The
<再学習による分類器84の生成について>
図6は、実施形態のホストコンピュータ5において分類器84を生成する流れを示す図である。図7は、実施形態のホストコンピュータ5において分類器84を生成する流れを概念的に示す図である。図6および図7に示すホストコンピュータ5の動作は、特に断らない限り、制御部61が行うものとする。
<About the generation of the
FIG. 6 is a diagram showing a flow of generating a
機械学習によって分類器84を生成するために、教師データ群82Gの生成が行われる(図6:ステップS21)。詳細には、教師データ82として使用されるデータである複数の欠陥画像のそれぞれについて、特徴量算出部611が複数種類の特徴量である特徴量ベクトル822を算出する。また、オペレータは、各欠陥画像について、予め定義された複数の正クラスの中から1つの正クラスを教示クラス824として付与する。図5に示すように、各欠陥画像から、特徴量ベクトル822と教示クラス824とを含む複数の教師データ82が生成される。
In order to generate the
図7に示す例では、3つの正クラス「a」「b」「c」が定義されており、これらクラスa-cのそれぞれに、円形状で示す教師データ82が6個ずつ準備されている。また、これら正クラスa-cのそれぞれについて、対となる副クラスを「a?」「b?」「c?」としている。各教師データ82に記載されている「a」「b」および「c」は教示クラス824を示している。以下では、複数の教師データ82について教示クラス(正クラスa-c)を区別する場合、符号の最後に括弧書きでクラスを表記する。例えば、正クラスaの教師データ82は「教師データ82(a)」と表記され、正クラスbの教師データ82は「教師データ82(b)」と表記され、正クラスcの教師データ82は「教師データ82(c)」と表記される。
In the example shown in FIG. 7, three positive classes "a", "b", and "c" are defined, and six
ステップS21において教師データ群82Gが生成されると、分類器生成部613が、その教師データ群82Gを用いた機械学習によって、第1段階の分類器84を生成する(図6:ステップS22)。第1段階の分類器84は、欠陥画像から算出される特徴量ベクトル822に応じて、その欠陥画像を複数の正クラス間で分類する機能を備える。
When the
第1段階の分類器84が生成されると、当該分類器84が教師データ群82Gを分類する(図6:ステップS23)。ステップS23の処理は、いわゆる再代入法である。これにより、各教師データ82について、分類先のクラスが決定される。図7に示す例では、教師データ82群のうち、一部の教師データ82が教示とは異なるクラスに分類されている。例えば、正クラスAには、5つの教師データ82が分類されているが、1つは教師データ82(b)であり、もう1つは教示が正クラスcである教師データ82(c)である。
When the first-
続いて、ステップS23にて決定された分類先のクラスに応じて、教示クラス変更部615が、既定の変更規則に従って、教師データ82の教示クラス824を変更する(図6:ステップS24)。このステップS24では、以下の変更規則1に従って、教示クラス変更部615が教示クラスの変更を行う。
Subsequently, the teaching
(変更規則1)
再代入法の結果、分類先が教示とは異なった教師データ82について、その教示クラス824を元の正クラスから、その正クラスの対である副クラスに変更する。
(Change rule 1)
As a result of the re-imputation method, for the
すなわち、ステップS23の再代入法の結果、分類先が教示とは異なった教師データ82が存在する場合、教示クラス変更部615が、その教師データ82の元の教示クラス822である正クラスの対となる副クラスを定義する。そして、教示クラス変更部615は、分類先が教示とは異なった教師データ82の教示クラス822を、その新たに定義された副クラスに変更する。
That is, as a result of the reassignment method in step S23, when the
図7に示す例では、分類先が正クラスaであった教師データ82(b),82(c)について、それぞれの教示クラス822(正クラスb,c)が副クラスb?,c?に変更される。分類先が正クラスbであった2つの教師データ82(c)については、教示クラス822(正クラスc)が副クラスc?に変更される。分類先が正クラスcであった1つの教師データ82(a)についても、教示クラス822(正クラスa)が副クラスa?に変更される。 In the example shown in FIG. 7, for the teacher data 82 (b) and 82 (c) whose classification destination is the positive class a, the respective teaching classes 822 (normal classes b and c) are subclass b? , C? Will be changed to. For the two teacher data 82 (c) whose classification destination was the positive class b, the teaching class 822 (normal class c) is the subclass c? Will be changed to. Even for one teacher data 82 (a) whose classification destination was the positive class c, the teaching class 822 (normal class a) is the subclass a? Will be changed to.
ステップS24において、変更規則に該当しない教師データ82については、教示クラス824の変更は行われず、教示クラスが元のままに維持される。
In step S24, the
図6に戻って、ステップS24の教示クラス824の変更処理が完了すると、分類器生成部613が、教師データ群82Gを用いた再学習を行うことによって、第2段階の分類器84を生成する(図6:ステップS25)。この再学習に用いられる教師データ群82Gには、ステップS24において教示クラス824が変更された教師データ82、および、教示クラス824が変更されなかった教師データ82を含んでいる。このため、第2段階の分類器84は、複数の正クラス間だけではなく、ステップS24において定義された副クラスを含めたクラス間で、欠陥画像を分類する機能を備える。
Returning to FIG. 6, when the change processing of the
第2段階の分類器84が生成されると、当該分類器84が教師データ群82Gを分類する(図6:ステップS26)。ステップS26の処理も、ステップS23と同様、いわゆる再代入法である。これにより、各教師データについて、分類先のクラスが決定される。
When the second-
続いて、ステップS25にて決定された分類先のクラスに応じて、教示クラス変更部615が、既定の変更規則に従って、教師データ82の教示クラス824を変更する(図7:ステップS27)。このステップS27では、以下の変更規則2,3に従って、教示クラス変更部615が教示クラスの変更を行う。
Subsequently, the teaching
(変更規則2)
再代入法の結果、分類先が教示とは異なる教師データ82について、教示が正クラスであった場合、教示クラス824をその対である副クラスに変更する。この変更規則2は、変更規則1とほぼ同じ内容である。
(Change rule 2)
As a result of the re-imputation method, when the teaching is a positive class for the
(変更規則3)
再代入法の結果、分類先が教示とは異なる教師データ82について、教示が副クラスであって分類先がその副クラスの対である正クラスであった場合、教示クラス824を当該正クラスに変更する。
(Change rule 3)
As a result of the re-imputation method, for
変更規則2に関しては、図7に示す例では、教示クラス824が正クラスaであった教師データ82(a)の1つが、正クラスcに分類されている。このため、当該教師データ82(a)の教示クラスが、変更規則2に従って、正クラスaから副クラスa?に変更される。
Regarding the
変更規則3に関しては、図7に示す例では、教示クラス824が副クラスa?であった教師データ82(a?)が、その副クラスa?の対である正クラスaに分類されている。このため、変更規則3にしたがって、当該教師データ82(a?)の教示クラス824(副クラスa?)が正クラスaに変更される。同様に、教示クラス824が副クラスc?であった教師データ82(c?)が、元の正クラスcに分類されている。このため、当該教師データ82(c?)の教示クラス824(副クラスc?)が正クラスcに変更される。
Regarding the
ステップS27において、変更規則に該当しない教師データ82については、教示クラス824の変更は行われず、教示クラスが元のままに維持される。
In step S27, the
図6に戻って、ステップS27の教示クラス824の変更処理が完了すると、分類器生成部613が、教師データ群82Gを用いた再学習を行うことによって、第3段階の分類器84を生成する(図6:ステップS28)。この再学習に用いられる教師データ群82Gには、ステップS27において教示クラス824が変更された教師データ82と教示クラス824が変更されなかった教師データ82とが含まれる。
Returning to FIG. 6, when the change process of the
続いて、終了判定部617が、終了条件を満たすかどうかを判定する。これによって、終了基準を満たすか否かが判定される(図6:ステップS29)。終了条件としては、例えば次の2つが考えられる。
Subsequently, the
(終了条件1)
ステップS26の再代入法の結果、ステップS27において教示クラスの変更が起こらないこと。
(End condition 1)
As a result of the reassignment method in step S26, the teaching class does not change in step S27.
(終了条件2)
ステップS26の分類結果において、正クラスについての正答率(Accuracy)が所定の閾値を上回ること。ここで、正答率(Accuracy)とは、分類器84によって分類された教師データ82の総数のうち、分類先と教示とが一致した教師データ82の総数の割合をいう。また、所定の閾値は、運用において要求される正答率に設定されてもよい。例えば、正答率95%が要求される場合、閾値が0.95に設定されるとよい。また、終了条件1が満たされるとき(すなわち、教示クラスの変更が起こらなくなるとき)の正答率を基準として、当該正答率よりも小さい正答率が閾値に設定されてもよい。例えば、終了条件1が満たされるときの正答率が95%であったと仮定した場合、その95%よりも小さい92%(=0.92)が閾値に設定されてもよい。
(End condition 2)
In the classification result of step S26, the accuracy of the correct answer exceeds a predetermined threshold value. Here, the accuracy rate means the ratio of the total number of
ステップS29において、終了判定部617が上記終了条件1,2のうちいずれかを満たすと判断した場合(ステップS29においてYES)、制御部61は分類器84の生成処理を終了する。これにより、直前のステップS28で生成された分類器84が記憶部63に保存される。終了判定部617が上記終了条件1,2のいずれも満たさないと判断した場合(ステップS29においてNO)、制御部61はステップS26に戻って処理を続行する。すなわち、終了条件1または2が満たされるまで、ステップS26からステップS28までが繰り返し行われる。
When the
本実施形態のホストコンピュータ5では、予めオペレータが定義した正クラス各々について、対となる副クラスが必要に応じて定義される。そして、再代入法を行った際に、正クラスに分類されなかった教師データは、教示クラスがその対である副クラスにされる。その再学習の結果、副クラスが教示された教師データが再代入法によって仮に元の正クラスに分類された場合には、その教師データの教示クラスが再び正クラスに変更される。このように、教師データ82が最初に教示された正クラスに正しく分類されなかったとしても、その教師データ82を除くことなく再学習が行われることによって分類器84が生成される。これにより、汎化能力に優れた分類器84を得ることができる。
In the
本実施形態で生成される分類器84によれば、オペレータが付与したクラスラベルが仮に不適切であった場合には、教示の信頼性が低いことを前提にした副クラスに自動的に分類され、その後、その副クラスも含めて機械学習が行われる。教師データの教示クラスが正クラス間で変更されることはないため、教示の信頼性が高い正クラス間では汎化能力を高く保つことができる。これに対して、信頼性が低い教師データは分類器によって副クラスに分類されやすくなる。このため、副クラスに分類される教師データは、教示の信頼性が低いものとなる。このように、分類結果に対して確信度の情報が付加される分類器84を生成できる。
According to the
分類器84は、検査・分類装置4に送信され、分類器422として登録される。クラスが不明である(すなわち、欠陥の種別が不明である)データを分類器422が分類する際には、正クラスに分類されたものを確信度の高い結果としてもよい。また、副クラスに分類されたものは、一応対の正クラスを分類先とするものの、確信度の低い結果としてもよい。対の正クラスの欠陥としてもよい。また、いずれかの副クラスに分類されたものを、ひとまとめにして分類不能のものとして、分類先を特定のクラスとはしないようにしてもよい。
The
例えば、特徴空間内で2つの正クラス(A,B)が混じり合って分布している部分を積極的に副クラスとして学習に取り込むことにより、自動的に生成された副クラスの教師データを再確認することなく、正クラスの分類精度を高く保つことができる。2つの正クラスAとBの間で、副クラスの分布域が、例えばSVM(Support Vector Machine)でいうマージン幅の役目を果たす。このため、2クラス分類器としたときの汎化能力が向上する。 For example, by actively incorporating the part where two positive classes (A and B) are mixed and distributed in the feature space into learning as a subclass, the automatically generated teacher data of the subclass is reproduced. The classification accuracy of the positive class can be kept high without confirmation. Between the two positive classes A and B, the distribution area of the subclass serves as a margin width, for example, in SVM (Support Vector Machine). Therefore, the generalization ability when a two-class classifier is used is improved.
なお、上記説明では、副クラスは必要に応じて定義されるものとしている。しかしながら、ステップS21の時点で、あらかじめすべての正クラス各々に対して副クラスを定義しておいてもよい。そして、ステップS22の段階で、複数の正クラス、および、それら正クラスに対応する複数の副クラス間で分類する分類器84が生成されてもよい。また、上記説明では、分類器84を生成する際に、所属する教師データがなくなることで不要になった副クラスについては定義から除外するとしている。しかしながら、これは必須ではなく、不要となった副クラスも維持したままの再学習によって、新たな分類器84が生成されてもよい。
In the above description, the subclass is defined as needed. However, at the time of step S21, a subclass may be defined in advance for each of all the positive classes. Then, at the stage of step S22, a
(実施例1)
表1は、半導体ウェハの欠陥検査で発見された欠陥の画像を線形判別分析で3種類(Class 1/2/3)に分類する分類器の性能を、再代入法で評価した結果の一例である。表1は、分類器による分類結果を示す混同行列(分類表や混同対照表とも呼ばれる。)である。なお、この例では、オペレータが行った教示の信頼性は十分に高いと考えてよいものとする。
(Example 1)
Table 1 is an example of the results of evaluating the performance of a classifier that classifies images of defects found in defect inspection of semiconductor wafers into three types (
この表1では、事前に教示した3種類のクラス(Class 1/2/3)を行見出しに記し、分類器により分類されたクラスを列見出しに記している。例えば、Class 1として教示された教師データは、1496個がClass 1に、81個がClass 2に、1個がClass 3に分類されたことを示している。
In this Table 1, three types of classes (
また、表1において、見出しに「Sum」と記す行は分類器によって各クラスに分類された教師データの総数を示し、見出しに「Sum」と記す列は教示された教師データの総数を示している。 Further, in Table 1, the row described as "Sum" in the heading indicates the total number of teacher data classified into each class by the classifier, and the column described as "Sum" in the heading indicates the total number of teacher data taught. There is.
見出しに「Precision」と記す行は、分類器によってある特定のクラスに分類された教師データのうち、正しく分類された教師データの割合(適合率)である。見出しに「Recall」と記す列は、特定のクラスであると教示されたすべての教師データのうち、分類器によって正しくその特定のクラスに分類された教師データの割合(再現率)である。 The line marked "Precision" in the heading is the ratio (adaptation rate) of the correctly classified teacher data among the teacher data classified into a specific class by the classifier. The column marked "Recall" in the heading is the percentage (recall rate) of the teacher data correctly classified into the specific class by the classifier among all the teacher data taught to be in the specific class.
「Precision」の行と「Recall」の列とが交差するセルは、「Accuracy」であって、教師データの総数に対する、分類器により分類されたクラスと教示されたクラスとが一致した教師データの総数の割合(正答率)である。 The cell where the row of "Precision" and the column of "Recall" intersect is "Accuracy", and the class classified by the classifier and the taught class match the total number of teacher data of the teacher data. It is the ratio of the total number (correct answer rate).
このデータセットについて、図6に示した手法を適用したところ、266回の教示変更および再学習の繰り返しによって、表2に示す結果が得られた。 When the method shown in FIG. 6 was applied to this data set, the results shown in Table 2 were obtained by repeating the teaching change and re-learning 266 times.
表2に示す例では、3つの正クラス(Class 1/2/3)と、これら正クラスの対である3つ副クラス(Class 1?/2?/3?)が定義されており、計6種類のクラスに分類する分類器84が得られている。
In the example shown in Table 2, three positive classes (
正クラスであるClass1/2/3のRecall(再現性)がほぼ100%に近い値となっている。つまり、この分類器84が分類結果をClass1、Class 2、Class 3と答えたとき、それぞれ93.25%、96.03%、98.32%の精度で信用できると言える。そしてこのRecallは、表1に示す初期の分類器のRecallよりも顕著に優れている。
The recall (reproducibility) of
また、副クラスであるClass 1?/2?/3?のPrecisionのうち、Class2?の値だけ正クラスのものに劣らない。この場合、Class2の正/副クラスを統合してClass2と判定してもよい。また、Precisionが相対的に低い、Class 1?/3?については、これらを統合して「分類不可」と判定するようにしてもよい。さらには、PrecisionがClass 1?よりも小さいClass3?のみを「分類不可」と判定するようにしてもよい。この場合、分類先がClass 1?である場合には、「Class 1かも知れない」といったように低い確信度を伴った判定結果を出力するようにしてもよい。
Also, among the Precision of
なお、Class 2?のPrecisionの高さは、Class2?と教示して(すなわち、教示が変更されて)正しくClass2? と分類される画像群が新しいクラスClass4 を形成する可能性を示唆している。したがって、Precisionが高いクラスについて、新たに正クラスとして定義することも考えられる。例えば、Precisionが所定の閾値を超える副クラスを、新たな正クラスとして定義するとともに、その副クラスに分類された教師データ82の教示クラスを新たな正クラスに変更してもよい。そして、その変更された教師データ82を含む教師データ群82Gを用いて、分類器84の生成処理(図6のステップS22)が行われるようにしてもよい。このように分類器84を再び生成することによって、より高性能な分類器84を得られる場合がある。
The height of the Precision of
(実施例2)
表3は、新薬の薬効試験中に撮像された細胞塊(スフェロイド/オルガノイド)の画像を、リニアカーネルSVMで「Alive(生)」「Dead(死)」の2種類に分類した例である。なお、この例では、教示の信頼性はあまり高いとは言えないものである。これは、培養液に薬剤を全く添加しなかったウエル内の細胞塊は全て生存とみなし、逆に高濃度の薬剤を添加したウエル内の細胞塊は全て死滅とみなしており、個々の細胞塊の実際の生死は確認せずにラベルを与えているためである。この例では、分類成績の数字そのものではなく、分類器が死滅と判定した細胞塊の画像の中に目視で明らかに生存していると判るものが混入していることが問題とされる。
(Example 2)
Table 3 shows an example in which the images of cell masses (spheroids / organoids) taken during the efficacy test of a new drug are classified into two types, "Alive" and "Dead", by the linear kernel SVM. In this example, the reliability of the teaching is not so high. This is because all cell masses in the wells to which no drug was added to the culture medium are regarded as alive, and conversely, all cell masses in the wells to which a high concentration drug is added are regarded as dead. This is because the actual life and death of the cell is given without confirmation. In this example, it is not the number of the classification result itself, but the problem is that the image of the cell mass judged to be dead by the classifier contains something that is clearly alive.
このデータセットについて、図6に示した手法を適用したところ、40回の教示変更および再学習の繰り返しによって、以下に示す結果が得られた。 When the method shown in FIG. 6 was applied to this data set, the following results were obtained by repeating the teaching change and re-learning 40 times.
表4に示すように、正クラスであるAlive/DeadのRecallが100%であるのとともに、AliveのPrecisionも99.95%と高い値である。一方、副クラスであるAlive?に教示が変更されたデータのうち、115個がDead の正クラスに分類されているが、重要なのは目視で明らかに生存していると判るものが混入しないことである。 As shown in Table 4, the recall of Alive / Dead, which is a positive class, is 100%, and the Precision of Alive is also a high value of 99.95%. On the other hand, 115 of the data whose teachings have been changed to the subclass Alive? Are classified into the positive class of Dead, but the important thing is that there is no data that is clearly alive. be.
本手法を適用する前は、表3に示すように、282個のAliveのラベルを持つデータがDeadに混入し、そのうち6,7割方は真に誤分類であり、少なくとも10個は「目立つ」ものであった。これに対して、本手法では上記115個のうち誤分類は半数以下で目立つものは無く、有効に作用していると考えられる。 Before applying this method, as shown in Table 3, data with 282 Alive labels were mixed in Dead, 60 to 70% of them were truly misclassified, and at least 10 were "conspicuous". It was a thing. On the other hand, in this method, less than half of the above 115 misclassifications are conspicuous, and it is considered that they are working effectively.
この発明は詳細に説明されたが、上記の説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。上記各実施形態および各変形例で説明した各構成は、相互に矛盾しない限り適宜組み合わせたり、省略したりすることができる。 Although the invention has been described in detail, the above description is exemplary in all aspects and the invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention. Each configuration described in each of the above-described embodiments and modifications can be appropriately combined or omitted as long as they do not conflict with each other.
5 ホストコンピュータ(分類器生成装置)
9 半導体基板
82 教師データ
82G 教師データ群
84 分類器
611 特徴量算出部
613 分類器生成部
615 教示クラス変更部
617 終了判定部
822 教示クラス
822 特徴量ベクトル
824 教示クラス
5 Host computer (classifier generator)
Claims (6)
(a) 複数の教示用データのそれぞれについて、複数種類の特徴量を算出する工程と、
(b) 前記複数の教示用データのそれぞれについて、異なる正クラスのいずれか1つを教示することによって、複数の教師データを含む教師データ群を生成する工程と、
(c) 前記教師データ群を用いて分類器を生成する工程と、
(d) 前記工程(c)によって生成された前記分類器で前記教師データ群を分類する工程と、
(e) 前記教師データ群のうち、前記工程(d)において分類先が教示とは異なった教師データについて、教示クラスを元の正クラスの対である副クラスに変更する工程と、
(f) 前記工程(e)によって教示クラスが前記副クラスに変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程と、
(g) 前記工程(f)によって生成された前記分類器で前記教師データ群を分類する工程と、
(h) 前記工程(g)において分類先が教示とは異なった前記教師データについて、教示が正クラスである場合には教示クラスをその対である副クラスに変更し、教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更する工程と、
(i) 前記工程(h)において教示クラスが変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程と、
を含む、分類器生成方法。 It is a classifier generation method that generates a classifier that classifies data according to features.
(A) A step of calculating a plurality of types of features for each of a plurality of teaching data, and
(B) A step of generating a teacher data group including a plurality of teacher data by teaching one of different positive classes for each of the plurality of teaching data.
(C) A step of generating a classifier using the teacher data group and
(D) A step of classifying the teacher data group with the classifier generated by the step (c), and a step of classifying the teacher data group.
(E) Of the teacher data group, for teacher data whose classification destination is different from the teaching in the step (d), a step of changing the teaching class to a subclass which is a pair of the original positive class.
(F) A step of generating a new classifier using a teacher data group including teacher data in which the teaching class is changed to the subclass by the step (e).
(G) A step of classifying the teacher data group with the classifier generated by the step (f), and a step of classifying the teacher data group.
(H) For the teacher data whose classification destination is different from the teaching in the step (g), if the teaching is a positive class, the teaching class is changed to a subclass which is a pair thereof, and the teaching is a subclass. If the classification destination is a positive class that is a pair of its subclasses, the process of changing the teaching class to the positive class, and
(I) A step of generating a new classifier using a teacher data group including teacher data whose teaching class is changed in the step (h).
How to generate a classifier, including.
(j) 前記工程(g)から前記工程(i)までを再度行う工程、
をさらに備える、分類器生成方法。 The method for generating a classifier according to claim 1.
(J) A step of re-performing the steps (g) to (i).
A method for generating a classifier.
前記工程(j)は、
所定の終了条件を満たすまで、前記工程(g)から前記工程(i)までを2回以上行う工程である、分類器生成方法。 The method for generating a classifier according to claim 2.
The step (j) is
A method for generating a classifier, which is a step of performing the steps (g) to the step (i) twice or more until a predetermined end condition is satisfied.
前記終了条件が、前記工程(h)において、教示クラスの変更が起こらないことである、分類器生成方法。 The method for generating a classifier according to claim 3.
A method for generating a classifier, wherein the termination condition is that the teaching class does not change in the step (h).
前記終了条件が、前記工程(g)の分類結果において、正クラスについての正答率が所定の閾値を上回ることである、分類器生成方法。 The method for generating a classifier according to claim 3.
A method for generating a classifier, wherein the end condition is that the correct answer rate for the positive class exceeds a predetermined threshold value in the classification result of the step (g).
異なるクラスのうち1つが教示された教師データ群を用いて分類器を生成する分類器生成部と、
前記分類器による前記教師データの分類先に応じて、前記教師データの教示クラスを、正クラスとその対である副クラスとの間で変更する教示クラス変更部と、
を備え、
前記教示クラス変更部は、
前記教師データ群を前記分類器で分類したときに、前記分類器による分類先が教示とは異なった教師データについて、
教示が正クラスであった場合には教示クラスをその正クラスの対である副クラスに変更し、
教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更し、
前記分類器生成部は、前記教示クラス変更部によって教示クラスが変更された教師データを含む教師データ群を用いて、新たな分類器を生成する、分類器生成装置。 A classifier generator that generates a classifier that classifies data according to features.
A classifier generator that generates a classifier using the teacher data group taught by one of the different classes,
A teaching class changing unit that changes the teaching class of the teacher data between a normal class and a subclass that is a pair thereof according to the classification destination of the teacher data by the classifier.
Equipped with
The teaching class change part is
When the teacher data group is classified by the classifier, the teacher data whose classification destination by the classifier is different from the teaching is
If the teaching is a positive class, change the teaching class to a subclass that is a companion to the positive class.
If the teaching is a subclass and the classification destination is a positive class that is a pair of the subclass, the teaching class is changed to the positive class.
The classifier generator is a classifier generator that generates a new classifier using a teacher data group including teacher data whose teaching class has been changed by the teaching class changing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018143662A JP7083721B2 (en) | 2018-07-31 | 2018-07-31 | Classifier generation method and classifier generator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018143662A JP7083721B2 (en) | 2018-07-31 | 2018-07-31 | Classifier generation method and classifier generator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020021224A JP2020021224A (en) | 2020-02-06 |
JP7083721B2 true JP7083721B2 (en) | 2022-06-13 |
Family
ID=69588549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018143662A Active JP7083721B2 (en) | 2018-07-31 | 2018-07-31 | Classifier generation method and classifier generator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7083721B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015038441A (en) | 2013-08-19 | 2015-02-26 | 株式会社Screenホールディングス | Classifier acquisition method, defect classification method, defect classification device, and program |
JP2015087903A (en) | 2013-10-30 | 2015-05-07 | ソニー株式会社 | Apparatus and method for information processing |
WO2016194210A1 (en) | 2015-06-04 | 2016-12-08 | 株式会社日立ハイテクノロジーズ | Defect image classification device and defect image classification method |
JP2017107313A (en) | 2015-12-08 | 2017-06-15 | 株式会社Screenホールディングス | Teacher data creation support method, image classification method, teacher data creation support device and image classification device |
-
2018
- 2018-07-31 JP JP2018143662A patent/JP7083721B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015038441A (en) | 2013-08-19 | 2015-02-26 | 株式会社Screenホールディングス | Classifier acquisition method, defect classification method, defect classification device, and program |
JP2015087903A (en) | 2013-10-30 | 2015-05-07 | ソニー株式会社 | Apparatus and method for information processing |
WO2016194210A1 (en) | 2015-06-04 | 2016-12-08 | 株式会社日立ハイテクノロジーズ | Defect image classification device and defect image classification method |
JP2017107313A (en) | 2015-12-08 | 2017-06-15 | 株式会社Screenホールディングス | Teacher data creation support method, image classification method, teacher data creation support device and image classification device |
Also Published As
Publication number | Publication date |
---|---|
JP2020021224A (en) | 2020-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6113024B2 (en) | Classifier acquisition method, defect classification method, defect classification device, and program | |
JP6063756B2 (en) | Teacher data creation support device, teacher data creation device, image classification device, teacher data creation support method, teacher data creation method, and image classification method | |
TW571246B (en) | System and method for dynamic image recognition | |
JP6669453B2 (en) | Image classification device and image classification method | |
TWI502189B (en) | Training data verification apparatus, training data generation apparatus, image classification apparatus, training data verification method, training data generation method, and image classification method | |
JP6401648B2 (en) | Defect classification apparatus and defect classification method | |
JP5550862B2 (en) | Defect classification apparatus and classification adjustment method | |
JP2004294360A (en) | Method and apparatus for classifying defects | |
JP2011158373A (en) | Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification | |
TWI601098B (en) | Image classification apparatus and image classification method | |
JP2014137284A (en) | Teacher data creation support device, teacher data creation device, image classification device, teacher data creation support method, teacher data creation method and image classification method | |
JP2016181098A (en) | Area detection device and area detection method | |
JP6530688B2 (en) | Classifier construction method, image classification method, classifier construction apparatus and image classification apparatus | |
JP6871807B2 (en) | Classifier construction method, classifier and classifier construction device | |
JP2010071826A (en) | Teacher data preparation method, and image sorting method and image sorter | |
JP6763673B2 (en) | Teacher data creation support device, image classification device, teacher data creation support method and image classification method | |
JP2017107313A (en) | Teacher data creation support method, image classification method, teacher data creation support device and image classification device | |
JP5075083B2 (en) | Teacher data creation support method, image classification method, and image classification apparatus | |
JP7083721B2 (en) | Classifier generation method and classifier generator | |
CN111191670A (en) | Neural network-based classification device and classification method | |
JP6425468B2 (en) | Teacher data creation support method, image classification method, teacher data creation support device and image classification device | |
JP7120528B2 (en) | Classifier construction method, image classification method, classifier construction device, and image classification device | |
JP2021157735A (en) | Image identification system, image identification device, program, and trained model | |
JP5858817B2 (en) | Teacher data creation method, image classification method, and image classification apparatus | |
JP6960356B2 (en) | Teacher data creation support method and teacher data creation support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7083721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |