JP7083721B2 - Classifier generation method and classifier generator - Google Patents

Classifier generation method and classifier generator Download PDF

Info

Publication number
JP7083721B2
JP7083721B2 JP2018143662A JP2018143662A JP7083721B2 JP 7083721 B2 JP7083721 B2 JP 7083721B2 JP 2018143662 A JP2018143662 A JP 2018143662A JP 2018143662 A JP2018143662 A JP 2018143662A JP 7083721 B2 JP7083721 B2 JP 7083721B2
Authority
JP
Japan
Prior art keywords
classifier
class
teaching
teacher data
subclass
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018143662A
Other languages
Japanese (ja)
Other versions
JP2020021224A (en
Inventor
明 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2018143662A priority Critical patent/JP7083721B2/en
Publication of JP2020021224A publication Critical patent/JP2020021224A/en
Application granted granted Critical
Publication of JP7083721B2 publication Critical patent/JP7083721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

この発明は、データが持つ複数種類の特徴量に応じて当該データを分類する技術に関する。 The present invention relates to a technique for classifying the data according to a plurality of types of features of the data.

半導体基板、ガラス基板、プリント配線基板等の製造では、異物や傷、エッチング不良等の欠陥を検査するために光学顕微鏡や走査電子顕微鏡等を用いて外観検査が行われる。また、このような検査工程において検出された欠陥に対して、詳細な解析を行うことによって、その欠陥の発生原因を特定し、欠陥に対する対策が施される。 In the manufacture of semiconductor substrates, glass substrates, printed wiring substrates, etc., visual inspection is performed using an optical microscope, scanning electron microscope, or the like in order to inspect defects such as foreign matter, scratches, and etching defects. Further, by performing a detailed analysis on the defects detected in such an inspection step, the cause of the occurrence of the defects is identified, and countermeasures against the defects are taken.

近年では、基板上のパターンの複雑化および微細化に伴い、検出される欠陥の種類および数量が増加する傾向にあり、検査工程で検出された欠陥を自動的に分類する自動分類も用いられる。自動分類により欠陥の解析を迅速かつ効率的に行うことが実現される。自動分類では、ニューラルネットワークや決定木、判別分析等を利用した分類器が用いられる。分類器に自動分類を行わせるには、欠陥画像およびそのカテゴリ(すなわち、欠陥画像の種類(クラス))を示す信号を含む教師データを用意して分類器を学習させる必要がある(分類器の生成について、例えば、特許文献1参照)。典型的には、各欠陥画像のカテゴリをオペレータが決定することにより、教師データが作成される。 In recent years, as the pattern on the substrate becomes more complicated and miniaturized, the types and quantities of defects detected tend to increase, and automatic classification that automatically classifies the defects detected in the inspection process is also used. Defect analysis can be performed quickly and efficiently by automatic classification. In automatic classification, a classifier using a neural network, decision tree, discriminant analysis, etc. is used. In order for the classifier to perform automatic classification, it is necessary to prepare teacher data including signals indicating the defect image and its category (that is, the type (class) of the defect image) to train the classifier (classifier). For generation, see, for example, Patent Document 1). Typically, the teacher data is created by the operator determining the category of each defect image.

教師データの作成においてオペレータによるカテゴリの判定が曖昧な場合、分類器の学習用データに矛盾したデータが含まれることによって、分類器の性能が低下するおそれがある。そこで、特許文献2~5には、学習中または学習後に学習の妨げになる学習用入力パターンを検出して、除去あるいは変更した後に再学習などを行なうニューラルネットワークの学習装置が開示されている。 If the operator's determination of the category is ambiguous in the creation of teacher data, the performance of the classifier may deteriorate due to the inclusion of inconsistent data in the training data of the classifier. Therefore, Patent Documents 2 to 5 disclose a neural network learning device that detects a learning input pattern that hinders learning during or after learning, removes or changes it, and then performs re-learning or the like.

特許文献6には、上記矛盾したデータの抽出を図る技術が開示されている。当該欠陥分類方法では、教師データを使用した学習により判別関数が求められ、当該判別関数を用いて教師データが各カテゴリに分類される。そして、分類カテゴリが初期カテゴリと一致しない教師データがオペレータに提示される。それに応じて、オペレータは、当該教師データの初期カテゴリを修正し、または、当該データを教師データから除外する。 Patent Document 6 discloses a technique for extracting the above-mentioned inconsistent data. In the defect classification method, a discriminant function is obtained by learning using the teacher data, and the teacher data is classified into each category using the discriminant function. Then, the teacher data whose classification category does not match the initial category is presented to the operator. Accordingly, the operator modifies the initial category of the teacher data or excludes the data from the teacher data.

特許文献7には、検査画像から抽出された欠陥領域が分類されるべき正解カテゴリを確信レベル付きで入力することで正解カテゴリおよび確信レベルの情報を含む教師データを作成する教師データ作成手段と、確信レベルが高い教師データを確信レベルが低い教師データより有意なデータとして分類を行う分類手段とを備える分類装置が開示されている。 Patent Document 7 describes a teacher data creating means for creating teacher data including information on the correct answer category and the certainty level by inputting the correct answer category to which the defect region extracted from the inspection image should be classified with the certainty level. A classification device including a classification means for classifying teacher data having a high confidence level as more significant data than teacher data having a low confidence level is disclosed.

特開平2003-317083号公報Japanese Patent Application Laid-Open No. 2003-317803 特開平6-83792号公報Japanese Unexamined Patent Publication No. 6-83792 特開平7-168799号公報Japanese Unexamined Patent Publication No. 7-168799 特開平9-81190号公報Japanese Unexamined Patent Publication No. 9-81190 特開平10-49509号公報Japanese Unexamined Patent Publication No. 10-49509 特開平11-344450号公報Japanese Unexamined Patent Publication No. 11-344450 特開2006-189915号公報Japanese Unexamined Patent Publication No. 2006-189915

従来技術では、分類器が提示した結果に基づき、該当する教師データが真に不適切であるかどうかを、オペレータが再確認する場合があった。このため、オペレータの作業の負担が大きくなっていた。また、不適切な学習データを削除する場合には、教師データが減少してしまう。さらに、実在する一部データを無視した再学習によって生成された分類器では、その無視されたデータに類似するデータに遭遇したときに、それに対する分類結果が成り行き任せになるおそれがあった。 In the prior art, the operator may reconfirm whether the relevant teacher data is truly inappropriate based on the results presented by the classifier. For this reason, the work load of the operator has increased. In addition, when inappropriate learning data is deleted, the teacher data is reduced. Furthermore, in a classifier generated by re-learning that ignores some existing data, when encountering data similar to the ignored data, there is a risk that the classification result for it will be left to the discretion.

また、機械学習の分野では、学習に使用されなかったデータに対しても正しい分類結果を与える能力(汎化能力)が重視されるが、それは母集団から偏りなくデータを取り出して作られた標本分布で学習した場合を前提にしている。このため、意図的に一部のデータを除外して学習した場合には、不都合なデータに対しても正しい分類結果を与えることは困難であった。 Also, in the field of machine learning, the ability to give correct classification results (generalization ability) even for data that was not used for learning is emphasized, but it is a sample created by extracting data evenly from the population. It is assumed that the learning is based on the distribution. Therefore, when learning by intentionally excluding some data, it is difficult to give correct classification results even for inconvenient data.

本発明の目的は、汎化能力に優れた分類器を生成する技術を提供することである。 An object of the present invention is to provide a technique for producing a classifier having excellent generalization ability.

上記課題を解決するため、第1態様は、データを特徴量に応じて分類する分類器を生成する分類器生成方法であって、(a)複数の教示用データのそれぞれについて、複数種類の特徴量を算出する工程と、(b)前記複数の教示用データのそれぞれについて、異なる正クラスのいずれか1つを教示することによって、複数の教師データを含む教師データ群を生成する工程と、(c)前記教師データ群を用いて分類器を生成する工程と、(d)前記工程(c)によって生成された前記分類器で前記教師データ群を分類する工程と、(e)前記教師データ群のうち、前記工程(d)において分類先が教示とは異なった教師データについて、教示クラスを元の正クラスの対である副クラスに変更する工程と、(f)前記工程(e)によって教示クラスが前記副クラスに変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程と、(g)前記工程(f)によって生成された前記分類器で前記教師データ群を分類する工程と、(h)前記工程(g)において分類先が教示とは異なった前記教師データについて、教示が正クラスである場合には教示クラスをその対である副クラスに変更し、教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更する工程と、(i)前記工程(h)において教示クラスが変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程とを含む。 In order to solve the above problems, the first aspect is a classifier generation method for generating a classifier that classifies data according to feature quantities, and (a) a plurality of types of features for each of a plurality of teaching data. A step of calculating the amount, and (b) a step of generating a teacher data group including a plurality of teacher data by teaching one of different positive classes for each of the plurality of teaching data, and ( c) a step of generating a classifier using the teacher data group, (d) a step of classifying the teacher data group with the classifier generated by the step (c), and (e) the teacher data group. Of these, for teacher data whose classification destination is different from the teaching in the step (d), the teaching class is changed to a subclass which is a pair of the original positive class, and (f) the teaching is performed by the step (e). A step of generating a new classifier using a teacher data group containing teacher data whose class has been changed to the subclass, and (g) the teacher data group being generated by the classifier generated by the step (f). Regarding the step of classifying and (h) the teacher data whose classification destination is different from the teaching in the step (g), if the teaching is a positive class, the teaching class is changed to a subclass which is a pair thereof, and the teaching is performed. Is a subclass and the classification destination is a positive class that is a pair of the subclass, the step of changing the teaching class to the positive class and (i) the teaching class is changed in the step (h). It includes a step of generating a new classifier using a teacher data group including teacher data.

第2態様は、第1態様の分類器生成方法であって、(j)前記工程(g)から前記工程(i)までを再度行う工程をさらに備える。 The second aspect is the method for generating a classifier of the first aspect, further comprising (j) a step of repeating the steps (g) to (i).

第3態様は、第2態様の分類器生成方法であって、前記工程(j)は、所定の終了条件を満たすまで、前記工程(g)から前記工程(i)までを2回以上行う工程である。 The third aspect is the classifier generation method of the second aspect, in which the step (j) is a step of performing the steps (g) to the step (i) twice or more until a predetermined end condition is satisfied. Is.

第4態様は、第3態様の分類器生成方法であって、前記終了条件が、前記工程(h)において、教示クラスの変更が起こらないことである。 The fourth aspect is the classifier generation method of the third aspect, in which the termination condition is that the teaching class does not change in the step (h).

第5態様は、第3態様の分類器生成方法であって、前記終了条件が、前記工程(g)の分類結果において、前記正クラスについての正答率が所定の閾値を上回ることである。 A fifth aspect is the method for generating a classifier according to the third aspect, wherein the end condition is that the correct answer rate for the positive class exceeds a predetermined threshold value in the classification result of the step (g).

第6態様は、データを特徴量に応じて分類する分類器を生成する分類器生成装置であって、異なるクラスのうち1つが教示された教師データ群を用いて分類器を生成する分類器生成部と、前記分類器による前記教師データの分類先に応じて、前記教師データの教示クラスを、正クラスとその対である副クラスとの間で変更する教示クラス変更部と、を備え、前記教示クラス変更部は、前記教師データ群を前記分類器で分類したときに、前記分類器による分類先が教示とは異なった教師データについて、教示が正クラスであった場合には教示クラスをその正クラスの対である副クラスに変更し、教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更し、前記分類器生成部は、前記教示クラス変更部によって教示クラスが変更された教師データを含む教師データ群を用いて、新たな分類器を生成する。 The sixth aspect is a classifier generator that generates a classifier that classifies data according to features, and generates a classifier using a teacher data group taught by one of different classes. A unit and a teaching class changing unit that changes the teaching class of the teacher data between a normal class and a subclass that is a pair thereof according to the classification destination of the teacher data by the classifier. When the teacher data group is classified by the classifier, the teaching class change unit sets the teaching class to the teaching class when the teaching is a positive class for the teacher data whose classification destination by the classifier is different from the teaching. If the teaching is a subclass and the classification destination is a positive class that is a pair of the subclass, the teaching class is changed to the positive class and the classifier is generated. The unit generates a new classifier using the teacher data group including the teacher data whose teaching class has been changed by the teaching class changing unit.

第1態様の分類器生成方法によると、教示されたクラスが不適切であった教師データが、教示の信頼性が低いことを前提にした副クラスに自動的に変更され、その副クラスも含めた再学習によって分類器が生成される。このように教師データを除去せずに再学習が行われるため、汎化能力に優れた分類器を得ることができる。また、正クラスへ分類された結果については確信度が高く、かつ、副クラスへ分類されたものは確信度の低い分類器を得ることができる。したがって、分類結果に対して確信度の情報が付加される分類器を得ることができる。 According to the classifier generation method of the first aspect, the teacher data for which the taught class was inappropriate is automatically changed to a subclass assuming that the teaching is unreliable, and the subclass is also included. A classifier is generated by re-learning. Since the re-learning is performed without removing the teacher data in this way, it is possible to obtain a classifier having excellent generalization ability. Further, it is possible to obtain a classifier having a high degree of certainty for the result classified into the normal class and having a low degree of certainty for the result classified into the subclass. Therefore, it is possible to obtain a classifier in which information on the degree of certainty is added to the classification result.

第2態様の分類器生成方法によると、正クラスの対となる副クラスを含めた分類器の生成を繰り返し行うことによって、分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the second aspect, the accuracy of the information of the degree of certainty given to the classification result can be improved by repeatedly generating the classifier including the subclass paired with the positive class.

第3態様の分類器生成方法によると、終了条件が満たされるまで副クラスを含めた再学習による分類器の生成を繰り返し行うことによって、分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the third aspect, the accuracy of the certainty information given to the classification result is determined by repeatedly generating the classifier by re-learning including the subclass until the end condition is satisfied. Can be improved.

第4態様の分類器生成方法によると、教示クラスの変更が起こらなくなるまで再学習による分類器の生成を繰り返し行うことによって、分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the fourth aspect, the accuracy of the certainty information given to the classification result can be improved by repeatedly generating the classifier by re-learning until the teaching class is not changed.

第5態様の分類器生成方法によると、正クラスの正答率が所定の閾値を上回るまで再学習による分類器の生成を繰り返し行うことによって、正クラス間での分類結果に対して付与される確信度の情報の精度を向上できる。 According to the classifier generation method of the fifth aspect, the confidence given to the classification result between the positive classes by repeatedly generating the classifier by re-learning until the correct answer rate of the positive class exceeds a predetermined threshold value. The accuracy of the information of the degree can be improved.

第6態様の分類器生成装置によると、教示されたクラスが不適切であった教師データが、教示の信頼性が低いことを前提にした副クラスに自動的に変更され、その副クラスも含めた再学習によって分類器が生成される。このように教師データを除去せずに再学習が行われるため、汎化能力に優れた分類器を得ることができる。また、正クラスへ分類された結果については確信度が高く、かつ、副クラスへ分類されたものは確信度の低い分類器を得ることができる。したがって、分類結果に対して確信度の情報が付加される分類器を得ることができる。 According to the classifier generator of the sixth aspect, the teacher data for which the taught class was inappropriate is automatically changed to a subclass assuming that the teaching is unreliable, and the subclass is also included. A classifier is generated by re-learning. Since the re-learning is performed without removing the teacher data in this way, it is possible to obtain a classifier having excellent generalization ability. Further, it is possible to obtain a classifier having a high degree of certainty for the result classified into the normal class and having a low degree of certainty for the result classified into the subclass. Therefore, it is possible to obtain a classifier in which information on the degree of certainty is added to the classification result.

実施形態の画像分類装置1の概略構成を示す図である。It is a figure which shows the schematic structure of the image classification apparatus 1 of an embodiment. 実施形態の画像分類装置1による欠陥画像の分類の流れを示す図である。It is a figure which shows the flow of classification of the defect image by the image classification apparatus 1 of an embodiment. 実施形態のホストコンピュータ5の構成を示すブロック図である。It is a block diagram which shows the structure of the host computer 5 of embodiment. 分類器422を生成するためのホストコンピュータ5の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the host computer 5 for generating a classifier 422. 教師データ群82Gの一例を示す図である。It is a figure which shows an example of a teacher data group 82G. 実施形態のホストコンピュータ5において分類器84を生成する流れを示す図である。It is a figure which shows the flow of generating the classifier 84 in the host computer 5 of an embodiment. 実施形態のホストコンピュータ5において分類器84を生成する流れを概念的に示す図である。It is a figure which conceptually shows the flow of generating the classifier 84 in the host computer 5 of an embodiment.

以下、添付の図面を参照しながら、本発明の実施形態について説明する。なお、この実施形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。図面においては、理解容易のため、必要に応じて各部の寸法や数が誇張又は簡略化して図示されている場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the components described in this embodiment are merely examples, and the scope of the present invention is not limited to them. In the drawings, the dimensions and numbers of each part may be exaggerated or simplified as necessary for easy understanding.

等しい状態であることを示す表現(例えば「同一」「等しい」「均質」等)は、特に断らない限り、定量的に厳密に等しい状態を表すのみならず、公差もしくは同程度の機能が得られる差が存在する状態も表すものとする。 Expressions indicating equal states (eg, "same", "equal", "homogeneous", etc.) not only represent quantitatively exactly equal states, but also provide tolerance or similar functionality, unless otherwise noted. It shall also represent the state in which there is a difference.

<1.実施形態>
図1は、実施形態の画像分類装置1の概略構成を示す図である。画像分類装置1は、半導体基板9上のパターン欠陥を示す欠陥画像を取得し、その欠陥画像の分類を行う。画像分類装置1は、撮像装置2、検査・分類装置4およびホストコンピュータ5を備えている。
<1. Embodiment>
FIG. 1 is a diagram showing a schematic configuration of the image classification device 1 of the embodiment. The image classification device 1 acquires a defect image showing a pattern defect on the semiconductor substrate 9 and classifies the defect image. The image classification device 1 includes an image pickup device 2, an inspection / classification device 4, and a host computer 5.

撮像装置2は、半導体基板9上の検査対象領域を撮像する。検査・分類装置4は、撮像装置2によって取得された画像データに基づく欠陥検査を行う。検査・分類装置4は、欠陥が検出された場合に、その欠陥を欠陥の種別毎に分類する。以下、この種別を「クラス」とも称する。半導体基板9上に存在するパターンの欠陥のクラスは、例えば、「欠損」、「突起」、「断線」、「ショート」、「異物」などである。ホストコンピュータ5は、画像分類装置1の全体動作を制御するとともに、検査・分類装置4における欠陥の分類に利用される分類器422を生成する。ホストコンピュータ5は分類器生成装置の一例である。 The image pickup apparatus 2 takes an image of an inspection target area on the semiconductor substrate 9. The inspection / classification device 4 performs a defect inspection based on the image data acquired by the image pickup device 2. When a defect is detected, the inspection / classification device 4 classifies the defect according to the type of the defect. Hereinafter, this type is also referred to as a "class". The class of pattern defects existing on the semiconductor substrate 9 is, for example, "defect", "projection", "disconnection", "short circuit", "foreign matter" and the like. The host computer 5 controls the overall operation of the image classification device 1 and generates a classifier 422 used for classifying defects in the inspection / classification device 4. The host computer 5 is an example of a classifier generator.

撮像装置2は、半導体基板9の製造ラインに組み込まれてもよい。画像分類装置1は、いわゆるインライン型のシステムとされてもよい。画像分類装置1は、欠陥検査装置に自動欠陥分類の機能が付加された装置である。 The image pickup apparatus 2 may be incorporated in the production line of the semiconductor substrate 9. The image classification device 1 may be a so-called inline type system. The image classification device 1 is a device in which a function of automatic defect classification is added to a defect inspection device.

撮像装置2は、撮像部21、ステージ22およびステージ駆動部23を備えている。撮像部21は、半導体基板9の表面における検査対象領域を撮像する。ステージ22は、半導体基板9を水平姿勢に保持する。「水平姿勢」とは、半導体基板9が水平面に対して平行な状態をいう。ステージ駆動部23は、撮像部21に対してステージ22を半導体基板9の表面に平行な方向に相対的に移動させる。 The image pickup device 2 includes an image pickup unit 21, a stage 22, and a stage drive unit 23. The image pickup unit 21 takes an image of an inspection target region on the surface of the semiconductor substrate 9. The stage 22 holds the semiconductor substrate 9 in a horizontal posture. The "horizontal posture" means a state in which the semiconductor substrate 9 is parallel to the horizontal plane. The stage drive unit 23 moves the stage 22 relative to the image pickup unit 21 in a direction parallel to the surface of the semiconductor substrate 9.

撮像部21は、照明部211、光学系212および撮像デバイス213を備えている。光学系212は半導体基板9に照明部211からの照明光を導く。半導体基板9の表面にて反射した光は、再び光学系212に入射する。撮像デバイス213は、光学系212によって結像された半導体基板9の像を電気信号に変換する。 The image pickup unit 21 includes an illumination unit 211, an optical system 212, and an image pickup device 213. The optical system 212 guides the illumination light from the illumination unit 211 to the semiconductor substrate 9. The light reflected on the surface of the semiconductor substrate 9 is incident on the optical system 212 again. The image pickup device 213 converts the image of the semiconductor substrate 9 imaged by the optical system 212 into an electric signal.

ステージ駆動部23は、ボールネジ、ガイドレールおよびモータなどを備えている。ホストコンピュータ5がステージ駆動部23および撮像部21を制御することによって、半導体基板9上の検査対象領域が撮像される。 The stage drive unit 23 includes a ball screw, a guide rail, a motor, and the like. The host computer 5 controls the stage drive unit 23 and the image pickup unit 21, so that the inspection target area on the semiconductor substrate 9 is imaged.

検査・分類装置4は、欠陥検出部41および分類制御部42を備えている。欠陥検出部41は、検査対象領域の画像データを処理しつつ欠陥を検出する。詳細には、欠陥検出部41は、検査対象領域の画像データを高速に処理する専用の電気的回路を有し、撮像により得られた画像と参照画像(欠陥が存在しない画像)との比較や画像処理により検査対象領域の欠陥検査を行う。分類制御部42は、欠陥検出部41が検出した欠陥画像を分類する。分類制御部42は、各種演算処理を行うCPUや各種情報を記憶するメモリ等により構成され、特徴量算出部421および分類器422を有する。分類器422は、ニューラルネットワーク、決定木、判別分析等を利用して欠陥の分類、すなわち、欠陥画像の分類を実行する。 The inspection / classification device 4 includes a defect detection unit 41 and a classification control unit 42. The defect detection unit 41 detects defects while processing the image data of the inspection target area. Specifically, the defect detection unit 41 has a dedicated electrical circuit that processes image data in the inspection target area at high speed, and compares an image obtained by imaging with a reference image (an image without defects). Defect inspection of the inspection target area is performed by image processing. The classification control unit 42 classifies the defect image detected by the defect detection unit 41. The classification control unit 42 is composed of a CPU that performs various arithmetic processes, a memory that stores various information, and the like, and has a feature amount calculation unit 421 and a classifier 422. The classifier 422 performs defect classification, that is, classification of defect images, using neural networks, decision trees, discriminant analysis, and the like.

図2は、実施形態の画像分類装置1による欠陥画像の分類の流れを示す図である。撮像装置2が半導体基板9の表面を撮像することによって、検査・分類装置4の欠陥検出部41が画像データを取得する(ステップS11)。続いて、欠陥検出部41が検査対象領域の欠陥検査を行うことによって、欠陥の検出を行う(ステップS12)。ステップS12において欠陥が検出された場合(ステップS12においてYES)、欠陥部分の画像(すなわち欠陥画像)のデータが分類制御部42へと送信される。欠陥が検出されない場合(ステップS12においてNO)、ステップS11に戻って画像データの取得が行われる。 FIG. 2 is a diagram showing a flow of classification of defective images by the image classification device 1 of the embodiment. When the image pickup device 2 takes an image of the surface of the semiconductor substrate 9, the defect detection unit 41 of the inspection / classification device 4 acquires image data (step S11). Subsequently, the defect detection unit 41 detects the defect by inspecting the defect in the inspection target area (step S12). When a defect is detected in step S12 (YES in step S12), the data of the image of the defect portion (that is, the defect image) is transmitted to the classification control unit 42. If no defect is detected (NO in step S12), the process returns to step S11 to acquire image data.

分類制御部42は、欠陥画像を受け取ると、その欠陥画像の複数種類の特徴量を算出する(ステップS13)。複数種類の特徴量の配列を、特徴量ベクトルとも称する。算出された特徴量ベクトルは分類器422に入力され、分類器422によって分類が行われる(ステップS14)。すなわち、分類器422によって欠陥画像が複数のクラスのいずれかに分類される。画像分類装置1では、欠陥検出部41にて欠陥が検出されるたびに、特徴量ベクトルの算出がリアルタイムに行われ、多数の欠陥画像の自動分類が高速に行われる。 Upon receiving the defect image, the classification control unit 42 calculates a plurality of types of feature quantities of the defect image (step S13). An array of a plurality of types of features is also referred to as a feature vector. The calculated feature amount vector is input to the classifier 422, and classification is performed by the classifier 422 (step S14). That is, the classifier 422 classifies the defect image into one of a plurality of classes. In the image classification device 1, each time a defect is detected by the defect detection unit 41, the feature amount vector is calculated in real time, and a large number of defect images are automatically classified at high speed.

図3は、実施形態のホストコンピュータ5の構成を示すブロック図である。ホストコンピュータ5は、機械学習によって分類器422を生成する分類器生成装置の一例である。 FIG. 3 is a block diagram showing the configuration of the host computer 5 of the embodiment. The host computer 5 is an example of a classifier generator that generates a classifier 422 by machine learning.

ホストコンピュータ5は、CPU51、ROM52およびRAM53を備えている。CPU51は各種演算処理を行う演算回路を含む。ROM52は本プログラムを記憶している。RAM53は各種情報を記憶する揮発性の主記憶装置である。ホストコンピュータ5は、バスライン501によって互いに接続されているCPU51、ROM52およびRAM53を有する一般的なコンピュータシステムを備えている。 The host computer 5 includes a CPU 51, a ROM 52, and a RAM 53. The CPU 51 includes an arithmetic circuit that performs various arithmetic processing. The ROM 52 stores this program. The RAM 53 is a volatile main storage device that stores various types of information. The host computer 5 includes a general computer system having a CPU 51, a ROM 52, and a RAM 53 connected to each other by a bus line 501.

ホストコンピュータ5は、固定ディスク54、ディスプレイ55、入力部56、読取装置57および通信部58を備えている。これらの各要素は、インターフェース(I/F)を介してバスライン501に接続されている。 The host computer 5 includes a fixed disk 54, a display 55, an input unit 56, a reading device 57, and a communication unit 58. Each of these elements is connected to bus line 501 via an interface (I / F).

固定ディスク54は、情報記憶を行う補助記憶装置である。ディスプレイ55は、画像などの各種情報を表示する出力装置である。入力部56は、キーボード56aおよびマウス56bなどを含む入力用デバイスである。読取装置57は、可搬性を有する一過性の記録媒体8から情報を読み取る装置である。記録媒体8は、例えば、光ディスク、磁気ディスク、光磁気ディスクまたは半導体メモリである。通信部58は、画像分類装置1の他の要素との間で信号を送受信する。 The fixed disk 54 is an auxiliary storage device that stores information. The display 55 is an output device that displays various information such as images. The input unit 56 is an input device including a keyboard 56a, a mouse 56b, and the like. The reading device 57 is a device that reads information from a transient recording medium 8 having portability. The recording medium 8 is, for example, an optical disk, a magnetic disk, a magneto-optical disk, or a semiconductor memory. The communication unit 58 transmits / receives signals to / from other elements of the image classification device 1.

ホストコンピュータ5は、読取装置57を介して記録媒体8からプログラム80を読み取る。読み取られたプログラム80は、固定ディスク54に記録される。プログラム80は、適宜RAM53に格納される。そして、CPU51が、RAM53に格納されたプログラム80に従って、各種演算処理を行う。 The host computer 5 reads the program 80 from the recording medium 8 via the reading device 57. The read program 80 is recorded on the fixed disk 54. The program 80 is appropriately stored in the RAM 53. Then, the CPU 51 performs various arithmetic processes according to the program 80 stored in the RAM 53.

図4は、分類器422を生成するためのホストコンピュータ5の機能構成を示すブロック図である。ホストコンピュータ5は、制御部61、記憶部63を備えている。ホストコンピュータ5のCPU51がプログラム80に従って動作することにより、制御部61は特徴量算出部611、分類器生成部613、教示クラス変更部615および終了判定部617として機能する。 FIG. 4 is a block diagram showing a functional configuration of the host computer 5 for generating the classifier 422. The host computer 5 includes a control unit 61 and a storage unit 63. When the CPU 51 of the host computer 5 operates according to the program 80, the control unit 61 functions as a feature amount calculation unit 611, a classifier generation unit 613, a teaching class change unit 615, and an end determination unit 617.

特徴量算出部611は、欠陥画像から特徴量ベクトルを算出する。特徴量ベクトルに含まれる特徴量の項目としては、例えば、欠陥部分の面積、明度平均、周囲長、平坦度または欠陥部分を楕円形に近似した場合の長軸の傾きなどが含まれる。 The feature amount calculation unit 611 calculates the feature amount vector from the defect image. The feature quantity items included in the feature quantity vector include, for example, the area of the defect portion, the average brightness, the perimeter, the flatness, or the slope of the long axis when the defect portion is approximated to an ellipse.

分類器生成部613は、複数の教師データ82を含む教師データ群を用いた機械学習を行うことによって、欠陥画像を分類する分類器84を生成する。機械学習とは、教師データ群82Gについて、付与されたクラス間の判別を行う判別関数を計算することを意味する。判別関数の算出方法としては、例えば、ニューラルネットワーク、決定木、判別分析などである。 The classifier generation unit 613 generates a classifier 84 for classifying defective images by performing machine learning using a teacher data group including a plurality of teacher data 82. Machine learning means to calculate a discriminant function for discriminating between assigned classes for the teacher data group 82G. Examples of the method for calculating the discriminant function include a neural network, a decision tree, and discriminant analysis.

図5は、教師データ群82Gの一例を示す図である。教師データ82は、欠陥画像から抽出された特徴量ベクトル822、および、予めオペレータが教示したクラス(以下、教示クラス824とも称する。)を示す情報であるクラスラベルを含む。各欠陥画像について、クラスを教示する(クラスを付与する)にあたっては、予め複数の正クラスが定義されている。正クラスは、例えばオペレータが想定する欠陥の種類毎に定義されるクラスである。オペレータが複数の正クラスのうち1つの正クラスを、各欠陥画像に対して教示することにより、教師データ82が生成される。 FIG. 5 is a diagram showing an example of the teacher data group 82G. The teacher data 82 includes a feature amount vector 822 extracted from the defect image and a class label which is information indicating a class (hereinafter, also referred to as a teaching class 824) taught by the operator in advance. In teaching (assigning a class) a class for each defect image, a plurality of positive classes are defined in advance. The positive class is, for example, a class defined for each type of defect assumed by the operator. The teacher data 82 is generated by the operator teaching one of the plurality of positive classes to each defect image.

本実施形態では、後述するように、再学習が繰り返し行われることによって、新たな分類器84が次々と生成されるようになっている。その再学習による分類器84の生成過程においては、副クラスが定義される場合がある。副クラスは、最初に定義された正クラスとは対になるクラスであって、正クラスとは1対1の関係にある。すなわち、1つの正クラスについては、副クラスが1つだけ定義される。なお、副クラスは必要に応じて定義されるものであり、必ずしもすべての正クラスに対して定義されるとは限らない。また、再学習による分類器84の生成過程において、不要となった副クラスは適宜除去される場合もある。 In the present embodiment, as will be described later, new classifiers 84 are generated one after another by repeatedly performing re-learning. In the process of generating the classifier 84 by the re-learning, a subclass may be defined. The subclass is a class that is paired with the primary class defined at the beginning, and has a one-to-one relationship with the primary class. That is, for one primary class, only one subclass is defined. It should be noted that the subclass is defined as needed and is not necessarily defined for all the positive classes. Further, in the process of generating the classifier 84 by re-learning, unnecessary subclasses may be appropriately removed.

教示クラス変更部615は、予め定められた変更規則に従って、教師データ82における教示クラス822を変更する。この変更規則については、後に詳述する。なお、教示クラス変更部615は、教師データ82の教示クラス824を変更する場合、最初に教示された正クラスとその正クラスの対である副クラスとの間で教示クラス824を変更する。すなわち、各教師データ82の教示クラス824は、1つの正クラスとその正クラスに対応する副クラスとの間でのみ変更される。 The teaching class changing unit 615 changes the teaching class 822 in the teacher data 82 according to a predetermined change rule. This change rule will be described in detail later. When changing the teaching class 824 of the teacher data 82, the teaching class changing unit 615 changes the teaching class 824 between the primary class taught first and the subclass that is a pair of the positive classes. That is, the teaching class 824 of each teacher data 82 is changed only between one positive class and the subclass corresponding to the positive class.

終了判定部617は、終了条件を満たすかどうかを判断することによって、分類器84の生成処理を終了するか否かを判定する。後述するように、制御部61は、終了判定部617の判定結果に基づいて、再学習を停止し、新たな分類器84の生成を終了する。ホストコンピュータ5において生成された分類器84は、検査・分類装置4に送られ、分類器422として利用される。 The end determination unit 617 determines whether or not to end the generation process of the classifier 84 by determining whether or not the end condition is satisfied. As will be described later, the control unit 61 stops re-learning based on the determination result of the end determination unit 617, and ends the generation of the new classifier 84. The classifier 84 generated in the host computer 5 is sent to the inspection / classification device 4 and used as the classifier 422.

<再学習による分類器84の生成について>
図6は、実施形態のホストコンピュータ5において分類器84を生成する流れを示す図である。図7は、実施形態のホストコンピュータ5において分類器84を生成する流れを概念的に示す図である。図6および図7に示すホストコンピュータ5の動作は、特に断らない限り、制御部61が行うものとする。
<About the generation of the classifier 84 by re-learning>
FIG. 6 is a diagram showing a flow of generating a classifier 84 in the host computer 5 of the embodiment. FIG. 7 is a diagram conceptually showing the flow of generating the classifier 84 in the host computer 5 of the embodiment. Unless otherwise specified, the operation of the host computer 5 shown in FIGS. 6 and 7 shall be performed by the control unit 61.

機械学習によって分類器84を生成するために、教師データ群82Gの生成が行われる(図6:ステップS21)。詳細には、教師データ82として使用されるデータである複数の欠陥画像のそれぞれについて、特徴量算出部611が複数種類の特徴量である特徴量ベクトル822を算出する。また、オペレータは、各欠陥画像について、予め定義された複数の正クラスの中から1つの正クラスを教示クラス824として付与する。図5に示すように、各欠陥画像から、特徴量ベクトル822と教示クラス824とを含む複数の教師データ82が生成される。 In order to generate the classifier 84 by machine learning, the teacher data group 82G is generated (FIG. 6: step S21). Specifically, the feature amount calculation unit 611 calculates the feature amount vector 822 which is a plurality of types of feature amounts for each of the plurality of defect images which are the data used as the teacher data 82. Further, the operator assigns one positive class from a plurality of predefined positive classes as the teaching class 824 for each defect image. As shown in FIG. 5, a plurality of teacher data 82 including the feature amount vector 822 and the teaching class 824 are generated from each defect image.

図7に示す例では、3つの正クラス「a」「b」「c」が定義されており、これらクラスa-cのそれぞれに、円形状で示す教師データ82が6個ずつ準備されている。また、これら正クラスa-cのそれぞれについて、対となる副クラスを「a?」「b?」「c?」としている。各教師データ82に記載されている「a」「b」および「c」は教示クラス824を示している。以下では、複数の教師データ82について教示クラス(正クラスa-c)を区別する場合、符号の最後に括弧書きでクラスを表記する。例えば、正クラスaの教師データ82は「教師データ82(a)」と表記され、正クラスbの教師データ82は「教師データ82(b)」と表記され、正クラスcの教師データ82は「教師データ82(c)」と表記される。 In the example shown in FIG. 7, three positive classes "a", "b", and "c" are defined, and six teacher data 82 shown in a circular shape are prepared for each of these classes a-c. .. Further, for each of these positive classes ac, the paired subclasses are "a?", "B?", And "c?". “A”, “b” and “c” described in each teacher data 82 indicate teaching class 824. In the following, when the teaching classes (positive classes ac) are distinguished for a plurality of teacher data 82, the classes are written in parentheses at the end of the code. For example, the teacher data 82 of the regular class a is written as "teacher data 82 (a)", the teacher data 82 of the regular class b is written as "teacher data 82 (b)", and the teacher data 82 of the regular class c is written. It is written as "teacher data 82 (c)".

ステップS21において教師データ群82Gが生成されると、分類器生成部613が、その教師データ群82Gを用いた機械学習によって、第1段階の分類器84を生成する(図6:ステップS22)。第1段階の分類器84は、欠陥画像から算出される特徴量ベクトル822に応じて、その欠陥画像を複数の正クラス間で分類する機能を備える。 When the teacher data group 82G is generated in step S21, the classifier generation unit 613 generates the first-stage classifier 84 by machine learning using the teacher data group 82G (FIG. 6: step S22). The first-stage classifier 84 has a function of classifying the defect image among a plurality of positive classes according to the feature amount vector 822 calculated from the defect image.

第1段階の分類器84が生成されると、当該分類器84が教師データ群82Gを分類する(図6:ステップS23)。ステップS23の処理は、いわゆる再代入法である。これにより、各教師データ82について、分類先のクラスが決定される。図7に示す例では、教師データ82群のうち、一部の教師データ82が教示とは異なるクラスに分類されている。例えば、正クラスAには、5つの教師データ82が分類されているが、1つは教師データ82(b)であり、もう1つは教示が正クラスcである教師データ82(c)である。 When the first-stage classifier 84 is generated, the classifier 84 classifies the teacher data group 82G (FIG. 6: step S23). The process of step S23 is a so-called reassignment method. As a result, the class to be classified is determined for each teacher data 82. In the example shown in FIG. 7, among the teacher data 82 groups, some teacher data 82 are classified into a class different from the teaching. For example, in the regular class A, five teacher data 82 are classified, one is the teacher data 82 (b) and the other is the teacher data 82 (c) whose teaching is the regular class c. be.

続いて、ステップS23にて決定された分類先のクラスに応じて、教示クラス変更部615が、既定の変更規則に従って、教師データ82の教示クラス824を変更する(図6:ステップS24)。このステップS24では、以下の変更規則1に従って、教示クラス変更部615が教示クラスの変更を行う。 Subsequently, the teaching class changing unit 615 changes the teaching class 824 of the teacher data 82 according to the class of the classification destination determined in step S23 according to the default change rule (FIG. 6: step S24). In this step S24, the teaching class changing unit 615 changes the teaching class according to the following change rule 1.

(変更規則1)
再代入法の結果、分類先が教示とは異なった教師データ82について、その教示クラス824を元の正クラスから、その正クラスの対である副クラスに変更する。
(Change rule 1)
As a result of the re-imputation method, for the teacher data 82 whose classification destination is different from the teaching, the teaching class 824 is changed from the original positive class to the subclass which is a pair of the positive class.

すなわち、ステップS23の再代入法の結果、分類先が教示とは異なった教師データ82が存在する場合、教示クラス変更部615が、その教師データ82の元の教示クラス822である正クラスの対となる副クラスを定義する。そして、教示クラス変更部615は、分類先が教示とは異なった教師データ82の教示クラス822を、その新たに定義された副クラスに変更する。 That is, as a result of the reassignment method in step S23, when the teacher data 82 whose classification destination is different from the teaching exists, the teaching class changing unit 615 pairs the positive class which is the original teaching class 822 of the teacher data 82. Define a subclass that becomes. Then, the teaching class changing unit 615 changes the teaching class 822 of the teacher data 82 whose classification destination is different from the teaching to the newly defined subclass.

図7に示す例では、分類先が正クラスaであった教師データ82(b),82(c)について、それぞれの教示クラス822(正クラスb,c)が副クラスb?,c?に変更される。分類先が正クラスbであった2つの教師データ82(c)については、教示クラス822(正クラスc)が副クラスc?に変更される。分類先が正クラスcであった1つの教師データ82(a)についても、教示クラス822(正クラスa)が副クラスa?に変更される。 In the example shown in FIG. 7, for the teacher data 82 (b) and 82 (c) whose classification destination is the positive class a, the respective teaching classes 822 (normal classes b and c) are subclass b? , C? Will be changed to. For the two teacher data 82 (c) whose classification destination was the positive class b, the teaching class 822 (normal class c) is the subclass c? Will be changed to. Even for one teacher data 82 (a) whose classification destination was the positive class c, the teaching class 822 (normal class a) is the subclass a? Will be changed to.

ステップS24において、変更規則に該当しない教師データ82については、教示クラス824の変更は行われず、教示クラスが元のままに維持される。 In step S24, the teaching class 824 is not changed for the teacher data 82 that does not correspond to the change rule, and the teaching class is maintained as it is.

図6に戻って、ステップS24の教示クラス824の変更処理が完了すると、分類器生成部613が、教師データ群82Gを用いた再学習を行うことによって、第2段階の分類器84を生成する(図6:ステップS25)。この再学習に用いられる教師データ群82Gには、ステップS24において教示クラス824が変更された教師データ82、および、教示クラス824が変更されなかった教師データ82を含んでいる。このため、第2段階の分類器84は、複数の正クラス間だけではなく、ステップS24において定義された副クラスを含めたクラス間で、欠陥画像を分類する機能を備える。 Returning to FIG. 6, when the change processing of the teaching class 824 in step S24 is completed, the classifier generation unit 613 generates the second stage classifier 84 by performing re-learning using the teacher data group 82G. (FIG. 6: Step S25). The teacher data group 82G used for this re-learning includes the teacher data 82 in which the teaching class 824 is changed in step S24, and the teacher data 82 in which the teaching class 824 is not changed. Therefore, the second-stage classifier 84 has a function of classifying defective images not only among a plurality of positive classes but also among classes including a subclass defined in step S24.

第2段階の分類器84が生成されると、当該分類器84が教師データ群82Gを分類する(図6:ステップS26)。ステップS26の処理も、ステップS23と同様、いわゆる再代入法である。これにより、各教師データについて、分類先のクラスが決定される。 When the second-stage classifier 84 is generated, the classifier 84 classifies the teacher data group 82G (FIG. 6: step S26). The process of step S26 is also a so-called reassignment method as in step S23. As a result, the class to be classified is determined for each teacher data.

続いて、ステップS25にて決定された分類先のクラスに応じて、教示クラス変更部615が、既定の変更規則に従って、教師データ82の教示クラス824を変更する(図7:ステップS27)。このステップS27では、以下の変更規則2,3に従って、教示クラス変更部615が教示クラスの変更を行う。 Subsequently, the teaching class changing unit 615 changes the teaching class 824 of the teacher data 82 according to the classification destination class determined in step S25 (FIG. 7: step S27). In this step S27, the teaching class changing unit 615 changes the teaching class according to the following change rules 2 and 3.

(変更規則2)
再代入法の結果、分類先が教示とは異なる教師データ82について、教示が正クラスであった場合、教示クラス824をその対である副クラスに変更する。この変更規則2は、変更規則1とほぼ同じ内容である。
(Change rule 2)
As a result of the re-imputation method, when the teaching is a positive class for the teacher data 82 whose classification destination is different from the teaching, the teaching class 824 is changed to the subclass which is the pair thereof. This change rule 2 has almost the same contents as the change rule 1.

(変更規則3)
再代入法の結果、分類先が教示とは異なる教師データ82について、教示が副クラスであって分類先がその副クラスの対である正クラスであった場合、教示クラス824を当該正クラスに変更する。
(Change rule 3)
As a result of the re-imputation method, for teacher data 82 whose classification destination is different from the teaching, if the teaching is a subclass and the classification destination is a positive class that is a pair of the subclass, the teaching class 824 is set to the positive class. change.

変更規則2に関しては、図7に示す例では、教示クラス824が正クラスaであった教師データ82(a)の1つが、正クラスcに分類されている。このため、当該教師データ82(a)の教示クラスが、変更規則2に従って、正クラスaから副クラスa?に変更される。 Regarding the change rule 2, in the example shown in FIG. 7, one of the teacher data 82 (a) in which the teaching class 824 was the positive class a is classified into the positive class c. Therefore, the teaching class of the teacher data 82 (a) changes from the normal class a to the subclass a in accordance with the change rule 2. Will be changed to.

変更規則3に関しては、図7に示す例では、教示クラス824が副クラスa?であった教師データ82(a?)が、その副クラスa?の対である正クラスaに分類されている。このため、変更規則3にしたがって、当該教師データ82(a?)の教示クラス824(副クラスa?)が正クラスaに変更される。同様に、教示クラス824が副クラスc?であった教師データ82(c?)が、元の正クラスcに分類されている。このため、当該教師データ82(c?)の教示クラス824(副クラスc?)が正クラスcに変更される。 Regarding the change rule 3, in the example shown in FIG. 7, the teaching class 824 is a subclass a? The teacher data 82 (a?) That was was the subclass a? It is classified into the positive class a, which is a pair of. Therefore, according to the change rule 3, the teaching class 824 (subclass a?) Of the teacher data 82 (a?) Is changed to the regular class a. Similarly, the teaching class 824 is the subclass c? The teacher data 82 (c?) Was classified into the original positive class c. Therefore, the teaching class 824 (subclass c?) Of the teacher data 82 (c?) Is changed to the positive class c.

ステップS27において、変更規則に該当しない教師データ82については、教示クラス824の変更は行われず、教示クラスが元のままに維持される。 In step S27, the teaching class 824 is not changed for the teacher data 82 that does not correspond to the change rule, and the teaching class is maintained as it is.

図6に戻って、ステップS27の教示クラス824の変更処理が完了すると、分類器生成部613が、教師データ群82Gを用いた再学習を行うことによって、第3段階の分類器84を生成する(図6:ステップS28)。この再学習に用いられる教師データ群82Gには、ステップS27において教示クラス824が変更された教師データ82と教示クラス824が変更されなかった教師データ82とが含まれる。 Returning to FIG. 6, when the change process of the teaching class 824 in step S27 is completed, the classifier generation unit 613 generates the classifier 84 of the third stage by performing re-learning using the teacher data group 82G. (FIG. 6: Step S28). The teacher data group 82G used for this re-learning includes teacher data 82 in which the teaching class 824 is changed in step S27 and teacher data 82 in which the teaching class 824 is not changed.

続いて、終了判定部617が、終了条件を満たすかどうかを判定する。これによって、終了基準を満たすか否かが判定される(図6:ステップS29)。終了条件としては、例えば次の2つが考えられる。 Subsequently, the end determination unit 617 determines whether or not the end condition is satisfied. As a result, it is determined whether or not the termination criterion is satisfied (FIG. 6: step S29). For example, the following two can be considered as the termination conditions.

(終了条件1)
ステップS26の再代入法の結果、ステップS27において教示クラスの変更が起こらないこと。
(End condition 1)
As a result of the reassignment method in step S26, the teaching class does not change in step S27.

(終了条件2)
ステップS26の分類結果において、正クラスについての正答率(Accuracy)が所定の閾値を上回ること。ここで、正答率(Accuracy)とは、分類器84によって分類された教師データ82の総数のうち、分類先と教示とが一致した教師データ82の総数の割合をいう。また、所定の閾値は、運用において要求される正答率に設定されてもよい。例えば、正答率95%が要求される場合、閾値が0.95に設定されるとよい。また、終了条件1が満たされるとき(すなわち、教示クラスの変更が起こらなくなるとき)の正答率を基準として、当該正答率よりも小さい正答率が閾値に設定されてもよい。例えば、終了条件1が満たされるときの正答率が95%であったと仮定した場合、その95%よりも小さい92%(=0.92)が閾値に設定されてもよい。
(End condition 2)
In the classification result of step S26, the accuracy of the correct answer exceeds a predetermined threshold value. Here, the accuracy rate means the ratio of the total number of teacher data 82 in which the classification destination and the teaching match among the total number of teacher data 82 classified by the classifier 84. Further, the predetermined threshold value may be set to the correct answer rate required in operation. For example, if a correct answer rate of 95% is required, the threshold value may be set to 0.95. Further, the correct answer rate smaller than the correct answer rate may be set as the threshold value based on the correct answer rate when the end condition 1 is satisfied (that is, when the change of the teaching class does not occur). For example, assuming that the correct answer rate when the end condition 1 is satisfied is 95%, 92% (= 0.92), which is smaller than the 95%, may be set as the threshold value.

ステップS29において、終了判定部617が上記終了条件1,2のうちいずれかを満たすと判断した場合(ステップS29においてYES)、制御部61は分類器84の生成処理を終了する。これにより、直前のステップS28で生成された分類器84が記憶部63に保存される。終了判定部617が上記終了条件1,2のいずれも満たさないと判断した場合(ステップS29においてNO)、制御部61はステップS26に戻って処理を続行する。すなわち、終了条件1または2が満たされるまで、ステップS26からステップS28までが繰り返し行われる。 When the end determination unit 617 determines in step S29 that any one of the end conditions 1 and 2 is satisfied (YES in step S29), the control unit 61 ends the generation process of the classifier 84. As a result, the classifier 84 generated in the immediately preceding step S28 is stored in the storage unit 63. When the end determination unit 617 determines that neither of the above end conditions 1 and 2 is satisfied (NO in step S29), the control unit 61 returns to step S26 and continues the process. That is, steps S26 to S28 are repeated until the end condition 1 or 2 is satisfied.

本実施形態のホストコンピュータ5では、予めオペレータが定義した正クラス各々について、対となる副クラスが必要に応じて定義される。そして、再代入法を行った際に、正クラスに分類されなかった教師データは、教示クラスがその対である副クラスにされる。その再学習の結果、副クラスが教示された教師データが再代入法によって仮に元の正クラスに分類された場合には、その教師データの教示クラスが再び正クラスに変更される。このように、教師データ82が最初に教示された正クラスに正しく分類されなかったとしても、その教師データ82を除くことなく再学習が行われることによって分類器84が生成される。これにより、汎化能力に優れた分類器84を得ることができる。 In the host computer 5 of the present embodiment, a paired subclass is defined as necessary for each of the positive classes defined in advance by the operator. Then, when the reassignment method is performed, the teacher data that is not classified as a positive class is made into a subclass to which the teaching class is a pair. As a result of the re-learning, if the teacher data to which the subclass is taught is classified into the original positive class by the re-imputation method, the teaching class of the teacher data is changed to the positive class again. In this way, even if the teacher data 82 is not correctly classified into the positive class taught first, the classifier 84 is generated by performing re-learning without removing the teacher data 82. As a result, a classifier 84 having excellent generalization ability can be obtained.

本実施形態で生成される分類器84によれば、オペレータが付与したクラスラベルが仮に不適切であった場合には、教示の信頼性が低いことを前提にした副クラスに自動的に分類され、その後、その副クラスも含めて機械学習が行われる。教師データの教示クラスが正クラス間で変更されることはないため、教示の信頼性が高い正クラス間では汎化能力を高く保つことができる。これに対して、信頼性が低い教師データは分類器によって副クラスに分類されやすくなる。このため、副クラスに分類される教師データは、教示の信頼性が低いものとなる。このように、分類結果に対して確信度の情報が付加される分類器84を生成できる。 According to the classifier 84 generated in the present embodiment, if the class label given by the operator is inappropriate, it is automatically classified into a subclass on the premise that the teaching is unreliable. After that, machine learning including its subclass is performed. Since the teaching class of the teacher data is not changed between the regular classes, the generalization ability can be kept high between the regular classes with high teaching reliability. On the other hand, unreliable teacher data is likely to be classified into subclasses by a classifier. Therefore, the teacher data classified into the subclass has low teaching reliability. In this way, it is possible to generate a classifier 84 to which information on the degree of certainty is added to the classification result.

分類器84は、検査・分類装置4に送信され、分類器422として登録される。クラスが不明である(すなわち、欠陥の種別が不明である)データを分類器422が分類する際には、正クラスに分類されたものを確信度の高い結果としてもよい。また、副クラスに分類されたものは、一応対の正クラスを分類先とするものの、確信度の低い結果としてもよい。対の正クラスの欠陥としてもよい。また、いずれかの副クラスに分類されたものを、ひとまとめにして分類不能のものとして、分類先を特定のクラスとはしないようにしてもよい。 The classifier 84 is transmitted to the inspection / classification device 4 and registered as the classifier 422. When the classifier 422 classifies data whose class is unknown (that is, the type of defect is unknown), the data classified into the positive class may be the result with high certainty. Further, those classified into subclasses may be classified into the positive class of the tentatively, but the result may be low in certainty. It may be a pair of positive class defects. In addition, those classified into any of the subclasses may be collectively classified as unclassifiable, and the classification destination may not be a specific class.

例えば、特徴空間内で2つの正クラス(A,B)が混じり合って分布している部分を積極的に副クラスとして学習に取り込むことにより、自動的に生成された副クラスの教師データを再確認することなく、正クラスの分類精度を高く保つことができる。2つの正クラスAとBの間で、副クラスの分布域が、例えばSVM(Support Vector Machine)でいうマージン幅の役目を果たす。このため、2クラス分類器としたときの汎化能力が向上する。 For example, by actively incorporating the part where two positive classes (A and B) are mixed and distributed in the feature space into learning as a subclass, the automatically generated teacher data of the subclass is reproduced. The classification accuracy of the positive class can be kept high without confirmation. Between the two positive classes A and B, the distribution area of the subclass serves as a margin width, for example, in SVM (Support Vector Machine). Therefore, the generalization ability when a two-class classifier is used is improved.

なお、上記説明では、副クラスは必要に応じて定義されるものとしている。しかしながら、ステップS21の時点で、あらかじめすべての正クラス各々に対して副クラスを定義しておいてもよい。そして、ステップS22の段階で、複数の正クラス、および、それら正クラスに対応する複数の副クラス間で分類する分類器84が生成されてもよい。また、上記説明では、分類器84を生成する際に、所属する教師データがなくなることで不要になった副クラスについては定義から除外するとしている。しかしながら、これは必須ではなく、不要となった副クラスも維持したままの再学習によって、新たな分類器84が生成されてもよい。 In the above description, the subclass is defined as needed. However, at the time of step S21, a subclass may be defined in advance for each of all the positive classes. Then, at the stage of step S22, a classifier 84 that classifies between a plurality of positive classes and a plurality of subclasses corresponding to the positive classes may be generated. Further, in the above description, when the classifier 84 is generated, the subclass that is no longer needed due to the disappearance of the teacher data to which the classifier 84 belongs is excluded from the definition. However, this is not essential, and a new classifier 84 may be generated by re-learning while maintaining unnecessary subclasses.

(実施例1)
表1は、半導体ウェハの欠陥検査で発見された欠陥の画像を線形判別分析で3種類(Class 1/2/3)に分類する分類器の性能を、再代入法で評価した結果の一例である。表1は、分類器による分類結果を示す混同行列(分類表や混同対照表とも呼ばれる。)である。なお、この例では、オペレータが行った教示の信頼性は十分に高いと考えてよいものとする。
(Example 1)
Table 1 is an example of the results of evaluating the performance of a classifier that classifies images of defects found in defect inspection of semiconductor wafers into three types (Class 1/2/3) by linear discriminant analysis by the re-imputation method. be. Table 1 is a confusion matrix (also referred to as a classification table or a confusion comparison table) showing the classification results by the classifier. In this example, it can be considered that the reliability of the teaching given by the operator is sufficiently high.

Figure 0007083721000001
Figure 0007083721000001

この表1では、事前に教示した3種類のクラス(Class 1/2/3)を行見出しに記し、分類器により分類されたクラスを列見出しに記している。例えば、Class 1として教示された教師データは、1496個がClass 1に、81個がClass 2に、1個がClass 3に分類されたことを示している。 In this Table 1, three types of classes (Class 1/2/3) taught in advance are described in the row headings, and the classes classified by the classifier are described in the column headings. For example, the teacher data taught as Class 1 shows that 1496 were classified into Class 1, 81 were classified into Class 2, and 1 was classified into Class 3.

また、表1において、見出しに「Sum」と記す行は分類器によって各クラスに分類された教師データの総数を示し、見出しに「Sum」と記す列は教示された教師データの総数を示している。 Further, in Table 1, the row described as "Sum" in the heading indicates the total number of teacher data classified into each class by the classifier, and the column described as "Sum" in the heading indicates the total number of teacher data taught. There is.

見出しに「Precision」と記す行は、分類器によってある特定のクラスに分類された教師データのうち、正しく分類された教師データの割合(適合率)である。見出しに「Recall」と記す列は、特定のクラスであると教示されたすべての教師データのうち、分類器によって正しくその特定のクラスに分類された教師データの割合(再現率)である。 The line marked "Precision" in the heading is the ratio (adaptation rate) of the correctly classified teacher data among the teacher data classified into a specific class by the classifier. The column marked "Recall" in the heading is the percentage (recall rate) of the teacher data correctly classified into the specific class by the classifier among all the teacher data taught to be in the specific class.

「Precision」の行と「Recall」の列とが交差するセルは、「Accuracy」であって、教師データの総数に対する、分類器により分類されたクラスと教示されたクラスとが一致した教師データの総数の割合(正答率)である。 The cell where the row of "Precision" and the column of "Recall" intersect is "Accuracy", and the class classified by the classifier and the taught class match the total number of teacher data of the teacher data. It is the ratio of the total number (correct answer rate).

このデータセットについて、図6に示した手法を適用したところ、266回の教示変更および再学習の繰り返しによって、表2に示す結果が得られた。 When the method shown in FIG. 6 was applied to this data set, the results shown in Table 2 were obtained by repeating the teaching change and re-learning 266 times.

Figure 0007083721000002
Figure 0007083721000002

表2に示す例では、3つの正クラス(Class 1/2/3)と、これら正クラスの対である3つ副クラス(Class 1?/2?/3?)が定義されており、計6種類のクラスに分類する分類器84が得られている。 In the example shown in Table 2, three positive classes (Class 1/2/3) and three subclasses (Class 1? / 2? / 3?) That are pairs of these positive classes are defined. A classifier 84 for classifying into 6 types of classes has been obtained.

正クラスであるClass1/2/3のRecall(再現性)がほぼ100%に近い値となっている。つまり、この分類器84が分類結果をClass1、Class 2、Class 3と答えたとき、それぞれ93.25%、96.03%、98.32%の精度で信用できると言える。そしてこのRecallは、表1に示す初期の分類器のRecallよりも顕著に優れている。 The recall (reproducibility) of Class 1/2/3, which is a positive class, is close to 100%. That is, when the classifier 84 answers the classification results as Class 1, Class 2, and Class 3, it can be said that the classifier 84 can be trusted with an accuracy of 93.25%, 96.03%, and 98.32%, respectively. And this Recall is significantly superior to the Recall of the early classifiers shown in Table 1.

また、副クラスであるClass 1?/2?/3?のPrecisionのうち、Class2?の値だけ正クラスのものに劣らない。この場合、Class2の正/副クラスを統合してClass2と判定してもよい。また、Precisionが相対的に低い、Class 1?/3?については、これらを統合して「分類不可」と判定するようにしてもよい。さらには、PrecisionがClass 1?よりも小さいClass3?のみを「分類不可」と判定するようにしてもよい。この場合、分類先がClass 1?である場合には、「Class 1かも知れない」といったように低い確信度を伴った判定結果を出力するようにしてもよい。 Also, among the Precision of Class 1? / 2? / 3? Which is a subclass, only the value of Class2? Is not inferior to that of the positive class. In this case, the primary / subclass of Class2 may be integrated and determined as Class2. Further, for Class 1? / 3? With a relatively low Precision, these may be integrated and judged as "unclassifiable". Furthermore, only Class 3 ?, whose Precision is smaller than Class 1 ?, may be determined as "unclassifiable". In this case, if the classification destination is Class 1 ?, a determination result with a low certainty such as "may be Class 1" may be output.

なお、Class 2?のPrecisionの高さは、Class2?と教示して(すなわち、教示が変更されて)正しくClass2? と分類される画像群が新しいクラスClass4 を形成する可能性を示唆している。したがって、Precisionが高いクラスについて、新たに正クラスとして定義することも考えられる。例えば、Precisionが所定の閾値を超える副クラスを、新たな正クラスとして定義するとともに、その副クラスに分類された教師データ82の教示クラスを新たな正クラスに変更してもよい。そして、その変更された教師データ82を含む教師データ群82Gを用いて、分類器84の生成処理(図6のステップS22)が行われるようにしてもよい。このように分類器84を再び生成することによって、より高性能な分類器84を得られる場合がある。 The height of the Precision of Class 2? Suggests that a group of images that are correctly classified as Class 2? By teaching Class 2? (That is, the teaching is changed) may form a new class Class 4. .. Therefore, it is conceivable to newly define a class with high Precision as a positive class. For example, a subclass in which Precision exceeds a predetermined threshold value may be defined as a new positive class, and the teaching class of the teacher data 82 classified into the subclass may be changed to a new positive class. Then, the generation process of the classifier 84 (step S22 in FIG. 6) may be performed using the teacher data group 82G including the changed teacher data 82. By regenerating the classifier 84 in this way, a higher performance classifier 84 may be obtained.

(実施例2)
表3は、新薬の薬効試験中に撮像された細胞塊(スフェロイド/オルガノイド)の画像を、リニアカーネルSVMで「Alive(生)」「Dead(死)」の2種類に分類した例である。なお、この例では、教示の信頼性はあまり高いとは言えないものである。これは、培養液に薬剤を全く添加しなかったウエル内の細胞塊は全て生存とみなし、逆に高濃度の薬剤を添加したウエル内の細胞塊は全て死滅とみなしており、個々の細胞塊の実際の生死は確認せずにラベルを与えているためである。この例では、分類成績の数字そのものではなく、分類器が死滅と判定した細胞塊の画像の中に目視で明らかに生存していると判るものが混入していることが問題とされる。
(Example 2)
Table 3 shows an example in which the images of cell masses (spheroids / organoids) taken during the efficacy test of a new drug are classified into two types, "Alive" and "Dead", by the linear kernel SVM. In this example, the reliability of the teaching is not so high. This is because all cell masses in the wells to which no drug was added to the culture medium are regarded as alive, and conversely, all cell masses in the wells to which a high concentration drug is added are regarded as dead. This is because the actual life and death of the cell is given without confirmation. In this example, it is not the number of the classification result itself, but the problem is that the image of the cell mass judged to be dead by the classifier contains something that is clearly alive.

Figure 0007083721000003
Figure 0007083721000003

このデータセットについて、図6に示した手法を適用したところ、40回の教示変更および再学習の繰り返しによって、以下に示す結果が得られた。 When the method shown in FIG. 6 was applied to this data set, the following results were obtained by repeating the teaching change and re-learning 40 times.

Figure 0007083721000004
Figure 0007083721000004

表4に示すように、正クラスであるAlive/DeadのRecallが100%であるのとともに、AliveのPrecisionも99.95%と高い値である。一方、副クラスであるAlive?に教示が変更されたデータのうち、115個がDead の正クラスに分類されているが、重要なのは目視で明らかに生存していると判るものが混入しないことである。 As shown in Table 4, the recall of Alive / Dead, which is a positive class, is 100%, and the Precision of Alive is also a high value of 99.95%. On the other hand, 115 of the data whose teachings have been changed to the subclass Alive? Are classified into the positive class of Dead, but the important thing is that there is no data that is clearly alive. be.

本手法を適用する前は、表3に示すように、282個のAliveのラベルを持つデータがDeadに混入し、そのうち6,7割方は真に誤分類であり、少なくとも10個は「目立つ」ものであった。これに対して、本手法では上記115個のうち誤分類は半数以下で目立つものは無く、有効に作用していると考えられる。 Before applying this method, as shown in Table 3, data with 282 Alive labels were mixed in Dead, 60 to 70% of them were truly misclassified, and at least 10 were "conspicuous". It was a thing. On the other hand, in this method, less than half of the above 115 misclassifications are conspicuous, and it is considered that they are working effectively.

この発明は詳細に説明されたが、上記の説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。上記各実施形態および各変形例で説明した各構成は、相互に矛盾しない限り適宜組み合わせたり、省略したりすることができる。 Although the invention has been described in detail, the above description is exemplary in all aspects and the invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention. Each configuration described in each of the above-described embodiments and modifications can be appropriately combined or omitted as long as they do not conflict with each other.

5 ホストコンピュータ(分類器生成装置)
9 半導体基板
82 教師データ
82G 教師データ群
84 分類器
611 特徴量算出部
613 分類器生成部
615 教示クラス変更部
617 終了判定部
822 教示クラス
822 特徴量ベクトル
824 教示クラス
5 Host computer (classifier generator)
9 Semiconductor substrate 82 Teacher data 82G Teacher data group 84 Classifier 611 Feature amount calculation unit 613 Classifier generation unit 615 Teaching class change unit 617 End judgment unit 822 Teaching class 822 Feature quantity vector 824 Teaching class

Claims (6)

データを特徴量に応じて分類する分類器を生成する分類器生成方法であって、
(a) 複数の教示用データのそれぞれについて、複数種類の特徴量を算出する工程と、
(b) 前記複数の教示用データのそれぞれについて、異なる正クラスのいずれか1つを教示することによって、複数の教師データを含む教師データ群を生成する工程と、
(c) 前記教師データ群を用いて分類器を生成する工程と、
(d) 前記工程(c)によって生成された前記分類器で前記教師データ群を分類する工程と、
(e) 前記教師データ群のうち、前記工程(d)において分類先が教示とは異なった教師データについて、教示クラスを元の正クラスの対である副クラスに変更する工程と、
(f) 前記工程(e)によって教示クラスが前記副クラスに変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程と、
(g) 前記工程(f)によって生成された前記分類器で前記教師データ群を分類する工程と、
(h) 前記工程(g)において分類先が教示とは異なった前記教師データについて、教示が正クラスである場合には教示クラスをその対である副クラスに変更し、教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更する工程と、
(i) 前記工程(h)において教示クラスが変更された教師データを含む教師データ群を用いて新たな分類器を生成する工程と、
を含む、分類器生成方法。
It is a classifier generation method that generates a classifier that classifies data according to features.
(A) A step of calculating a plurality of types of features for each of a plurality of teaching data, and
(B) A step of generating a teacher data group including a plurality of teacher data by teaching one of different positive classes for each of the plurality of teaching data.
(C) A step of generating a classifier using the teacher data group and
(D) A step of classifying the teacher data group with the classifier generated by the step (c), and a step of classifying the teacher data group.
(E) Of the teacher data group, for teacher data whose classification destination is different from the teaching in the step (d), a step of changing the teaching class to a subclass which is a pair of the original positive class.
(F) A step of generating a new classifier using a teacher data group including teacher data in which the teaching class is changed to the subclass by the step (e).
(G) A step of classifying the teacher data group with the classifier generated by the step (f), and a step of classifying the teacher data group.
(H) For the teacher data whose classification destination is different from the teaching in the step (g), if the teaching is a positive class, the teaching class is changed to a subclass which is a pair thereof, and the teaching is a subclass. If the classification destination is a positive class that is a pair of its subclasses, the process of changing the teaching class to the positive class, and
(I) A step of generating a new classifier using a teacher data group including teacher data whose teaching class is changed in the step (h).
How to generate a classifier, including.
請求項1の分類器生成方法であって、
(j) 前記工程(g)から前記工程(i)までを再度行う工程、
をさらに備える、分類器生成方法。
The method for generating a classifier according to claim 1.
(J) A step of re-performing the steps (g) to (i).
A method for generating a classifier.
請求項2の分類器生成方法であって、
前記工程(j)は、
所定の終了条件を満たすまで、前記工程(g)から前記工程(i)までを2回以上行う工程である、分類器生成方法。
The method for generating a classifier according to claim 2.
The step (j) is
A method for generating a classifier, which is a step of performing the steps (g) to the step (i) twice or more until a predetermined end condition is satisfied.
請求項3の分類器生成方法であって、
前記終了条件が、前記工程(h)において、教示クラスの変更が起こらないことである、分類器生成方法。
The method for generating a classifier according to claim 3.
A method for generating a classifier, wherein the termination condition is that the teaching class does not change in the step (h).
請求項3の分類器生成方法であって、
前記終了条件が、前記工程(g)の分類結果において、正クラスについての正答率が所定の閾値を上回ることである、分類器生成方法。
The method for generating a classifier according to claim 3.
A method for generating a classifier, wherein the end condition is that the correct answer rate for the positive class exceeds a predetermined threshold value in the classification result of the step (g).
データを特徴量に応じて分類する分類器を生成する分類器生成装置であって、
異なるクラスのうち1つが教示された教師データ群を用いて分類器を生成する分類器生成部と、
前記分類器による前記教師データの分類先に応じて、前記教師データの教示クラスを、正クラスとその対である副クラスとの間で変更する教示クラス変更部と、
を備え、
前記教示クラス変更部は、
前記教師データ群を前記分類器で分類したときに、前記分類器による分類先が教示とは異なった教師データについて、
教示が正クラスであった場合には教示クラスをその正クラスの対である副クラスに変更し、
教示が副クラスであって分類先がその副クラスの対である正クラスである場合には教示クラスを当該正クラスに変更し、
前記分類器生成部は、前記教示クラス変更部によって教示クラスが変更された教師データを含む教師データ群を用いて、新たな分類器を生成する、分類器生成装置。
A classifier generator that generates a classifier that classifies data according to features.
A classifier generator that generates a classifier using the teacher data group taught by one of the different classes,
A teaching class changing unit that changes the teaching class of the teacher data between a normal class and a subclass that is a pair thereof according to the classification destination of the teacher data by the classifier.
Equipped with
The teaching class change part is
When the teacher data group is classified by the classifier, the teacher data whose classification destination by the classifier is different from the teaching is
If the teaching is a positive class, change the teaching class to a subclass that is a companion to the positive class.
If the teaching is a subclass and the classification destination is a positive class that is a pair of the subclass, the teaching class is changed to the positive class.
The classifier generator is a classifier generator that generates a new classifier using a teacher data group including teacher data whose teaching class has been changed by the teaching class changing unit.
JP2018143662A 2018-07-31 2018-07-31 Classifier generation method and classifier generator Active JP7083721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018143662A JP7083721B2 (en) 2018-07-31 2018-07-31 Classifier generation method and classifier generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018143662A JP7083721B2 (en) 2018-07-31 2018-07-31 Classifier generation method and classifier generator

Publications (2)

Publication Number Publication Date
JP2020021224A JP2020021224A (en) 2020-02-06
JP7083721B2 true JP7083721B2 (en) 2022-06-13

Family

ID=69588549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018143662A Active JP7083721B2 (en) 2018-07-31 2018-07-31 Classifier generation method and classifier generator

Country Status (1)

Country Link
JP (1) JP7083721B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015038441A (en) 2013-08-19 2015-02-26 株式会社Screenホールディングス Classifier acquisition method, defect classification method, defect classification device, and program
JP2015087903A (en) 2013-10-30 2015-05-07 ソニー株式会社 Apparatus and method for information processing
WO2016194210A1 (en) 2015-06-04 2016-12-08 株式会社日立ハイテクノロジーズ Defect image classification device and defect image classification method
JP2017107313A (en) 2015-12-08 2017-06-15 株式会社Screenホールディングス Teacher data creation support method, image classification method, teacher data creation support device and image classification device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015038441A (en) 2013-08-19 2015-02-26 株式会社Screenホールディングス Classifier acquisition method, defect classification method, defect classification device, and program
JP2015087903A (en) 2013-10-30 2015-05-07 ソニー株式会社 Apparatus and method for information processing
WO2016194210A1 (en) 2015-06-04 2016-12-08 株式会社日立ハイテクノロジーズ Defect image classification device and defect image classification method
JP2017107313A (en) 2015-12-08 2017-06-15 株式会社Screenホールディングス Teacher data creation support method, image classification method, teacher data creation support device and image classification device

Also Published As

Publication number Publication date
JP2020021224A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
JP6113024B2 (en) Classifier acquisition method, defect classification method, defect classification device, and program
JP6063756B2 (en) Teacher data creation support device, teacher data creation device, image classification device, teacher data creation support method, teacher data creation method, and image classification method
TW571246B (en) System and method for dynamic image recognition
JP6669453B2 (en) Image classification device and image classification method
TWI502189B (en) Training data verification apparatus, training data generation apparatus, image classification apparatus, training data verification method, training data generation method, and image classification method
JP6401648B2 (en) Defect classification apparatus and defect classification method
JP5550862B2 (en) Defect classification apparatus and classification adjustment method
JP2004294360A (en) Method and apparatus for classifying defects
JP2011158373A (en) Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification
TWI601098B (en) Image classification apparatus and image classification method
JP2014137284A (en) Teacher data creation support device, teacher data creation device, image classification device, teacher data creation support method, teacher data creation method and image classification method
JP2016181098A (en) Area detection device and area detection method
JP6530688B2 (en) Classifier construction method, image classification method, classifier construction apparatus and image classification apparatus
JP6871807B2 (en) Classifier construction method, classifier and classifier construction device
JP2010071826A (en) Teacher data preparation method, and image sorting method and image sorter
JP6763673B2 (en) Teacher data creation support device, image classification device, teacher data creation support method and image classification method
JP2017107313A (en) Teacher data creation support method, image classification method, teacher data creation support device and image classification device
JP5075083B2 (en) Teacher data creation support method, image classification method, and image classification apparatus
JP7083721B2 (en) Classifier generation method and classifier generator
CN111191670A (en) Neural network-based classification device and classification method
JP6425468B2 (en) Teacher data creation support method, image classification method, teacher data creation support device and image classification device
JP7120528B2 (en) Classifier construction method, image classification method, classifier construction device, and image classification device
JP2021157735A (en) Image identification system, image identification device, program, and trained model
JP5858817B2 (en) Teacher data creation method, image classification method, and image classification apparatus
JP6960356B2 (en) Teacher data creation support method and teacher data creation support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220601

R150 Certificate of patent or registration of utility model

Ref document number: 7083721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150