JP4050273B2 - Classification apparatus and classification method - Google Patents

Classification apparatus and classification method Download PDF

Info

Publication number
JP4050273B2
JP4050273B2 JP2004381495A JP2004381495A JP4050273B2 JP 4050273 B2 JP4050273 B2 JP 4050273B2 JP 2004381495 A JP2004381495 A JP 2004381495A JP 2004381495 A JP2004381495 A JP 2004381495A JP 4050273 B2 JP4050273 B2 JP 4050273B2
Authority
JP
Japan
Prior art keywords
classification
teacher data
data
category
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004381495A
Other languages
Japanese (ja)
Other versions
JP2006189915A (en
Inventor
大和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004381495A priority Critical patent/JP4050273B2/en
Publication of JP2006189915A publication Critical patent/JP2006189915A/en
Application granted granted Critical
Publication of JP4050273B2 publication Critical patent/JP4050273B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、分類装置及び分類方法に関するものである。   The present invention relates to a classification device and a classification method.

従来より種々の分類装置が知られている。例えば特開平8−21803号公報には、画像内より分類対象となる欠陥領域を抽出し、その領域の面積、周囲長、フェレ径、円径度、重心座標等の特徴量を求め、予め、これら特徴量の入力パターンに対して所定の欠陥種を出力するように学習させたニューラルネットワークを用いて欠陥を分類する装置の構成が開示されている。   Conventionally, various classification devices are known. For example, in JP-A-8-21803, a defect region to be classified is extracted from an image, and feature quantities such as area, perimeter, ferret diameter, circularity, and barycentric coordinates of the region are obtained in advance. A configuration of an apparatus that classifies defects using a neural network that is trained to output a predetermined defect type with respect to an input pattern of these feature amounts is disclosed.

また、特開平11−344450号公報には、欠陥画像の色情報、形状、サイズ等を基に統計分類を行う分類装置の構成や、教示用データ(教師データ)の作成作業を支援する構成等が示されている。
特開平8−21803号公報 特開平11−344450号公報
Japanese Patent Application Laid-Open No. 11-344450 discloses a configuration of a classification device that performs statistical classification based on color information, shape, size, and the like of a defect image, a configuration that supports creation of teaching data (teacher data), and the like. It is shown.
JP-A-8-21803 JP 11-344450 A

上記した分類装置において、分類対象の領域の大きさ(面積、フェレ径、周囲長等)や形状(円径度、フェレ径比等)に関する特徴量を用いて分類を行う場合、対象領域の抽出が適切でない場合には算出される特徴量の値も適切でなくなり、正確な分類結果は得られない。教師データに関しても同様であり、適切な抽出の後に特徴量を算出して作成しなければ、以後の分類過程において性能の低下を招く要因となってしまう。   In the above classification device, when classification is performed using feature quantities related to the size (area, ferret diameter, circumference length, etc.) and shape (circularity degree, ferret diameter ratio, etc.) of the classification target area, the target area is extracted. If is not appropriate, the calculated feature value is not appropriate, and an accurate classification result cannot be obtained. The same applies to the teacher data. If the feature amount is not calculated and created after appropriate extraction, it will cause a decrease in performance in the subsequent classification process.

例えば、図20(A)に示す分類対象領域に対して適切な抽出が行われた場合(図20(B))と、不適切な抽出が行われた場合(図20(C))とでは、算出される特徴量の値は大きく異なり、このような差を含んだ教師データ群を基に分類を行っても正確な分類はなされない。   For example, when appropriate extraction is performed on the classification target region shown in FIG. 20A (FIG. 20B) and when inappropriate extraction is performed (FIG. 20C). The calculated feature values vary greatly, and even if classification is performed based on a teacher data group including such a difference, accurate classification is not performed.

一方、教師データ作成時の教師データ作成時の正解カテゴリ入力に関して、模範となるべき人間でも迷う場合がある。この場合、確信レベルの低い教師データを他の教師データと同様に扱うことは適切ではない。当然、これら確信レベルが低いものを考慮した分類が必要となる。このような課題に対して有効な解決策を示した分類装置は提案されていない。   On the other hand, there is a case where even a human who should serve as an example is confused about the correct answer category input at the time of teacher data creation. In this case, it is not appropriate to treat teacher data with a low confidence level in the same way as other teacher data. Naturally, a classification considering these low confidence levels is necessary. A classification device that shows an effective solution to such a problem has not been proposed.

本発明はこのような課題に着目してなされたものであり、その目的とするところは、教師データに対する妥当性の尺度を考慮することにより、精度の高い分類を行うことができる分類装置及び分類方法を提供することにある。   The present invention has been made paying attention to such a problem, and the object of the present invention is to provide a classification apparatus and a classification capable of performing high-accuracy classification by considering a validity scale for teacher data. It is to provide a method.

上記の目的を達成するために、本発明の第1の態様に係る分類装置は、画像より、教師データを作成するための領域と、分類対象の領域を抽出する領域抽出手段と、前記教師データを作成するための領域の1つ1つが分類されるべき正解カテゴリとして正解カテゴリの1次候補となる1次候補カテゴリと2次候補となる2次候補カテゴリを入力する操作手段と、前記1次候補カテゴリの情報及び前記2次候補カテゴリの情報を含む教師データを作成する教師データ作成手段と、前記教師データを用いて前記分類対象となる領域の分類を行う分類手段と、を備え、前記分類手段は、前記1次候補カテゴリの情報と前記2次候補カテゴリの情報とを持つ教師データを、特徴量空間において同一の位置に存在する2つの教師データとみなして、前記分類対象となる領域の分類を行うTo achieve the above object, the classification apparatus according to the first aspect of the present invention, from the image, a region extracting means for extracting a region for creating teacher data, and classifying the target area, the teacher An operation means for inputting a primary candidate category that is a primary candidate of a correct answer category and a secondary candidate category that is a secondary candidate as correct answer categories for each of the areas for creating data ; It includes a teaching data creation means for creating teacher data including information and information of the secondary candidate categories of the primary candidate category, and a classification means for classifying the region to be the classification target by using the teacher data , the classification means, the teacher data having said primary candidate category of information and the secondary candidate categories of information, is regarded as two teacher data existing in the same position in the feature space, Carry out the classification of the region to be a serial classified.

また、本発明の第2の態様に係る分類装置は、第1の態様に係る分類装置に関わり、前記2つの教師データには、異なる重みが設定されるThe classification device according to the second aspect of the present invention relates to the classification device according to the first aspect , and different weights are set for the two teacher data .

また、本発明の第3の態様に係る分類装置は、第1または第2の態様に係る分類装置に関わり、前記分類装置は、特徴量空間内における分類対象領域のデータ近傍に位置する複数の教師データを基に分類を行うThe classification device according to the third aspect of the present invention relates to the classification device according to the first or second aspect, and the classification device includes a plurality of data located in the vicinity of the data of the classification target region in the feature amount space. Classification based on teacher data .

また、本発明の第4の態様に係る分類装置は、第1〜第3の態様に係る分類装置に関わり、前記分類装置は、特徴量空間内における同一カテゴリの教師データ分布を代表するデータと分類対象領域のデータとの距離を基に分類を行うA classification device according to a fourth aspect of the present invention relates to a classification device according to the first to third aspects, and the classification device includes data representing a teacher data distribution of the same category in a feature amount space, and Classification is performed based on the distance from the data of the classification target area .

また、本発明の第5の態様に係る分類装置は、第1から第3のいずれか1つの態様において、前記分類装置は、特徴量空間内における同一カテゴリの教師データ分布を代表するデータと分類対象領域のデータとの距離を基に分類を行う。 The fifth classification device according to an aspect of the present invention, in the third one of the aspects of the first, the classifier, classifying the data representing the training data distribution of the same category in the feature value space Classification is performed based on the distance to the target area data.

本発明によれば、教師データの確信レベルを考慮したので、精度の高い分類を行うことが可能となる。   According to the present invention, since the confidence level of the teacher data is taken into consideration, it is possible to perform classification with high accuracy.

また、2次候補のカテゴリを考慮したので、精度の高い分類を行うことが可能になる。   In addition, since the secondary candidate category is taken into consideration, it is possible to classify with high accuracy.

以下、図面を参照して本発明の実施形態を詳細に説明する。ここでは本発明の実施形態として、半導体ウェハを対象とした欠陥分類装置について説明する。しかしながら、本発明は、画像内の分類対象(例えば細胞)を抽出してその領域の特徴を基に分類を行う他の分類装置にも適用可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a defect classification apparatus for a semiconductor wafer will be described as an embodiment of the present invention. However, the present invention is also applicable to other classification devices that extract classification objects (for example, cells) in an image and perform classification based on the characteristics of the region.

図1は、本発明の一実施形態に係る欠陥分類装置の構成を示す図であり、検査画像より分類対象となる欠陥領域を抽出する欠陥領域抽出手段101と、抽出結果を表示する表示手段102と、抽出された領域に対する特徴量を算出する特徴量算出手段103と、抽出領域を選択して正解カテゴリあるいは正解カテゴリと当該正解カテゴリに対する確信レベルとを入力するための操作手段104と、正解カテゴリ及び確信レベルの情報を含む教師データを作成する教師データ作成手段105と、教師データを蓄積する教師データ蓄積手段106と、抽出領域を分類する分類手段107とから構成される。   FIG. 1 is a diagram showing a configuration of a defect classification apparatus according to an embodiment of the present invention, in which a defect area extraction unit 101 that extracts a defect area to be classified from an inspection image and a display unit 102 that displays an extraction result. A feature amount calculation unit 103 that calculates a feature amount for the extracted region, an operation unit 104 that selects an extraction region and inputs a correct category or a correct category and a confidence level for the correct category, and a correct category And teacher data creating means 105 for creating teacher data including information on confidence level, teacher data accumulating means 106 for accumulating teacher data, and classification means 107 for classifying the extraction area.

なお、検査画像の取得に関する構成に関しては、本発明では特に限定しないため図示しない。また、取得した画像データの保持や各処理に用いられるメモリに関しても特に図示しない。   The configuration related to the acquisition of the inspection image is not particularly limited in the present invention and is not shown. Also, the memory used for holding the acquired image data and each process is not particularly shown.

本欠陥分類装置の処理には、教師データ登録過程と分類過程の2つの処理の流れがある。まず、図2を参照して、教師データ登録過程の処理の流れを説明する。最初に、ここでは、図示されない撮像系を用いて、教師データ作成用の欠陥(教師サンプル)の画像を取得する(ステップS11)。次に、欠陥領域抽出手段101において、取得した検査画像から欠陥領域を抽出する(ステップS12)。   The processing of this defect classification apparatus has two processing flows: a teacher data registration process and a classification process. First, the processing flow of the teacher data registration process will be described with reference to FIG. First, an image of a defect (teacher sample) for creating teacher data is acquired using an imaging system (not shown) (step S11). Next, the defect area extraction unit 101 extracts a defect area from the acquired inspection image (step S12).

欠陥領域抽出の方法としてここでは2通りの方法を示す。第1の方法では、検査画像133(図3の(A))に対して良品レベルの輝度範囲となる閾値を設定し、この閾値を逸脱する輝度を持つ画素の領域を欠陥抽出画像140として抽出する(図3の(B))。ここで、良品レベルの輝度範囲を示す閾値は、予め設定しておいても良いし、画像内の輝度分布を基に適応的に決定しても良い。また、画像内の位置に応じて変化させても良いし、画像内で共通であっても良い。(東京大学出版会:画像解析ハンドブック:高木幹夫、下田陽久、監修:502P、2値化、を参照)
第2の方法では、図4の(B)に示すような良品ウェハ画像134(または良品となる一定区画の画像)を保持しておき、この画像と、図4の(A)に示すような検査画像133(または処理対象画像内の対応区画)を位置合わせし、重なり合う画素間の輝度差を求めて差分画像135(図4の(C))を作成し、この差分画像135を用いて上記第1の方法と同様の閾値処理により欠陥領域を抽出する。なお、領域の抽出方法は、分類の対象に応じて変更されるものであり、本発明の内容を限定するものではない。
Here, two methods are shown as the method for extracting the defect area. In the first method, a threshold value that is a non-defective level luminance range is set for the inspection image 133 ((A) in FIG. 3), and a pixel region having a luminance that deviates from this threshold value is extracted as the defect extraction image 140. (B in FIG. 3). Here, the threshold value indicating the non-defective level luminance range may be set in advance, or may be adaptively determined based on the luminance distribution in the image. Further, it may be changed according to the position in the image, or may be common in the image. (See The University of Tokyo Press: Image Analysis Handbook: Mikio Takagi, Yoshihisa Shimoda, Supervision: 502P, Binarization)
In the second method, a non-defective wafer image 134 (or an image of a fixed section that is non-defective) as shown in FIG. 4B is held, and this image and the image shown in FIG. The inspection image 133 (or the corresponding section in the processing target image) is aligned, a luminance difference between overlapping pixels is obtained, and a difference image 135 ((C) in FIG. 4) is created. A defective area is extracted by threshold processing similar to the first method. Note that the region extraction method is changed according to the classification target, and does not limit the contents of the present invention.

また、半導体ウェハ等では、下地パターンやダイシングラインなどの影響により、領域抽出時に同一の欠陥が分割されて抽出される場合がある。よって必要に応じて、更にモルフォロジー処理((参考):コロナ社:モルフォロジー:小畑秀文著)などを用いて領域を連結する処理を行っても良い。   In addition, in the case of a semiconductor wafer or the like, the same defect may be divided and extracted at the time of region extraction due to the influence of the base pattern and the dicing line. Therefore, if necessary, a process for connecting regions may be performed using a morphological process ((Reference): Corona: Morphology: Hidefumi Obata).

図5の(A),(B)は、モルフォロジー処理(closing処理)を用いた領域連結処理の一例を示している。図5の(A)に示される連続解像不良150やムラ151は領域連結処理によりそれぞれ連結欠陥領域150−1,151−1(図5の(B))となる。   (A) and (B) of FIG. 5 show an example of region connection processing using morphological processing (closing processing). The continuous resolution failure 150 and the unevenness 151 shown in FIG. 5A become connection defect regions 150-1 and 151-1 (FIG. 5B) by the region connection processing, respectively.

欠陥領域が抽出された後は、領域の抽出形状が視覚的に速やかに識別可能となるように、表示手段102を用いて表示する(ステップS13)。表示の方法としては、抽出領域を検査画像に重ねて表示したり、抽出した領域の輪郭を検査画像に重ねて表示する等が考えられる。   After the defective area is extracted, it is displayed using the display means 102 so that the extracted shape of the area can be visually identified quickly (step S13). As a display method, it is conceivable to display the extracted region so as to be superimposed on the inspection image, or to display the outline of the extracted region so as to be superimposed on the inspection image.

図7は、図6に示す検査画像160に対する抽出結果を、抽出領域形状の重ね合わせにより表示した様子を示す図である。図6の検査画像160に存在する欠陥1〜6の抽出結果はそれぞれ領域1〜6の形状として示されている。また、図8は、図6に示す検査画像160に対する抽出結果を、抽出領域の外形線の重ね合わせにより表示した様子を示す図である。外形線の形状により抽出結果が示されている。なお表示の際には、重なり部分の詳細が容易に確認できるよう、簡単な操作で、もとの検査画像と切り替えて表示できるようにする。また形状の詳細を容易に確認できるよう表示スケールも可変とする。   FIG. 7 is a diagram illustrating a state in which the extraction result for the inspection image 160 illustrated in FIG. 6 is displayed by overlapping the extracted region shapes. The extraction results of the defects 1 to 6 existing in the inspection image 160 of FIG. 6 are shown as the shapes of the regions 1 to 6, respectively. FIG. 8 is a diagram illustrating a state in which the extraction result for the inspection image 160 illustrated in FIG. 6 is displayed by superimposing the outlines of the extraction regions. The extraction result is shown by the shape of the outline. It should be noted that the display can be switched to the original inspection image by a simple operation so that details of the overlapped portion can be easily confirmed. The display scale is also variable so that the details of the shape can be easily confirmed.

ここで、ユーザーは操作手段104を操作して、例えばポインタにより指示することにより抽出結果が良好な領域を選択して、その領域の正解カテゴリと当該正解カテゴリに対する確信レベルとを入力する(ステップS14)。   Here, the user operates the operation unit 104 to select a region with a good extraction result by, for example, pointing with a pointer, and inputs a correct answer category of the region and a confidence level for the correct answer category (step S14). ).

図9は、領域の選択と正解カテゴリの入力の様子を示している。つまり、ポインタ170により領域1が選択されるとともに、正解カテゴリとして欠陥種Aが入力される様子や、ポインタ170により領域5が選択されるとともに、正解カテゴリとして欠陥種Bが入力される様子を示している。   FIG. 9 shows a state of selecting a region and inputting a correct answer category. That is, a state in which the region 1 is selected by the pointer 170 and the defect type A is input as the correct category, and a region 5 is selected by the pointer 170 and the defect type B is input as the correct category is shown. ing.

次に、正解カテゴリに加えて当該正解カテゴリに対する判断のレベルを入力する様子を図10に示す。ある教師サンプルの欠陥領域(図では領域5)が明らかに欠陥種Bであると判断できる場合には、ポインタ170により確信レベルを“高”として設定する。一方、多分、欠陥種Bだと思われる程度の場合には、確信レベルを“中”として設定する。さらに、ここでは、確信レベルを2段階“高”“中”としているが、もちろんそれ以上に段階分けしても良い。   Next, FIG. 10 shows a state in which a determination level for the correct answer category is input in addition to the correct answer category. When it can be determined that the defect area (area 5 in the figure) of a certain teacher sample is clearly the defect type B, the confidence level is set to “high” by the pointer 170. On the other hand, if the defect type B is considered to be a defect type B, the confidence level is set to “medium”. Furthermore, here, the confidence level is set to two levels “high” and “medium”, but it is of course possible to divide the level into more levels.

次に、特徴量算出手段103において、正解カテゴリが入力された領域に対する特徴量を算出する(ステップS15)。特徴量に関しては、一般的に領域単体での大きさ、形状、位置、濃度情報に関するものに加え、幾つかの領域による配置構成に関するもの等がある。マクロ検査における特徴量に関しては、本発明人による特開2003−168114号公報に開示されているが、特徴量の算出方法は分類の対象に応じて変更されるものであり、本発明の内容を限定するものではない。   Next, the feature amount calculation means 103 calculates the feature amount for the region where the correct answer category is input (step S15). Regarding the feature amount, in general, in addition to the size, shape, position, and density information of a single region, the feature amount relates to an arrangement configuration of several regions. The feature amount in the macro inspection is disclosed in Japanese Patent Laid-Open No. 2003-168114 by the present inventor. However, the feature amount calculation method is changed according to the classification target, and the contents of the present invention are It is not limited.

特徴量が算出された後は、教師データ作成手段105において教師データを作成する(ステップS16)。ここでの教師データとは、図11に示すように、特徴量算出手段103で算出された特徴量情報と、操作手段104を用いて入力された対象領域の正解カテゴリの情報(確信レベルを含む)をセットにしたものである。   After the feature amount is calculated, teacher data is created by the teacher data creation means 105 (step S16). As shown in FIG. 11, the teacher data here includes the feature amount information calculated by the feature amount calculation unit 103 and the correct category information (including the confidence level) of the target region input using the operation unit 104. ) Is a set.

その後、作成された教師データは、教師データ蓄積手段106に蓄積される(ステップS17)。以上の処理を必要に応じて繰り返すことにより、教師データ登録過程が終了する。   Thereafter, the created teacher data is stored in the teacher data storage means 106 (step S17). The teacher data registration process is completed by repeating the above processing as necessary.

なお、本説明では正解カテゴリの入力の後に特徴量の算出を行っているが、先に全ての領域の特徴量算出を行い、後に正解カテゴリが入力された領域のみの特徴量情報を用いて教師データを作成しても良い。   In this description, the feature amount is calculated after the correct category is input. However, the feature amount is calculated for all the regions first, and the teacher uses the feature amount information only for the region to which the correct category is input later. Data may be created.

次に、図14を参照して、分類過程の処理の流れを説明する。分類過程の処理のうち、画像の取得(ステップS21)、欠陥領域の抽出(ステップS22)、欠陥領域に対する特徴量の算出(ステップS23)は、撮像対象が検査用の被検体となるのみで、それぞれ前記した教師データ登録過程のステップS11、S12、S15と同様の処理である。但し、特徴量の算出は全ての抽出領域に対して行う。   Next, the processing flow of the classification process will be described with reference to FIG. Among the processes of the classification process, the image acquisition (step S21), the defect area extraction (step S22), and the feature amount calculation for the defect area (step S23) are performed only when the imaging target is an inspection object. The processing is the same as steps S11, S12, and S15 of the teacher data registration process described above. However, the feature amount is calculated for all the extraction regions.

ステップS23で各欠陥領域の特徴量を算出した後は、分類手段107において、算出した特徴量(分類対象領域データ)と事前に登録されている教師データの特徴量空間内における距離を基に分類を行う(ステップS24)。   After the feature amount of each defective area is calculated in step S23, the classification unit 107 classifies the calculated feature quantity (classification target region data) based on the distance in the feature amount space between the pre-registered teacher data. Is performed (step S24).

この時、分類手段107は、確信レベルが高い教師データを確信レベルが低い教師データより有意なデータとして扱いながら分類を行なうが、その方法を説明する前に基本となる分類の方法について説明する。   At this time, the classification means 107 performs classification while treating teacher data having a high certainty level as data more significant than teacher data having a low certainty level. Before explaining the method, the basic classification method will be described.

図15は、教師データを用いて分類を行う方法の1つであるk近傍法による分類の原理を説明するための図である。図15の○、△、□は、それぞれ欠陥種A、欠陥種B、欠陥種Cの教師データの特徴量空間内での位置を示している。これに対しPは分類対象の領域の特徴量空間内での位置である。   FIG. 15 is a diagram for explaining the principle of classification by the k-nearest neighbor method, which is one of methods for performing classification using teacher data. In FIG. 15, ◯, Δ, and □ indicate positions in the feature amount space of the teacher data of the defect type A, the defect type B, and the defect type C, respectively. On the other hand, P is the position in the feature amount space of the area to be classified.

k近傍法は、対象領域Pに最も近いk個(例では5個(事前設定)の教師データの中で最も多い欠陥種を対象領域の欠陥種とする方法である。図15ではキズ3個>解像不良1個>ムラ1個で、キズが最も多いので対象領域=キズと判別する。この方法の場合、特徴空間(N次元)内での2点(xi :教師データ、xj :分類対象)間の距離計算が必要となるが、距離計算法として下記に挙げるもの等がある。

Figure 0004050273
The k-nearest neighbor method is a method in which the largest defect type among the k (in the example, five (pre-set)) teacher data closest to the target region P is set as the defect type of the target region. > 1 resolution failure> 1 unevenness and most scratches, so it is determined that the target area = scratches.In this method, two points (x i : teacher data, x j ) in the feature space (N dimension) : Distance target) is required, but there are the following distance calculation methods.
Figure 0004050273

Figure 0004050273
Figure 0004050273

Figure 0004050273
Figure 0004050273

Figure 0004050273
Figure 0004050273

また、k近傍法以外の方法として、図16に示すように、各欠陥種毎の教師データ分布の代表点(例えば、分布全体の重心や分布をクラスタ分けした際のクラスタ重心など)との距離に基づいて分類する方法がある。この場合、代表点における特徴量l(エル)(1≦l(エル)≦N)の値μl (上付きのエル)を下記の式により算出し、上記の距離計算を行い、最も距離が近い欠陥種に分類する。

Figure 0004050273
As a method other than the k-nearest neighbor method, as shown in FIG. 16, the distance from the representative point of the teacher data distribution for each defect type (for example, the center of gravity of the entire distribution or the cluster center of gravity when the distribution is clustered) There is a method to classify based on. In this case, the value μ l (superscript L) of the feature value l (el) (1 ≦ l (el) ≦ N) at the representative point is calculated by the following formula, and the above distance calculation is performed. Classify as the closest defect type.
Figure 0004050273

但し、nは代表点に集約される(同一欠陥種の)教師データ数であり、aは教師データxの確信レベル、またはカテゴリ候補順序に応じた重み係数で、通常は1である。 Here, n is the number of teacher data (of the same defect type) collected at the representative points, a i is a weighting factor according to the confidence level of the teacher data x i or the category candidate order, and is usually 1.

なお、上記のk近傍法、代表点距離比較法ともに、特徴量数(次元数)が増えるほど計算負荷が大きくなるため、事前に、教師データを主成分分析などして分類に必要な特徴量の算出法を決定し、これに基づく特徴量削減処理を行ってから距離計算を行っても良い。   Note that both the k-nearest neighbor method and the representative point distance comparison method increase the calculation load as the number of features (the number of dimensions) increases. It is also possible to calculate the distance after determining the calculation method of the above and performing the feature amount reduction processing based on the calculation method.

次に、上記分類法において確信レベルを考慮する方法を説明する。例えばk近傍法で分類する場合には、近傍k個の教師データにおける個数比較を行う際に、確信レベルが低い教師データは1ではなく0.6個のようにカウントする。また、代表点距離比較法を用いて分類する場合には、確信度の低い教師データaの重みを1以下(例えば0.6)として代表点の値μ(上付きのエル)を算出する。 Next, a method for considering the confidence level in the classification method will be described. For example, when classifying by the k-nearest neighbor method, the number of teacher data having a low confidence level is counted as 0.6 instead of 1 when comparing the number of k nearby teacher data. When classification is performed using the representative point distance comparison method, the weight of the teacher data a i having low confidence is set to 1 or less (for example, 0.6), and the representative point value μ l (superscript L) is calculated. To do.

以上のように、教師データの確信レベルを考慮することにより、精度の高い分類を行うことが可能である。   As described above, it is possible to classify with high accuracy by considering the confidence level of the teacher data.

また、上記した実施形態の変形例として、確信レベルの低い対象に対して、2次候補のカテゴリを入力する例を説明する。この場合、図12に示すような教師データが作成され、これを基に分類が行われる。例えば、k近傍法で分類する場合には、近傍k個の教師データにおける個数比較を行う際に、1次候補のみ入力されている教師データは、その1次候補の欠陥種として1個とカウントし、2次候補まで入力されている教師データは、その1次候補のカテゴリの欠陥種に対して0.6個、2次候補の欠陥種に対して0.4個のように候補順に重みを設定してカウントする。図13は、2次候補を含む教師データを用いたk近傍法による欠陥種の判断について説明するための図である。上記の説明のようにカウントすると、図13では、欠陥種B:2.2個>欠陥種C:1.8個>欠陥種A:1個であり、対象領域=欠陥種Bとなる。   In addition, as a modification of the above-described embodiment, an example in which a secondary candidate category is input to an object with a low confidence level will be described. In this case, teacher data as shown in FIG. 12 is created, and classification is performed based on this. For example, when classifying by the k-nearest neighbor method, when the number comparison is performed on k neighboring teacher data, only the primary candidate is input as the primary candidate defect type. The teacher data input up to the secondary candidate is weighted in the order of candidates, such as 0.6 for the defect type of the category of the primary candidate and 0.4 for the defect type of the secondary candidate. Set to count. FIG. 13 is a diagram for explaining defect type determination by the k-nearest neighbor method using teacher data including secondary candidates. When counted as described above, in FIG. 13, defect type B: 2.2> defect type C: 1.8> defect type A: 1 and target region = defect type B.

また、代表点距離比較法を用いて分類する場合には、候補順に応じた重みaを設定して、代表点の値μ(上付きのエル)を算出する。 Further, when classification is performed using the representative point distance comparison method, the weight a i corresponding to the candidate order is set, and the representative point value μ l (superscript L) is calculated.

上記した変形例によれば、2次候補のカテゴリを考慮することにより、精度の高い分類を行うことが可能である。   According to the above-described modification, it is possible to perform highly accurate classification by considering the category of the secondary candidate.

以上で分類過程の説明を終わる。各欠陥領域を分類した後は、分類結果の情報を出力する(ステップS25)。   This completes the description of the classification process. After classifying each defective area, information on the classification result is output (step S25).

図17は、図1で説明した欠陥分類装置の変形例を示す図である。この変形例は、基本的に図1の構成と同様であるが、図1の表示手段102に表示された画像内の任意の範囲に対して、欠陥領域の抽出の程度をユーザーがインタラクティブに変更可能となっている。   FIG. 17 is a diagram illustrating a modification of the defect classification apparatus described in FIG. This modification is basically the same as the configuration of FIG. 1, but the user interactively changes the degree of extraction of the defect area for an arbitrary range in the image displayed on the display unit 102 of FIG. It is possible.

図18は、本変形例に係る欠陥分類装置の処理の流れを説明するためのフローチャートである。図18は、図2での処理に追加される処理とその前後の処理に該当する部分のみを図示している。抽出領域形状が表示(ステップS13)された後、ユーザーは抽出の程度を確認し、再抽出が必要か否かを判断する(ステップS31)。   FIG. 18 is a flowchart for explaining the processing flow of the defect classification device according to the present modification. FIG. 18 illustrates only the process corresponding to the process added to the process in FIG. 2 and the processes before and after the process. After the extraction area shape is displayed (step S13), the user checks the degree of extraction and determines whether re-extraction is necessary (step S31).

再抽出が必要な場合には、操作手段104を用いて、再抽出が必要な範囲と、抽出のためのパラメータ(2値化のための閾値など)を設定する(ステップS32)。当該範囲とパラメータが設定された後は、欠陥領域抽出手段101において、設定内容に基づいた欠陥領域の再抽出が行われる(ステップS33)。欠陥領域の再抽出後は、ステップS13に戻って、抽出領域形状を表示し、再度、ステップS31の判断を行う。   If re-extraction is necessary, the operation means 104 is used to set a range that requires re-extraction and extraction parameters (such as a threshold for binarization) (step S32). After the range and parameters are set, the defect area extraction unit 101 re-extracts the defect area based on the set content (step S33). After the re-extraction of the defective area, the process returns to step S13, the extracted area shape is displayed, and the determination in step S31 is performed again.

以上の流れによりインタラクティブに部分的な範囲の抽出の程度を最適化する。図19は、抽出の程度調整を行う画面の例を示しており、検査画像160に存在する欠陥1〜6のうち、欠陥4が選択された後、スライドバー170を左右にスライドさせてその抽出の程度が調整、最適化される様子が示されている。   The extent of partial range extraction is interactively optimized through the above flow. FIG. 19 shows an example of a screen for adjusting the degree of extraction. After defect 4 is selected from defects 1 to 6 existing in inspection image 160, slide bar 170 is slid left and right to extract the defect. It is shown that the degree of is adjusted and optimized.

調整の結果、再抽出の必要がなくなった場合には、抽出が適切な領域に対する正解カテゴリの入力を行い(ステップS14)、以後は先に示した流れにより教師データ登録過程を終了する。   As a result of the adjustment, if there is no need for re-extraction, the correct answer category is input to the region where extraction is appropriate (step S14), and thereafter, the teacher data registration process is terminated according to the flow described above.

本発明の一実施形態の欠陥分類装置の構成を示す図である。It is a figure which shows the structure of the defect classification device of one Embodiment of this invention. 教師データ登録過程の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of a teacher data registration process. 欠陥領域抽出の第1の方法について説明するための図である。It is a figure for demonstrating the 1st method of defect area extraction. 欠陥領域抽出の第2の方法について説明するための図である。It is a figure for demonstrating the 2nd method of defect area extraction. モルフォロジー処理(closing処理)を用いた領域連結処理の一例を説明するための図である。It is a figure for demonstrating an example of the area | region connection process using a morphological process (closing process). 処理対象画像の一例を示す図である。It is a figure which shows an example of a process target image. 図6に示す処理対象画像に対する抽出結果を領域重ね合わせにより表示した様子を示す図である。It is a figure which shows a mode that the extraction result with respect to the process target image shown in FIG. 6 was displayed by area | region superimposition. 図6に示す処理対象画像に対する抽出結果を輪郭重ね合わせにより表示した様子を示す図である。It is a figure which shows a mode that the extraction result with respect to the process target image shown in FIG. 6 was displayed by outline superimposition. 領域の選択と正解カテゴリの入力の様子を示す図である。It is a figure which shows the mode of selection of an area | region, and the input of a correct category. 欠陥種の判断に基づく確信レベルの設定のようすを示す図である。It is a figure which shows the state of the setting of the certainty level based on determination of a defect kind. 確信レベルの情報を含む教師データ(複数)の一例を示す図である。It is a figure which shows an example of the teacher data (plurality) containing the information of confidence level. 確信レベルの低い対象に対して、2次候補のカテゴリを入力して作成された教師データ(複数)の一例を示す図である。It is a figure which shows an example of the teacher data (plurality) created by inputting the category of a secondary candidate with respect to the object with a low confidence level. 2次候補を含む教師データを用いたk近傍法による欠陥種の判断について説明するための図である。It is a figure for demonstrating the determination of the defect kind by k neighborhood method using the teacher data containing a secondary candidate. 分類過程の処理の流れを説明するための図である。It is a figure for demonstrating the flow of a process of a classification | category process. 教師データを用いて分類を行う方法の1つであるk近傍法による分類の原理を説明するための図である。It is a figure for demonstrating the principle of the classification | category by the k-nearest neighbor method which is one of the methods of classifying using teacher data. 各欠陥種毎の教師データ分布の代表点との距離に基づく分類方法を説明するための図である。It is a figure for demonstrating the classification method based on the distance with the representative point of the teacher data distribution for every defect type. 図1で説明した本欠陥分類装置の変形例を示す図である。It is a figure which shows the modification of this defect classification device demonstrated in FIG. 本変形例に係る欠陥分類装置の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of the defect classification device which concerns on this modification. 抽出の程度調整を行う画面の例を示す図である。It is a figure which shows the example of the screen which adjusts the degree of extraction. 従来の分類方法の欠点を説明するための図である。It is a figure for demonstrating the fault of the conventional classification method.

符号の説明Explanation of symbols

101…欠陥領域抽出手段、102…表示手段、103…特徴量算出手段、104…操作手段、105…教師データ作成手段、106…教師データ蓄積手段、107…分類手段。   DESCRIPTION OF SYMBOLS 101 ... Defect area extraction means, 102 ... Display means, 103 ... Feature-value calculation means, 104 ... Operation means, 105 ... Teacher data creation means, 106 ... Teacher data storage means, 107 ... Classification means.

Claims (4)

画像より、教師データを作成するための領域と、分類対象の領域を抽出する領域抽出手段と、
前記教師データを作成するための領域の1つ1つが分類されるべき正解カテゴリとして正解カテゴリの1次候補となる1次候補カテゴリと2次候補となる2次候補カテゴリを入力する操作手段と、
前記1次候補カテゴリの情報及び前記2次候補カテゴリの情報を含む教師データを作成する教師データ作成手段と、
前記教師データを用いて前記分類対象となる領域の分類を行う分類手段と、
を備え、
前記分類手段は、前記1次候補カテゴリの情報と前記2次候補カテゴリの情報とを持つ教師データを、特徴量空間において同一の位置に存在する2つの教師データとみなして、前記分類対象となる領域の分類を行うことを特徴とする分類装置。
From the image, a region extracting means for extracting a region for creating teacher data, and classifying the target area,
Operation means for inputting a primary candidate category that is a primary candidate of a correct answer category and a secondary candidate category that is a secondary candidate as correct answer categories for each of the regions for creating the teacher data. When,
And the teacher data generating means for generating teaching data including information and information of the secondary candidate categories of the primary candidate category,
Classification means for classifying the region to be classified using the teacher data;
With
The classification means regards the teacher data having the information of the primary candidate category and the information of the secondary candidate category as two teacher data existing at the same position in the feature amount space, and becomes the classification target. A classification apparatus characterized by classifying regions .
前記2つの教師データには、異なる重みが設定されることを特徴とする請求項1に記載の分類装置。 The device of claim 1, wherein the two training data is characterized in that different weights are set. 前記分類装置は、特徴量空間内における分類対象領域のデータ近傍に位置する複数の教師データを基に分類を行うことを特徴とする請求項1または請求項2に記載の分類装置。 The classifier, classification apparatus according to claim 1 or claim 2, characterized in that for classifying based on a plurality of training data located proximate data to be classified regions in the feature value space. 前記分類装置は、特徴量空間内における同一カテゴリの教師データ分布を代表するデータと分類対象領域のデータとの距離を基に分類を行うことを特徴とする請求項1〜3のいずれか1つに記載の分類装置。 The classification device is any one of the preceding claims, characterized in that for classifying on the basis of the distance between the same category of the training data distribution representative data and data to be classified regions in the feature value space Classification device according to.
JP2004381495A 2004-12-28 2004-12-28 Classification apparatus and classification method Expired - Fee Related JP4050273B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004381495A JP4050273B2 (en) 2004-12-28 2004-12-28 Classification apparatus and classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004381495A JP4050273B2 (en) 2004-12-28 2004-12-28 Classification apparatus and classification method

Publications (2)

Publication Number Publication Date
JP2006189915A JP2006189915A (en) 2006-07-20
JP4050273B2 true JP4050273B2 (en) 2008-02-20

Family

ID=36797082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004381495A Expired - Fee Related JP4050273B2 (en) 2004-12-28 2004-12-28 Classification apparatus and classification method

Country Status (1)

Country Link
JP (1) JP4050273B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6357787B2 (en) 2014-02-07 2018-07-18 日本電気株式会社 Data processing device
JP6255296B2 (en) * 2014-03-31 2017-12-27 セコム株式会社 Object identification device
JP6632193B2 (en) * 2015-01-16 2020-01-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2016147652A1 (en) * 2015-03-19 2016-09-22 日本電気株式会社 Object detection device, object detection method, and recording medium
JP6623851B2 (en) * 2016-03-08 2019-12-25 富士通株式会社 Learning method, information processing device and learning program
DE102016204540A1 (en) * 2016-03-18 2017-09-21 Koenig & Bauer Ag Inspection system with a screen for visual display of a photographic image
JP6563882B2 (en) * 2016-09-16 2019-08-21 Kddi株式会社 LABELING DEVICE, LABELING SYSTEM, LABELING METHOD, AND LABELING PROGRAM
JP7403834B2 (en) * 2018-07-17 2023-12-25 株式会社Synapse Gear Imaging device and imaging method
JP2022043364A (en) * 2018-11-16 2022-03-16 株式会社Preferred Networks Learning device, object detection device, learning method, and program
JP7404679B2 (en) 2019-07-11 2023-12-26 富士通株式会社 Judgment processing program, judgment processing method, and information processing device
JP7257470B2 (en) * 2021-09-01 2023-04-13 株式会社エフ・シー・シー Defect inspection device, defect inspection method, and prediction model generation method
KR102574029B1 (en) * 2023-04-07 2023-09-05 주식회사 아이브 Detecting device for detecting double stroke through an artificial inteeligence learning model and a method using the same

Also Published As

Publication number Publication date
JP2006189915A (en) 2006-07-20

Similar Documents

Publication Publication Date Title
JP4050273B2 (en) Classification apparatus and classification method
JP3834041B2 (en) Learning type classification apparatus and learning type classification method
US9489562B2 (en) Image processing method and apparatus
CN111340701B (en) Circuit board image splicing method for screening matching points based on clustering method
CN109741356B (en) Sub-pixel edge detection method and system
CN110047073A (en) A kind of X-ray weld image fault grading method and system
CN110458165A (en) A kind of natural scene Method for text detection introducing attention mechanism
CN112084869A (en) Compact quadrilateral representation-based building target detection method
CN111898668A (en) Small target object detection method based on deep learning
CN112017245B (en) Certificate positioning method
CN105184225B (en) A kind of multinational banknote image recognition methods and device
JP2005301823A (en) Classification device and classification method
WO2021247034A1 (en) Object detection method and convolution neural network for the same
CN112233096B (en) Vehicle apron board fault detection method
CN114972173A (en) Defect detection method, defect detection device and system
CN115619708A (en) Method for judging fault based on image recognition of oil quality change of main shaft bearing lubricating oil
JP4266920B2 (en) Classification apparatus and classification method
JP2011165170A (en) Object detection device and program
CN111553337A (en) Hyperspectral multi-target detection method based on improved anchor frame
JP2009032273A (en) Classifier
CN116740652B (en) Method and system for monitoring rust area expansion based on neural network model
CN111027551B (en) Image processing method, apparatus and medium
JP2006012069A (en) Sorting device and sorting method
US6694059B1 (en) Robustness enhancement and evaluation of image information extraction
CN111047614A (en) Feature extraction-based method for extracting target corner of complex scene image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071128

R151 Written notification of patent or utility model registration

Ref document number: 4050273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131207

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees