JP2008281580A - Defect classification system - Google Patents

Defect classification system Download PDF

Info

Publication number
JP2008281580A
JP2008281580A JP2008167743A JP2008167743A JP2008281580A JP 2008281580 A JP2008281580 A JP 2008281580A JP 2008167743 A JP2008167743 A JP 2008167743A JP 2008167743 A JP2008167743 A JP 2008167743A JP 2008281580 A JP2008281580 A JP 2008281580A
Authority
JP
Japan
Prior art keywords
defect
image
area
feature amount
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008167743A
Other languages
Japanese (ja)
Inventor
Yamato Kanda
大和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008167743A priority Critical patent/JP2008281580A/en
Publication of JP2008281580A publication Critical patent/JP2008281580A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a defect classification system capable of performing classification similar to human judgement on defects such as resist coating irregularities, exposure failures, flaws, the adhesion of dust without having to register defect data in micro-inspections principally on semiconductor wafers and liquid crystal panels. <P>SOLUTION: The defect classification system for determining the types of defects detected on the basis of images of bodies to be inspected includes a characteristics extraction means 102 including a means for extracting characteristic amounts from images of detected defect regions and extracting characteristic amounts from the shape of arrangement of at least two detection regions; an inference determination means 106 for determining the type of defects on the basis of the characteristic amounts extracted by the characteristics extraction means 102; and a definite region removal means 107 for removing, from the images of the defect regions, regions of which the type of defects has been defined determined by the inference determination means 106. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は欠陥分類装置に関し、特に、画像に基づき検出した欠陥種の種類を判別するものであり、特に半導体ウェハや液晶パネル等の製造ラインで行われる外観検査における欠陥分類装置に関する。   The present invention relates to a defect classification apparatus, and more particularly to a type of defect type detected based on an image, and more particularly to a defect classification apparatus in an appearance inspection performed on a production line such as a semiconductor wafer or a liquid crystal panel.

半導体ウェハや液晶パネル等の製造では、成膜、レジスト塗布、露光、現像、エッチング、レジスト剥離といった工程を複数回繰り返すことで、多層の配線パターンを形成していく。   In the manufacture of semiconductor wafers, liquid crystal panels, and the like, a multilayer wiring pattern is formed by repeating a process such as film formation, resist coating, exposure, development, etching, and resist peeling a plurality of times.

最終的に数百工程にもなる製造工程を経て完成する製品の歩留まりを向上するためには、欠陥の早期発見や製造工程の最適化が必須項目である。   In order to improve the yield of products that are finally completed through several hundred manufacturing steps, early detection of defects and optimization of the manufacturing steps are essential items.

このため従来から、実際のパターンが形成されるエッチング工程前に、対象物の外観検査を行い、欠陥の検出、不良品の選別を行うと共に、欠陥の種類を判別して、その情報を製造工程にフィードバックする取り組みがなされている。   For this reason, conventionally, before the etching process in which the actual pattern is formed, the appearance of the object is inspected, the defect is detected, the defective product is selected, the type of the defect is determined, and the information is provided in the manufacturing process. Efforts are being made to provide feedback.

ここでの外観検査には、主にミクロ検査とマクロ検査の2種類がある。   There are mainly two types of appearance inspections here: micro inspection and macro inspection.

ミクロ検査は5μm程度の分解能により、微小な欠陥やパターン異常などを検出するものであり、マクロ検査は100μm程度の分解能により、レジストの塗付ムラや露光不良、キズ、塵埃の付着といった比較的大きな欠陥を検出する検査である。   The micro inspection detects minute defects and pattern abnormalities with a resolution of about 5 μm, and the macro inspection has a resolution of about 100 μm with relatively large resist coating unevenness, poor exposure, scratches, and dust adhesion. This is an inspection for detecting defects.

マクロ検査は、ミクロ検査で局所的に見てもわからない欠陥を検出できたり、低分解能ゆえ高スループットであるなどの利点がある。   Macro inspection has advantages such as the ability to detect defects that cannot be seen locally by micro inspection, and high throughput due to low resolution.

欠陥分類装置に関しては、特開平8-21803号公報に記載の“欠陥種別判定装置及びプロセス管理システム”に、各欠陥情報(=特徴量)の入力パターンに対し、その欠陥種を出力するよう学習させたニューラルネットワークを構築し、これにより欠陥を分類する装置の構成が示されている。   Regarding the defect classification device, learning to output the defect type to the input pattern of each defect information (= feature amount) to the “defect type determination device and process management system” described in Japanese Patent Application Laid-Open No. Hei 8-21803. A configuration of an apparatus for constructing a neural network and classifying defects by this is shown.

また、前記先行技術における学習時の教示用データの与え方に関する問題を指摘し、改善を図った特開平11-344450号公報に記載の“教示用データ作成方法並びに欠陥分類方法およびその装置”には、画像特徴量による多次元空間での各欠陥の分布を教示用データに基づいて既定し、統計的な判別分析により欠陥を分類する装置の構成が示されている。   Further, in the above-mentioned prior art, the problem relating to how to provide teaching data at the time of learning is pointed out, and the “teaching data creation method and defect classification method and apparatus” described in JP-A-11-344450 has been improved. Shows a configuration of an apparatus that classifies defects by statistical discriminant analysis by predetermining the distribution of each defect in a multidimensional space based on image feature values based on teaching data.

更に、特開平8-94536号公報に記載の“欠陥種別判定装置及びプロセス管理システム”には、検出欠陥に対する複数の評価項目(特徴量)の実測値を段階的に分けてコード化し、そのコード列に基づき予め設定された欠陥名称を参照することで欠陥を分類する装置の構成(いわゆる分類木的手法)が示されている。
特開平8-21803号公報 特開平11-344450公報 特開平8-94536号公報
Furthermore, in the “defect type determination apparatus and process management system” described in Japanese Patent Application Laid-Open No. 8-94536, the measured values of a plurality of evaluation items (features) for detected defects are coded in stages, and the code A configuration (a so-called classification tree method) of an apparatus for classifying defects by referring to defect names set in advance based on columns is shown.
JP-A-8-21803 JP 11-344450 A JP-A-8-94536

しかしながら、特開平8-21803号公報や特開平11-344450号公報のようにニューラルネットワークや統計手法を用いた欠陥分類装置では、予め欠陥サンプルを多数登録する必要があり、非常に多くの時間を要するという問題がある。   However, a defect classification apparatus using a neural network or a statistical method as in JP-A-8-21803 and JP-A-11-344450 needs to register a large number of defect samples in advance, and it takes a lot of time. There is a problem that it takes.

また通常は、品種、工程が変わるごとに登録が必要となるため、少量多品種の製品では十分な欠陥サンプルを用意できないという問題もある。   In addition, since registration is usually required every time the product type and process changes, there is also a problem that a sufficient number of defective samples cannot be prepared with a small amount of many product types.

一方、特開平8-94536号公報に記載の装置では、人の経験や知識より各コード列に対応する欠陥を設定することができ、上記のような問題は生じないが、コードの切り替わり付近での曖昧な処理ができない、つまり、切り替わり位置の微妙な差で、全く異なる結果に分類される対象が生じたり、同じコード列ながら切り替わり付近の値を持つ対象と明らかに切り替わりから離れた値を持つ対象とに同じ結果しか与えられない、などの問題が生じる。   On the other hand, in the apparatus described in Japanese Patent Laid-Open No. 8-94536, defects corresponding to each code string can be set based on human experience and knowledge, and the above problems do not occur. Cannot be processed vaguely, that is, there is a subject that is classified as a completely different result due to a subtle difference in the switching position, or a value that is clearly separated from a target that has a value in the vicinity of switching while having the same code string Problems such as only giving the same result to the subject arise.

更に、これまでの欠陥分類装置に用いられる特徴量には、検出された欠陥領域を単体として捉えて処理するものが多く、ミクロ検査のように人間に認識される欠陥と検出領域が1対1で対応する場合には問題ないが、マクロ検査のように、人間に認識される欠陥と検出領域が1対1で対応しない(図5(A)のようにパターンによる欠陥の分断や画像の量子化レベルにより、一つの欠陥が分割されて検出される)場合には、正確な分類が難しいなどの問題がある。   Furthermore, many of the feature quantities used in the conventional defect classification apparatuses are processed by treating the detected defect area as a single unit, and there is a one-to-one correspondence between the defect and the detection area recognized by humans as in micro inspection. However, as in macro inspection, defects recognized by humans do not correspond to detection areas on a one-to-one basis (as shown in FIG. 5A, defect division by pattern or image quantum). If one defect is divided and detected depending on the level of conversion), there is a problem that accurate classification is difficult.

これまで上記のような問題を解決して、有効的に欠陥分類を行う装置は明確にされていない。   Until now, an apparatus for solving the above problems and effectively classifying defects has not been clarified.

本発明はこのような課題に着目してなされたものであり、その目的とするところは、主に半導体ウェハ及び液晶パネルのマクロ検査におけるレジストの塗付ムラや露光不良、キズ、塵埃の付着などの欠陥に関して、欠陥データの登録を必要とせず、より人間の判断に近い分類を可能にする欠陥分類装置を提供することにある。   The present invention has been made paying attention to such problems, and the object of the present invention is mainly non-uniformity of application of resist, exposure failure, scratches, dust adhesion, etc. in macro inspection of semiconductor wafers and liquid crystal panels. It is an object of the present invention to provide a defect classification apparatus that does not require registration of defect data and enables classification closer to human judgment.

上記の目的を達成するために、本発明の第1の態様に係る欠陥分類装置は、被検体の画像を基に検出された欠陥の種類を判別する欠陥分類装置において、検出された欠陥領域の画像より特徴量を抽出する手段であって、少なくとも2つ以上の検出領域の配置形状に基づく特徴量を抽出する手段を含む特徴量抽出手段と、この特徴量抽出手段により抽出された特徴量に基づき、欠陥種を判別する欠陥種判別手段と、この欠陥種判別手段により判別された欠陥種が確定した領域を前記欠陥領域の画像から除外する確定領域除外手段とを具備する。   In order to achieve the above object, a defect classification device according to a first aspect of the present invention is a defect classification device that determines the type of a defect detected based on an image of a subject. A feature amount extracting unit including a feature amount extracting unit that extracts a feature amount based on an arrangement shape of at least two or more detection regions, and a feature amount extracted by the feature amount extracting unit. A defect type discriminating unit for discriminating the defect type, and a confirmed region excluding unit for excluding an area in which the defect type discriminated by the defect type discriminating unit is determined from the image of the defect region.

また、本発明の第2の態様に係る欠陥分類装置は、本発明の第1の態様に係る欠陥分類装置において、前記特徴量抽出手段は、各検出領域の形状により適応的な構造要素を用いた膨張処理により、少なくとも2つ以上の検出領域を連結する連結手段と、当該連結領域の特徴量を抽出する手段とを含む。   The defect classification apparatus according to the second aspect of the present invention is the defect classification apparatus according to the first aspect of the present invention, wherein the feature amount extraction means uses an adaptive structural element depending on the shape of each detection region. And a means for connecting at least two or more detection regions and a means for extracting a feature amount of the connection regions.

また、本発明の第3の態様に係る欠陥分類装置は、本発明の第2の態様に係る欠陥分類装置において、前記連結手段は、各欠陥領域の最大最小フェレ径比(≧1)及び主軸角を算出する手段と、算出した最大最小フェレ径比の値を基に膨張処理に用いられる構造要素の形状を円形あるいは細線形から選択する手段と、細線形の構造要素が選択された欠陥領域の主軸角に対しその細線形の方向を合わせる手段と、各欠陥領域ごとに決定された構造要素を用いて欠陥領域画像において膨張処理を行い、重なり合う領域を連結する手段とを含む。   The defect classification apparatus according to the third aspect of the present invention is the defect classification apparatus according to the second aspect of the present invention, wherein the connecting means includes a maximum and minimum ferret diameter ratio (≧ 1) and a main axis of each defect area. Means for calculating the angle, means for selecting the shape of the structural element used for the expansion process based on the calculated maximum / minimum ferret diameter ratio from circular or fine linear, and the defect region where the fine linear structural element is selected Means for aligning the fine linear direction with respect to the principal axis angle, and means for performing expansion processing on the defect area image using the structural elements determined for each defect area and connecting the overlapping areas.

また、本発明の第4の態様に係る欠陥分類装置は、本発明の第1から第3の態様に係る欠陥分類装置において、前記欠陥種判別手段は、特徴量の値と予め設定した分類ルールに基づくファジィ推論を行う手段を含む。   The defect classification apparatus according to the fourth aspect of the present invention is the defect classification apparatus according to the first to third aspects of the present invention, wherein the defect type discrimination means includes a feature value and a preset classification rule. Includes means for performing fuzzy inference based on.

また、本発明の第5の態様に係る欠陥分類装置は、本発明の第1から第4の態様において、前記欠陥は、半導体ウェハや液晶パネル等の製造工程で生じる露光不良、塗付ムラ、キズ、塵、埃等である。   Moreover, the defect classification apparatus according to the fifth aspect of the present invention is the defect classification apparatus according to the first to fourth aspects of the present invention, wherein the defect is an exposure failure, a coating unevenness, or the like caused in a manufacturing process of a semiconductor wafer, a liquid crystal panel or the like. Scratches, dust, dust, etc.

また、本発明の第6の態様に係る欠陥分類装置は、本発明の第5の態様に係る欠陥分類装置において、前記特徴量抽出手段は、露光工程での露光区画情報を用いて特徴量を抽出する手段を含む。   Moreover, the defect classification device according to the sixth aspect of the present invention is the defect classification device according to the fifth aspect of the present invention, wherein the feature amount extraction means uses the exposure section information in the exposure step to calculate the feature amount. Means for extracting.

また、本発明の第7の態様に係る欠陥分類装置は、本発明の第6の態様に係る欠陥分類装置において、前記露光区画情報を用いて特徴量を抽出する手段は、露光区画形状を示すテンプレート画像を作成する手段と、前記テンプレート画像を検出欠陥領域の画像の露光区画位置に合わせて走査し、各露光区画位置での両画像の相関値を算出する手段と、前記相関値が算出された露光区画内の検出欠陥に対し前記相関値を特徴量として付加する手段とを含む。   The defect classification apparatus according to the seventh aspect of the present invention is the defect classification apparatus according to the sixth aspect of the present invention, wherein the means for extracting the feature quantity using the exposure section information indicates an exposure section shape. Means for creating a template image; means for scanning the template image in accordance with the exposure section position of the image of the detected defect area; and calculating a correlation value of both images at each exposure section position; and calculating the correlation value. Means for adding the correlation value as a feature amount to the detected defect in the exposure section.

また、本発明の第8の態様に係る欠陥分類装置は、本発明の第6の態様に係る欠陥分類装置において、前記露光区画情報を用いて特徴量を抽出する手段は、検出欠陥領域の画素を垂直あるいは水平方向に積算する手段と、積算値の外形曲線をフーリエ変換し各周波数における振幅値を算出する手段と、露光区画周期に相当する周波数の振幅値と他の周期に相当する周波数の平均振幅値の比を算出する手段と、前記積算に用いられた検出欠陥に対し前記比の値を特徴量として付加する手段とを含む。   The defect classification apparatus according to the eighth aspect of the present invention is the defect classification apparatus according to the sixth aspect of the present invention, wherein the means for extracting the feature amount using the exposure section information is a pixel of the detected defect area. Means for vertical or horizontal integration, means for Fourier transforming the outline curve of the integrated value to calculate the amplitude value at each frequency, and the amplitude value of the frequency corresponding to the exposure section period and the frequency corresponding to the other period. Means for calculating a ratio of average amplitude values, and means for adding the value of the ratio as a feature amount to the detected defect used in the integration.

また、本発明の第9の態様に係る欠陥分類装置は、本発明の第6の態様に係る欠陥分類装置において、前記露光区画情報を用いて特徴量を抽出する手段は、検出欠陥領域の画像における任意の露光区画よりテンプレート画像を作成する手段と、前記テンプレート画像を前記任意の露光区画の上下あるいは左右に位置する露光区画に合わせて相関値を算出し、その平均を算出する手段と、前記任意の露光区画内の検出欠陥に対し前記平均値を特徴量として付加する手段とを含む。   The defect classification apparatus according to the ninth aspect of the present invention is the defect classification apparatus according to the sixth aspect of the present invention, wherein the means for extracting a feature amount using the exposure section information is an image of a detected defect area. Means for creating a template image from an arbitrary exposure section in the above, means for calculating a correlation value by aligning the template image with exposure sections located above and below or on the left and right of the arbitrary exposure section, and calculating an average thereof, Means for adding the average value as a feature amount to the detected defect in an arbitrary exposure section.

また、本発明の第10の態様に係る欠陥分類装置は、本発明の第5の態様に係る欠陥分類装置において、前記特徴量抽出手段は、塗付工程でのウェハ回転中心に対する極座標を用いて特徴量を抽出する手段を含む。   The defect classification apparatus according to the tenth aspect of the present invention is the defect classification apparatus according to the fifth aspect of the present invention, wherein the feature amount extraction means uses polar coordinates with respect to the wafer rotation center in the application step. Means for extracting the feature quantity;

また、本発明の第11の態様に係る欠陥分類装置は、本発明の第10の態様に係る欠陥分類装置において、前記特徴量抽出手段は、検出欠陥領域を塗付工程でのウェハ回転中心に対する極座標系に変換した極座標画像を作成する手段と、前記極座標画像において直線成分を検出する手段と、前記直線成分を構成する欠陥領域に対し前記直線成分の長さを特徴量として付加する手段とを含む。   The defect classification apparatus according to an eleventh aspect of the present invention is the defect classification apparatus according to the tenth aspect of the present invention, wherein the feature amount extraction means is configured to apply the detected defect area to the wafer rotation center in the application step. Means for creating a polar coordinate image converted into a polar coordinate system; means for detecting a linear component in the polar coordinate image; and means for adding the length of the linear component as a feature quantity to a defect area constituting the linear component. Including.

また、本発明の第12の態様に係る欠陥分類装置は、本発明の第1から第11の態様に係る欠陥分類装置において、検出された欠陥領域の画像を示す表示手段と、この表示手段において欠陥種が確定した領域を、その確定した順に明示する手段とを備え、これによって欠陥種が確定した経過をユーザーに示す。   A defect classification device according to a twelfth aspect of the present invention is the defect classification device according to any one of the first to eleventh aspects of the present invention. In the defect classification device according to the first to eleventh aspects of the present invention, Means for clearly indicating the areas in which the defect types are determined, in the order in which the defect types are determined, thereby indicating to the user the progress of the determination of the defect types.

本発明によれば、欠陥種が確定した領域を除外した画像を基に配置形状による特徴を抽出することで、より正確な特徴が得られ、分類精度が向上する。   According to the present invention, by extracting a feature based on an arrangement shape based on an image excluding a region where a defect type has been determined, a more accurate feature can be obtained and classification accuracy can be improved.

また、欠陥種が確定した領域を除外した画像を基に膨張(連結)処理を行って得た領域の特徴を抽出することで、より正確な特徴が得られ、分類精度が向上する。   Further, by extracting the features of the region obtained by performing the expansion (concatenation) process based on the image excluding the region where the defect type is determined, more accurate features can be obtained and the classification accuracy can be improved.

また、知識に基づく分類ルールにより欠陥分類を行うため、教示用のサンプルが必要ない。   Moreover, since the defect classification is performed according to the classification rule based on knowledge, a teaching sample is not required.

また、欠陥種を示す特徴が顕著な領域とそうでない領域を欠陥種の可能性の差として示せる。   In addition, it is possible to indicate a region where the feature indicating the defect type is remarkable and a region where the feature is not so as a difference in possibility of the defect type.

また、検出領域単体の特徴量だけでなく、配置による特徴量を用いることで、分類精度を向上できる。   Further, the classification accuracy can be improved by using not only the feature amount of the detection area alone but also the feature amount by arrangement.

また、検出領域に適応的な構造要素による連結を行うことで、正確な連結領域特徴が得られ、分類精度が向上する。   In addition, by performing connection using adaptive structural elements to the detection region, accurate connection region characteristics can be obtained, and classification accuracy can be improved.

以下に、図面を参照して本発明の実施の形態を詳細に説明する。本発明の実施の形態を説明するに先立って、分類対象となる欠陥の種類を説明する。図1(A)〜(H)は、マクロ検査における主な欠陥例(対象:半導体ウェハ)を示す図である。   Embodiments of the present invention will be described below in detail with reference to the drawings. Prior to describing the embodiment of the present invention, the types of defects to be classified will be described. FIGS. 1A to 1H are diagrams illustrating main defect examples (target: semiconductor wafer) in macro inspection.

レジスト塗付工程では、例えばコーター装置を用いてウェハ中央部に塗付素材(液状)を滴下し、そこを中心にウェハを回転させることで、ウェハ全面へのレジスト塗布を行う。同工程で発生する欠陥には以下のようなものがある。   In the resist coating process, for example, a coating material (liquid) is dropped onto the center of the wafer using a coater apparatus, and the wafer is rotated around the wafer to perform resist coating on the entire surface of the wafer. The following defects are generated in the same process.

塗付ムラ1(図1(A)):滴下がうまく行かず、飛び散ってしまったり、塗付素材の粘性が適切でなく回転時にスムーズに伸びない場合などは、回転中心に対し放射状にムラが生じる。   Uneven coating 1 (Fig. 1 (A)): If dripping does not go well and scatters, or if the viscosity of the coated material is not appropriate and does not stretch smoothly during rotation, the unevenness will be radially uneven with respect to the center of rotation. Arise.

塗付ムラ2(図1(B)):ウェハ上に異物が付着すると、その部分から外側にかけて塗付素材がスムーズに流れなくなり、彗星形状にムラが生じる。   Coating unevenness 2 (FIG. 1B): When a foreign substance adheres to the wafer, the coating material does not flow smoothly from that portion to the outside, and the comet shape is uneven.

塗付ムラ3(図1(C)):図1(B)と同様に異物が付着した際、塗付素材の粘性具合、塗付時の回転速度によっては、螺旋状にムラが生じる。   Uneven coating 3 (FIG. 1C): When foreign matter adheres as in FIG. 1B, unevenness occurs spirally depending on the viscosity of the coating material and the rotation speed during coating.

露光工程では、レジスト塗付後のウェハにパターンを形成するため、所定の露光区画単位で転写を行う。代表的な装置にステッパがある。同工程で発生する欠陥には以下のようなものがある。   In the exposure step, transfer is performed in units of predetermined exposure sections in order to form a pattern on the resist-coated wafer. A typical device is a stepper. The following defects are generated in the same process.

露光不良1(図1(D)):露光区画単位でフォーカスがずれることにより、その区画が他の区画と異なる表面状態となる(パターンがだれる)。   Exposure defect 1 (FIG. 1D): When the focus shifts in units of exposure sections, the section becomes a surface state different from the other sections (pattern is blurred).

露光不良2(図1(E)):露光機が傾き、露光区画内で部分的にフォーカスがずれたままステップを続けることにより、ステップ単位の周期で通常と異なる表面状態が生じる。   Exposure defect 2 (FIG. 1 (E)): The exposure machine is tilted, and the step is continued while the focus is partially deviated in the exposure section. As a result, a surface condition different from normal is generated in a step unit cycle.

露光不良3(図1(F)):露光されるレジスト膜の裏側に異物が混入することにより、部分的にレジスト膜が盛り上がり、その部分でフォーカスがずれることにより、他と異なる表面状態となる。   Exposure defect 3 (FIG. 1 (F)): A foreign material enters the back side of the resist film to be exposed, so that the resist film partially rises and the focus shifts at that part, resulting in a different surface state from the others. .

上記の各工程に代表される欠陥の他にも以下の欠陥がある。   In addition to the defects represented by the above steps, there are the following defects.

キズ(図1(G))
塵、埃の付着(図1(H))
画像を用いた外観検査では、特開平8-21803号公報に示されるように被検体の外観を干渉、回折像等により画像化し、基準となる良品ウェハ画像との比較を行ったり、同一パターンとなる区画単位で比較を行うことで、通常と異なる部分(欠陥部)の検出を行う。
Scratches (Fig. 1 (G))
Dust and dust adhesion (Fig. 1 (H))
In appearance inspection using images, as shown in Japanese Patent Laid-Open No. 8-21803, the appearance of the subject is imaged by interference, diffraction images, etc., and compared with a reference non-defective wafer image, By comparing in units of sections, a portion (defective portion) different from the normal is detected.

以下に、本発明の実施の形態を詳細に説明する。図2は、本実施の形態に係る欠陥分類装置の構成を示す図である。本実施の形態の欠陥分類装置は、分類に必要な諸条件を設定する条件設定手段101と、検出された領域単体の形状や輝度に関する特徴を得る領域単体特徴抽出手段103と、検出された領域を所定の方法で連結する領域連結手段104と、検出された領域の配置形状による特徴を得る領域配置特徴抽出手段105と、前記領域単体特徴抽出手段103、領域配置特徴抽出手段105の各特徴抽出手段で得られた特徴量と、条件設定手段101により設定された分類ルールに基づき各欠陥種の可能性を推論し、欠陥の判別を行う推論判別手段106と、判別により欠陥種が確定した領域を除外する確定領域除外手段107と、前記各々の処理に利用するメモリ108から構成される。領域単体特徴抽出手段103と領域配置特徴抽出手段105と領域連結手段104とは特徴抽出手段102を構成する。   Hereinafter, embodiments of the present invention will be described in detail. FIG. 2 is a diagram showing a configuration of the defect classification apparatus according to the present embodiment. The defect classification apparatus according to the present embodiment includes a condition setting unit 101 that sets various conditions necessary for classification, a region unit feature extraction unit 103 that obtains features related to the shape and luminance of a detected region unit, and a detected region Each of the feature extraction units 104, 104, 105, 105, 105, 105, 105, 105, and 105, is a feature that extracts features of the detected regions from each other. Inferior discriminating means 106 that infers the possibility of each defect type based on the feature amount obtained by the means and the classification rule set by the condition setting means 101 and discriminates the defect, and the region in which the defect type is determined by the discrimination The fixed area excluding means 107 and the memory 108 used for each processing are included. The region single feature extraction unit 103, the region arrangement feature extraction unit 105, and the region connection unit 104 constitute a feature extraction unit 102.

なお、本発明の欠陥分類装置は、先に述べた良品ウェハ画像との比較や同一パターン区画での比較により検出された欠陥画素を明、他を暗とした2値画像(以後、欠陥検出画像と記す)と、この欠陥検出に用いた被検体の外観(多値)画像(以後、検査画像と記す)を得て、各検出領域毎にその欠陥種が何であるかを判定した結果を出力する構成である。   The defect classification apparatus of the present invention is a binary image (hereinafter referred to as a defect detection image) in which defective pixels detected by comparison with the above-mentioned non-defective wafer image or comparison in the same pattern section are bright and others are dark. And obtain the appearance (multi-value) image (hereinafter referred to as inspection image) of the object used for defect detection, and output the result of determining the defect type for each detection area It is the structure to do.

以下に、上記した構成の作用を図2、図3のフローチャートを参照して説明する。欠陥分類装置は、欠陥検出画像と検査画像を取得(ステップS1)した後、領域単体特徴抽出手段103において検出領域単体での特徴量の抽出を行う(ステップS2)。次に領域配置特徴抽出手段105において、複数領域の配置形状による特徴量を抽出し、この特徴量を、配置形状を構成する各検出領域に付加する(ステップS3)。その後、領域単体特徴抽出手段103で得た情報と欠陥検出画像を基に、領域連結手段104において、各検出領域の形状に適応的な構造要素を用いて膨張処理を行い、領域を連結した画像(以後、連結領域画像と記す)を作成する(ステップS4)。   The operation of the above configuration will be described below with reference to the flowcharts of FIGS. After acquiring the defect detection image and the inspection image (step S1), the defect classification device extracts the feature amount of the detection region alone in the region single feature extraction unit 103 (step S2). Next, the region arrangement feature extraction unit 105 extracts feature amounts based on the arrangement shape of a plurality of regions, and adds this feature amount to each detection region constituting the arrangement shape (step S3). Thereafter, based on the information obtained by the region single feature extraction unit 103 and the defect detection image, the region connection unit 104 performs an expansion process using a structural element suitable for the shape of each detection region, and images obtained by connecting the regions. (Hereinafter referred to as a connected region image) is created (step S4).

連結領域画像は、再度、領域単体特徴抽出手段103に送られ、ここで、連結領域の特徴量を抽出し、この特徴量を、連結領域を構成する各検出領域に付加する(ステップS5)。ステップS2,S3,S5により得られた特徴量と条件設定手段101により設定された分類ルールに基づき、推論判別手段106では、各欠陥種の可能性値を推論し、欠陥種の判別を行う(ステップS6)。ステップS6の結果を基に、確定領域除外手段107では、欠陥種が確定した領域を欠陥検出画像より除外する(ステップS7)。ステップS7の結果、全ての領域が除外された場合には、全ての検出領域の欠陥種が確定しているので、処理は終了する。   The connected region image is sent again to the region single feature extracting unit 103, where the feature amount of the connected region is extracted, and this feature amount is added to each detection region constituting the connected region (step S5). Based on the feature values obtained in steps S2, S3, and S5 and the classification rule set by the condition setting unit 101, the inference determination unit 106 infers the possibility value of each defect type and determines the defect type ( Step S6). On the basis of the result of step S6, the confirmed region exclusion unit 107 excludes the region where the defect type is confirmed from the defect detection image (step S7). If all the regions are excluded as a result of step S7, the defect types of all the detection regions are determined, and the process ends.

欠陥検出画像に領域が残った場合には、この画像を基に再度ステップS3〜S7のステップを繰り返す。   If an area remains in the defect detection image, steps S3 to S7 are repeated again based on this image.

画像が異なるため、配置形状による特徴量や連結領域の特徴量が異なる。つまり確定した領域を除くことで、より正確な特徴量を抽出し、これに基づき推論、判別を行える。   Since the images are different, the feature amount according to the arrangement shape and the feature amount of the connected region are different. That is, by removing the determined region, a more accurate feature amount can be extracted, and inference and discrimination can be performed based on this.

続いて上記した各手段での処理の詳細を説明する。条件設定手段101では、分類に必要な諸条件を入力する。入力内容については後述の各手段での処理に沿って説明する。   Next, details of the processing in each of the above-described means will be described. The condition setting means 101 inputs various conditions necessary for classification. The input contents will be described along with the processing in each means described later.

図4は、領域単体特徴抽出手段103での処理の詳細を説明するためのフローチャートである。領域単体特徴抽出手段103では、以下の手順に従って、各検出領域の特徴量を得る。   FIG. 4 is a flowchart for explaining details of processing in the region single feature extracting unit 103. The region single feature extraction unit 103 obtains the feature amount of each detection region according to the following procedure.

1. 欠陥検出画像内の検出された複数の領域をラベリングする(図4のステップS10、図5(B))。 1. A plurality of detected areas in the defect detection image are labeled (step S10 in FIG. 4, FIG. 5B).

2.検出領域の位置特徴(重心位置、外接矩形位置)を算出する(図4のステップS11、図6(A))。 2. The position characteristics (center of gravity position, circumscribed rectangle position) of the detection area are calculated (step S11 in FIG. 4, FIG. 6 (A)).

3. 検出領域の形状特徴(面積、円径度、最大最小フェレ径比(≧1)、主軸角)を算出する(図4のステップS12、図6(A))。 3. The shape characteristics (area, circularity, maximum / minimum ferret diameter ratio (≧ 1), main shaft angle) of the detection region are calculated (step S12 in FIG. 4, FIG. 6A).

4. 検出領域の輝度特徴(平均、分散)を算出する(図4のステップS13、図6(A))。 4). Luminance characteristics (average and variance) of the detection area are calculated (step S13 in FIG. 4, FIG. 6A).

5. 検出領域ごとの特徴量リストを作成する(図4のステップS14、図6(B))。 5. A feature quantity list for each detection area is created (step S14 in FIG. 4, FIG. 6B).

なお、上記 1,2,3,4で示される一連の処理は、粒子解析(またはブロブ解析)と呼ばれる一般的な画像処理手法である。   The series of processes indicated by the above 1, 2, 3, and 4 is a general image processing technique called particle analysis (or blob analysis).

図7は、領域連結手段104での処理の詳細を説明するためのフローチャートである。また、図8、図9は、領域連結の説明図である。   FIG. 7 is a flowchart for explaining details of the processing in the area connecting means 104. 8 and 9 are explanatory diagrams of region connection.

領域連結手段104では、領域単体特徴抽出手段103で得た特徴を利用し、以下の手順に従って、各検出領域を連結した連結領域画像を作成する。   The area connecting means 104 uses the features obtained by the area single feature extracting means 103 and creates a connected area image in which the detection areas are connected according to the following procedure.

1. 各領域の最大最小フェレ径比を基に、その領域に対する膨張処理用の構造要素を選択する。最大最小フェレ径比が、ある閾値(試行した結果の固定値でも、条件設定手段101で設定した値でも良い)以上かどうかを判断し(図7のステップS20)、YESならば方向性をもつ領域と見做し、細線形の構造要素(図8(A))を選択する(図7のステップS21)。 1. Based on the maximum / minimum ferret diameter ratio of each region, a structural element for expansion processing for that region is selected. It is determined whether the maximum / minimum ferret diameter ratio is equal to or greater than a certain threshold value (either a fixed value as a result of trial or a value set by the condition setting means 101) (step S20 in FIG. 7). Considering the region, a fine linear structural element (FIG. 8A) is selected (step S21 in FIG. 7).

また、ステップS20での判断がNO、すなわち、閾値より小さければ円径の構造要素(図8(B))を選択する(図7のステップS23)。なお、円径度を利用して上記の選択を行ってもよい。   If the determination in step S20 is NO, that is, if it is smaller than the threshold value, a structural element having a circular diameter (FIG. 8B) is selected (step S23 in FIG. 7). Note that the above selection may be performed using the circularity.

2. 細線形の構造要素を選択した場合には、更にその領域の主軸方向に細線形の方向をあわせる(図7のステップS22)。図8(C)に細線形構造要素の方向例を示す。構造要素のサイズが小さい場合には方向が制限されるが、サイズを大きくすることで方向の細分化は可能である。なお、輪郭方向のヒストグラム分布より領域の方向を推定し、これと同方向になるようにしても良い。 2. When a fine linear structural element is selected, the fine linear direction is further aligned with the principal axis direction of the region (step S22 in FIG. 7). FIG. 8C shows an example of the direction of the fine linear structural element. The direction is limited when the size of the structural element is small, but the direction can be subdivided by increasing the size. Note that the direction of the region may be estimated from the histogram distribution in the contour direction, and the direction may be the same.

3. 選択された構造要素を用いて膨張処理(図7のステップS24)を行い、連結領域画像を作成する。ここでの膨張処理は、モフォロジー処理と呼ばれる一般的な画像処理手法の一つであり、膨張の結果、重なり合った領域は連結されることになる。膨張の処理回数は撮像系、被検体の諸条件、各構造要素のサイズに基づき条件設定手段101で設定する。 3. Expansion processing (step S24 in FIG. 7) is performed using the selected structural element to create a connected region image. The expansion processing here is one of general image processing methods called morphology processing, and overlapping regions are connected as a result of expansion. The number of expansion processes is set by the condition setting means 101 based on the imaging system, various conditions of the subject, and the size of each structural element.

図7のステップS25で全ての検出領域に対して判定がなされたと判断された場合には処理を終了する。   If it is determined in step S25 in FIG. 7 that all the detection areas have been determined, the process ends.

図8(D)に図5(A)の検出領域に対し、本例の膨張処理を行った結果を示す。   FIG. 8D shows the result of performing the expansion processing of this example on the detection region of FIG.

上記手順により、検出領域形状に適応的な構造要素で膨張処理を行うことで、方向性をもつ領域は長手方向に、その他は放射方向に膨張、連結することができる。また、膨張後の領域形状を基に構造要素を再決定して、収縮処理を行えば、より良好な領域連結も可能となる。   By performing the expansion process with the structural element suitable for the shape of the detection region by the above procedure, the directional region can be expanded and connected in the longitudinal direction and the others in the radial direction. Further, if the structural elements are redetermined on the basis of the region shape after expansion and the contraction process is performed, better region connection is possible.

全ての検出領域に同一の構造要素(円形)を用いる一般的な膨張、あるいは膨張収縮処理では、検出領域の方向性が考慮されないため、図8(E)、図9(A)、(B)に示すように、キズとその近傍にある塵を良好な状態で連結することができず、以後の特徴抽出を正確に行うことができない。   In general expansion or expansion / contraction processing using the same structural element (circular shape) for all detection regions, the directionality of the detection region is not taken into consideration, and therefore FIGS. 8E, 9A, and 9B are used. As shown in FIG. 4, the scratch and the dust in the vicinity thereof cannot be connected in a good state, and subsequent feature extraction cannot be performed accurately.

領域連結手段104で作成された連結領域画像は、再度、領域単体特徴抽出手段103に送られ、以下の手順で処理される。基本的な処理フローは図4と同様である。   The connected area image created by the area connecting means 104 is sent again to the area single feature extracting means 103 and processed in the following procedure. The basic processing flow is the same as in FIG.

1. 連結後の各領域(連結領域と記す)をラベリングする(図10(A))。 1. Each region after connection (referred to as a connection region) is labeled (FIG. 10A).

2. 連結領域の位置特徴(重心位置、外接矩形位置)を算出する。 2. The position characteristics (center of gravity position, circumscribed rectangle position) of the connected area are calculated.

3. 連結領域の形状特徴(面積、円径度、最大最小フェレ径比(≧1)、主軸角)を算出する。 3. The shape characteristics (area, circularity, maximum / minimum ferret diameter ratio (≧ 1), spindle angle) of the connected region are calculated.

4. 算出した特徴を、それぞれの構成パーツとなる検出領域に付加して、検出領域ごとの特徴量リストを作成する(図10(B))。 4). The calculated features are added to the detection regions that are the respective component parts, and a feature amount list for each detection region is created (FIG. 10B).

上記した1,2,3の一連の処理は粒子解析による。   The series of processes 1, 2, and 3 described above is based on particle analysis.

領域配置特徴抽出手段105では、連結前の欠陥検出画像を基に領域の配置特徴を得る。以下に代表的な配置特徴を挙げ、その算出方法を示す。   The area arrangement feature extraction unit 105 obtains area arrangement characteristics based on the defect detection image before connection. The typical arrangement features are listed below, and the calculation method is shown.

1) 検出領域による露光区画形状の構成具合を示す特徴量(露光不良1の判断に用いる)。 1) A feature value indicating the degree of composition of the exposure section shape based on the detection area (used to determine exposure failure 1).

<算出方法>
1. 露光区画形状の部分を明、その周辺を暗としたテンプレートを作成する(図11(A))。
<Calculation method>
1. A template is created in which the portion of the exposure section shape is bright and the periphery thereof is dark (FIG. 11A).

2. 欠陥検出画像(欠陥画素が明、その他が暗の2値画像)内の露光区画位置とテンプレート内の露光区画形状が完全に重なるように配置し、テンプレート範囲内で両画像の差分絶対値の総和を算出する(図11(B))。 2. Arranged so that the exposure section position in the defect detection image (binary image in which defective pixels are bright and others are dark) and the exposure section shape in the template completely overlap, and the sum of absolute differences between both images within the template range Is calculated (FIG. 11B).

両画像の差分絶対値の総和Rは、

Figure 2008281580
The sum R of the absolute differences between both images is
Figure 2008281580

により求めることができる。ここで、I(a、b)は欠陥検出画像の座標(a、b)での画素値(1または0)である。また、T(a、b)はテンプレートの座標(a、b)での画素値(1または0)である。 It can ask for. Here, I (a, b) is a pixel value (1 or 0) at the coordinates (a, b) of the defect detection image. T (a, b) is a pixel value (1 or 0) at the coordinates (a, b) of the template.

3. 2で算出した値を1)の特徴量として、対象の露光区画内の検出領域に付加する。 3. The value calculated in 2 is added to the detection area in the target exposure section as the feature amount of 1).

4. テンプレートを走査し(図12(A))、欠陥検出画像内の全ての露光区画位置で2及び3の処理を行う。 4). The template is scanned (FIG. 12A), and the processes 2 and 3 are performed at all exposure division positions in the defect detection image.

なお、計算量を減らすために図12(B)に示すようなテンプレートを用いても良い。   Note that a template as shown in FIG. 12B may be used to reduce the amount of calculation.

2) 水平、垂直方向の露光区画単位の周期性具合を示す特徴量(露光不良2の判断に用いる)。 2) A feature amount indicating the periodicity of exposure block units in the horizontal and vertical directions (used to determine exposure failure 2).

<算出方法1>
1. 欠陥検出画像内の検出画素(明画素)を垂直方向に積算する(図13(A))。
<Calculation method 1>
1. The detection pixels (bright pixels) in the defect detection image are integrated in the vertical direction (FIG. 13A).

2. 積算結果により得た曲線をフーリエ変換する(図13(B))。 2. The curve obtained from the integration result is Fourier transformed (FIG. 13B).

3. 露光区画周期に相当するパワースペクトル値Xと他の周期に相当するパワースペクトル値a(露光区画周期以外の部分で平均的に算出する)の比を算出する(図13(B))。 3. A ratio between the power spectrum value X corresponding to the exposure section period and the power spectrum value a corresponding to another period (averaged in a portion other than the exposure section period) is calculated (FIG. 13B).

4. 3で算出した値を2)の特徴量(水平方向の周期具合)として、画像内の各検出領域に付加する。 4). The value calculated in 3 is added to each detection area in the image as the feature amount (horizontal direction) in 2).

なお、局所的な特徴量を得るために、図14に示すような短冊領域を複数設定して、各々の短冊領域内の検出画素を積算して処理を行っても良い。その場合は算出した特徴量は短冊領域内の各検出領域に付加する。   In order to obtain a local feature amount, a plurality of strip regions as shown in FIG. 14 may be set, and the detection pixels in each strip region may be integrated to perform processing. In this case, the calculated feature amount is added to each detection area in the strip area.

本実施の形態では垂直方向の積算を示したが、水平方向に積算することで、垂直方向の周期具合を示す特徴量とすることができる。   In the present embodiment, the integration in the vertical direction is shown, but by integrating in the horizontal direction, it is possible to obtain a feature amount that indicates the period of the vertical direction.

<算出方法2>
1. 対象露光区画での検出領域画像よりテンプレート52を作成する(図15(A))。
<Calculation method 2>
1. A template 52 is created from the detection area image in the target exposure section (FIG. 15A).

2. 1でのテンプレートを対象露光区画の左隣の露光区画(図15(B))に完全に重なるように配置し、テンプレート範囲内で両画像の差分絶対値の総和を算出する。 2. The template at 1 is arranged so as to completely overlap the exposure section adjacent to the left of the target exposure section (FIG. 15B), and the sum of absolute differences between both images is calculated within the template range.

3. 1でのテンプレートを対象露光区画の右隣の露光区画(図15(B))に完全に重なるように配置し、テンプレート範囲内で両画像の差分絶対値の総和を算出する。 3. The template at 1 is arranged so as to completely overlap the exposure section on the right side of the target exposure section (FIG. 15B), and the sum of absolute differences between both images is calculated within the template range.

4. 2及び3で求めた値の平均値を2)の特徴量(水平方向の周期具合)として、対象露光区画内の各検出領域に付加する。 4). The average value of the values obtained in 2 and 3 is added to each detection area in the target exposure section as a feature amount (horizontal direction) of 2).

5. テンプレートを走査し(図12(A))、欠陥検出画像内の全ての露光区画位置で1〜4の処理を行う。 5. The template is scanned (FIG. 12A), and processes 1 to 4 are performed at all exposure division positions in the defect detection image.

なお、対象の露光区画が端に位置し、左あるいは右隣の露光区画が存在しない場合には、片側のみの値を用いる。   When the target exposure section is located at the end and there is no left or right adjacent exposure section, the value of only one side is used.

また、 本実施形態では水平方向の左右隣との差分を示したが、垂直方向の上下隣との差分を行うことで、垂直方向の周期具合を示す特徴量とすることができる。   Further, in the present embodiment, the difference between the right and left neighbors in the horizontal direction is shown. However, by performing the difference between the vertical neighbors in the vertical direction, it is possible to obtain a feature amount indicating a vertical period.

3) 画像全体での(塗付時の回転中心に対する)放射方向成分の総量を示す特徴量(塗付ムラ1の判断に用いる)。 3) A feature amount indicating the total amount of the radial component (relative to the rotation center at the time of application) in the entire image (used for determining application unevenness 1).

<算出方法>
1. 検出領域のエッジを抽出する(図16(A)。
<Calculation method>
1. The edge of the detection area is extracted (FIG. 16A).

2. 抽出されたエッジ部分の画素を、塗付時の回転中心に対する極座標系画像(横軸:角度θ、縦軸:中心からの距離r)へ変換する(図16(B))。極座標系画像での縦方向線分は、原画像での放射方向線分に相当する。縦方向線分検出用のオペレータ(テンプレート)等を用いて縦方向線分の検出を行う(図17(A))。 2. The extracted pixel of the edge portion is converted into a polar coordinate system image (horizontal axis: angle θ, vertical axis: distance r from the center) with respect to the rotation center at the time of application (FIG. 16B). The vertical line segment in the polar coordinate system image corresponds to the radial line segment in the original image. The vertical line segment is detected using an operator (template) for detecting the vertical line segment (FIG. 17A).

3.検出された縦方向線分の総長さ(総面積)を3)の特徴量として、画像内の各検出領域に付加する。 3. The total length (total area) of the detected vertical line segments is added to each detection area in the image as a feature amount 3).

なお、極座標系画像において縦方向の細線構造要素で連結処理を行うことは、原画像における放射方向連結を行うことに相当する。さらに外周側からの輪郭追跡等を併用することで図17(B)に示すような縦線分の検出も可能である。   Note that performing connection processing with vertical thin line structure elements in a polar coordinate system image corresponds to performing radial direction connection in an original image. Furthermore, the vertical line segment as shown in FIG. 17B can also be detected by using contour tracking from the outer peripheral side together.

4) 各検出領域での(塗付時の回転中心に対する)放射方向成分の量を示す特徴量(塗付ムラ2の判断に用いる)。 4) A feature amount indicating the amount of the radial component (relative to the rotation center at the time of application) in each detection region (used for determining application unevenness 2).

<算出方法>
1.3)の特徴量算出の1〜3の処理を行う。
<Calculation method>
Processes 1 to 3 of 1.3) feature amount calculation are performed.

2. 検出された縦方向線分の長さを4)の特徴量として、対応する各検出領域に付加する。 2. The length of the detected vertical line segment is added to each corresponding detection area as the feature amount 4).

なお、極座標系画像において縦方向の細線構造要素で連結処理を行い(原画像での放射方向連結に相当)、その後、縦方向線分の長さ測定を行うことで得た特徴量を、連結領域の構成パーツとなる各領域に付加しても良い。   Note that the polar coordinate system image is connected with vertical thin line structure elements (corresponding to the radial direction connection in the original image), and then the length obtained by measuring the length of the vertical line segment is connected. You may add to each area | region used as the structure component of an area | region.

5) 各検出領域における(塗付時の回転中心に対する)螺旋成分の割合を示す特徴量(塗付ムラ3の判断に用いる)。 5) A feature amount indicating the ratio of the spiral component (with respect to the rotation center at the time of application) in each detection region (used for determining application unevenness 3).

<算出方法>
1.3)の特徴量算出の1及び2の処理を行う。なお原画像での螺旋成分は極座標系画像での斜方向線分に相当する。
<Calculation method>
The processing 1 and 2 of the feature amount calculation in 1.3) is performed. Note that the spiral component in the original image corresponds to a diagonal line segment in the polar coordinate system image.

2. 斜方向線分検出用のオペレータ等を用いて斜方向線分の検出を行う。 2. The diagonal line segment is detected using an operator for detecting the diagonal line segment.

3. 検出された斜方向線分の長さを5)の特徴量として、対応する各検出領域に付加する。 3. The length of the detected diagonal line segment is added to each corresponding detection area as the feature amount 5).

なお、3)、4)、5)の特徴量算出における線分検出にはハフ変換を利用してもよい。   Note that Hough transform may be used for line segment detection in the feature amount calculation of 3), 4), and 5).

推論判別手段106では、103、105の各特徴抽出手段で得られた特徴量と条件設定手段101により設定された分類ルールに基づき、各欠陥種の可能性を推論する。   The inference determination unit 106 infers the possibility of each defect type based on the feature amounts obtained by the feature extraction units 103 and 105 and the classification rule set by the condition setting unit 101.

推論のプロセスを示す前に、分類ルールについて説明する。これまでの経験や知識より“小さくて細長い領域はキズである可能性が高い”とか、“小さければ細長くなくてもキズの可能性がある”等が言える場合、“大きさ”を表す指標に面積を、“細長さ”を表す指標に最大最小フェレ径比(細長いものほど値は大きい)を用いると以下のようにルール化できる。   Before showing the inference process, the classification rules are explained. If it can be said that “small and narrow areas are highly likely to be scratched” or “small and may be scratched if not smaller” than previous experience and knowledge, it can be used as an indicator of “size” The area can be ruled as follows by using the maximum / minimum ferret diameter ratio (the longer the value is, the larger the value is) as an index representing “strip length”.

(1) :IF 面積=小さい AND 最大最小フェレ径比=大きい THEN キズの可能性=高い
(2) :IF 面積=小さい AND 最大最小フェレ径比=小さい THEN キズの可能性=中程度
(3) :IF 面積=大きい AND 最大最小フェレ径比=大きい THEN キズの可能性=中程度
(4) :IF 面積=大きい AND 最大最小フェレ径比=小さい THEN キズの可能性=低い
次に、ルールで用いられる “小さい”、“大きい”、“高い”、“低い”という表現に対して、各特長軸での数値が、どの程度合致するかの度合いを0〜1の値(適合度)で示した変化線(メンバーシップ関数)を設定する(図18(A)〜図18(C))。
(1): IF area = small AND Maximum and minimum ferret diameter ratio = large THEN Scratch probability = high (2): IF area = small AND maximum and minimum ferret diameter ratio = small THEN Scratch possibility = moderate (3) : IF area = large AND Maximum / minimum ferret diameter ratio = large The possibility of THEN scratch = moderate (4): IF area = large AND maximum / minimum ferret diameter ratio = small The possibility of THEN scratch = low Next used in rules For the expressions “small”, “large”, “high”, and “low”, the degree to which the numerical values on each feature axis match is indicated by a value of 0 to 1 (fitness). A change line (membership function) is set (FIGS. 18A to 18C).

上記の設定に基づき、ある検出領域(面積=x、最大最小フェレ径比=y)のキズの可能性を推論するプロセスを図19,図20に示す。これはファジィ推論における直接法として一般的な推論方法である((参考)ラッセル社:応用をめざす人のためのファジィ理論入門:田中一男著)。   A process for inferring the possibility of a flaw in a certain detection region (area = x, maximum / minimum ferret diameter ratio = y) based on the above settings is shown in FIGS. This is a general reasoning method as a direct method in fuzzy reasoning ((Reference) Russell: Introduction to fuzzy theory for those who want to apply: by Kazuo Tanaka).

図20では、図19においてそれぞれのルール(1)〜(4)で得た集合を合成(論理和)して中間的な解(重心Z)を得る。結果的には、4つのルールに対しそれぞれのルールの観点で考えた場合のキズの可能性を求め、補完的な判定結果を得ることに相当する。   In FIG. 20, the set obtained by the respective rules (1) to (4) in FIG. 19 is synthesized (ored) to obtain an intermediate solution (centroid Z). As a result, it corresponds to obtaining a complementary determination result by obtaining the possibility of scratches when considering the four rules from the viewpoint of each rule.

本例では、キズに対して4つのルールしか示さなかったが、更に多くのルールを設定することで精度の向上が図れる。   In this example, only four rules are shown for scratches, but accuracy can be improved by setting more rules.

また、同様に他の欠陥に対する知識を基に複数のルール(&メンバシップ関数)を設定し、それらのルールを処理することで、全ての欠陥種に対する可能性の値が算出できる。   Similarly, by setting a plurality of rules (& membership function) based on knowledge about other defects and processing those rules, the possibility values for all defect types can be calculated.

各欠陥種の可能性値が推論された後は以下の処理によって、欠陥種の確定を行う。   After the possibility value of each defect type is inferred, the defect type is determined by the following processing.

1. 判定対象の検出領域における各欠陥種の可能性値を高い順に並べる。 1. The probability values of the defect types in the detection area to be determined are arranged in descending order.

2. “最も高い欠陥種の可能性値−2番目に高い欠陥種の可能性値>閾値“の場合に、対象の検出領域の欠陥種が確定したと判定する。 2. When “the probability value of the highest defect type−the possibility value of the second highest defect type> threshold value”, it is determined that the defect type of the target detection region has been determined.

3. 1.及び2.の処理を欠陥検出画像内の全ての検出領域に対して行う。 3. 1. And 2. This process is performed for all the detection areas in the defect detection image.

なお、2.での閾値は、試行した結果の固定値でも、条件設定手段101で設定した値でも良い。また、前述の繰り返し処理(図3,ステップS3〜S8)の回数が多くなるにつれ低くなるように設定しても良い。   In addition, 2. The threshold value at may be a fixed value as a result of the trial or a value set by the condition setting means 101. Further, it may be set so as to decrease as the number of the above-described repetitive processing (FIG. 3, steps S3 to S8) increases.

確定領域除外手段107では、欠陥検出画像において欠陥種が確定した検出領域内の画素を明から暗に変更することで、欠陥種が確定した領域の除外を行う。   The confirmed area exclusion means 107 excludes the area where the defect type is determined by changing the pixels in the detection area where the defect type is determined in the defect detection image from bright to dark.

マクロ検査における主な欠陥例を示す図である。It is a figure which shows the example of main defects in a macro test | inspection. 本実施の形態に係る欠陥分類装置の構成を示す図である。It is a figure which shows the structure of the defect classification apparatus which concerns on this Embodiment. 欠陥分類処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of a defect classification | category process. 領域単体特徴抽出手段103での処理の詳細を説明するためのフローチャートである。10 is a flowchart for explaining details of processing in a region single feature extracting unit 103; 領域単体特徴抽出の説明図(その1)である。It is explanatory drawing (the 1) of area | region single-piece | unit feature extraction. 領域単体特徴抽出の説明図(その2)である。It is explanatory drawing (the 2) of area | region single-piece | unit feature extraction. 領域連結手段104での処理の詳細を説明するためのフローチャートである。5 is a flowchart for explaining details of processing in an area connecting unit 104; 領域連結の説明図(その1)である。It is explanatory drawing (the 1) of area | region connection. 領域連結の説明図(その2)である。It is explanatory drawing (the 2) of area | region connection. 連結領域単体特徴抽出の説明図である。It is explanatory drawing of a connected area single-piece | unit feature extraction. 露光区画形状の構成具合を示す特徴量の説明図であり、(A)は露光区画形状の部分を明、その周辺を暗としたテンプレートを示し、(B)は欠陥検出画像の露光区画部分を示している。It is explanatory drawing of the feature-value which shows the structure of an exposure division shape, (A) shows the template which made the exposure division shape part bright and the periphery dark, (B) shows the exposure division part of a defect detection image. Show. 露光区画形状の構成具合を示す特徴量の説明図であり、(A)はテンプレートの走査例を示し、(B)は計算量削減のためのテンプレート例を示している。It is explanatory drawing of the feature-value which shows the structure of exposure division shape, (A) shows the example of a template scan, (B) has shown the example of a template for calculation amount reduction. 露光区画サイズの周期性具合を示す特徴量の説明図(その1)であり、(A)は検出画素の垂直方向への積算を示し、(B)は積算曲線のフーリエ変換と露光区画サイズの周期性を示す特徴量を示している。It is explanatory drawing (the 1) of the feature-value which shows the periodicity condition of exposure division size, (A) shows the integration to the vertical direction of a detection pixel, (B) is the Fourier transform of an integration curve, and exposure division size. The feature quantity indicating periodicity is shown. 露光区画サイズの周期性具合を示す特徴量の説明図(その1)であり、短冊領域での垂直方向への積算を示している。It is explanatory drawing (the 1) of the feature-value which shows the periodicity condition of exposure division size, and has shown the integration to the perpendicular direction in a strip area. 露光区画サイズの周期性具合を示す特徴量の説明図(その2)であり、(A)は対象露光区画の検出結果画像に基づくテンプレートの作成を示し、(B)は対象露光区画の水平方向の左右隣の露光区画を示している。It is explanatory drawing (the 2) of the feature-value which shows the periodicity condition of exposure division size, (A) shows preparation of the template based on the detection result image of object exposure area, (B) is the horizontal direction of object exposure area. The right and left exposure sections are shown. 画像全体での放射方向成分の量を示す特徴量の説明図であり、(A)は検出領域のエッジ抽出を示し、(B)は塗布時の回転中心に対する極座標変換を示している。It is explanatory drawing of the feature-value which shows the quantity of the radial direction component in the whole image, (A) shows edge extraction of a detection area | region, (B) has shown the polar coordinate conversion with respect to the rotation center at the time of application | coating. 画像全体での放射方向成分の量を示す特徴量の説明図であり、(A)は極座標画像での縦方向線分1を示し、(B)は極座標画像での縦方向線分検出2を示している。It is explanatory drawing of the feature-value which shows the quantity of the radial direction component in the whole image, (A) shows the vertical line segment 1 in a polar coordinate image, (B) shows the vertical direction line segment detection 2 in a polar coordinate image. Show. ファジィ推論による欠陥の可能性の算出の説明図であり、キズ判定ルールでの表現に対するメンバシップ関数を示している。It is explanatory drawing of calculation of the possibility of the defect by a fuzzy reasoning, and has shown the membership function with respect to the expression by a crack determination rule. ファジィ推論による欠陥の可能性の算出の説明図であり、推論プロセス(その1)を示している。It is explanatory drawing of calculation of the possibility of the defect by fuzzy reasoning, and shows the reasoning process (the 1). ファジィ推論による欠陥の可能性の算出の説明図であり、推論プロセス(その2)を示している。It is explanatory drawing of calculation of the possibility of the defect by fuzzy reasoning, and shows the reasoning process (the 2).

符号の説明Explanation of symbols

101 条件設定手段
102 特徴抽出手段
103 領域単体特徴抽出手段
104 領域連結手段
105 領域配置特徴抽出手段
106 推論判別手段
107 確定領域除外手段
108 メモリ
101 condition setting unit 102 feature extraction unit 103 region single unit feature extraction unit 104 region connection unit 105 region arrangement feature extraction unit 106 inference determination unit 107 confirmed region exclusion unit 108 memory

Claims (12)

被検体の画像を基に検出された欠陥の種類を判別する欠陥分類装置において、
検出された欠陥領域の画像より特徴量を抽出する手段であって、少なくとも2つ以上の検出領域の配置形状に基づく特徴量を抽出する手段を含む特徴量抽出手段と、
この特徴量抽出手段により抽出された特徴量に基づき、欠陥種を判別する欠陥種判別手段と、
この欠陥種判別手段により判別された欠陥種が確定した領域を前記欠陥領域の画像から除外する確定領域除外手段と
を具備することを特徴とする欠陥分類装置。
In the defect classification device for determining the type of defect detected based on the image of the subject,
Means for extracting a feature amount from an image of a detected defect area, and including a feature amount extraction means including means for extracting a feature quantity based on an arrangement shape of at least two or more detection areas;
A defect type discriminating means for discriminating a defect type based on the feature quantity extracted by the feature quantity extracting means;
A defect classification apparatus comprising: a defined area excluding unit that excludes an area in which the defect type determined by the defect type determining unit is determined from the image of the defect area.
前記特徴量抽出手段は、各検出領域の形状により適応的な構造要素を用いた膨張処理により、少なくとも2つ以上の検出領域を連結する連結手段と、当該連結領域の特徴量を抽出する手段とを含むことを特徴とする請求項1記載の欠陥分類装置。 The feature amount extraction means includes a connection means for connecting at least two detection areas by means of expansion processing using an adaptive structural element depending on the shape of each detection area, and means for extracting the feature quantities of the connection areas. The defect classification apparatus according to claim 1, further comprising: 前記連結手段は、各欠陥領域の最大最小フェレ径比(≧1)及び主軸角を算出する手段と、算出した最大最小フェレ径比の値を基に膨張処理に用いられる構造要素の形状を円形あるいは細線形から選択する手段と、細線形の構造要素が選択された欠陥領域の主軸角に対しその細線形の方向を合わせる手段と、各欠陥領域ごとに決定された構造要素を用いて欠陥領域画像において膨張処理を行い、重なり合う領域を連結する手段とを含むことを特徴とする請求項2記載の欠陥分類装置。 The connecting means is a means for calculating the maximum / minimum ferret diameter ratio (≧ 1) and the main shaft angle of each defect area, and the shape of the structural element used for the expansion process based on the calculated maximum / minimum ferret diameter ratio is circular. Alternatively, a means for selecting from fine line, a means for aligning the direction of the fine line with the principal axis angle of the defect area for which the fine line structure element is selected, and a defect area using the structure element determined for each defect area 3. The defect classification apparatus according to claim 2, further comprising means for performing expansion processing on the image and connecting overlapping regions. 前記欠陥種判別手段は、特徴量の値と予め設定した分類ルールに基づくファジィ推論を行う手段を含むことを特徴とする請求項1から3のいずれか1つに記載の欠陥分類装置。 4. The defect classification apparatus according to claim 1, wherein the defect type determination unit includes a unit that performs fuzzy inference based on a feature value and a preset classification rule. 前記欠陥は、半導体ウェハや液晶パネル等の製造工程で生じる露光不良、塗付ムラ、キズ、塵、埃等であることを特徴とする請求項1から4のいずれか1つに記載の欠陥分類装置。 The defect classification according to any one of claims 1 to 4, wherein the defect is an exposure failure, coating unevenness, scratches, dust, dust, or the like generated in a manufacturing process of a semiconductor wafer, a liquid crystal panel, or the like. apparatus. 前記特徴量抽出手段は、露光工程での露光区画情報を用いて特徴量を抽出する手段を含むことを特徴とする請求項5記載の欠陥分類装置。 6. The defect classification apparatus according to claim 5, wherein the feature amount extraction means includes means for extracting a feature amount using exposure section information in an exposure process. 前記露光区画情報を用いて特徴量を抽出する手段は、露光区画形状を示すテンプレート画像を作成する手段と、前記テンプレート画像を検出欠陥領域の画像の露光区画位置に合わせて走査し、各露光区画位置での両画像の相関値を算出する手段と、前記相関値が算出された露光区画内の検出欠陥に対し前記相関値を特徴量として付加する手段とを含むことを特徴とする請求項6記載の欠陥分類装置。 The means for extracting the feature amount using the exposure section information includes means for creating a template image indicating an exposure section shape, and scanning the template image in accordance with the exposure section position of the image of the detected defect area. 7. A means for calculating a correlation value between both images at a position and a means for adding the correlation value as a feature amount to a detected defect in the exposure section where the correlation value is calculated. Defect classification apparatus of description. 前記露光区画情報を用いて特徴量を抽出する手段は、検出欠陥領域の画素を垂直あるいは水平方向に積算する手段と、積算値の外形曲線をフーリエ変換し各周波数における振幅値を算出する手段と、露光区画周期に相当する周波数の振幅値と他の周期に相当する周波数の平均振幅値の比を算出する手段と、前記積算に用いられた検出欠陥に対し前記比の値を特徴量として付加する手段とを含むことを特徴とする請求項6記載の欠陥分類装置。 Means for extracting the feature value using the exposure section information includes means for integrating the pixels of the detected defect area in the vertical or horizontal direction, and means for calculating an amplitude value at each frequency by Fourier transforming the outline curve of the integrated value. Means for calculating a ratio between an amplitude value of a frequency corresponding to an exposure section period and an average amplitude value of a frequency corresponding to another period, and adding the value of the ratio as a feature amount to the detected defect used in the integration The defect classification apparatus according to claim 6, further comprising: 前記露光区画情報を用いて特徴量を抽出する手段は、検出欠陥領域の画像における任意の露光区画よりテンプレート画像を作成する手段と、前記テンプレート画像を前記任意の露光区画の上下あるいは左右に位置する露光区画に合わせて相関値を算出し、その平均を算出する手段と、前記任意の露光区画内の検出欠陥に対し前記平均値を特徴量として付加する手段とを含むことを特徴とする請求項6記載の欠陥分類装置。 Means for extracting feature quantities using the exposure section information includes means for creating a template image from an arbitrary exposure section in the image of the detected defect area, and positions the template image above, below, or on the left and right of the arbitrary exposure section. A means for calculating a correlation value in accordance with an exposure section and calculating an average thereof, and means for adding the average value as a feature amount to the detected defect in the arbitrary exposure section. 6. The defect classification apparatus according to 6. 前記特徴量抽出手段は、塗付工程でのウェハ回転中心に対する極座標を用いて特徴量を抽出する手段を含むことを特徴とする請求項5記載の欠陥分類装置。 6. The defect classification apparatus according to claim 5, wherein the feature amount extraction means includes means for extracting feature amounts using polar coordinates with respect to the wafer rotation center in the coating step. 前記特徴量抽出手段は、検出欠陥領域を塗付工程でのウェハ回転中心に対する極座標系に変換した極座標画像を作成する手段と、前記極座標画像において直線成分を検出する手段と、前記直線成分を構成する欠陥領域に対し前記直線成分の長さを特徴量として付加する手段とを含むことを特徴とする請求項10記載の欠陥分類装置。 The feature amount extraction unit includes a unit that creates a polar coordinate image obtained by converting the detected defect area into a polar coordinate system with respect to the wafer rotation center in the application step, a unit that detects a linear component in the polar coordinate image, and the linear component 11. The defect classification apparatus according to claim 10, further comprising means for adding the length of the linear component as a feature amount to a defect area to be processed. 検出された欠陥領域の画像を示す表示手段と、この表示手段において欠陥種が確定した領域を、その確定した順に明示する手段とを備え、これによって欠陥種が確定した経過をユーザーに示すことを特徴とする請求項1から11のいずれか1つに記載の欠陥分類装置。 Display means for displaying an image of the detected defect area, and means for clearly indicating the areas in which the defect type is determined in the display means in the order of determination, thereby indicating to the user the progress of the defect type determined. The defect classification apparatus according to claim 1, wherein the defect classification apparatus is a defect classification apparatus.
JP2008167743A 2008-06-26 2008-06-26 Defect classification system Pending JP2008281580A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008167743A JP2008281580A (en) 2008-06-26 2008-06-26 Defect classification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008167743A JP2008281580A (en) 2008-06-26 2008-06-26 Defect classification system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001370218A Division JP4516253B2 (en) 2001-12-04 2001-12-04 Defect classification device

Publications (1)

Publication Number Publication Date
JP2008281580A true JP2008281580A (en) 2008-11-20

Family

ID=40142482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008167743A Pending JP2008281580A (en) 2008-06-26 2008-06-26 Defect classification system

Country Status (1)

Country Link
JP (1) JP2008281580A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047770A (en) * 2018-01-17 2019-07-23 东京毅力科创株式会社 The flaw detection apparatus of substrate, the defect detecting method of substrate and storage medium
JP2019174288A (en) * 2018-03-28 2019-10-10 リコーエレメックス株式会社 Inspection system
JP2019215336A (en) * 2018-05-24 2019-12-19 キーサイト テクノロジーズ, インク. Unevenness detection in master panel of flat panel display during manufacturing
JP2020098108A (en) * 2018-12-17 2020-06-25 株式会社大林組 Surface defect inspection method
CN114096368A (en) * 2019-07-11 2022-02-25 株式会社V技术 Laser repair method and laser repair device
CN115032148A (en) * 2022-06-06 2022-09-09 苏州天准科技股份有限公司 Sheet edge surface detection method and regular detection temporary storage station

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02128284A (en) * 1988-11-09 1990-05-16 Toshiba Corp Picture processing method in defect inspection
JPH05280960A (en) * 1992-03-30 1993-10-29 Fuji Photo Film Co Ltd Defect inspection device
JPH0611458A (en) * 1992-06-25 1994-01-21 Mitsubishi Rayon Co Ltd Defect inspection device
JPH06167323A (en) * 1992-10-02 1994-06-14 Seiko Instr Inc Inspecting apparatus for part and inspecting method using the apparatus
JPH10242227A (en) * 1997-02-27 1998-09-11 Miyazaki Oki Electric Co Ltd Method and apparatus for automated macro test of wafer
JP2000172843A (en) * 1998-12-01 2000-06-23 Tokyo Seimitsu Co Ltd Appearance inspection device and method therefor
JP2001188906A (en) * 1999-12-28 2001-07-10 Hitachi Ltd Method and device for automatic image calssification

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02128284A (en) * 1988-11-09 1990-05-16 Toshiba Corp Picture processing method in defect inspection
JPH05280960A (en) * 1992-03-30 1993-10-29 Fuji Photo Film Co Ltd Defect inspection device
JPH0611458A (en) * 1992-06-25 1994-01-21 Mitsubishi Rayon Co Ltd Defect inspection device
JPH06167323A (en) * 1992-10-02 1994-06-14 Seiko Instr Inc Inspecting apparatus for part and inspecting method using the apparatus
JPH10242227A (en) * 1997-02-27 1998-09-11 Miyazaki Oki Electric Co Ltd Method and apparatus for automated macro test of wafer
JP2000172843A (en) * 1998-12-01 2000-06-23 Tokyo Seimitsu Co Ltd Appearance inspection device and method therefor
JP2001188906A (en) * 1999-12-28 2001-07-10 Hitachi Ltd Method and device for automatic image calssification

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7087397B2 (en) 2018-01-17 2022-06-21 東京エレクトロン株式会社 Substrate defect inspection equipment, substrate defect inspection method and storage medium
JP2019124591A (en) * 2018-01-17 2019-07-25 東京エレクトロン株式会社 Substrate defect inspection device, substrate defect inspection, and storage medium
CN110047770A (en) * 2018-01-17 2019-07-23 东京毅力科创株式会社 The flaw detection apparatus of substrate, the defect detecting method of substrate and storage medium
US11636585B2 (en) 2018-01-17 2023-04-25 Tokyo Electron Limited Substrate defect inspection apparatus, substrate defect inspection method, and storage medium
US11227381B2 (en) 2018-01-17 2022-01-18 Tokyo Electron Limited Substrate defect inspection apparatus, substrate defect inspection method, and storage medium
TWI798329B (en) * 2018-01-17 2023-04-11 日商東京威力科創股份有限公司 Substrate defect inspection device, substrate defect inspection method, and storage medium
JP2019174288A (en) * 2018-03-28 2019-10-10 リコーエレメックス株式会社 Inspection system
JP2019215336A (en) * 2018-05-24 2019-12-19 キーサイト テクノロジーズ, インク. Unevenness detection in master panel of flat panel display during manufacturing
JP7461112B2 (en) 2018-05-24 2024-04-03 キーサイト テクノロジーズ, インク. Detection of uneven defects in master panels of flat panel displays during manufacturing
JP2020098108A (en) * 2018-12-17 2020-06-25 株式会社大林組 Surface defect inspection method
JP7346816B2 (en) 2018-12-17 2023-09-20 株式会社大林組 Surface defect inspection method
CN114096368A (en) * 2019-07-11 2022-02-25 株式会社V技术 Laser repair method and laser repair device
CN115032148A (en) * 2022-06-06 2022-09-09 苏州天准科技股份有限公司 Sheet edge surface detection method and regular detection temporary storage station

Similar Documents

Publication Publication Date Title
JP4516253B2 (en) Defect classification device
US7817844B2 (en) Pattern inspection apparatus and method
JP4787673B2 (en) Pattern inspection apparatus and method
TW490591B (en) Pattern inspection apparatus, pattern inspection method, and recording medium
JP3524853B2 (en) Pattern inspection apparatus, pattern inspection method, and recording medium
JP4997351B2 (en) Pattern inspection apparatus and method
JP4771714B2 (en) Pattern inspection apparatus and method
US7486814B2 (en) Local bias map using line width measurements
TWI616823B (en) Defect classification using cad-based context attributes
JP3660763B2 (en) Inspection pattern inspection method, manufacturing process diagnosis method, and semiconductor substrate manufacturing method
JP2008281580A (en) Defect classification system
US8090192B2 (en) Pattern misalignment measurement method, program, and semiconductor device manufacturing method
JPH1145919A (en) Manufacture of semiconductor substrate
TW201351347A (en) Defect classification using topographical attributes
US8260034B2 (en) Multi-modal data analysis for defect identification
JP2001188906A (en) Method and device for automatic image calssification
JP2009071271A (en) Pattern figure evaluating method, pattern figure evaluating device, pattern figure evaluating data generating device, and semiconductor figure evaluating system employing them
JP2010268009A (en) Device and method for inspecting pattern
JPH09203621A (en) Method for inspecting defect of pattern to be inspected, method for evaluating semiconductor-manufacturing process using the method, and method for positioning plurality of images
CN115619708A (en) Method for judging fault based on image recognition of oil quality change of main shaft bearing lubricating oil
JP4843415B2 (en) Pattern evaluation method and program
JP4597509B2 (en) Pattern inspection apparatus and pattern inspection method
JP4343929B2 (en) Fine pattern evaluation method and apparatus
JP4710191B2 (en) Photomask pattern shape automatic measurement method and apparatus, program therefor, photomask manufacturing method and semiconductor device manufacturing method
JP2004030368A (en) Mask pattern appearance inspection method, program therefor, and mask pattern appearance inspection apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308