JP2004354251A - Defect inspection device - Google Patents

Defect inspection device Download PDF

Info

Publication number
JP2004354251A
JP2004354251A JP2003153384A JP2003153384A JP2004354251A JP 2004354251 A JP2004354251 A JP 2004354251A JP 2003153384 A JP2003153384 A JP 2003153384A JP 2003153384 A JP2003153384 A JP 2003153384A JP 2004354251 A JP2004354251 A JP 2004354251A
Authority
JP
Japan
Prior art keywords
defect
learning
image
artificial
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003153384A
Other languages
Japanese (ja)
Inventor
Takayasu Yamamoto
貴靖 山本
Eiji Yonezawa
栄二 米澤
Taizo Umezaki
太造 梅崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2003153384A priority Critical patent/JP2004354251A/en
Priority to US10/855,320 priority patent/US7333650B2/en
Publication of JP2004354251A publication Critical patent/JP2004354251A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a defect inspection device capable of replenishing the learning pattern of a neural network and capable of enhancing the recognition ratio to non-learned data. <P>SOLUTION: The defect inspection device for inspecting the presence of the defect of an object to be inspected using the neural network is equipped with an artificial flaw forming means for forming the artificial defective image of the object to be inspected by image processing and a learning means for learning the neural network on the basis of the artificially formed defective image. The artificial flaw forming means determines at least one of the position, brightness and shape of the flaw in the object to be inspected by random numbers. Further, the artificial flaw forming means is a means for forming the artificial defective image at every flaw of a plurality of defects to be classified and the learning means determines the learning patterns of the artificial image of a defect to be classified and a non-defective image by random numbers to allow the neural network to learn. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、被検物の欠陥を検査する欠陥検査装置に関する。
【0002】
【従来技術】
半導体製造工場におけるパターン付きウエハのマクロ検査においては、従来、ウエハに強力な光を斜めから照射し、その散乱光や回折光の状態をオペレータが目視で観察して行っていた。しかし、オペレータには検査能力のバラツキや見落としがあるため、安定した品質の確保に難点があった。また、オペレータが被検物に接近することによる汚染やクリーン度の維持が難しく、製品の歩留まりの向上に大きな障害となる。そこで、被検物表面を撮像し、その画像データを画像処理して欠陥を自動的に検査する欠陥検査装置が提案されている(例えば、特許文献1参照)。
【0003】
また、検査条件は被検物の品種や製造工程によって異なる。この対応として、ニューラルネットワークを用いて検査条件を決定することが提案されている(例えば、特許文献2参照。)。
【0004】
【特許文献1】
特開平11−194098号公報
【0005】
【特許文献2】
特開2001−343336号公報
【0006】
【発明が解決しようとする課題】
被検物における欠陥の有無の判定についても、ニューラルネットワークを利用することが考えられる。しかし、半導体ウエハ等においては、その被検物の特有の問題として、欠陥の発生頻度が低く、ニューラルネットワークに学習させるための欠陥サンプルが集まり難いという問題があった。また、従来のニューラルネットワークの学習を取得済みデータのみで行う方法では、未学習データに対して間違った結果を出力する場合が多く、半導体のマクロ欠陥の様な無限のバリエーションが考えられるものに対しては有効ではなかった。
【0007】
本発明は、上記従来技術の問題点に鑑み、ニューラルネットワークの学習用パターンの不足を補い、また、未学習データに対する認識率を高めることができる欠陥検査装置を提供することを技術課題とする。
【0008】
【課題を解決するための手段】
上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする。
【0009】
(1) ニューラルネットワークを用いて被検物の欠陥の有無を検査する欠陥検査装置において、被検物の人工的な欠陥画像を画像処理により作成する人工欠陥作成手段と、人工的に作成された欠陥画像により前記ニューラルネットワークを学習させる学習手段と、を備えることを特徴とする。
【0010】
(2) (1)の人工欠陥作成手段は、被検物における欠陥の位置、輝度及び形状の内の少なくとも一つを乱数により決定して作成することを特徴とする。
【0011】
(3) (1)の欠陥検査装置において、前記人工欠陥作成手段は複数の分類すべき欠陥毎に人工的な欠陥画像を作成する手段であり、前記学習手段は分類すべき欠陥の人工画像と良品画像の学習パターンを乱数により決定して前記ニューラルネットワークに学習させる手段であることを特徴とする。
【0012】
(4) (3)の学習手段は、分類すべき各欠陥の学習誤差が所定の値に達するまで前記人工欠陥作成手段により作成された欠陥画像によるニューラルネットワークの学習を繰り返すことを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。図1は本発明に係る検査装置の概略構成を示す図である。
【0014】
31はXYステージ32を移動するステージ駆動部、33はウエハWをXYステージ32へ自動搬送するウエハ搬送部、30は本検査装置全体を制御する制御部である。
【0015】
1はXYステージ32に載置された検査対象の被検物であるウエハWを照明するための照明光学系を示し、照明ユニット2及びウエハWより一回り大きなコリメータレンズ9を備える。10は照明光学系1により照明されたウエハWを撮像する撮像光学系を示し、照射光学系1と共用されるコリメータレンズ9、CCDカメラ11を備える。
【0016】
撮像光学系10の光軸L3は、コリメータレンズ9の光軸L1を挟んで照明光学系1の光軸L2と対称になるように配置されており、CCDカメラ11は照明光学系1により照明されたウエハWからの正反射光によりウエハWの検査面を撮像する。また、CCDカメラ11は照明ユニット2との干渉を避けつつウエハWをほぼ垂直な方向から撮像するように配置されている。本実施形態では、コリメータレンズ9の光軸と照射光学系1の光軸及び撮像光学系10の成す角度を、それぞれ3度として構成している。ウエハWの検査面(表面)に対するCCDカメラ11の撮像光軸L3の傾きはさほど大きくないので、画像の歪みやフォーカスぼけの影響は少ない。
【0017】
なお、コリメータレンズ9の光軸と照明光学系1の光軸とを一致させて、ウエハWを垂直方向から照明するとともに、ハーフミラーを使用して撮像光学系10の光軸も同軸にすることにより、照明ユニット2とCCDカメラ11との干渉を避けつつ、正反射光によりウエハWの検査面を撮像する構成とすることもできる。
【0018】
照明ユニット2は、光源であるハロゲンランプ3、拡散板7を有する。ハロゲンランプ3から発せられた光は拡散板7によって拡散され、輝度が十分に均一な拡散照明光とされる。拡散板7を発した光は、コリメータレンズ9によって略平行とされた後、XYステージ32に載置されたウエハWを照明する。コリメータレンズ9は検査対象物であるウエハWの検査面より一回り大きな径を持つ。
【0019】
照明光学系1に照明されたウエハWからの正反射光は、コリメータレンズ9により収束され、ウエハWのほぼ全面の像がCCDカメラ11に結像する。
【0020】
CCDカメラ11からの画像信号は画像処理部20に入力される。画像処理部20は、画像を記憶する画像メモリ20aと、ウエハ上のキズ、現像不良、部分デフォーカス、ショットデフォーカス等の欠陥を検出する欠陥検出部20b、画像処理により人工的に欠陥画像を作成する人工欠陥画像作成部20cとを有する。欠陥検出部20bはニューラルネットワーク部22と接続されている。ニューラルネットワーク部22は、図2に示すように、キズ分類のニューラルネットワーク22a、現像不良分類のニューラルネットワーク22b、部分デフォーカス分類のニューラルネットワーク22c、ショットデフォーカス分類のニューラルネットワーク22dといったように、分類すべき欠陥の種類毎のニューラルネットワークを備える。各ニューラルネットワークは、図6に示すように、入力層、1層又は複数の中間層、及び出力層から構成されている。各ニューラルネットワークの学習は、一般に知られている誤差逆伝播法を用いた例としている。入力部23は、画像処理部20に対する指示信号を入力する手段である。画像処理部20、ニューラルネットワーク部22及び入力部23は、パーソナルコンピュータにより構成できる。
【0021】
本装置による欠陥検査について説明する。ニューラルネットワーク部22には、欠陥分類(キズ、部分デフォーカス、ショットデフォーカス、現像不良)毎に欠陥の有無の判定結果を出力すべく、半導体ウェハの製造工程で発生する特有の欠陥の種類を学習させる。ウエハの製造工程は、例えば順に、薄膜形成、感光剤塗布、露光、現像、エッチング、メタル成膜からなる。これらの工程の内、キズはそれぞれの工程に搬送する経路において発生する可能性がある。また、部分デフォーカス、ショットデフォーカスは露光工程で発生し、現像不良は現像工程で発生する可能性がある。欠陥検査は、各製造工程が終了後に行われる場合もある。
【0022】
ニューラルネットワーク部22の学習と欠陥分類の出力について説明する。まず、ニューラルネットワーク部22に学習させるために、欠陥毎に学習用の欠陥サンプルを用意する。サンプルの一つをXYステージ32に載せ、照明ユニット2により照明して撮影する。制御部30の制御によりモータ6が駆動される。そして、CCDカメラ11で撮影されたウエハの画像データを、画像メモリ20aに順次記憶させる。
【0023】
次に、図2に示すように、欠陥サンプルの原画像の一部を切り出し、画像処理部20にて前処理や必要に応じて圧縮を行った画像を学習パターンとする。これらの処理は、欠陥の特徴に合わせているため、各ニューラルネットワーク22a〜22d毎に異なる。キズ、現像不良、部分デフォーカスの前処理は、欠陥形状及びエッジ部に特徴がある為、Sobel変換にてエッジ強調を行う。又、現像不良と部分デフォーカスは、通常ある程度まとまった面積をもっているため、学習効率と処理時間を考慮し、1/2に圧縮する。ショットデフォーカスについては、ショット(露光単位)形状で欠陥が発生するため、前処理として、図3に示すようにアフィン変換により1ショット分が入力層サイズに収まるように画像サイズの変換を行う。尚、1ショット分の境界座標については予め、入力部23より入力されている。入力層サイズに収まる画像は、対象とする1ショット分のみでなく、1ショット分の周りのショットの情報が含まれるようにし、回りのショットと対象とする1ショットの輝度を比較しやすいようにする。また、ショットデフォーカスによる欠陥は像がぼやけてはっきりしないため、コントラストを強調する必要がある。そのため、アフィン変換により画像サイズの変換をされた画像は、シグモイド関数を使用して輝度の変換を行い、ショットデフォーカスを確認しやすくする。
【0024】
学習パターンの切り出し位置の決定は、同じパターンを学習させないため、乱数により行う。すなわち、切り出し位置を乱数によりランダムに決定することにより、各ニューラルネットワークが学習データの順番を覚えないようにし、分類すべき欠陥の位置情報が各ニューラルネットワークの学習に反映されないようにする。現像不良、部分デフォーカスの学習時の興奮パターンは、欠陥面積が切り出し面積の60%以上含まれるようにする。キズの学習時の興奮パターンは、線状の欠陥部が切出し窓の中心の範囲内に必ず存在するように切り出す。
【0025】
また、切り出し位置が、ウエハWの欠陥対象領域外(ウエハWから外れている領域)を含んだ場合、そのままニューラルネットワークに入力すると、欠陥対象領域と欠陥対象領域外との境界において、急激な輝度変化が発生するなどして、異常な結果が返ってきてしまう。異常な結果を出さないために、ニューラルネットワークに入力する前に欠陥対象領域外のデータを補間する必要がある。そのため、図4(a)に示すように入力層サイズにウエハWの欠陥対象領域外を含んでいたら、ウエハWの欠陥対象領域の輝度データから欠陥対象領域外の輝度データを外挿補間する。例えば、図4(a)に示す水平ライン方向Aについての欠陥対象領域の輝度分布が図4(b)のように実線であった場合、これらの情報をスプライン補間することにより、欠陥対象領域外の輝度分布を図4(b)の破線で示すように形成する。また、スプライン補間する代わりに、欠陥対象領域の輝度データを単に直線補間して有効領域外の輝度分布得ても良い。
【0026】
また、ニューラルネットワーク部22の学習には欠陥判定の性能向上に効果的な抑制学習を導入する。良品部のみでなく、学習する対象以外の欠陥についても抑制学習を行わせる。教師信号は興奮パターンの場合を1、抑制パターンの場合を0とする。
【0027】
以上のような欠陥分類の学習パターンに対応した教師信号をニューラルネットワーク部22へ入力する。ニューラルネットワーク部22は、新たな学習パターンが入力される毎に、既に学習した内容に基づいて欠陥分類を求め、これを出力層から出力する。
【0028】
なお、学習及び検査に使用する画像は、CCDカメラ11により撮像された原画像と、それに対応して出力された欠陥位置画像である。欠陥位置画像は画素毎に欠陥(1)又は無欠陥(0)の情報を持っており、その位置は原画像と1:1に対応している。
【0029】
次に、人工欠陥画像について説明する。ウエハのマクロ検査においては、マクロ検査特有の問題として欠陥の発生頻度が低く、学習用の欠陥サンプルが集まり難いという問題がある。また、取得済みサンプルのみで学習させる方法は、未学習データに対して間違った結果を出力する可能性が高くなる。そこで、プログラムにより人工的に生成した人工欠陥をニューラルネットワーク部22に学習させることにより、学習パターンの不足を補い、かつ様々なパターンの学習により未学習データに対する認識率を高めることを可能にする。
【0030】
入力部23より人工欠陥学習の指示信号を入力する。画像処理部20は、この指示信号に人工欠陥作成及び学習のプログラムを実行する。人工欠陥画像は、上記の欠陥分類と同様にキズ、現像不良、部分デフォーカス、ショットデフォーカスの欠陥分類について、人工欠陥作成部22cにより作成される。欠陥分類ごとに作成する人工欠陥画像の項目の例を、図7に示す。各項目は乱数によりランダムに決定する。まず、乱数により、半導体ウエハ上の配線パターン(メモリパターン、ロジックパターンがある)、輝度分布、形状を決定する。また、予め選定しておいた良品画像上の乱数で決定した位置に配置される人工欠陥の学習パターンを決定する。乱数により決定する配線パターンには、例えば、ショットサイズ、ショット内チップ数、チップ間隔等があり、これは各欠陥の背景画像として使用される。乱数により決定する形状は、人工欠陥の種類によって人工的に決定する項目が異なる。例えば、ショットデフォーカスであれば、欠陥輝度、欠陥位置、輝度ムラ等がある。部分デフォーカスの場合であれば、ショットデフォーカスの項目に加えて、さらに欠陥ボケ分布、欠陥サイズ等がある。キズの場合であれば、欠陥輝度、欠陥位置、欠陥長さ、太さ、角度、曲率半径、等がある。現像の場合であれば、欠陥輝度、欠陥位置、欠陥ボケ分布、欠陥サイズ等がある。
【0031】
図8は人工欠陥の学習フローを示す図である。まず、学習パターンが人工欠陥か良品画像のどちらであるか乱数により決定される。学習パターンに人工欠陥が決定された場合は、上記のように欠陥分類品毎に人工欠陥画像が作成される。学習パターンに良品画像が決定された場合、抑制パターンとされる。その後はサンプルウェハの欠陥部の学習と同様に、人工欠陥画像及び良品の画像を圧縮、拡大、縮小したり、画像にバンドパスフィルタを通して特定の周波数成分を検出する等の前処理が施される。その後、乱数により学習位置が決定され、各欠陥の分類に応じて、ニューラルネットワーク部22a〜22dにより学習が行われる。教師信号は興奮パターンの場合を1、抑制パターンの場合を0とする。こうした学習を繰返し、出力される欠陥判定の学習誤差が規定値以下になったところで、人工欠陥の学習が終了する。
【0032】
人工欠陥画像を作成し、これをニューラルネットワーク部22に学習させることにより、学習パターンのサンプル不足を補うことができ、また、汎化能力の向上を図ることができる。
【0033】
次に、学習済みニューラルネットワーク部22を用いて、欠陥検出部20bによる欠陥検査、欠陥分類について説明する。制御部30の制御により、XYステージ24に載置された検査対象のウエハWは、拡散板7を介した拡散照明光により照明される。この照明により、ウエハWからの正反射光により像がCCDカメラ11により撮像される。CCDカメラ11からの映像信号は画像処理部20の画像メモリ20aに取り込まれて記憶される。
【0034】
欠陥の判定は、CCDカメラ11により撮像された原画像と、欠陥位置画像を用いて行う。欠陥毎に分類を行う必要があるため、欠陥位置画像を、それぞれの欠陥を領域ごとに番号付けし、個々の欠陥領域に分割する。その後、欠陥領域毎に各ニューラルネットワーク22a〜22dにより、以下の手順で各欠陥判定値を求め、欠陥分類を行う。
【0035】
(手順1)学習方法と同様の手順で欠陥領域を切り出し、学習済みニューラルネットワークに入力する。ショットデフォーカスを判定するニューラルネットワークでは、切出し窓の中心がショット中心となる様に切り出しを行う。
【0036】
(手順2)ニューラルネットワークの出力値に2次元ガウス窓G(dx、dy)を掛けた値を出力画像上に加算投影した加算投影値P(x、y)を算出する。ガウス窓の大きさlは入力層サイズと同一である。又、ガウス窓自体の投影加算値W(x、y)も算出しておく。
【0037】
【数1】

Figure 2004354251
【0038】
【数2】
Figure 2004354251
dx、dy :切出し窓中心からの距離
σ2 :2次元ガウス窓の分散
l :ガウス窓の大きさ
(手順3)図5のように、切出し窓を以下のずらし幅でx、y両方向に走査する。ずらし幅はショットデフォーカスの場合が1ショットの大きさ、それ以外は切出し窓の1/5の大きさとする。
【0039】
(手順4) (手順1)〜(手順3)を繰り返し、1つの欠陥領域を全探索する。
【0040】
(手順5)欠陥領域の全画素で、2次元ガウス窓による重み付けを考慮した欠陥判定値を出す
【0041】
【数3】
Figure 2004354251
(手順6)欠陥領域内の平均欠陥判定値を求める。
【0042】
【数4】
Figure 2004354251
S :欠陥領域nの欠陥面積
(手順7)各ニューラルネットワーク22a〜22dの平均欠陥判定値Jnを比較し、最大の判定値であった欠陥を求める。その後、その欠陥の判定値を予め予備実験にて決定したしきい値0.4と比較し、しきい値以上ならばその欠陥であると判定する。しきい値以下の場合は、その他の欠陥と判定する。しきい値0.4は実験的に求められた値である。
【0043】
以上は、被検物として半導体ウエハを例にした欠陥検査装置を説明したが、液晶基板等の欠陥検査においても本発明を好適に適用できる。
【0044】
【発明の効果】
以上説明したように、ニューラルネットワークの学習用パターンの不足を補い、また、未学習データに対する認識率を高めることができる。
【図面の簡単な説明】
【図1】本発明に係る検査装置の概略構成を示す図である。
【図2】ニューラルネットワーク部を説明する図である。
【図3】アフィン変換による画像サイズの変換を説明する図である。
【図4】有効領域外のデータ補間を説明する図である。
【図5】欠陥部をずらして走査することを説明する図である。
【図6】ニューラルネットワーク部を説明する図である。
【図7】欠陥分類ごとに作成する人工欠陥画像の項目を説明する図である。
【図8】人工欠陥の学習フローを説明する図である。
【符号の説明】
20 画像処理部
20a 画像メモリ
20c 人工欠陥作成部
22 ニューラルネットワーク部
23 入力部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a defect inspection device that inspects a defect of a test object.
[0002]
[Prior art]
In the macro inspection of a patterned wafer in a semiconductor manufacturing plant, conventionally, strong light is radiated to the wafer obliquely, and the state of the scattered light and the diffracted light is visually observed by an operator. However, there is a difficulty in securing stable quality because the operator has a variation or an oversight of the inspection ability. In addition, it is difficult for the operator to maintain the contamination and cleanliness due to approaching the test object, which is a major obstacle to improving the product yield. Therefore, there has been proposed a defect inspection apparatus that images a surface of a test object, performs image processing on the image data, and automatically inspects for defects (for example, see Patent Document 1).
[0003]
Inspection conditions vary depending on the type of test object and the manufacturing process. As a countermeasure for this, it has been proposed to determine an inspection condition using a neural network (for example, see Patent Document 2).
[0004]
[Patent Document 1]
Japanese Patent Application Laid-Open No. H11-194098
[Patent Document 2]
JP 2001-343336 A
[Problems to be solved by the invention]
It is conceivable to use a neural network to determine the presence or absence of a defect in the test object. However, in the case of a semiconductor wafer or the like, as a problem peculiar to the test object, there is a problem that the frequency of occurrence of defects is low, and it is difficult to collect defect samples for learning by a neural network. In addition, the conventional method of learning the neural network using only acquired data often outputs incorrect results for unlearned data, and infinite variations such as macro defects in semiconductors are considered. Was not valid.
[0007]
The present invention has been made in consideration of the above-described problems of the related art, and has as its technical object to provide a defect inspection apparatus that can compensate for a lack of learning patterns of a neural network and can increase the recognition rate of unlearned data.
[0008]
[Means for Solving the Problems]
In order to solve the above problems, the present invention is characterized by having the following configuration.
[0009]
(1) In a defect inspection apparatus for inspecting the presence or absence of a defect in a test object using a neural network, an artificial defect creating means for creating an artificial defect image of the test object by image processing, Learning means for learning the neural network from a defective image.
[0010]
(2) The artificial defect creating means of (1) is characterized in that at least one of the position, luminance and shape of the defect on the test object is determined by a random number and created.
[0011]
(3) In the defect inspection apparatus of (1), the artificial defect creating means is means for creating an artificial defect image for each of a plurality of defects to be classified, and the learning means is an artificial image of the defect to be classified. It is a means for determining a learning pattern of a non-defective image by a random number and causing the neural network to learn.
[0012]
(4) The learning means of (3) is characterized in that the learning of the neural network with the defect image created by the artificial defect creation means is repeated until the learning error of each defect to be classified reaches a predetermined value.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of an inspection apparatus according to the present invention.
[0014]
Reference numeral 31 denotes a stage drive unit that moves the XY stage 32, 33 denotes a wafer transfer unit that automatically transfers the wafer W to the XY stage 32, and 30 denotes a control unit that controls the entire inspection apparatus.
[0015]
Reference numeral 1 denotes an illumination optical system for illuminating a wafer W, which is an inspection target placed on the XY stage 32, and includes an illumination unit 2 and a collimator lens 9 which is slightly larger than the wafer W. Reference numeral 10 denotes an imaging optical system that captures an image of the wafer W illuminated by the illumination optical system 1, and includes a collimator lens 9 shared with the irradiation optical system 1 and a CCD camera 11.
[0016]
The optical axis L3 of the imaging optical system 10 is arranged so as to be symmetrical with the optical axis L2 of the illumination optical system 1 with the optical axis L1 of the collimator lens 9 interposed therebetween, and the CCD camera 11 is illuminated by the illumination optical system 1. The inspection surface of the wafer W is imaged by the specularly reflected light from the wafer W. The CCD camera 11 is arranged so as to image the wafer W from a substantially vertical direction while avoiding interference with the illumination unit 2. In the present embodiment, the angle formed by the optical axis of the collimator lens 9, the optical axis of the irradiation optical system 1, and the imaging optical system 10 is 3 degrees. Since the inclination of the imaging optical axis L3 of the CCD camera 11 with respect to the inspection surface (front surface) of the wafer W is not so large, the influence of image distortion and defocusing is small.
[0017]
Note that the optical axis of the collimator lens 9 and the optical axis of the illumination optical system 1 are made to coincide with each other to illuminate the wafer W from the vertical direction, and the optical axis of the imaging optical system 10 is made coaxial using a half mirror. Accordingly, it is possible to adopt a configuration in which the inspection surface of the wafer W is imaged by the regular reflection light while avoiding the interference between the illumination unit 2 and the CCD camera 11.
[0018]
The illumination unit 2 has a halogen lamp 3 as a light source and a diffusion plate 7. The light emitted from the halogen lamp 3 is diffused by the diffusion plate 7 to provide diffused illumination light having sufficiently uniform luminance. The light emitted from the diffusion plate 7 is made substantially parallel by the collimator lens 9 and then illuminates the wafer W placed on the XY stage 32. The collimator lens 9 has a diameter slightly larger than the inspection surface of the wafer W to be inspected.
[0019]
The specularly reflected light from the wafer W illuminated by the illumination optical system 1 is converged by the collimator lens 9, and an image of almost the entire surface of the wafer W is formed on the CCD camera 11.
[0020]
An image signal from the CCD camera 11 is input to the image processing unit 20. The image processing unit 20 includes an image memory 20a that stores an image, a defect detection unit 20b that detects defects such as scratches, development defects, partial defocus, and shot defocus on the wafer. And an artificial defect image creating unit 20c to create. The defect detection unit 20b is connected to the neural network unit 22. As shown in FIG. 2, the neural network unit 22 classifies the neural network into a flaw classification neural network 22a, a defective development classification neural network 22b, a partial defocus classification neural network 22c, and a shot defocus classification neural network 22d. A neural network is provided for each type of defect to be performed. As shown in FIG. 6, each neural network is composed of an input layer, one or more intermediate layers, and an output layer. The learning of each neural network is an example using a generally known error back propagation method. The input unit 23 is a unit that inputs an instruction signal to the image processing unit 20. The image processing unit 20, the neural network unit 22, and the input unit 23 can be configured by a personal computer.
[0021]
The defect inspection by this apparatus will be described. In order to output a determination result of the presence / absence of a defect for each defect classification (scratch, partial defocus, shot defocus, defective development), the neural network unit 22 stores a type of a specific defect generated in a semiconductor wafer manufacturing process. Let them learn. The wafer manufacturing process includes, for example, thin film formation, photosensitive agent application, exposure, development, etching, and metal film formation in this order. Among these steps, scratches may occur in the path to be transported to each step. In addition, partial defocus and shot defocus may occur in the exposure process, and defective development may occur in the development process. The defect inspection may be performed after each manufacturing process is completed.
[0022]
The learning of the neural network unit 22 and the output of the defect classification will be described. First, in order for the neural network unit 22 to learn, a defect sample for learning is prepared for each defect. One of the samples is placed on the XY stage 32 and illuminated by the illumination unit 2 for photographing. The motor 6 is driven by the control of the control unit 30. Then, the image data of the wafer photographed by the CCD camera 11 is sequentially stored in the image memory 20a.
[0023]
Next, as shown in FIG. 2, a part of the original image of the defect sample is cut out, and an image that has been preprocessed or compressed as necessary by the image processing unit 20 is used as a learning pattern. These processes are different for each of the neural networks 22a to 22d because they are adapted to the characteristics of the defect. In the pre-processing of flaws, poor development, and partial defocus, edge enhancement is performed by Sobel conversion because the defect shape and the edge portion have characteristics. Further, since the defective development and the partial defocus usually have a certain area, they are reduced to half in consideration of the learning efficiency and the processing time. Regarding shot defocus, since a defect occurs in a shot (exposure unit) shape, image size conversion is performed as a pre-process by affine transformation so that one shot fits in the input layer size as shown in FIG. Note that the boundary coordinates for one shot are input from the input unit 23 in advance. An image that fits in the input layer size includes not only the information of one shot as a target but also information of shots around the one shot so that the brightness of the surrounding shot and that of the target shot can be easily compared. I do. In addition, since the image due to the shot defocus is blurred and unclear, it is necessary to enhance the contrast. Therefore, the image whose image size has been converted by the affine transformation is subjected to luminance conversion using a sigmoid function, thereby making it easier to confirm shot defocus.
[0024]
The cutout position of the learning pattern is determined by random numbers so that the same pattern is not learned. That is, by determining the cutout position at random using random numbers, each neural network is prevented from learning the order of the learning data, and the position information of the defect to be classified is not reflected in the learning of each neural network. The excitation pattern at the time of learning the defective development and the partial defocus is set so that the defect area includes 60% or more of the cut-out area. The excitement pattern at the time of flaw learning is cut out so that a linear defect always exists within the range of the center of the cutout window.
[0025]
Further, when the cutout position includes the outside of the defect target area of the wafer W (the area deviating from the wafer W), if the cutout position is input to the neural network as it is, a sharp luminance is generated at the boundary between the defect target area and the outside of the defect target area. An abnormal result is returned due to a change or the like. In order to avoid abnormal results, it is necessary to interpolate data outside the defect target area before inputting to the neural network. Therefore, if the input layer size includes the area outside the defect target area of the wafer W as shown in FIG. 4A, extrapolation interpolation is performed on the luminance data outside the defect target area from the luminance data of the defect target area on the wafer W. For example, when the luminance distribution of the defect target area in the horizontal line direction A shown in FIG. 4A is a solid line as shown in FIG. Is formed as shown by the broken line in FIG. Instead of spline interpolation, luminance data of the defect target area may be simply linearly interpolated to obtain a luminance distribution outside the effective area.
[0026]
Further, in the learning of the neural network unit 22, suppression learning effective for improving the performance of defect determination is introduced. The suppression learning is performed not only for the non-defective parts but also for defects other than the learning target. The teacher signal is set to 1 for the excitement pattern and to 0 for the suppression pattern.
[0027]
The teacher signal corresponding to the learning pattern of the defect classification as described above is input to the neural network unit 22. Each time a new learning pattern is input, the neural network unit 22 obtains a defect classification based on the contents already learned, and outputs this from the output layer.
[0028]
The images used for learning and inspection are the original image captured by the CCD camera 11 and the defect position image output corresponding to the original image. The defect position image has information of defect (1) or no defect (0) for each pixel, and the position corresponds to the original image 1: 1.
[0029]
Next, the artificial defect image will be described. In the macro inspection of a wafer, as a problem peculiar to the macro inspection, there is a problem that the frequency of occurrence of defects is low, and it is difficult to collect defect samples for learning. In addition, the method of learning only with acquired samples increases the possibility of outputting an incorrect result with respect to unlearned data. Therefore, by making the neural network unit 22 learn an artificial defect artificially generated by a program, it is possible to compensate for the lack of the learning pattern and to increase the recognition rate for unlearned data by learning various patterns.
[0030]
An instruction signal for artificial defect learning is input from the input unit 23. The image processing unit 20 executes an artificial defect creation and learning program on the instruction signal. The artificial defect image is created by the artificial defect creating unit 22c for the defect classification of flaws, poor development, partial defocus, and shot defocus similarly to the above defect classification. FIG. 7 shows an example of items of an artificial defect image created for each defect classification. Each item is randomly determined by a random number. First, a wiring pattern (including a memory pattern and a logic pattern), a luminance distribution, and a shape on a semiconductor wafer are determined by random numbers. In addition, a learning pattern of an artificial defect arranged at a position determined by a random number on a non-defective image selected in advance is determined. The wiring pattern determined by the random number includes, for example, a shot size, the number of chips in a shot, a chip interval, and the like, which are used as a background image of each defect. The shape determined by the random number differs depending on the type of the artificial defect. For example, in the case of shot defocus, there are defect luminance, defect position, luminance unevenness, and the like. In the case of partial defocus, in addition to the item of shot defocus, there is further a defect blur distribution, a defect size, and the like. In the case of a flaw, there are a defect luminance, a defect position, a defect length, a thickness, an angle, a radius of curvature, and the like. In the case of development, there are a defect luminance, a defect position, a defect blur distribution, a defect size, and the like.
[0031]
FIG. 8 is a diagram showing a learning flow of the artificial defect. First, whether the learning pattern is an artificial defect or a good image is determined by a random number. When an artificial defect is determined as a learning pattern, an artificial defect image is created for each defect classified product as described above. When a non-defective image is determined as the learning pattern, it is set as the suppression pattern. After that, similar to the learning of the defective portion of the sample wafer, pre-processing such as compression, enlargement, and reduction of the artificial defect image and the non-defective image, and detection of a specific frequency component through the band pass filter are performed on the image. . Thereafter, the learning position is determined by random numbers, and learning is performed by the neural network units 22a to 22d according to the classification of each defect. The teacher signal is set to 1 for the excitement pattern and to 0 for the suppression pattern. Such learning is repeated, and when the learning error of the output defect determination becomes equal to or smaller than a specified value, the learning of the artificial defect is completed.
[0032]
By creating an artificial defect image and causing the neural network unit 22 to learn the image, it is possible to compensate for the lack of a sample of the learning pattern and to improve the generalization ability.
[0033]
Next, defect inspection and defect classification by the defect detection unit 20b using the learned neural network unit 22 will be described. Under the control of the control unit 30, the wafer W to be inspected mounted on the XY stage 24 is illuminated with diffused illumination light via the diffuser plate 7. With this illumination, an image is captured by the CCD camera 11 by the regular reflection light from the wafer W. The video signal from the CCD camera 11 is captured and stored in the image memory 20a of the image processing unit 20.
[0034]
The defect is determined using the original image captured by the CCD camera 11 and the defect position image. Since it is necessary to classify each defect, the defect position image is divided into individual defect regions by numbering each defect for each region. After that, each defect determination value is obtained by the neural networks 22a to 22d for each defect area in the following procedure, and defect classification is performed.
[0035]
(Procedure 1) A defective area is cut out in the same procedure as the learning method, and is input to the learned neural network. In the neural network that determines shot defocus, the clipping is performed such that the center of the clipping window is the center of the shot.
[0036]
(Procedure 2) An added projection value P (x, y) is calculated by adding and projecting a value obtained by multiplying the output value of the neural network by a two-dimensional Gaussian window G (dx, dy) onto an output image. The size l of the Gaussian window is the same as the input layer size. Further, the projection addition value W (x, y) of the Gaussian window itself is also calculated.
[0037]
(Equation 1)
Figure 2004354251
[0038]
(Equation 2)
Figure 2004354251
dx, dy: distance from the center of the cutout window σ2: variance of the two-dimensional Gaussian window l: size of the Gaussian window (step 3) As shown in FIG. . The shift width is the size of one shot in the case of shot defocus, and the size of the other one-fifth of the cutout window.
[0039]
(Procedure 4) (Procedure 1) to (Procedure 3) are repeated, and one defect area is fully searched.
[0040]
(Procedure 5) Determining a defect determination value in consideration of weighting by a two-dimensional Gaussian window for all pixels in the defect area.
[Equation 3]
Figure 2004354251
(Procedure 6) An average defect determination value in the defect area is obtained.
[0042]
(Equation 4)
Figure 2004354251
S: Defect area of defect area n (Step 7) The average defect judgment value Jn of each of the neural networks 22a to 22d is compared, and the defect having the maximum judgment value is obtained. Thereafter, the determination value of the defect is compared with a threshold value 0.4 determined in advance in a preliminary experiment, and if it is equal to or larger than the threshold value, it is determined that the defect is present. If it is equal to or smaller than the threshold value, it is determined to be another defect. The threshold value 0.4 is a value obtained experimentally.
[0043]
In the above, the defect inspection apparatus using a semiconductor wafer as an example has been described. However, the present invention can be suitably applied to defect inspection of a liquid crystal substrate or the like.
[0044]
【The invention's effect】
As described above, it is possible to make up for the lack of the learning patterns of the neural network and to increase the recognition rate for the unlearned data.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of an inspection apparatus according to the present invention.
FIG. 2 is a diagram illustrating a neural network unit.
FIG. 3 is a diagram for explaining image size conversion by affine transformation.
FIG. 4 is a diagram illustrating data interpolation outside an effective area.
FIG. 5 is a diagram for explaining scanning by shifting a defective portion.
FIG. 6 is a diagram illustrating a neural network unit.
FIG. 7 is a diagram illustrating items of an artificial defect image created for each defect classification.
FIG. 8 is a diagram illustrating a learning flow of an artificial defect.
[Explanation of symbols]
Reference Signs List 20 image processing unit 20a image memory 20c artificial defect creation unit 22 neural network unit 23 input unit

Claims (4)

ニューラルネットワークを用いて被検物の欠陥の有無を検査する欠陥検査装置において、被検物の人工的な欠陥画像を画像処理により作成する人工欠陥作成手段と、人工的に作成された欠陥画像により前記ニューラルネットワークを学習させる学習手段と、を備えることを特徴とする欠陥検査装置。In a defect inspection apparatus for inspecting the presence or absence of a defect of a test object using a neural network, an artificial defect creating means for creating an artificial defect image of the test object by image processing, and an artificial defect image A defect inspection device, comprising: learning means for learning the neural network. 請求項1の人工欠陥作成手段は、被検物における欠陥の位置、輝度及び形状の内の少なくとも一つを乱数により決定して作成することを特徴とする欠陥検査装置。2. The defect inspection apparatus according to claim 1, wherein the artificial defect creation unit determines and creates at least one of a position, a luminance, and a shape of the defect in the inspection object by using a random number. 請求項1の欠陥検査装置において、前記人工欠陥作成手段は複数の分類すべき欠陥毎に人工的な欠陥画像を作成する手段であり、前記学習手段は分類すべき欠陥の人工画像と良品画像の学習パターンを乱数により決定して前記ニューラルネットワークに学習させる手段であることを特徴とする欠陥検査装置。2. The defect inspection apparatus according to claim 1, wherein said artificial defect creating means is means for creating an artificial defect image for each of a plurality of defects to be classified, and said learning means is an artificial image of a defect to be classified and a non-defective image. A defect inspection apparatus characterized in that it is means for determining a learning pattern by random numbers and causing the neural network to learn. 請求項3の学習手段は、分類すべき各欠陥の学習誤差が所定の値に達するまで前記人工欠陥作成手段により作成された欠陥画像によるニューラルネットワークの学習を繰り返すことを特徴とする欠陥検査装置。4. The defect inspection apparatus according to claim 3, wherein the learning means repeats learning of the neural network using the defect image created by the artificial defect creation means until the learning error of each defect to be classified reaches a predetermined value.
JP2003153384A 2003-05-29 2003-05-29 Defect inspection device Withdrawn JP2004354251A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003153384A JP2004354251A (en) 2003-05-29 2003-05-29 Defect inspection device
US10/855,320 US7333650B2 (en) 2003-05-29 2004-05-28 Defect inspection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003153384A JP2004354251A (en) 2003-05-29 2003-05-29 Defect inspection device

Publications (1)

Publication Number Publication Date
JP2004354251A true JP2004354251A (en) 2004-12-16

Family

ID=34048354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003153384A Withdrawn JP2004354251A (en) 2003-05-29 2003-05-29 Defect inspection device

Country Status (1)

Country Link
JP (1) JP2004354251A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219825A (en) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program
WO2018225745A1 (en) * 2017-06-06 2018-12-13 株式会社デンソー External appearance examination device, conversion data generation device, and program
CN109543720A (en) * 2018-10-30 2019-03-29 东华大学 A kind of wafer figure defect mode recognition methods generating network based on confrontation
WO2019191346A1 (en) * 2018-03-28 2019-10-03 Kla-Tencor Corporation Training a neural network for defect detection in low resolution images
JP2020500420A (en) * 2016-11-30 2020-01-09 エスケー ホールディングス コー リミテッド Yield prediction system and method for machine learning based semiconductor manufacturing
JP2020027424A (en) * 2018-08-10 2020-02-20 東京エレクトロンデバイス株式会社 Learning data generating device, discrimination model generating device, and program
KR20200063302A (en) * 2018-11-19 2020-06-05 박상현 System and method for inspection of ship painting condition using image analysis
CN111316089A (en) * 2018-10-19 2020-06-19 合刃科技(深圳)有限公司 Detection device, method and system for micro-fluidic chip pipeline
CN112189169A (en) * 2018-05-18 2021-01-05 卡尔蔡司Smt有限责任公司 Method and apparatus for evaluating unknown effects of defects of elements of a lithographic process
US10893191B2 (en) 2017-12-26 2021-01-12 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling the same, and storage medium
WO2021124775A1 (en) * 2019-12-17 2021-06-24 日本電気硝子株式会社 Fault classification method, fault classification device, and method for producing glass article
WO2021152416A1 (en) * 2020-01-31 2021-08-05 株式会社半導体エネルギー研究所 Training data generation device and defect discrimination system
WO2021176841A1 (en) * 2020-03-06 2021-09-10 株式会社日立ハイテク Sample observation system and image processing method
WO2021209867A1 (en) * 2020-04-17 2021-10-21 株式会社半導体エネルギー研究所 Classification device, image classification method, and pattern inspection device
JP2022521448A (en) * 2019-02-25 2022-04-08 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Traffic image recognition methods, devices, computer devices and media
US11386542B2 (en) 2017-09-19 2022-07-12 Fujifilm Corporation Training data creation method and device, and defect inspection method and device
US11463617B2 (en) 2018-10-25 2022-10-04 Canon Kabushiki Kaisha Information processing apparatus, information processing system, image capturing apparatus, information processing method, and memory
WO2022252348A1 (en) * 2021-06-01 2022-12-08 浙江工商大学 Rotating target and improved attention mechanism-based thin film scratch defect detection method
WO2022260028A1 (en) * 2021-06-11 2022-12-15 日立Astemo株式会社 Visual inspection device, visual inspection method, image generation device, and image generation method
US11619593B2 (en) 2021-06-01 2023-04-04 Zhejiang Gongshang University Methods and systems for detecting a defect of a film
WO2024079991A1 (en) * 2022-10-12 2024-04-18 パナソニックIpマネジメント株式会社 Classification model generating system, classification model generating method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0368845A (en) * 1989-08-09 1991-03-25 Hitachi Ltd Method and apparatus for inspecting soldering
JPH0821803A (en) * 1994-07-08 1996-01-23 Olympus Optical Co Ltd Defect type judging device and process control system
JPH1063789A (en) * 1996-08-27 1998-03-06 Nippon Telegr & Teleph Corp <Ntt> Learning method for discriminant function
JP2000057349A (en) * 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2000517447A (en) * 1996-09-03 2000-12-26 シーメンス アクチエンゲゼルシヤフト Method and apparatus for generating at least one artificial training data vector for a neural network with computer assistance
JP2002014054A (en) * 2000-06-28 2002-01-18 Hitachi Ltd Equipment and method for inspection
JP2003050631A (en) * 2001-08-07 2003-02-21 Mitsui Eng & Shipbuild Co Ltd Method for generating learning data for abnormality diagnosing system, program for configuring the same system, program for diagnosing abnormality, device for configuring the same system and abnormality diagnosing system
JP2004047939A (en) * 2002-05-23 2004-02-12 Hitachi High-Technologies Corp Method of producing defect sorter and method of automatically sorting defect

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0368845A (en) * 1989-08-09 1991-03-25 Hitachi Ltd Method and apparatus for inspecting soldering
JPH0821803A (en) * 1994-07-08 1996-01-23 Olympus Optical Co Ltd Defect type judging device and process control system
JPH1063789A (en) * 1996-08-27 1998-03-06 Nippon Telegr & Teleph Corp <Ntt> Learning method for discriminant function
JP2000517447A (en) * 1996-09-03 2000-12-26 シーメンス アクチエンゲゼルシヤフト Method and apparatus for generating at least one artificial training data vector for a neural network with computer assistance
JP2000057349A (en) * 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2002014054A (en) * 2000-06-28 2002-01-18 Hitachi Ltd Equipment and method for inspection
JP2003050631A (en) * 2001-08-07 2003-02-21 Mitsui Eng & Shipbuild Co Ltd Method for generating learning data for abnormality diagnosing system, program for configuring the same system, program for diagnosing abnormality, device for configuring the same system and abnormality diagnosing system
JP2004047939A (en) * 2002-05-23 2004-02-12 Hitachi High-Technologies Corp Method of producing defect sorter and method of automatically sorting defect

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219825A (en) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program
JP2020500420A (en) * 2016-11-30 2020-01-09 エスケー ホールディングス コー リミテッド Yield prediction system and method for machine learning based semiconductor manufacturing
WO2018225745A1 (en) * 2017-06-06 2018-12-13 株式会社デンソー External appearance examination device, conversion data generation device, and program
JP2018205163A (en) * 2017-06-06 2018-12-27 株式会社デンソー Visual inspection device, conversion data generator, and program
US11386542B2 (en) 2017-09-19 2022-07-12 Fujifilm Corporation Training data creation method and device, and defect inspection method and device
US10893191B2 (en) 2017-12-26 2021-01-12 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling the same, and storage medium
US11405546B2 (en) 2017-12-26 2022-08-02 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling the same, and storage medium
CN111819676B (en) * 2018-03-28 2022-01-14 科磊股份有限公司 Training neural networks for defect detection in low resolution images
US10599951B2 (en) 2018-03-28 2020-03-24 Kla-Tencor Corp. Training a neural network for defect detection in low resolution images
WO2019191346A1 (en) * 2018-03-28 2019-10-03 Kla-Tencor Corporation Training a neural network for defect detection in low resolution images
CN111819676A (en) * 2018-03-28 2020-10-23 科磊股份有限公司 Training neural networks for defect detection in low resolution images
JP7100198B2 (en) 2018-05-18 2022-07-12 カール・ツァイス・エスエムティー・ゲーエムベーハー Methods and equipment for assessing the unknown effects of defects in elements of the photolithography process
CN112189169A (en) * 2018-05-18 2021-01-05 卡尔蔡司Smt有限责任公司 Method and apparatus for evaluating unknown effects of defects of elements of a lithographic process
KR20210013600A (en) * 2018-05-18 2021-02-04 칼 짜이스 에스엠티 게엠베하 Method and apparatus for evaluating the unknown effects of defects in elements of photolithographic processes
KR102533520B1 (en) 2018-05-18 2023-05-17 칼 짜이스 에스엠티 게엠베하 Method and Apparatus for Evaluating Unknown Effects of Imperfections in Elements of a Photolithography Process
US11774859B2 (en) 2018-05-18 2023-10-03 Carl Zeiss Smt Gmbh Method and apparatus for evaluating an unknown effect of defects of an element of a photolithography process
JP2021523425A (en) * 2018-05-18 2021-09-02 カール・ツァイス・エスエムティー・ゲーエムベーハー Methods and equipment for assessing the unknown effects of defects in photolithography process elements
JP2020027424A (en) * 2018-08-10 2020-02-20 東京エレクトロンデバイス株式会社 Learning data generating device, discrimination model generating device, and program
CN111316089A (en) * 2018-10-19 2020-06-19 合刃科技(深圳)有限公司 Detection device, method and system for micro-fluidic chip pipeline
US11463617B2 (en) 2018-10-25 2022-10-04 Canon Kabushiki Kaisha Information processing apparatus, information processing system, image capturing apparatus, information processing method, and memory
CN109543720B (en) * 2018-10-30 2023-10-27 东华大学 Wafer map defect mode identification method based on countermeasure generation network
CN109543720A (en) * 2018-10-30 2019-03-29 东华大学 A kind of wafer figure defect mode recognition methods generating network based on confrontation
KR20200063302A (en) * 2018-11-19 2020-06-05 박상현 System and method for inspection of ship painting condition using image analysis
KR102189951B1 (en) 2018-11-19 2020-12-11 박상현 System and method for inspection of ship painting condition using image analysis
JP2022521448A (en) * 2019-02-25 2022-04-08 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Traffic image recognition methods, devices, computer devices and media
WO2021124775A1 (en) * 2019-12-17 2021-06-24 日本電気硝子株式会社 Fault classification method, fault classification device, and method for producing glass article
JP7349066B2 (en) 2019-12-17 2023-09-22 日本電気硝子株式会社 Defect classification method, defect classification device and method for manufacturing glass articles
WO2021152416A1 (en) * 2020-01-31 2021-08-05 株式会社半導体エネルギー研究所 Training data generation device and defect discrimination system
WO2021176841A1 (en) * 2020-03-06 2021-09-10 株式会社日立ハイテク Sample observation system and image processing method
JP7262409B2 (en) 2020-03-06 2023-04-21 株式会社日立ハイテク Specimen observation system and image processing method
JP2021141231A (en) * 2020-03-06 2021-09-16 株式会社日立ハイテク Sample observation system and image processing method
WO2021209867A1 (en) * 2020-04-17 2021-10-21 株式会社半導体エネルギー研究所 Classification device, image classification method, and pattern inspection device
US11619593B2 (en) 2021-06-01 2023-04-04 Zhejiang Gongshang University Methods and systems for detecting a defect of a film
WO2022252348A1 (en) * 2021-06-01 2022-12-08 浙江工商大学 Rotating target and improved attention mechanism-based thin film scratch defect detection method
WO2022260028A1 (en) * 2021-06-11 2022-12-15 日立Astemo株式会社 Visual inspection device, visual inspection method, image generation device, and image generation method
WO2024079991A1 (en) * 2022-10-12 2024-04-18 パナソニックIpマネジメント株式会社 Classification model generating system, classification model generating method, and program

Similar Documents

Publication Publication Date Title
JP2004354251A (en) Defect inspection device
US7333650B2 (en) Defect inspection apparatus
JP4009409B2 (en) Pattern defect inspection method and apparatus
JP2004354250A (en) Defect inspection device
JP4260587B2 (en) Pattern defect inspection system
JP3092892B2 (en) Semiconductor chip appearance inspection method and apparatus
JP5303217B2 (en) Defect inspection method and defect inspection apparatus
JP2005156516A (en) Method of inspecting pattern defect, and apparatus of the same
US20060158643A1 (en) Method and system of inspecting mura-defect and method of fabricating photomask
JP2004233163A (en) Method and device for inspecting pattern defect
US20070047799A1 (en) Pattern inspection apparatus, pattern inspection method, and program-recorded readable recording medium
US7359546B2 (en) Defect inspection apparatus and defect inspection method
JP3311135B2 (en) Inspection range recognition method
JP2001013085A (en) Flow inspection apparatus
US20220261976A1 (en) Inspection apparatus for detecting defects in photomasks and dies
JP2012002676A (en) Mask defect checking device and mask defect checking method
JP2014109436A (en) Substrate defect inspection method, substrate defect inspection device, program, and computer storage medium
JP3784711B2 (en) Defect inspection method and apparatus
TW202035976A (en) Pattern inspection apparatus and pattern inspection method
KR101604013B1 (en) Pattern inspection device and pattern inspection method
JP2002175520A (en) Device and method for detecting defect of substrate surface, and recording medium with recorded program for defect detection
US6888958B1 (en) Method and apparatus for inspecting patterns
WO2006019446A2 (en) Double inspection of reticle or wafer
JP3803677B2 (en) Defect classification apparatus and defect classification method
JP6906823B1 (en) Mask inspection method and mask inspection equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080820

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20081017