JP4024381B2 - Defect inspection method and apparatus - Google Patents

Defect inspection method and apparatus Download PDF

Info

Publication number
JP4024381B2
JP4024381B2 JP11038398A JP11038398A JP4024381B2 JP 4024381 B2 JP4024381 B2 JP 4024381B2 JP 11038398 A JP11038398 A JP 11038398A JP 11038398 A JP11038398 A JP 11038398A JP 4024381 B2 JP4024381 B2 JP 4024381B2
Authority
JP
Japan
Prior art keywords
image
brightness
pattern
inspected
defect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11038398A
Other languages
Japanese (ja)
Other versions
JPH11304718A (en
Inventor
俊二 前田
健次 岡
行広 芝田
実 ▲吉▼田
千絵 宍戸
裕治 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Technology Corp
Original Assignee
Renesas Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Technology Corp filed Critical Renesas Technology Corp
Priority to JP11038398A priority Critical patent/JP4024381B2/en
Priority to US09/294,137 priority patent/US6947587B1/en
Publication of JPH11304718A publication Critical patent/JPH11304718A/en
Priority to US11/204,181 priority patent/US7274813B2/en
Priority to US11/858,215 priority patent/US7512259B2/en
Application granted granted Critical
Publication of JP4024381B2 publication Critical patent/JP4024381B2/en
Priority to US12/359,452 priority patent/US7916929B2/en
Priority to US13/072,102 priority patent/US8107717B2/en
Priority to US13/362,151 priority patent/US20120128230A1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、被検査パターンの欠陥を検出する外観検査に係り、特に半導体ウェハや液晶ディスプレイなどにおける被検査パターンの欠陥検査方法及びその装置に関するものである。
【0002】
【従来の技術】
従来、この種の検査装置は、特開昭55−74409号公報記載の技術の如く、被検査パターンを移動させつつ、ラインセンサ等の撮像素子により被検査パターンの画像を検出し、前記検出した画像信号と所定時間だけ遅延させた画像信号の濃淡を比較することにより、その不一致を欠陥として認識するものであった。
【0003】
また、特公平8−10463号に記載のように、比較は2枚の画像を整列させて、行うものであった。
【0004】
上記従来の欠陥の認識方法を詳しく、図15、11、12、13を参照して説明する。図15は、従来技術の被検査パターンのメモリチップにおけるメモリマット部と周辺回路部の略示説明図、図16は、図15のメモリチップにおけるメモリマット部と周辺回路部における明るさのヒストグラム、図17は、CMP(ケミカルメカニカル)などの平坦化処理された被検査パターンの略示図である。
【0005】
図15に示す如く、半導体ウエハ上にはメモリチップ20が多数配設されて形成されている。前記メモリのチップ20は、メモリマット部21と周辺回路部22に大別することができる。前記メモリマット部21は小さな繰返しパターン(セル)の集合であり、前記周辺回路部22は基本的にはランダムパターンの集合である。ただし、多くの場合、子細に見ると複数の異なるセルピッチを有する繰り返しパターンの集合体とみなすことができる。
【0006】
図16には、図15のメモリマット部21および周辺回路部22における明るさの分布、すなわち、10ビット構成で最大1024階調として、メモリチップ内の明るさに対する頻度(ヒストグラム)を示したものであるが、前記メモリマット部21はパターン密度が高く一般的に暗い。一方、前記周辺回路部22はパターン密度が低く一般的に明るい。
【0007】
【発明が解決しようとする課題】
図17に示した、CMPなどの平坦化プロセスでは、図18に示すヒストグラムでわかるように、メモリマット部21内の回路パターンは、パターンの膜厚の違いによって明るさの違いを生じさせている。同図では、配線層をデポジションした後、CMP処理により平坦化したものである。このようなパターンでは、膜厚が局所的に変動し、明るさむらが生じやすい。このようなパターンの場合、図16と図17に示すパターンの明るさを比較することになり、明るさの違いを誤検出しないようにしきい値を設定すると、きわめて欠陥検出感度を低下させてしまう。このような明るさの違いは、照明光として波長帯域の広いものを使用すれば、ある程度は相殺できるが、CMP処理されたパターンについては、明るさの変動が大きいこともあり、限界がある。このため、明るさの異なるパターンから微小な欠陥を検出することが望まれていた。
【0008】
さらに、従来は、2枚の画像の差の2乗和を計算し、これに放物面を当てはめて、画像の位置ずれを検出していた。しかし、これでは、比較する2枚の画像が一致するという保証がなく、比較する上で最適なマッチングが望まれていた。図21は、2枚の画像(後述の図6のf(x、y))の各画素についての差の2乗和を、一方の画像をx、y方向に±1画素の範囲でシフトしてもとめた実験結果である。横軸がx方向、縦軸がy方向である。図中の値は、差の2乗和である。ここでは、同一の画像(図6のf(x、y))を用いている。即ち、差の2乗和として、Σ(f(x、y)−f(x±1、y±1))2を算出している。図21からわかるように、同一の画像でも差の2乗和は、(0、0)を中心に対称ではなく、0.6%程度の非対称性がある。同一の画像であるため、(0、0)で差の2乗和は0になている。従って、このデータに放物線を当てはめ画素寸法以下の分解能で差の2乗和が最小になる位置を求めても、正確な位置のずれ、ここでは(0、0)は検出できない。
【0009】
さらに、CMPなどの平坦化プロセスのウエハでは明るさが異なる。この明るさの違いの影響を示す。ここでは、1枚の画像と、それの明るさを1.1倍したものを使用した。1.1倍というのは、CMPウエハ明るさ変動としては普通か或いは小さいものである。実験結果を図22に示す。差の絶対値の和を表示している。最小位置は、(0、1)となっている。画素以下の分解能どころか画素のレベルで大きな誤差がある。差の2乗和も同じ傾向であるが、これらのデータから、画像の位置ずれは正確に求められないことがわかる。勿論、1.05倍でも同様の傾向にある。このように、差の2乗和に放物面を当てはめ、これから最小となる位置を求めることは、極めて大きな誤差をもつ方法と言わざるを得ない。
【0010】
本発明の目的は、上記従来の技術課題を解決すべくなされたもので、明るさの異なるパターンも比較検査可能にし、つねに高感度で、欠陥を信頼性高く検査することができる被検査パターンの欠陥検査方法を提供することにある。
【0011】
また、本発明の他の目的は、高精度な画像マッチング法を用いた被検査パターンの欠陥検査方法を提供することにある。
【0012】
さらに、CMPなどの平坦化処理されたウエハパターンを対象にした場合にも、高感度な欠陥検出方法を提供することにある。
【0013】
【課題を解決するための手段】
上記目的を達成するため、本発明では、基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する方法において、第1の被検査パターンを検出してこの第1の被検査パターンの第1の画像を得、この第1の画像を記憶し、第2の被検査パターンを検出してこの第2の被検査パターンの第2の画像を得、記憶した第1の画像と第2の画像との画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行い、この画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行なった第1の画像と第2の画像とを比較することによりパターンを検査するものであり、前記記憶した第1の画像と第2の画像との画像全体の明るさを合わせ込むことを、記憶した第1の画像と第2の画像との画像全体に一括したフィルタ操作を行うことにより行うようにした。
【0014】
また、本発明は、前記記憶した第1の画像と第2の画像との画像全体の明るさを合わせ込むことを、記憶した第1の画像と第2の画像との濃淡の2乗誤差が最小になるようなフィルタを用いて操作を行って第1の画像と第2の画像との明るさの2乗誤差が最小になるように画像全体の明るさを合わせ込むことにより行うようにした。
【0015】
また、本発明は、前記記憶した第1の画像と第2の画像との明るさを局所的に合わせ込むことを、ゲインとオフセットをもつ線形変換によって、第1の画像と第2の画像との明るさがほぼ同一となるように変換するものであり、このゲインとオフセットをもつ線形変換に、局所的に合わせ込む領域の着目した画素と周囲の画素との明るさの差に応じて重みを付けるようにした。
【0016】
そして、これらの記憶した第1の画像と第2の画像との明るさを局所的に合わせ込むことを、2枚の画像の画素単位の位置合わせの前に行うようにした。
【0017】
あるいは、これらの記憶した第1の画像と第2の画像との明るさを局所的に合わせ込むことを、2枚の画像の画素単位の位置合わせの後に行うようにした。
【0018】
また、本発明は、基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する方法において、第1の被検査パターンを撮像してこの第1の被検査パターンの第1の画像を得、この第1の画像を記憶し、第2の被検査パターンを撮像してこの第2の被検査パターンの第2の画像を得、記憶した第1の画像と第2の画像との位置ずれを補正し、この位置ずれを補正した第1の画像と第2の画像との局所的な明るさの違いを検出してこの検出した明るさの差に応じて局所的な階調変換を行うことにより局所的な明るさを合わせ込み、この局所的な明るさを合わせ込んだ第1の画像の全体と第2の画像の全体との明るさを合わせ込み、この明るさを合わせ込んだ第1の画像と第2の画像とを比較することによりパターンを検査するものであり、前記第1の画像の全体と第2の画像の全体との明るさを合わせ込むことを、第1の画像の全体と第2の画像の全体との濃淡の2乗誤差が最小になるように第1の画像の全体と第2の画像の全体とにフィルタリングを施すことにより行うようにした。
【0019】
また、本発明は、前記第1の画像と第2の画像との明るさを局所的に合わせ込むことを、ゲインとオフセットをもつ線形変換によって、第1の画像と第2の画像との明るさがほぼ同一となるように変換するようにした。
【0020】
また、本発明は、基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する欠陥検査装置において、第1の被検査パターンを撮像してこの第1の被検査パターンの第1の画像を得ると共に第2の被検査パターンを撮像してこの第2の被検査パターンの第2の画像を得る撮像手段と、この撮像手段により撮像して得た第1の画像を記憶する記憶手段と、第1の画像と第2の画像との少なくとも何れか一方を局所的に階調変換する階調変換手段と、この階調変換手段により少なくとも何れか一方を局所的に階調変換した第1の画像と第2の画像との明るさを合わせ込む明るさ補正手段と、この明るさ補正手段で明るさを合わせ込んだ第1の画像と第2の画像とを比較してパターンの欠陥を検出する欠陥検出手段とを備えて構成した。
【0021】
そして、階調変換手段は、比較する第1の画像と第2の画像との明るさを、ゲインとオフセットをもつ線形変換によって変換するように構成した。
【0022】
更に、第1の画像と第2の画像との位置ずれを補正する位置ずれ補正手段を備え、階調変換手段は、位置ずれ補正手段で位置ずれを補正した第1の画像と第2の画像との少なくとも何れか一方を局所的に階調変換するように構成した。
【0033】
【発明の実施の形態】
図1ないし図14、および図23ないし図30を参照して本発明の各実施の形態を説明する。
【0034】
〔実施の形態 1〕
本発明に係わる被検査パターンの欠陥検査方法、装置を説明する。図1及び図2は、本発明の一実施例に係わる被検査パターンの欠陥検査装置の構成図である。
【0035】
本実施の形態においては、半導体ウエハの被検査パターンを例として説明する。
【0036】
図1及び図2において、1はイメージセンサであり、被検査パターンである半導体ウエハ4からの反射光の明るさ、すなわち濃淡に応じた濃淡画像信号を出力するものであり、2はイメージセンサ1から得られる濃淡画像信号をディジタル画像信号9に変換するA/D変換器、3は濃淡画像信号を遅延させる遅延メモリ、4は被検査パターンのある半導体ウエハ、5は被検査パターンの半導体ウエハ4を載置するX方向とY方向とZ方向とθ方向(回転)の移動するステージ、6は半導体ウエハ4に対する対物レンズ、7は被検査パターンの半導体ウエハ4を照明する照明光源、8は照明光を反射して対物レンズ6を通して半導体ウエハ4に照射すると共に、半導体ウエハ4からの反射光を透過するハーフミラー、9は濃淡画像信号がA/D変換器で変換されたディジタル画像信号である。このようにして、照明光源7からの照明光を反射させて対物レンズ6を通して半導体ウエハ4に対して、例えば明視野照明を施すように構成している。
【0037】
また、3は、画像信号9を繰り返される1セルまたは複数セルピッチ分を記憶して遅延させる遅延メモリであってもよいし、 画像信号9を繰り返される1チップまたは複数チップピッチ分記憶して遅延させる遅延メモリでもよい。
【0038】
11はディジタル画像信号9及び遅延されたディジタル画像信号10を位置合わせするものであり、ここでは、画素単位で濃淡差が最小となる位置ずれ量を検出し、この位置ずれ量に基づき一方の画像をシフトして、2枚の画像を位置合わせするものである。ここで、画像はイメージセンサにより連続的に検出されるが、画像を例えば256ラインごとに分割し(このライン数は、後述する方法により決定される)、この単位で位置合わせを行う。12は、明るさの異なる画像信号を、明るさを一致させるべく、双方の画像信号を変換する明るさ変換部である。ここでは、画像全体に一括したフィルタ操作を実施して、明るさを一致させている。
【0039】
13は、明るさの異なる画像信号を、明るさを一致させるべく、双方の画像信号の階調を変換する階調変換部である。ここでは、個々の画素毎にゲインとオフセットにより線形変換を実施して、明るさを一致させている。そして、得られた画像信号を比較部14において比較し、不一致を欠陥として検出するものである。
【0040】
検出された画像信号は、パイプライン型の画像処理により、順次一定の処理が施され、最後に欠陥とその特徴が出力されるものである。
【0041】
なお、上記例では照明として、明視野照明を採用したが、これに限るものでなく、暗視野照明、輪帯照明などの顕微鏡照明として使用できるものならば、差し支えない。また、電子線による照明でも適用できることは言うまでもない。
【0042】
これらの照明条件を種々変えて、複数回検査し、これら複数回の検査結果の論理和を取って最終結果としても差し支えない。或いは、論理積をとって確実に欠陥として識別し、例えばこの欠陥分布や個数によってプロセス診断してもよい。この場合、不一致部の目視確認を行うレビューは不要として作業の簡素化、簡易化を図ることもできる。
【0043】
次に上記構成の検査装置の動作について図1〜5を参照して説明する。図1と図2では、処理順序を変えてある。
【0044】
図1及び図2において、対物レンズ6で収束させた照明光で、ステージ5をX方向に走査して被検査パターンの半導体ウエハ4の対象領域について等速度で移動させつつ、イメージセンサ1により前記半導体ウエハ4上に形成された被検査パターン、すなわちチップ20内のメモリマット部21および周辺回路部22の明るさ情報(濃淡画像信号)を検出する。
【0045】
1列分の移動が終わると、隣の列にY方向に高速移動し、位置決めする。すなわち、等速移動と高速移動を繰り返して検査を行うものである。もちろん、ステップ&リピート型の検査でも差し支えない。そして、A/D変換器2は、イメージセンサ1の出力(濃淡画像信号)をディジタル画像信号9に変換する。このディジタル画像信号9は10ビット構成である。勿論、6ビット程度あれば、画像処理する上では特に問題ないが、微小欠陥を検出するにはある程度のビット数が必要である。
【0046】
まず、画素単位の画像位置合わせについて説明する。画素単位の画像位置合わせは、比較する二枚の画像の一方を画素の単位でずらしながら濃淡差(画像の各画素の値と対応画素の値の差)を演算し、濃淡差が最小となる位置ずれ量を求めるものである。画像の位置ずれ検出の範囲は、例えば最大±3画素とし、またパターンの設計ルールに応じて可変とする。得られた位置ずれ量だけ片方の画像位置をずらせることにより、二枚の画像の位置合わせを行なうものである。
【0047】
下記を用いて説明する。
【0048】
【数1】

Figure 0004024381
【0049】
位置ずれ検出は、上記のS(Δx、Δy)をminとするΔx、Δyを検出するものである。
【0050】
ただし、最小となる位置は画素単位でしか求められないため、真の位置が求めたΔx、Δyのどちらの近くにあるかにより、オフセットとして加える。
【0051】
下記の式に基づき、Δx、Δyに1を加えたりもしくは、そのままにする。
【0052】
すなわち、
【0053】
【数2】
Figure 0004024381
【0054】
【数3】
Figure 0004024381
【0055】
【数4】
Figure 0004024381
【0056】
【数5】
Figure 0004024381
【0057】
なお、Δx++は、Δx=Δx+1の意である。
【0058】
このように位置合わせにより、つねに得られた位置ずれ量だけ片方の画像の位置をずらせることにより、二枚の画像の位置合わせが行なわれる。すなわち、画像fを常に右上移動して、新たな画像f′を求めることになり、移動方向を4種類(右下移動、左上移動、左下移動、右上移動)から1種類に特定することができる。これはハードウエアの簡単化につながるものである。
【0059】
図3は、明るさ一致フィルタ操作部12を詳しく示したものである。画素単位で位置合わせされた2枚の画像f(x、y)とg(x、y)に関して、まず画像内で下記値を最小にするフィルタF、F‘を求める。
【0060】
【数6】
Figure 0004024381
【0061】
フィルタF、F‘は、例えば2×2画素のサイズをもつものである。
【0062】
図5にフィルタの1例を示す。フィルタFとF‘は、同図に示すように対称形であり、双対である。このような双対形にすると、フィルタのパラメータの係数を、最小二乗法を用いて、解くことができる。
【0063】
【数7】
Figure 0004024381
【0064】
【数8】
Figure 0004024381
【0065】
ただし、
【0066】
【数9】
Figure 0004024381
【0067】
【数10】
Figure 0004024381
【0068】
【数11】
Figure 0004024381
【0069】
本方式は、対象である二枚の画像にフィルタリングを施し、その濃淡の二乗誤差を最小にして一致させるものである。繰返し演算などが不要であり、一回の演算で実現可能なものである。
【0070】
上記方式の特徴は、二枚の画像の濃淡が、二乗の誤差最小の意味でよく一致するようにフィルタ係数α、βを求めるものである。特に、これらのパラメータは必ずしも画像の位置ずれ量の真値を表しているわけではない。例えば、従来技術において述べたように、S(Δx、Δy)に放物面を当てはめ、その最小位置を算出し、次にこの算出位置に基づいて、内挿して補間画素を求める方式も考えられるが、この場合は明るさに関して、なんら満たすべき規範とか条件はなく、その意味で、得られる画像を比較検査に使うことは、保証されたものでない。さらに、明るさが異なる場合は、算出した位置ずれは何を表しているか不明である。その上、たとえ放物面近似して算出した最小位置が、本実施例で述べた方式と位置が一致しても、得られる比較すべき画像は一致するものではない。
【0071】
提案したマッチング方式は、2枚の画像の明るさの2乗誤差が最小になることを保証するものであり、この点で他の方式と一線をかくすものである。図14に示すように、線形近似であるため、フィルタの係数であるαは、位置ずれとみなすと、誤差をもつ。しかし、得られた明るさは一致している。 本方式は、画像間の濃淡の違いを本質的に小さくでき、比較検査において極めて都合のよい方式であると考えられる。
【0072】
さらに、フィルタ係数α、βの算出は、繰返し演算することなく解析的に行うことができ、ハードウエア化するのに適しているという特長がある。
図4は、局所的な階調変換部13を詳しく示したものである。画素単位で位置合わせされ、明るさ一致フィルタ操作出力の2枚の画像f(x、y)とg(x、y)に関して、まず画像内の定めたエリア内で下記の値を最小にするパラメータa、b(a:ゲイン、b:オフセットに相当)を求める。
【0073】
【数12】
Figure 0004024381
【0074】
パラメータa、bは、上記した値をa、bで偏微分し、零とおくことによって求められる。例えば、定めたエリアとは、各点の周囲の7の範囲である。
【0075】
求められたパラメータを用いて画像信号の片方g(x、y)を
【0076】
【数13】
Figure 0004024381
【0077】
と変換する。これにより明るさが一致した画像が得られる。パラメータa、bは、位置(x、y)ごとに異なる値を取りうる。
【0078】
【数14】
Figure 0004024381
【0079】
【数15】
Figure 0004024381
【0080】
ここで、Σの範囲の画素数をMNとしている。
【0081】
さらに、Σの範囲において、着目した中央画素と周囲画素の明るさを比較し、明るさが大きく異なるときは、これを加算しないこともよい方法である。
【0082】
或いは、加算自体はするのであるが、加算するとき、重みを付けて、寄与率を下げることが有効である。例えば、(x、y)の着目画素の明るさをcとし、Σの範囲内の別の画素の明るさをdとすると、重みW(x、y)を
【0083】
【数16】
Figure 0004024381
【0084】
とする。ここで、max[ ]は最大値検出、c、dはいずれも8ビット階調の明るさである。また、Dは定数とする。これにより、着目した中央画素と周囲画素の明るさが似ているときは、重みを1近くの値にし、似ていないときは、小さい値とするものである。Dは定数としたが、明るさに応じて可変してもよく、D=func(c)である。さらには、同じパターンに属すか否かで判断し、異なるパターンの平均明るさをμとすると、D=|c−μ|として与えてもよい。パターンの種類が3つ以上ある場合には、似ているパターン間の明るさの違いをDとすればよい。勿論、このような形態にこだわる必要は必ずしもなく、重みを適切に与えられるものならばよい。
【0085】
図6に検出した2枚の画像の例を示す。検出した2枚の画像には、図示したような明るさに大きな違いがある。この2枚の画像を、画素単位の精度で位置合わせを行い、明るさ一致フィルタ操作をした。しかしながら、本画像では明るさの違いが大きすぎて、同図に示すように、差画像において、大きな不一致が生じている。このような画像に対し、階調変換処理を実施した。
【0086】
図7〜9に処理例を示す。図7〜9において、検出した2枚の画像f(x、y)、g(x、y)、及び明るさヒストグラムを示す。また、変換後の画像a*g(x、y)+b、及び明るさヒストグラムを示す。ここでは、D=70とした。図7に示すヒストグラムからわかるように、Dの値は双峰性のヒストグラム分布の各分布平均の差に相当する値になっている。即ち、このようなDが設定された重みWは、同じ分布に属するかどうかの指標になっている。なお、定めたエリアは、各点の周囲の7×7画素の範囲である。図7〜9から、変換によって明るさヒストグラムがほぼ等しくなることがわかる。ここで、図7〜9の画像を対象にした実験結果では、画像内のある点でa=1.41、b=0が得られた。この画像では、明るさのゲインが大きく(41%)異なることがわかる。
【0087】
この例から、オフセットbを常に0と設定し、ゲインだけを可変にする方式も考えられる。これらは、対象とするパターンの特性や装置構成等により、決定すればよい。
【0088】
図10及び図11は、このような変換により得られた画像の差を示したものである。図10及び図11において、最初の3つは、定めたエリアを、各点の周囲の3×3、5×5、7×7画素の範囲としたものである。また、この時の重みは、W(x、y)=1とした。さらに、最後の1つは、7×7画素の範囲について、重みを上記したW(x、y)に従うとしたものを示した。これらの図より、エリアが小さい場合は、明るさを局所的に合わせ込み、画像間の不一致が小さくなることがわかる。これでは、明るさの許容範囲は広がるが、微小な欠陥を見逃してしまう。このため、エリアを検出すべき欠陥に応じて拡げる必要がある。しかし、重みが1に固定されている場合、パターン領域の境界部が不一致として、即ち虚報として検出されてしまう。重み付けした場合は、境界の影響が低減され、ほぼ2枚の画像の明るさが一致し、微小な欠陥も検出できることになる。
【0089】
なお、7×7画素などのエリアは、必ずしも正方形である必要性はなく、長方形や多角形、或いは円でもよい。また、このような極微小な領域でなく、数100×数100画素といった領域にしてもよく、要は明るさの変動が吸収可能な範囲であればよい。
【0090】
重み付けの方法は、この他にも、着目した中央画素と周囲画素の明るさを比較し、明るさの差がしきい値より大きいときは、重みを0とすることもできる。
【0091】
以上述べた以外に、下記の階調変換も考えられる。
【0092】
【数17】
Figure 0004024381
【0093】
ここで、σf、mfは、それぞれ画像f(x、y)において、点(x、y)近傍の定めたエリア内の標準偏差、平均値であり、σg 、 mgは、それぞれ画像g(x、y)において、点(x、y)近傍の定めたエリア内の標準偏差、平均値である。
上記した変換により、画像g(x、y)の明るさをf(x、y)に一致させることができる。
【0094】
W(x、y)は、上記した重みでもよいし、画像f(x、y)とg(x、y)の定めたエリア内の画像データの相関係数でもよい。
【0095】
この方式も、結果として2つの画像のヒストグラムが一致するという特長がある。
【0096】
いずれの方式も、ゲインとオフセットからなる線形変換の形になっている。
【0097】
以上のべた階調変換は、着目画素近傍の局所的な明るさ変換である。勿論、目的や画像の特性に従って、画像全体、即ちここでは256ライン全体に適用しても構わないものである。また、2枚の画像のどちらに、一方の画像の明るさを一致させるかは、例えば、画像毎に明るさ平均値を算出し、明るい方に合わせることができる。また、定めたエリア毎、或いは各点毎に、明るさ平均値を算出し、明るい方に合わせることもできる。
【0098】
なお、図1では、画像明るさ一致フィルタ操作の後に、階調変換を実施しているが、この順序は、図2に示すように入れ替えてよい。
【0099】
次に、比較器14は、本発明者らが開発した方式、特開昭61−212708号公報記載の技術に示したもの等で差し支えなく、画像の差画像検出回路、差画像を定めたしきい値で2値化する不一致検出回路、2値化された出力より面積や長さ(投影長)、座標などを算出する特徴抽出回路から構成される。
【0100】
図12及び図13を用いて、さらに本発明にかかる2値化の際のしきい値設定について説明する。
【0101】
上記したように、差画像を2値化する際、領域の境界などで、虚報が発生しやすい。そこで、図12に示すように、画像の局所領域内の最大値と最小値の差、平均値、微分値のx、yいずれか大きい方(以下、局所データ)を、各点ごとに算出する。これらの値に、別途定めたパラメータを掛け合わせ、加算する、いわゆる積和演算することにより、しきい値を生成する。これにより、例えば、領域の境界部の明るさ変化が大きいところでは、微分値等が大きくなるので、しきい値が大きくなり、虚報の発生を未然に防ぐことが可能になる。勿論、最大値と最小値の差、平均値、微分値のx、yいずれか大きい方は、3つとも備える必要はなく、いずれかひとつでもよい。例えば、上記した階調変換を実施した場合は、平均値を算出する必要性はない。
【0102】
このようなしきい値を用いて、画像の差を2値化すれば、虚報の問題をより効果的に低減できる。なお、上記局所データは、後述する散布図により分布を求めることにより、その大小の決定支援が可能である。図31〜33には、画像の局所領域内の最大値と最小値の差に関する散布図を示している。この分布データに線分を当てはめ、線分からの誤差を求める。このような処理を各局所データに関して行い、その積和によってしきい値を決めることが可能である。
【0103】
たとえば、しきい値Thとして
Th=C3×局所コントラスト+C2×明るさ平均
を選ぶと考える。ここで、局所コントラスト画像を、各画素に関して3×3画素の最大値−最小値
で定義し、明るさ平均画像を、各画素に関して3×3画素の移動平均であらわす。
【0104】
比較する2枚の画像の局所コントラスト画像をf(x、y)、g(x、y)とし、
【0105】
【数18】
Figure 0004024381
【0106】
上式より求められるVeをσkとする。
【0107】
同様に、明るさの平均画像をf(x、y)、g(x、y)とし、求められるVeをσaとする。
【0108】
これらより、下式の(数19)が決まる。
【0109】
【数19】
Figure 0004024381
【0110】
同様のことを、画像を変えて行い、係数のC2、C3が求められる。
【0111】
上記したThを選ぶと考えると、局所コントラストの散布図において、傾き1(m=1)、切片0(n=0)の直線から各プロットデータ点までの距離であり、誤差に相当する標準偏差σkを求める。同様に、明るさ平均の散布図において、傾き1、切片0の直線から各プロットデータ点までの距離であり、誤差に相当する標準偏差σaを求める。また、もとの2枚の画像の明るさの散布図において、傾き1、切片0の直線から各プロットデータ点までの距離であり、誤差に相当する標準偏差σgを求める。
【0112】
これらの値を上記Thの式に代入すると、(数19)のような、C2とC3の式が得られる。この操作を異なる場所の画像について行うと、係数が異なる別のC2とC3に関する式が得られる。従って、これらを連立方程式として解くと、C2、C3という係数が一意に決まる。これより、C2、C3からしきい値Thが決められる。もちろん、しきい値Thは、
Th=C3×局所コントラスト+C2×明るさ平均+オフセット
としてもよい。
【0113】
更に、別の設定方式として、求めるべき浮動しきい値を、明るさの局所的なコントラストや平均値の線形結合として(数20)で表し、比較する2枚の画像の散布図情報を用いて重回帰分析によりパラメータを算出してもよい。
【0114】
【数20】
Figure 0004024381
【0115】
この時の設定の手順を以下に示す。
【0116】
(1)複数点の画像(2チップ一組)を検出する。
【0117】
(2)検出画像、参照画像のデータから明るさの散布図を作成する。(欠陥を含まない画像を対象とするか、または、欠陥部を除いた画像を用いる。)
(3)散布図におけるデータの集合を包絡する点を求めて(評価では、頻度1の点を抽出する)、その点に対応する画像の画素から、局所的コントラストや平均値のデータを抽出する。
【0118】
(4)上記(3)で求めた情報をもとに重回帰分析によりパラメータC0〜C4を調整する。
【0119】
(5)p値(有意水準)に応じて用いるデータの選択を行う(p値が十分信頼の持てる値(0.05以下)となる組み合わせを求める)。
【0120】
(6)求めたパラメータC0〜C4から、しきい値画像を算出して差画像と比較を行う。
【0121】
(7)虚報があれば虚報の情報の加えて、パラメータC0〜C4を調整する。
【0122】
(8)テスト検査を行う。
【0123】
(9)虚報が発生したら、上記(7)と(8)とを繰り返す。
【0124】
また、図13に示すように、上記したように係数と誤差の積和演算ではなく、ルックアップテーブル(LUT)を用いても構成可能である。図12及び図13に示すように、画像の局所最大値と局所最小値を求め、その差よりコントラストを求め、これをLUTに入力する。同様に、画像の局所平均値を求め、LUTに入力する。これらのLUT出力を別のLUTに入力し、しきい値を求める。LUTの規模を適切なものとするため、図12及び図13では使用するビット数を8→6ビットに制限している。求めたしきい値は、比較回路(図1及び図2)14に入力し、2値化のしきい値として使用する。LUTの中身のデータは、種々の画像を用いて、上記した手順と同様の手順で、誤差等を求め、これを補間等してデータを埋めて作成する。
【0125】
選ぶ画像は、誤検出しやすい場所が適していることは言うまでもないが、従来はこのような決め方がなく、本発明により決め方の手順が決まっただけでなく、きわめて論理的に決められるということが特徴である。
【0126】
図1及び図2において、設計情報に基づいて得られる半導体ウエハ4上におけるチップ内の配列データ等の座標を、キーボード、ディスク等から構成された入力手段15で入力しておくことにより、CPU16は、入力された半導体ウエハ4上におけるチップ内の配列データ等の座標に基づいて、欠陥検査データを作成して記憶装置17に格納する。
【0127】
この欠陥検査データは、必要に応じてディスプレイ等の表示手段に表示することもできるし、また出力手段により出力することもできる。
【0128】
また、このデイスプレイ上に、階調変換する前の画像または画像データと階調変換後の画像または画像データとをそれぞれ表示することにより、または、階調変換後の画像または画像データを表示することにより、階調変換が正しくなされて検査が行われていることを、作業者が目視で確認することができる。
【0129】
これらにより、きわめて高精度に画像を比較することができ、本発明で意図した目的がより高感度に実現できることになる。
なお、本実施例では明視野照明も用いた例を示したが、暗視野照明により得られた画像を対象にしてもよい。また欠陥の種類もショートやオープンなどの形状不良や、それ以外の異物も対象となる。
【0130】
〔実施の形態 2〕
本発明に係るパターン検査方法および装置の第2の実施の形態を図19に示す。ここでは、電子線により試料を走査して、電子線の照射によってウエハから発生する電子を検知し、その強度変化に基づいて走査部位の電子線像を得、電子線像を用いてパターン検査を行う。前述の発明が解決しようとする課題に対して、本第2の実施の形態では、欠陥判定のしきい値を、パターンの位置ずれ、階調値の差異などを考慮して画素ごとに設定することで対処する。
【0131】
本システムは、検出部101、画像取り出し部102、画像処理部103、システム全体を制御する全体制御部104からなる。
【0132】
始めに、検出部101について述べる。
【0133】
図19において、電子銃31を出た電子ビームは、磁界レンズ32、対物レンズ33を経て、試料面では画素サイズ程度のビーム径に絞られる。この際、グランド電極37、リターディング電極38によって、試料に負電位を引加し、対物レンズと試料間で電子ビームを減速することで低加速電圧領域での高分解能化を図る。電子線が照射されると、試料(ウエハ1)からは電子が発生する。偏向器34による電子線のX方向の繰り返し走査と、ステージ2による試料のY方向の連続的な移動に同期して試料から発生する電子を検出することで、試料の2次元の電子線像が得られる。試料から発生した電子は検出器35で捕らえられ、アンプ36で増幅される。ここで、高速検査を可能にするために、電子ビームをX方向に繰り返し走査させる偏向器34としては、偏向速度の速い静電偏向器を用いることが、また、電子銃31としては、電子ビーム電流を大きくできるので照射時間が短くできる熱電界放射型電子銃を用いることが、また、検出器35には高速駆動が可能な半導体検出器を用いることが望ましい。
【0134】
次に、画像取り出し部102について述べる。
【0135】
アンプ36で増幅された信号は、AD変換器39によってディジタル信号に変換された後、前処理回路40において、暗レベル補正(ビーム・ブランキング期間中の特定数画素の階調値の平均を暗レベルとする)、電子ビーム電流の揺らぎ補正(ビーム電流を図示されていない対物絞りで検出し、信号をビーム電流で正規化する)、シェーディング補正(ビーム走査位置による光量変動を補正)を行った後、ガウシアンフィルタ、平均値フィルター、あるいはエッジ強調フィルターなどによるフィルタリング処理を行って、画質を改善する。また、必要に応じて、画像の歪みの補正も行なう。これらの前処理は、後の欠陥判定処理において有利なように検出画像を変換するためのものである。
【0136】
遅延回路41は信号を一定時間だけ遅延させるが、遅延時間を、例えばステージ2がチップピッチ分移動する時間にすれば、遅延された信号g0と遅延されていない信号f0は隣り合うチップの同じ箇所での画像信号となり、前述したチップ比較検査となる。あるいは遅延時間を、ステージ2がメモリセルのピッチ分移動する時間にすれば、遅延された信号g0と遅延されていない信号f0は隣り合うメモリセルの同じ箇所での画像信号となり、前述したセル比較検査となるわけである。以上のようにして、画像取り出し部102から、比較すべき画像信号f0とg0が取り出される。以下、f0を検出画像、 g0を比較画像と呼ぶことにする。
【0137】
次に、画像処理部103における処理について述べる。
【0138】
画素単位の位置合わせ部42では、検出画像の位置を基準にした時、検出画像と比較画像の「整合度」が最大となる位置が、0〜1画素の間になるように、比較画像の位置をずらす。
【0139】
次に、明るさ一致フィルタ操作部における、画像間あかるさ不一致を最小にするフィルタF、F‘を求める。前述したように、フィルタのパラメータの係数を、最小二乗法を用いて、解いて(7)式、(8)式のように、 dx0、dy0を求めるには種々の統計量ΣΣ××を求める必要がある。統計量算出部44において、それら種々の統計量の算出を行い、サブCPU45において計算されたΣΣ××を用いて、(数7)、(数8)の演算を行ってα、βを求める。
【0140】
局所階調変換回路46は、前述したf1とg1の明るさをそろえる階調変換を実施するためのものである。
【0141】
差分抽出回路49では、f1とg1の差画像sub(x,y)を求める。式で表すと次のようになる。
【0142】
【数21】
Figure 0004024381
【0143】
しきい値演算回路48では、遅延回路46、47を経た画像信号f1、g1および、α、βを用いて、sub(x,y)の値に応じて欠陥候補か否かを判定する二つのしきい値thH(x,y)とthL(x,y) を算出する。 thH(x,y)はsub(x,y)の上限を規定するしきい値であり、 thL(x,y)はsub(x,y)の下限を規定するしきい値である。しきい値演算回路48の構成を図20に示す。演算の内容を式で表すと次のようになる。
【0144】
【数22】
Figure 0004024381
【0145】
【数23】
Figure 0004024381
【0146】
ただし、
【0147】
【数24】
Figure 0004024381
【0148】
【数25】
Figure 0004024381
【0149】
【数26】
Figure 0004024381
【0150】
ここで、 a a、 b bは、0〜0.5の実数、γは0以上の実数、εを0以上の整数
【0151】
【数27】
Figure 0004024381
【0152】
しきい値を算出する(数22)(数23)の右辺の第1項A(x,y)は、位置ずれ検出部43で求めたα、βに対応してしきい値を補正するための項である。例えば(数27)で表されるdx1は、f1の階調値のx方向の局所的な変化率とみなし、 dx1(x,y) *αは、位置がαずれた時のf1の階調値の変化の予測値ということができる。よって、A(x,y)の第1項{dx1(x,y) *α - dx2(x,y)*(- α)}は、x方向にf1の位置をα、g1の位置を- αずらした時に、f1とg1の差画像の階調値がどのぐらい変化するかを画素ごとに予測した値ということができる。同様に第2項はy方向について予測した値ということができる。 しきい値の第一項A(x,y)は、α、βをキャンセルするための項である。
【0153】
しきい値を算出する(数22)(数23)の右辺の第2項B(x,y)は、パターンエッジの微小な位置ずれやパターン形状の微小な差異、パターン歪みを許容するための項である。 A(x,y)を求める(数24)とB(x,y)を求める(数25)を対比させれば明らかなように、B(x,y)はa a、 b b による、差画像の階調値の変化予測の絶対値である。 A(x,y)によって既知の位置ずれ(とみなす)がキャンセルされるとするならば、 A(x,y)にB(x,y)を加算するのは、位置の合った状態からさらにx方向にa a、y方向にb bだけ位置をずらす(とみなす)ことを意味している。つまり、x方向にa a、y方向にb bの位置ずれを許容するのがB(x,y)である。
【0154】
また、 A(x,y)からB(x,y)を減ずるのは、位置の合った状態からさらにx方向に- a a、y方向に-b bだけ位置をずらすことを意味している。 x方向に- a a、y方向に-b bの位置ずれを許容するのが -B(x,y)である。しきい値に上限、下限を設けることによって、± a a、± b bの位置ずれを許容することになるわけである。 そして、パラメータa a 、 b bの値を適切な値に設定することによって、許容する位置ずれ量を自由にコントロールすることが可能である。
【0155】
しきい値を算出する(数22)及び(数23)の第3項C(x,y)は、階調値の微小な差異を許容するための項である。 C(x,y)の加算は、g1の階調値がf1の階調値よりもC(x,y)だけ大きいのを許容することを意味し、 C(x,y)の減算は、g1の階調値がf1の階調値よりもC(x,y)だけ小さいのを許容することを意味する。ここでは、 C(x,y)を、局所領域での階調値の代表値(ここではmax値)に比例定数γを掛けた値と、定数εとの和としたが、この関数にこだわる必要はなく、階調値の変動の仕方が既知であれば、それに合った関数するのがよい。例えば、階調値の平方根に変動幅が比例すると分かっていれば、(数26)の代わりに、 C(x,y)=(max1+max2)1/2*γ+εとすべきである。 B(x,y)と同様、パラメータγ、εによって、許容する階調値の差異を自由にコントロールすることが可能である。
【0156】
欠陥判定回路50では、差分抽出回路49の出力sub(x,y)および、しきい値演算回路48の出力thL(x,y)、thH(x,y)を用いて、
【0157】
【数28】
Figure 0004024381
【0158】
を満たせば、位置(x,y)の画素は非欠陥候補、満たさなければ位置(x,y)の画素は欠陥候補と判定する。欠陥判定回路50は、非欠陥候補画素は0、欠陥候補画素は1以上の値を持つdef(x,y)を出力する。
【0159】
特徴抽出回路50aでは、ノイズ除去処理(例えば、def(x,y)に対して縮小・膨張の処理を行う)によってノイズ的な出力を削除したあと、近隣の欠陥候補部を一つにまとめる欠陥候補部のマージ処理を行う。その後、一まとまりごとに、重心座標、XY投影長、面積などの特徴量を算出する。
【0160】
全体制御部104では、欠陥部の座標を試料上の座標系に変換し、疑似欠陥の削除を行い、最終的に、試料上での位置と特徴量とからなる欠陥データをまとめる。
【0161】
この欠陥データは、前記下実施の形態1と同様に、デイスプレイ上に表示することもできるし、出力手段により出力することもできる。
【0162】
また、このデイスプレイ上に、階調変換する前の画像または画像のデータと階調変換後の画像または画像のデータとをそれぞれ表示することにより、または、階調変換後の画像または画像のデータを表示することにより、階調変換が正しくなされて検査が行われていることを、作業者が目視で確認することができる。
【0163】
本実施の形態によれば、小領域全体としての位置ずれや、個々のパターンエッジの微小な位置ずれや、階調値の微小な差異が許容されるため、正常部を欠陥と誤認識することがなくなる。また、パラメータa a 、 b b、γ、εによって、位置ずれ、階調値の変動の許容量のコントロールを容易に行うことが可能となる。
【0164】
〔実施の形態 3〕
本発明に係るパターン検査方法および装置の第3の実施の形態を図23に示す。図23において、図1及び図2と同様に、1はイメージセンサであり、被検査パターンである半導体ウエハ4からの反射光の明るさ、すなわち濃淡に応じた濃淡画像信号を出力するものであり、2はイメージセンサ1から得られる濃淡画像信号をディジタル画像信号9に変換するA/D変換器、3は濃淡画像信号を遅延させる遅延メモリ、4は被検査パターンのある半導体ウエハ、5は被検査パターンの半導体ウエハ4を載置するX方向とY方向とZ方向とθ方向(回転)の移動するステージ、6は半導体ウエハ4に対する対物レンズ、7は被検査パターンの半導体ウエハ4を照明する照明光源、8は照明光を反射して対物レンズ6を通して半導体ウエハ4に照射すると共に、半導体ウエハ4からの反射光を透過するハーフミラー、9は濃淡画像信号がA/D変換器で変換されたディジタル画像信号である。このようにして、照明光源7からの照明光を反射させて対物レンズ6を通して半導体ウエハ4に対して、例えば明視野照明を施すように構成している。
【0165】
また、3は、画像信号9を繰り返される1セルまたは複数セルピッチ分を記憶して遅延させる遅延メモリであってもよいし、 画像信号9を繰り返される1チップまたは複数チップピッチ分記憶して遅延させる遅延メモリでもよい。
【0166】
11はディジタル画像信号9及び遅延されたディジタル画像信号10を位置合わせするものであり、ここでは、画素単位で濃淡差が最小となる位置ずれ量を正規化相関により検出し、この位置ずれ量に基づき一方の画像をシフトして、2枚の画像を位置合わせするものである。なお、正規化したのは、位置合せすべき画像間の明るさの違いの影響を軽減するためである。
【0167】
即ち、検出画像f(x,y)に対して記憶画像g(x,y)を移動し、相関値が最大となる位置を下式により求める。
【0168】
【数29】
Figure 0004024381
【0169】
【数30】
Figure 0004024381
【0170】
【数31】
Figure 0004024381
【0171】
【数32】
Figure 0004024381
【0172】
【数33】
Figure 0004024381
【0173】
ここで、画像はイメージセンサにより連続的に検出されるが、画像を後述するライン単位ごとに分割し、この単位で位置合わせを行う。上式では、検出画像はX×Y画素の寸法である。
なお、図示していないが、画像の位置ずれを求める上記した正規化相関は、すべての画像を相手にして行う必要はなく、例えば画像をイメージセンサの長手方向にK分割し、分割した各小画像(X/K×Y画素の大きさ)のうち、情報がある小画像について、行ってもよい。情報があるかどうかの判断は、例えば各小画像を微分し、エッジの有無を検出し、エッジが多い小画像を選ぶ。たとえば、イメージセンサがマルチタップ構成の並列出力可能なリニアイメージセンサの場合、各タップ出力画像が、小画像に相当する。この考え方は、並列出力される画像は、位置ずれが等しいということに基づいている。
【0174】
13は、明るさの異なる画像信号を、明るさを一致させるべく、双方の画像信号の階調を変換する階調変換部である。ここでは、個々の画素毎にゲインとオフセットにより線形変換を実施して、明るさを一致させている。
【0175】
【数34】
Figure 0004024381
【0176】
【数35】
Figure 0004024381
【0177】
【数36】
Figure 0004024381
【0178】
【数37】
Figure 0004024381
【0179】
12は、明るさの異なる画像信号を、明るさを一致させるべく、双方の画像信号を変換する明るさ変換部である。ここでは、画像全体に一括したフィルタ操作を実施して、明るさを一致させている。
【0180】
そして、得られた画像信号を比較部14において比較し、不一致を欠陥として検出するものである。
【0181】
23は、比較する2枚の画像を入力する画像入力部であり、この画像より、散布図作成部24において散布図を求める。散布図は、縦軸と横軸が、2枚の画像の明るさを示している。25は、得られた散布図を表示する表示部である。15は、入力手段であるが、例えば、差画像の絶対値を2値化するしきい値を入力し、入力したしきい値の線分を散布図上にプロットする。この散布図を見れば、入力したしきい値の妥当性が判断しやすい。また、表示された散布図を参照して、画像に適したしきい値を決めることもできる。散布図の1例を図34に示す。
【0182】
W(x,y,dx,dy)=1のときは以下のように示される。
【0183】
【数38】
Figure 0004024381
【0184】
【数39】
Figure 0004024381
【0185】
また、散布図において、プロットしたデータ群に線分を最小2乗法等であてはめ、この線分からのずれである誤差を求めることができる。
【0186】
直線を、Y=m・f(x,y)+nとすると、最小2乗法(m,n)は以下の式にて算出)により直線近似を行う。
【0187】
【数40】
Figure 0004024381
【0188】
【数41】
Figure 0004024381
【0189】
直線からの誤差は、例えば下式で求められる。
【0190】
【数42】
Figure 0004024381
【0191】
【数43】
Figure 0004024381
【0192】
この誤差に基づき、しきい値を求め、求めたしきい値を散布図上にプロットできる。たとえば、しきい値は、このVeの平方根に比例した値とする。図24に、これを実現する構成例を示す。
【0193】
26は統計量算出部を示し、上記した線分の当てはめと、線分からの誤差を算出するものである。27は、この得られた統計量よりしきい値を算出するしきい値算出部である。もちろん、しきい値をユーザ入力可能な構成にしても問題ない。
【0194】
散布図に使用する画像は、比較する2枚の画像であり、例えば画素単位の位置合せ後の画像である。画像処理の各段階で、2枚の画像を画像入力部23に入力可能である。
【0195】
図26及び図27は、図23に示した方式に基づき、2枚の画像を処理した例を示したものである。対象は、ライン&スペースのパターンが、画像の右下部に検出されたものである。左上は、パターンがない領域である。各処理途中での画像のヒストグラム、差の画像の統計量も併せて示している。ヒストグラムからわかるように、最初の段階では、2枚の画像の明るさは一致していない。まず、これを画像を正規化相関により相関値を求め、この相関値が高い位置を求めることにより、画素の単位で位置合せする。次に、位置合せされた2枚の画像について局所階調変換である局所的明るさ補正を実施する。そして、最後に2枚の画像の明るさを一致させるフィルタリングを施し、画像の明るさの一致度をさらに向上させている。
【0196】
図28〜30は、各処理段階での画像の散布図を示している。画素の単位で位置合せされた段階では、2枚の画像の明るさが一致していないため、散布図において斜め45度の直線にのらず、直線からのばらつきがみられる。しかし、本発明による局所階調変換である局所的明るさ補正とフィルタリングの処理の後では、散布図が直線に近いところに分布しており、2枚の画像の明るさをそろえる意味で効果があることがわかる。なお、傾きと切片とあるのは、散布図データにフィッティングした線分の傾きと切片である。2枚の画像の一致度の尺度である傾きは、最初0.705であったものが、局所階調変換である局所的明るさ補正後に、0.986となり、さらにフィルタリングの処理の後で0.991となり、明るさの一致度が向上していることがわかる。
【0197】
さらに、2枚の画像の一致度を表わす、前述のVeの値も、最初は40.02あったものが、局所階調変換である局所的明るさ補正後に、8.598となり、さらにフィルタリングの処理の後で7.477となり、明るさの一致度が向上していることがわかる。また、Veの値の画像は、Veの値を画像全体ではなく、例えば各画素の周りを含む7×7画素の各領域毎に、直線近似して誤差Veを求めたものを画像として表示したものを、図28〜図30は示している。この画像を見れば、どの部分で明るさ合せ誤差が大きいかがわかる。
【0198】
また、図31〜図33は、画像の局所コントラストに関する散布図を示したものである。ここで、コントラストは、各画素の周囲、例えば3×3画素について最大値と最小値を検出し、最大値−最小値を示す。局所コントラストも、本発明による局所階調変換とフィルタリングの処理の後では、散布図が直線に近いところに分布していることから、これらをそろえる意味もあると考えられる。傾きと切片等は、前述の図と同様の意味をもつ。なお、Veの値の画像は、局所コントラスト画像において、各画素の周りを含む7×7画素の領域に関して直線近似してVeを求めたものである。
【0199】
図34〜図37は、散布図としきい値の例を示したものである。図34は、2枚の画像が異なるため、これを誤検出しないように、しきい値が大きく設定されている。図35は、本発明による局所階調変換である明るさ補正後の散布図であり、2枚の画像の一致度が高いため、設定されたしきい値が小さい。図36は、明るさ合わせ後の散布図であり、さらにしきい値が小さくなっている。図37は、片方の画像を、各画素ではなく画像の単位で、線形の階調変換を施したもので、散布図上ではしきい値がオフセットをもっている。
【0200】
図38は、画像単位の階調変換を区分的な線形変換とした例を示したものである。この例では、2つの区分に分けている。
【0201】
このように、散布図としきい値は、欠陥検出感度等を決める基準或いは、設定したしきい値の妥当性確認など、はばひろく活用できるものである。
【0202】
これらの散布図作成、表示、或いは散布図のデータを用いたしきい値算出等は、検査開始前に、画像を検出し、この画像を用いて実施することも可能である。さらに、画像検出に同期して、散布図作成、しきい値設定等を画像毎に行えば、さらに高感度な検査が実現できることは、明白であろう。画像の検出は、各処理が終わった段階で行えばよい。なお、上記したように、画像処理はパイプライン型の処理で実現しているが、そうでない構成のものでも適用できるものである。
【0203】
図41に、別の処理結果を示す。図40では、まず画像のマッチング(正規化相関)による位置合わせを行う。次に、明るさ補正を行う。明るさ補正では、前述の明るさフィルタリングと局所的明るさ補正を同時に行う。これによれば、より構成が簡単になる。
【0204】
なお、上記した例では、リアルタイムで(画像検出と同期して)、係数m、n等を求めて、画像の明るさを補正した。その簡略版として、各画像の明るさについて、係数m、nを求めておき、これを参照する形で、明るさ補正を行う手段も考えられる。各画像とは、比較する2枚の画像でもよい。即ち、比較する2枚の画像の明るさを入力し、これに対する係数m、nを求めておく。そして、作成された参照表をもとに明るさ補正を行うのである。
【0205】
次に、画像の大きさに関して説明する。画像の大きさ、即ち画像の位置合せ(マッチング)の単位は、次の方法で決定できる。まず、比較する2枚の画像の位置ずれ量を細かく分割した単位で求める。これを図39に示す。X方向とY方向に分離して検出している。この位置ずれデータをスペクトル分析すると、図40のような波形が得られる。スペクトル分析図では、縦軸はスペクトル密度、横軸は周波数を示す。この図において、最も高い周波数であり、かつ密度の高い周波数に着目する。この図の場合、0.011となる。この周波数は、例えばステージの走行特性等の装置特性、振動特性により決まるものである。
【0206】
スペクトル分析結果は、2枚の画像の位置ずれがこの周波数で繰り返していることを表わしており、この逆数である88ラインを画像の単位、即ちマッチングの単位とすると、画像内に位置ずれのピークtoピークが現れ、位置ずれ量が大きい場合精度の高い位置合せが困難となる。しかし、画像の単位をこの周波数の逆数の1/4にすると、ピークの位置ずれの1/2以下に位置ずれ量を低減することができる。さらに、周波数の逆数の1/8にすると、ピークの位置ずれの1/4以下に位置ずれ量を低減することができる。
【0207】
このように、画像の単位を細かくすればするほど、画像の位置合せの精度を向上できるはずであるが、画像内に含まれるべきパターンの情報が少なくなるので、結果としては画像の位置合せ精度が上がらない。従って、スペクトル分析結果からは、必要とする位置合せ精度をもとに、画像の大きさに制限がなされ、パターン情報の確保の観点からは、比較するパターンに応じてであるがパターンのスペース情報(パターンが形成されていない領域に関する情報)をもとに画像の大きさの下限が決定できる。図25に、この構成を示す。なお、上記した説明では、最も高い周波数に着目したが、位置ずれの量に着目し、その大きなものに相当する周波数に着目しても効果的である。
【0208】
なお、上記は、x、y成分に分離して上記を行うこともできるし、蓄積型のリニアイメージセンサの場合のように、ステージの進行方向のみに着目して実施してもよい。
【0209】
上記発明の実施の形態1、2、3によれば、場所によるパターンの明るさの違いに影響されることなく、欠陥を高感度に検出することができる。また、メモリマット部21など暗い領域において、明るさが大きくばらつくパターンにおいても高感度に検査できる。また、装置が有する振動特性等に影響を受けることなく、高精度な画像のマッチングが実現できる。従って、従来に比べ、信頼性の高い検査を実現することができる。
【0210】
以上、本発明に係る実施の形態について、主に光学顕微鏡や走査型電子顕微鏡を用いた比較検査方法について述べたが、他の赤外線やX線により得られた画像検出に用いた場合にも、同様に有効であることはいうまでもない。
【0211】
【発明の効果】
本発明の構成によれば、多層のパターンの膜厚の違いによって生ずる明るさの違いによって全体の検査感度が律束されることなく、欠陥を高感度に検出することができる効果を奏する。
【0212】
また、高精度の画像マッチングの実現に効果を奏する。さらに、比較すべき2つの検出画像信号の明るさや微分等の処理を施した明るさ情報、或いは指定した画像処理途中の明るさ情報を、縦軸と横軸とした散布図を併せて使うことにより、しきい値の決定やその妥当性確認が有効にできる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る被検査パターンの欠陥検査装置の構成図である。
【図2】本発明の一実施形態に係る被検査パターンの欠陥検査装置の構成図である。
【図3】画像明るさ一致フィルタ操作部の説明図である。
【図4】階調変換部の説明図である。
【図5】双対フィルタの例を示す図である。
【図6】本発明にかかる検出画像と差画像の例を示す図である。
【図7】本発明の階調変換を実施した例を示す図である。
【図8】本発明の階調変換を実施した例を示す図である。
【図9】本発明の階調変換を実施した例を示す図である。
【図10】本発明の階調変換を実施した例を示す図である。
【図11】本発明の階調変換を実施した例を示す図である。
【図12】本発明のしきい値設定方式の説明図である。
【図13】本発明のしきい値設定方式の説明図である。
【図14】本発明の画像明るさ一致フィルタ操作部の動作説明図である。
【図15】被検査パターンのメモリチップにおけるメモリマット部と周辺回路部の略示説明図である。
【図16】図10のメモリチップにおけるメモリマット部と周辺回路部における明るさのヒストグラムである。
【図17】CMPプロセス処理のフローを説明する図である。
【図18】CMP処理された、異なるメモリチップにおけるメモリマット部と周辺回路部における明るさのヒストグラムである。
【図19】本発明の一実施形態に係る被検査パターンの欠陥検査装置の構成図である。
【図20】しきい値演算回路の構成を説明する図である。
【図21】2枚の画像の差の2乗和を表す図である。
【図22】2枚の画像の差の絶対値の和を表す図である。
【図23】本発明の一実施形態に係る被検査パターンの欠陥検査装置の構成図である。
【図24】本発明の一実施形態に係る散布図作成、表示を説明する図である。
【図25】本発明の一実施形態に係る被検査パターンの欠陥検査装置の構成図である。
【図26】比較する2枚の画像に関して、各画像処理の段階での結果を表わす図である。
【図27】比較する2枚の画像に関して、各画像処理の段階での結果を表わす図である。
【図28】比較する2枚の画像に関して、各画像処理の段階での散布図を表わす図である。
【図29】比較する2枚の画像に関して、各画像処理の段階での散布図を表わす図である。
【図30】比較する2枚の画像に関して、各画像処理の段階での散布図を表わす図である。
【図31】比較する2枚の画像に関して、各画像処理の段階での局所コントラストの散布図を表わす図である。
【図32】比較する2枚の画像に関して、各画像処理の段階での局所コントラストの散布図を表わす図である。
【図33】比較する2枚の画像に関して、各画像処理の段階での局所コントラストの散布図を表わす図である。
【図34】散布図の1例を表わす図である。
【図35】散布図の1例を表わす図である。
【図36】散布図の1例を表わす図である。
【図37】散布図の1例を表わす図である。
【図38】散布図の1例を表わす図である。
【図39】画像の位置ずれ量を説明する図である。
【図40】スペクトル分析を説明する図である。
【図41】比較する2枚の画像に関して、各画像処理の段階での結果を表わす図である。
【符号の説明】
1…イメージセンサ、2…A/D変換器、3…遅延メモリ、4…半導体ウエハ、5…X、Y、Z、θステージ、6…対物レンズ、7…照明光源、8…ハーフミラ、9…画像信号、10…画像信号、11…画素単位位置合わせ部、12…画像明るさ一致フィルタ操作部、13…階調変換部、14…比較部、15…入力手段、16…CPU、17…記憶装置、20…チップメモリ、21…メモリマット部、22…周辺回路部(非繰り返しパターンであるが、複数の繰り返しピッチをもつ繰り返しパターンを含む)、23…画像入力部、24…散布図作成部、25…表示部、26…統計量算出部、27…しきい値算出部(或いは入力部)、31…電子銃、32…磁界レンズ、33…対物レンズ、34…偏向器、35…検出器、36…アンプ、37…グランド電極、38…リターデイング電極、39…A/D変換器、40…前処理回路、41…遅延回路、42…画素単位の位置合わせ部、46…局所階調変換回路、48…しきい値演算回路、49…差分抽出回路、50…欠陥判定回路、101…検出部、102…画像取り出し部、103…画像処理部、104…全体制御部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an appearance inspection for detecting a defect in a pattern to be inspected, and more particularly to a method and apparatus for inspecting a defect in a pattern to be inspected in a semiconductor wafer or a liquid crystal display.
[0002]
[Prior art]
Conventionally, this type of inspection apparatus detects an image of a pattern to be inspected by an image sensor such as a line sensor while moving the pattern to be inspected as in the technique described in Japanese Patent Application Laid-Open No. 55-74409. The inconsistency is recognized as a defect by comparing the density of the image signal and the image signal delayed by a predetermined time.
[0003]
Further, as described in Japanese Patent Publication No. 8-10463, the comparison was performed by aligning two images.
[0004]
The conventional defect recognition method will be described in detail with reference to FIGS. FIG. 15 is a schematic explanatory diagram of a memory mat portion and a peripheral circuit portion in a memory chip having a conventional pattern to be inspected. FIG. 16 is a brightness histogram of the memory mat portion and the peripheral circuit portion in the memory chip of FIG. FIG. 17 is a schematic view of a pattern to be inspected that has been flattened by CMP (chemical mechanical) or the like.
[0005]
As shown in FIG. 15, a large number of memory chips 20 are arranged on a semiconductor wafer. The memory chip 20 can be roughly divided into a memory mat portion 21 and a peripheral circuit portion 22. The memory mat portion 21 is a set of small repetitive patterns (cells), and the peripheral circuit portion 22 is basically a set of random patterns. However, in many cases, it can be regarded as an aggregate of repetitive patterns having a plurality of different cell pitches when viewed in detail.
[0006]
FIG. 16 shows the brightness distribution in the memory mat portion 21 and the peripheral circuit portion 22 of FIG. 15, that is, the frequency (histogram) with respect to the brightness in the memory chip as a maximum of 1024 gradations in the 10-bit configuration. However, the memory mat portion 21 has a high pattern density and is generally dark. On the other hand, the peripheral circuit portion 22 has a low pattern density and is generally bright.
[0007]
[Problems to be solved by the invention]
In the planarization process such as CMP shown in FIG. 17, as can be seen from the histogram shown in FIG. 18, the circuit pattern in the memory mat section 21 causes a difference in brightness due to a difference in pattern film thickness. . In this figure, the wiring layer is deposited and then flattened by CMP processing. In such a pattern, the film thickness locally fluctuates and uneven brightness tends to occur. In the case of such a pattern, the brightness of the patterns shown in FIG. 16 and FIG. 17 is compared, and if a threshold value is set so as not to erroneously detect a difference in brightness, the defect detection sensitivity is extremely lowered. . Such a difference in brightness can be offset to some extent by using illumination light having a wide wavelength band, but there is a limit to the pattern subjected to the CMP process because the variation in brightness may be large. For this reason, it has been desired to detect minute defects from patterns with different brightness.
[0008]
Further, conventionally, the sum of squares of the difference between two images is calculated, and a paraboloid is applied to the difference to detect the image misalignment. However, in this case, there is no guarantee that the two images to be compared match, and there has been a demand for optimal matching for comparison. In FIG. 21, the sum of squares of differences for each pixel of two images (f (x, y) in FIG. 6 described later) is shifted in the range of ± 1 pixel in the x and y directions. This is the result of the experiment. The horizontal axis is the x direction, and the vertical axis is the y direction. The value in the figure is the sum of squared differences. Here, the same image (f (x, y) in FIG. 6) is used. That is, Σ (f (x, y) −f (x ± 1, y ± 1)) 2 is calculated as the sum of squares of the differences. As can be seen from FIG. 21, even in the same image, the sum of squares of the difference is not symmetric about (0, 0) but has an asymmetry of about 0.6%. Since they are the same image, the square sum of the difference is 0 at (0, 0). Accordingly, even if a parabola is applied to this data and a position where the sum of squares of the difference is minimized with a resolution equal to or smaller than the pixel size is obtained, an accurate positional shift (here, (0, 0)) cannot be detected.
[0009]
Furthermore, the brightness is different in a wafer of a planarization process such as CMP. The influence of this brightness difference is shown. Here, a single image and its brightness multiplied by 1.1 were used. The 1.1 times is normal or small as the CMP wafer brightness fluctuation. The experimental results are shown in FIG. The sum of absolute values of differences is displayed. The minimum position is (0, 1). There is a large error at the pixel level rather than the resolution below the pixel. The sum of squares of the differences has the same tendency, but it can be seen from these data that the image misalignment cannot be obtained accurately. Of course, the same tendency is observed even at 1.05 times. Thus, it is necessary to say that a method having an extremely large error is to apply a paraboloid to the sum of squares of the difference and obtain a minimum position from this.
[0010]
An object of the present invention is to solve the above-described conventional technical problem, and allows a pattern having different brightness to be comparatively inspected, and is a pattern to be inspected that can always inspect defects with high sensitivity and high reliability. It is to provide a defect inspection method.
[0011]
Another object of the present invention is to provide a defect inspection method for a pattern to be inspected using a highly accurate image matching method.
[0012]
It is another object of the present invention to provide a highly sensitive defect detection method even when a planarized wafer pattern such as CMP is targeted.
[0013]
[Means for Solving the Problems]
  In order to achieve the above object, according to the present invention, in a method for inspecting a defect of a plurality of sets of patterns originally formed on a substrate so as to be the same, a first pattern to be inspected is detected and this first pattern is detected. The first image of the pattern to be inspected is obtained, the first image is stored, the second pattern to be inspected is detected to obtain the second image of the second pattern to be inspected, and the stored first And the second imageThe first image and the second image obtained by performing the adjustment of the brightness of the entire image and the adjustment of the local brightness, and performing the adjustment of the brightness of the entire image and the adjustment of the local brightness. The pattern is inspected by comparing the first image with the second image, and adjusting the brightness of the entire image of the first image and the second image stored together with each other. By performing a batch filter operation on the entire image withI did it.
[0014]
  Further, according to the present invention, the brightness of the whole of the first image and the second image stored is adjusted so that the square error of the density between the stored first image and the second image is Operation is performed by using a filter that minimizes the brightness, and the brightness of the entire image is adjusted so that the square error in brightness between the first image and the second image is minimized. .
[0015]
  Further, according to the present invention, the first image and the second image can be obtained by linearly adjusting the brightness of the stored first image and the second image by linear transformation having a gain and an offset. Is converted so that the brightness of the pixels is almost the same, and weighting is performed according to the difference in brightness between the pixel of interest and the surrounding pixels in the region to be locally matched to the linear conversion having the gain and the offset. I added.
[0016]
  Then, the stored brightness of the first image and the second image is locally adjusted before the pixel-by-pixel alignment of the two images.
[0017]
  Alternatively, the brightness of the stored first image and second image is locally adjusted after the pixel unit alignment of the two images.
[0018]
  According to the present invention, in a method for inspecting a defect of a plurality of sets of patterns originally formed to be the same on a substrate, the first inspected pattern is imaged to capture the first inspected pattern. A first image is obtained, the first image is stored, a second pattern to be inspected is imaged to obtain a second image of the second pattern to be inspected, and the stored first image and second The positional deviation between the first image and the second image corrected for the positional deviation is detected, and the local brightness difference between the first image and the second image is corrected, and the local difference is detected according to the detected brightness difference. The local brightness is adjusted by performing appropriate gradation conversion, and the brightness of the entire first image and the entire second image are adjusted to match this local brightness. The pattern is inspected by comparing the first and second images combined And adjusting the brightness of the whole of the first image and the whole of the second image to minimize the square error of the light and shade of the whole of the first image and the whole of the second image. Thus, the filtering is performed on the entire first image and the entire second image.
[0019]
  Further, according to the present invention, the brightness of the first image and the second image is adjusted by linearly transforming the brightness of the first image and the second image locally with a gain and an offset. Was converted to be almost the same.
[0020]
  According to the present invention, in a defect inspection apparatus for inspecting defects of a plurality of sets of patterns originally formed on the substrate so as to be the same, the first inspection pattern is imaged and the first inspection target is imaged. An imaging unit that obtains a first image of a pattern and captures a second pattern to be inspected to obtain a second image of the second pattern to be inspected, and a first image obtained by imaging with the imaging unit Storage means for storing, gradation conversion means for locally gradation-converting at least one of the first image and the second image, and at least one of them locally by the gradation conversion means A brightness correction unit that matches the brightness of the first image and the second image that have undergone gradation conversion, and a comparison between the first image and the second image that match the brightness by the brightness correction unit And a defect detection means for detecting a defect in the pattern. Form was.
[0021]
  The gradation converting means is configured to convert the brightness of the first image and the second image to be compared by linear conversion having a gain and an offset.
[0022]
  In addition, a misalignment correction unit that corrects misalignment between the first image and the second image is provided, and the gradation conversion unit includes the first image and the second image in which the misalignment is corrected by the misalignment correction unit. And at least one of them is locally gradation-converted.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
Each embodiment of the present invention will be described with reference to FIGS. 1 to 14 and FIGS. 23 to 30.
[0034]
[Embodiment 1]
An inspection pattern defect inspection method and apparatus according to the present invention will be described. 1 and 2 are block diagrams of a defect inspection apparatus for a pattern to be inspected according to an embodiment of the present invention.
[0035]
In the present embodiment, a semiconductor wafer inspection pattern will be described as an example.
[0036]
1 and 2, reference numeral 1 denotes an image sensor, which outputs a grayscale image signal corresponding to the brightness of reflected light from the semiconductor wafer 4 that is a pattern to be inspected, that is, grayscale, and 2 is an image sensor 1. An A / D converter for converting the grayscale image signal obtained from the digital image signal 9 into a digital image signal 9, 3 a delay memory for delaying the grayscale image signal, 4 a semiconductor wafer having a pattern to be inspected, and 5 a semiconductor wafer 4 having a pattern to be inspected A stage that moves in the X, Y, Z, and θ directions (rotation), 6 is an objective lens for the semiconductor wafer 4, 7 is an illumination light source that illuminates the semiconductor wafer 4 of the pattern to be inspected, and 8 is illumination. A half mirror that reflects light and irradiates the semiconductor wafer 4 through the objective lens 6 and transmits the reflected light from the semiconductor wafer 4, and 9 indicates that the grayscale image signal is A / D It is converted digital image signal in exchanger. In this way, the illumination light from the illumination light source 7 is reflected, and the semiconductor wafer 4 is configured to perform, for example, bright field illumination through the objective lens 6.
[0037]
Further, 3 may be a delay memory that stores and delays the image signal 9 for one or a plurality of repeated cell pitches, or stores and delays the image signal 9 for one or more repeated chip pitches. A delay memory may be used.
[0038]
11 is used to align the digital image signal 9 and the delayed digital image signal 10, and here, a misregistration amount that minimizes the shading difference is detected in units of pixels, and one image is based on the misregistration amount. To align the two images. Here, the image is continuously detected by the image sensor, but the image is divided into, for example, every 256 lines (the number of lines is determined by a method described later), and alignment is performed in this unit. Reference numeral 12 denotes a brightness conversion unit that converts image signals having different brightnesses so that the brightness of the image signals is matched. Here, filter operations are performed collectively on the entire image to match the brightness.
[0039]
A gradation conversion unit 13 converts the gradations of the image signals having different brightnesses so that the brightnesses of the image signals match. Here, linear transformation is performed for each individual pixel using a gain and an offset, and the brightness is matched. Then, the obtained image signals are compared in the comparison unit 14 to detect a mismatch as a defect.
[0040]
The detected image signal is sequentially subjected to a certain process by pipeline type image processing, and finally a defect and its feature are output.
[0041]
In the above example, bright field illumination is used as illumination, but the illumination is not limited to this, and any illumination that can be used as microscope illumination such as dark field illumination or annular illumination may be used. Needless to say, it can also be applied to illumination with an electron beam.
[0042]
The lighting conditions may be variously changed, the inspection is performed a plurality of times, and the logical sum of the inspection results of the plurality of times may be taken as a final result. Alternatively, a logical product may be taken and identified as a defect, and the process diagnosis may be made based on the defect distribution and the number of defects, for example. In this case, the review for visually confirming the inconsistent portion is unnecessary, and the work can be simplified and simplified.
[0043]
Next, the operation of the inspection apparatus having the above configuration will be described with reference to FIGS. In FIG. 1 and FIG. 2, the processing order is changed.
[0044]
In FIG. 1 and FIG. 2, the stage 5 is scanned in the X direction with illumination light converged by the objective lens 6 and moved at a constant speed with respect to the target region of the semiconductor wafer 4 of the pattern to be inspected, while the image sensor 1 A pattern to be inspected formed on the semiconductor wafer 4, that is, brightness information (grayscale image signal) of the memory mat portion 21 and the peripheral circuit portion 22 in the chip 20 is detected.
[0045]
When the movement for one row is completed, it moves to the next row at a high speed in the Y direction and is positioned. That is, the inspection is performed by repeating the constant speed movement and the high speed movement. Of course, step-and-repeat inspection is also acceptable. The A / D converter 2 converts the output (grayscale image signal) of the image sensor 1 into a digital image signal 9. The digital image signal 9 has a 10-bit configuration. Of course, if there are about 6 bits, there is no particular problem in image processing, but a certain number of bits are required to detect minute defects.
[0046]
First, image alignment in pixel units will be described. Image alignment in pixel units is performed by calculating the density difference (difference between the value of each pixel of the image and the value of the corresponding pixel) while shifting one of the two images to be compared by the unit of pixel, thereby minimizing the density difference. The amount of displacement is obtained. The range of image misregistration detection is, for example, a maximum of ± 3 pixels, and is variable according to the pattern design rules. The two images are aligned by shifting the position of one of the images by the amount of displacement obtained.
[0047]
This will be described using the following.
[0048]
[Expression 1]
Figure 0004024381
[0049]
The position shift detection is to detect Δx and Δy where S (Δx, Δy) is min.
[0050]
However, since the minimum position can be obtained only in units of pixels, it is added as an offset depending on whether the true position is closer to the obtained Δx or Δy.
[0051]
Based on the following formula, 1 is added to Δx, Δy or left as it is.
[0052]
That is,
[0053]
[Expression 2]
Figure 0004024381
[0054]
[Equation 3]
Figure 0004024381
[0055]
[Expression 4]
Figure 0004024381
[0056]
[Equation 5]
Figure 0004024381
[0057]
Δx ++ means Δx = Δx + 1.
[0058]
In this way, the two images are aligned by shifting the position of one image by the amount of positional deviation always obtained by the alignment. That is, the image f is always moved to the upper right to obtain a new image f ′, and the movement direction can be specified from one of four types (lower right movement, upper left movement, lower left movement, upper right movement). . This leads to hardware simplification.
[0059]
FIG. 3 shows the brightness matching filter operation unit 12 in detail. For the two images f (x, y) and g (x, y) aligned in pixel units, first, filters F and F ′ that minimize the following values in the image are obtained.
[0060]
[Formula 6]
Figure 0004024381
[0061]
The filters F and F ′ have a size of 2 × 2 pixels, for example.
[0062]
FIG. 5 shows an example of the filter. The filters F and F ′ are symmetric and dual as shown in FIG. With such a dual form, the coefficient of the parameter of the filter can be solved using the least square method.
[0063]
[Expression 7]
Figure 0004024381
[0064]
[Equation 8]
Figure 0004024381
[0065]
However,
[0066]
[Equation 9]
Figure 0004024381
[0067]
[Expression 10]
Figure 0004024381
[0068]
## EQU11 ##
Figure 0004024381
[0069]
In this method, filtering is performed on two target images, and matching is performed by minimizing the square error of the density. It does not require repetitive calculations and can be realized by a single calculation.
[0070]
A feature of the above method is that the filter coefficients α and β are obtained so that the shades of two images are well matched with each other in the sense that the square error is minimized. In particular, these parameters do not necessarily represent the true value of the image displacement amount. For example, as described in the prior art, a method is also conceivable in which a paraboloid is applied to S (Δx, Δy), its minimum position is calculated, and then interpolation pixels are obtained by interpolation based on this calculated position. However, in this case, there are no norms or conditions to be satisfied with respect to brightness, and in that sense, it is not guaranteed that the obtained image is used for comparative inspection. Further, when the brightness is different, it is unclear what the calculated displacement represents. Moreover, even if the minimum position calculated by approximating the paraboloid matches the position described in the present embodiment, the images to be compared do not match.
[0071]
The proposed matching method guarantees that the square error of the brightness of two images is minimized, and in this respect, it is different from other methods. As shown in FIG. 14, since it is a linear approximation, the coefficient α of the filter has an error when it is regarded as a positional deviation. However, the brightness obtained is consistent. This method can essentially reduce the difference in shading between images, and is considered to be a very convenient method for comparative inspection.
[0072]
Further, the calculation of the filter coefficients α and β can be performed analytically without repeated calculation, and is suitable for hardware implementation.
FIG. 4 shows the local gradation converting unit 13 in detail. Parameters for minimizing the following values in a predetermined area in an image with respect to two images f (x, y) and g (x, y) that are aligned in pixel units and output as brightness matching filter operations a and b (a: gain, b: equivalent to offset) are obtained.
[0073]
[Expression 12]
Figure 0004024381
[0074]
The parameters a and b are obtained by partially differentiating the above values with a and b and setting them to zero. For example, the defined area is a range of 7 around each point.
[0075]
One g (x, y) of the image signal is calculated using the obtained parameters.
[0076]
[Formula 13]
Figure 0004024381
[0077]
And convert. As a result, images with consistent brightness can be obtained. The parameters a and b can take different values for each position (x, y).
[0078]
[Expression 14]
Figure 0004024381
[0079]
[Expression 15]
Figure 0004024381
[0080]
Here, the number of pixels in the range of Σ is MN.
[0081]
Further, in the Σ range, the brightness of the focused center pixel and the surrounding pixels are compared, and when the brightness is significantly different, it is not necessary to add this.
[0082]
Alternatively, although the addition itself is performed, it is effective to add a weight to lower the contribution rate when adding. For example, when the brightness of the pixel of interest (x, y) is c and the brightness of another pixel in the range of Σ is d, the weight W (x, y) is
[0083]
[Expression 16]
Figure 0004024381
[0084]
And Here, max [] is the maximum value detection, and c and d are both 8-bit gradation brightness. D is a constant. As a result, when the brightness of the focused center pixel and surrounding pixels are similar, the weight is set to a value close to 1, and when the brightness is not similar, the weight is set to a small value. Although D is a constant, it may be varied according to the brightness, and D = func (c). Further, it may be determined by whether or not they belong to the same pattern, and if the average brightness of different patterns is μ, D = | c−μ | may be given. If there are three or more types of patterns, the difference in brightness between similar patterns may be D. Of course, it is not always necessary to stick to such a form, as long as the weight can be appropriately given.
[0085]
FIG. 6 shows an example of two detected images. The detected two images have a great difference in brightness as shown in the figure. The two images were aligned with pixel accuracy and a brightness matching filter operation was performed. However, the difference in brightness is too large in the main image, and as shown in the figure, there is a large mismatch in the difference image. A gradation conversion process was performed on such an image.
[0086]
Examples of processing are shown in FIGS. 7 to 9 show two detected images f (x, y), g (x, y), and a brightness histogram. In addition, an image a * g (x, y) + b after conversion and a brightness histogram are shown. Here, D = 70. As can be seen from the histogram shown in FIG. 7, the value of D is a value corresponding to the difference between the distribution averages of the bimodal histogram distribution. That is, the weight W set with such D is an index as to whether or not they belong to the same distribution. The defined area is a 7 × 7 pixel range around each point. It can be seen from FIGS. 7 to 9 that the brightness histograms become substantially equal by the conversion. Here, in the experimental results for the images of FIGS. 7 to 9, a = 1.41 and b = 0 were obtained at certain points in the image. In this image, it can be seen that the brightness gain is greatly different (41%).
[0087]
From this example, a method in which the offset b is always set to 0 and only the gain is variable can be considered. These may be determined according to the characteristics of the target pattern, the device configuration, and the like.
[0088]
10 and 11 show the difference between images obtained by such conversion. In FIG. 10 and FIG. 11, the first three areas are defined areas of 3 × 3, 5 × 5, and 7 × 7 pixels around each point. Further, the weight at this time is W (x, y) = 1. Further, the last one shows that the weight is in accordance with the above-described W (x, y) for the range of 7 × 7 pixels. From these figures, it can be seen that when the area is small, the brightness is adjusted locally and the discrepancy between the images is reduced. This increases the allowable range of brightness, but misses minute defects. For this reason, it is necessary to expand the area according to the defect to be detected. However, when the weight is fixed to 1, the boundary portion of the pattern area is detected as a mismatch, that is, as a false alarm. In the case of weighting, the influence of the boundary is reduced, the brightness of almost two images is matched, and a minute defect can be detected.
[0089]
The area such as 7 × 7 pixels is not necessarily a square, and may be a rectangle, a polygon, or a circle. Further, instead of such a very small region, it may be a region of several hundreds × several hundred pixels, and the point is only required to be within a range in which variations in brightness can be absorbed.
[0090]
In addition to this, the weighting method can also compare the brightness of the focused center pixel and the surrounding pixels, and set the weight to 0 when the difference in brightness is larger than the threshold value.
[0091]
In addition to the above, the following gradation conversion is also conceivable.
[0092]
[Expression 17]
Figure 0004024381
[0093]
Here, σf and mf are a standard deviation and an average value in an area near the point (x, y) in the image f (x, y), respectively, and σg and mg are respectively the images g (x, y, In y), the standard deviation and the average value in the defined area near the point (x, y).
With the above-described conversion, the brightness of the image g (x, y) can be matched with f (x, y).
[0094]
W (x, y) may be the above-described weight, or may be a correlation coefficient of image data in an area defined by images f (x, y) and g (x, y).
[0095]
This method also has a feature that the histograms of the two images coincide as a result.
[0096]
Both methods are in the form of linear transformation consisting of gain and offset.
[0097]
The above tone conversion is local brightness conversion in the vicinity of the target pixel. Of course, the present invention may be applied to the entire image, that is, the entire 256 lines in accordance with the purpose and image characteristics. Also, which of the two images is to be matched with the brightness of one of the images can be adjusted, for example, by calculating an average brightness value for each image. In addition, it is possible to calculate an average brightness value for each predetermined area or each point, and to adjust to the brighter one.
[0098]
In FIG. 1, tone conversion is performed after the image brightness matching filter operation. However, this order may be changed as shown in FIG.
[0099]
Next, the comparator 14 may be a method developed by the present inventors, such as that shown in the technique described in Japanese Patent Application Laid-Open No. Sho 61-212708, etc., and determines the image difference image detection circuit and the difference image. A mismatch detection circuit that binarizes with a threshold value, and a feature extraction circuit that calculates an area, length (projection length), coordinates, and the like from the binarized output.
[0100]
With reference to FIG. 12 and FIG. 13, the threshold value setting in the binarization according to the present invention will be described.
[0101]
As described above, when the difference image is binarized, false information is likely to occur at the boundary between regions. Therefore, as shown in FIG. 12, the difference between the maximum value and the minimum value in the local region of the image, the average value, and the differential value x or y, whichever is greater (hereinafter referred to as local data) is calculated for each point. . A threshold value is generated by multiplying these values by a separately defined parameter and adding them, so-called product-sum operation. As a result, for example, where the brightness change at the boundary of the region is large, the differential value and the like become large, so that the threshold value becomes large and the occurrence of false information can be prevented in advance. Of course, the larger one of the difference between the maximum value and the minimum value, the average value, and the differential value x or y is not necessarily provided, and any one of them may be provided. For example, when the above tone conversion is performed, there is no need to calculate an average value.
[0102]
If the difference between the images is binarized using such a threshold value, the problem of false alarm can be reduced more effectively. The local data can be determined in size by obtaining a distribution from a scatter diagram described later. 31 to 33 show scatter diagrams regarding the difference between the maximum value and the minimum value in the local region of the image. A line segment is applied to this distribution data, and an error from the line segment is obtained. Such processing is performed on each local data, and the threshold value can be determined by the product sum.
[0103]
For example, as the threshold Th
Th = C3 × local contrast + C2 × brightness average
Think of it. Here, the local contrast image is represented by the maximum value-minimum value of 3 × 3 pixels for each pixel.
The brightness average image is represented by a moving average of 3 × 3 pixels for each pixel.
[0104]
The local contrast images of the two images to be compared are f (x, y) and g (x, y),
[0105]
[Expression 18]
Figure 0004024381
[0106]
Ve obtained from the above equation is σk.
[0107]
Similarly, let f (x, y) and g (x, y) be the average images of brightness, and let Ve be obtained be σa.
[0108]
From these, the following equation (Equation 19) is determined.
[0109]
[Equation 19]
Figure 0004024381
[0110]
The same is done by changing the image, and the coefficients C2 and C3 are obtained.
[0111]
Assuming that Th is selected, in the scatter diagram of the local contrast, the distance from the straight line with the slope 1 (m = 1) and the intercept 0 (n = 0) to each plot data point, and the standard deviation corresponding to the error Find σk. Similarly, in the scatter diagram of the average brightness, the standard deviation σa corresponding to the error, which is the distance from the straight line of slope 1 and intercept 0 to each plot data point, is obtained. Further, in the scatter diagram of the brightness of the original two images, the standard deviation σg corresponding to the error is obtained from the distance from the straight line with the slope 1 and the intercept 0 to each plot data point.
[0112]
By substituting these values into the above equation of Th, equations of C2 and C3 as shown in (Equation 19) are obtained. If this operation is performed for images at different locations, equations for other C2 and C3 with different coefficients are obtained. Therefore, when these are solved as simultaneous equations, the coefficients C2 and C3 are uniquely determined. Thus, the threshold value Th is determined from C2 and C3. Of course, the threshold Th is
Th = C3 × local contrast + C2 × average brightness + offset
It is good.
[0113]
Furthermore, as another setting method, the floating threshold value to be obtained is expressed by (Expression 20) as a linear combination of local contrast of brightness and average value, and using scatter diagram information of two images to be compared. The parameter may be calculated by multiple regression analysis.
[0114]
[Expression 20]
Figure 0004024381
[0115]
The setting procedure at this time is shown below.
[0116]
(1) A plurality of images (a set of two chips) are detected.
[0117]
(2) A brightness scatter diagram is created from the detected image and reference image data. (Use an image that does not include a defect, or use an image that does not include a defect.)
(3) A point that envelops a set of data in the scatter diagram is obtained (a point of frequency 1 is extracted in the evaluation), and local contrast and average value data are extracted from the image pixels corresponding to the point. .
[0118]
(4) Parameters C0 to C4 are adjusted by multiple regression analysis based on the information obtained in (3) above.
[0119]
(5) The data to be used is selected according to the p value (significance level) (a combination in which the p value becomes a sufficiently reliable value (0.05 or less) is obtained).
[0120]
(6) A threshold image is calculated from the obtained parameters C0 to C4 and compared with the difference image.
[0121]
(7) If there is a false report, the parameters C0 to C4 are adjusted in addition to the false report information.
[0122]
(8) Perform a test inspection.
[0123]
(9) When false information is generated, the above (7) and (8) are repeated.
[0124]
Further, as shown in FIG. 13, it is possible to use a lookup table (LUT) instead of a product-sum operation of coefficients and errors as described above. As shown in FIGS. 12 and 13, the local maximum value and the local minimum value of the image are obtained, the contrast is obtained from the difference, and this is input to the LUT. Similarly, the local average value of the image is obtained and input to the LUT. These LUT outputs are input to another LUT, and a threshold value is obtained. In order to make the LUT scale appropriate, the number of bits used in FIGS. 12 and 13 is limited to 8 → 6 bits. The obtained threshold value is input to the comparison circuit (FIGS. 1 and 2) 14 and used as a threshold value for binarization. The data in the LUT is created by using various images and obtaining an error or the like in the same procedure as described above, and interpolating the error or the like.
[0125]
Needless to say, an image that is easily misdetected is suitable for the image to be selected. Conventionally, there is no such determination method, and not only the determination procedure is determined by the present invention, but also a very logical determination. It is a feature.
[0126]
In FIG. 1 and FIG. 2, the CPU 16 inputs the coordinates such as the arrangement data in the chip on the semiconductor wafer 4 obtained based on the design information by the input means 15 constituted by a keyboard, a disk, etc. Then, based on the coordinates such as the array data in the chip on the input semiconductor wafer 4, defect inspection data is created and stored in the storage device 17.
[0127]
The defect inspection data can be displayed on a display means such as a display as needed, or can be output by an output means.
[0128]
Also, on the display, the image or image data before gradation conversion and the image or image data after gradation conversion are displayed respectively, or the image or image data after gradation conversion is displayed. Thus, the operator can visually confirm that the gradation conversion is correctly performed and the inspection is performed.
[0129]
As a result, images can be compared with extremely high accuracy, and the purpose intended by the present invention can be realized with higher sensitivity.
In addition, although the example which used bright field illumination was shown in the present Example, you may make into object the image obtained by dark field illumination. In addition, the types of defects include shape defects such as short and open, and other foreign matters.
[0130]
[Embodiment 2]
A second embodiment of the pattern inspection method and apparatus according to the present invention is shown in FIG. Here, a sample is scanned with an electron beam, electrons generated from the wafer are detected by irradiation of the electron beam, an electron beam image of the scanned part is obtained based on the intensity change, and pattern inspection is performed using the electron beam image. Do. In contrast to the problem to be solved by the above-described invention, in the second embodiment, the threshold value for defect determination is set for each pixel in consideration of the positional deviation of the pattern, the difference in gradation value, and the like. To deal with it.
[0131]
This system includes a detection unit 101, an image extraction unit 102, an image processing unit 103, and an overall control unit 104 that controls the entire system.
[0132]
First, the detection unit 101 will be described.
[0133]
In FIG. 19, the electron beam exiting the electron gun 31 passes through the magnetic lens 32 and the objective lens 33, and is narrowed down to a beam diameter of about the pixel size on the sample surface. At this time, a negative potential is applied to the sample by the ground electrode 37 and the retarding electrode 38, and the electron beam is decelerated between the objective lens and the sample, thereby achieving high resolution in a low acceleration voltage region. When the electron beam is irradiated, electrons are generated from the sample (wafer 1). By detecting the electrons generated from the sample in synchronization with the scanning of the electron beam in the X direction by the deflector 34 and the continuous movement of the sample in the Y direction by the stage 2, a two-dimensional electron beam image of the sample is obtained. can get. Electrons generated from the sample are captured by the detector 35 and amplified by the amplifier 36. Here, in order to enable high-speed inspection, an electrostatic deflector having a high deflection speed is used as the deflector 34 that repeatedly scans the electron beam in the X direction, and the electron gun 31 is an electron beam. It is desirable to use a thermal field emission electron gun that can shorten the irradiation time because the current can be increased, and it is desirable to use a semiconductor detector capable of high-speed driving as the detector 35.
[0134]
Next, the image extracting unit 102 will be described.
[0135]
The signal amplified by the amplifier 36 is converted into a digital signal by the AD converter 39, and then the preprocessing circuit 40 performs dark level correction (the average of the gradation values of a specific number of pixels during the beam blanking period is darkened). Level), correction of fluctuation of electron beam current (detection of beam current with an objective aperture not shown, normalization of signal with beam current), shading correction (correction of light intensity variation due to beam scanning position) Thereafter, the image quality is improved by performing a filtering process using a Gaussian filter, an average value filter, an edge enhancement filter, or the like. In addition, image distortion is corrected as necessary. These pre-processes are for converting the detected image in an advantageous manner in the subsequent defect determination process.
[0136]
The delay circuit 41 delays the signal by a predetermined time. If the delay time is set to a time for which, for example, the stage 2 moves by the chip pitch, the delayed signal g0 and the non-delayed signal f0 are the same in the adjacent chips. And the above-described chip comparison inspection. Alternatively, if the delay time is set to a time during which the stage 2 moves by the pitch of the memory cell, the delayed signal g0 and the undelayed signal f0 become image signals at the same location of the adjacent memory cells, and the cell comparison described above. It is an inspection. As described above, the image signals f0 and g0 to be compared are extracted from the image extracting unit 102. Hereinafter, f0 is referred to as a detected image, and g0 is referred to as a comparative image.
[0137]
Next, processing in the image processing unit 103 will be described.
[0138]
In the pixel-unit alignment unit 42, when the position of the detected image is used as a reference, the position where the “alignment” between the detected image and the comparative image becomes maximum is between 0 and 1 pixel. Shift the position.
[0139]
Next, the filters F and F ′ that minimize the brightness mismatch between images in the brightness matching filter operation unit are obtained. As mentioned above, solving the filter parameter coefficients using the least squares method, as shown in equations (7) and (8), dx0 and dy0 are obtained by obtaining various statistics ΣΣXX There is a need. The statistic calculator 44 calculates these various statistics, and calculates α and β by calculating (Equation 7) and (Equation 8) using ΣΣxx calculated by the sub CPU 45.
[0140]
The local gradation conversion circuit 46 is for performing gradation conversion that matches the brightness of f1 and g1 described above.
[0141]
The difference extraction circuit 49 obtains a difference image sub (x, y) between f1 and g1. This is expressed as follows.
[0142]
[Expression 21]
Figure 0004024381
[0143]
The threshold value calculation circuit 48 uses the image signals f1, g1 and α, β that have passed through the delay circuits 46, 47 to determine whether the defect candidate is a defect candidate according to the value of sub (x, y). Threshold values thH (x, y) and thL (x, y) are calculated. thH (x, y) is a threshold value that defines the upper limit of sub (x, y), and thL (x, y) is a threshold value that defines the lower limit of sub (x, y). The configuration of the threshold value operation circuit 48 is shown in FIG. The contents of the calculation are expressed as follows.
[0144]
[Expression 22]
Figure 0004024381
[0145]
[Expression 23]
Figure 0004024381
[0146]
However,
[0147]
[Expression 24]
Figure 0004024381
[0148]
[Expression 25]
Figure 0004024381
[0149]
[Equation 26]
Figure 0004024381
[0150]
Where a a and b b are real numbers from 0 to 0.5, γ is a real number greater than or equal to 0, and ε is an integer greater than or equal to 0
[0151]
[Expression 27]
Figure 0004024381
[0152]
The first term A (x, y) on the right side of (Equation 22) and (Equation 23) for calculating the threshold value is used to correct the threshold value corresponding to α and β obtained by the positional deviation detection unit 43. It is a term of. For example, dx1 represented by (Equation 27) is regarded as a local change rate in the x direction of the gradation value of f1, and dx1 (x, y) * α is the gradation of f1 when the position is shifted by α. It can be referred to as a predicted value change. Therefore, the first term {dx1 (x, y) * α-dx2 (x, y) * (-α)} of A (x, y) indicates the position of f1 in the x direction as α and the position of g1 as − It can be referred to as a predicted value for each pixel how much the gradation value of the difference image between f1 and g1 changes when α is shifted. Similarly, the second term can be said to be a value predicted in the y direction. The first threshold value term A (x, y) is a term for canceling α and β.
[0153]
The second term B (x, y) on the right side of (Equation 22) and (Equation 23) for calculating the threshold value is used to allow a slight positional deviation of the pattern edge, a minute difference in pattern shape, and a pattern distortion. Term. As is clear from the comparison between (Equation 24) for obtaining A (x, y) and (Equation 25) for obtaining B (x, y), B (x, y) is the difference image of aa and bb. This is the absolute value of the change prediction of the gradation value. If A (x, y) cancels a known misregistration (considered), adding B (x, y) to A (x, y) This means that the position is shifted (considered) by aa in the x direction and bb in the y direction. That is, B (x, y) allows a positional shift of a a in the x direction and b b in the y direction.
[0154]
Further, subtracting B (x, y) from A (x, y) means that the position is further shifted by −a a in the x direction and −b b in the y direction from the aligned state. It is -B (x, y) that allows a positional shift of -a a in the x direction and -b b in the y direction. By providing an upper limit and a lower limit for the threshold value, positional deviations of ± a a and ± b b are allowed. Then, by setting the values of the parameters a a and b b to appropriate values, it is possible to freely control the allowable positional deviation amount.
[0155]
The third term C (x, y) in (Equation 22) and (Equation 23) for calculating the threshold value is a term for allowing a minute difference in gradation values. The addition of C (x, y) means that the gradation value of g1 is allowed to be larger by C (x, y) than the gradation value of f1, and the subtraction of C (x, y) is This means that the gradation value of g1 is allowed to be smaller by C (x, y) than the gradation value of f1. Here, C (x, y) is the sum of the representative value of the gradation value in the local region (here, the max value) multiplied by the proportionality constant γ and the constant ε, but stick to this function. It is not necessary, and if the method of changing the gradation value is known, it is better to use a function that matches it. For example, if it is known that the fluctuation range is proportional to the square root of the gradation value, C (x, y) = (max1 + max2) 1/2 * γ + ε should be used instead of (Equation 26). Similar to B (x, y), it is possible to freely control the difference in allowable gradation values by the parameters γ and ε.
[0156]
In the defect determination circuit 50, the output sub (x, y) of the difference extraction circuit 49 and the outputs thL (x, y) and thH (x, y) of the threshold value calculation circuit 48 are used.
[0157]
[Expression 28]
Figure 0004024381
[0158]
Is satisfied, the pixel at the position (x, y) is determined as a non-defective candidate, and if not, the pixel at the position (x, y) is determined as a defective candidate. The defect determination circuit 50 outputs def (x, y) having a value of 0 for non-defective candidate pixels and 1 or more for defective candidate pixels.
[0159]
In the feature extraction circuit 50a, a defect that removes a noisy output by noise removal processing (for example, reduction / expansion processing is performed on def (x, y)), and then integrates defect candidate portions in the vicinity into one Perform candidate part merge processing. After that, feature quantities such as barycentric coordinates, XY projection length, and area are calculated for each group.
[0160]
The overall control unit 104 converts the coordinates of the defect portion into a coordinate system on the sample, deletes the pseudo defect, and finally collects defect data including the position on the sample and the feature amount.
[0161]
This defect data can be displayed on the display as in the first embodiment, or can be output by output means.
[0162]
Also, by displaying the image or image data before gradation conversion and the image or image data after gradation conversion on the display, respectively, or the image or image data after gradation conversion is displayed. By displaying, it is possible for the operator to visually confirm that the gradation conversion is correctly performed and the inspection is performed.
[0163]
According to the present embodiment, since a positional deviation as a whole small area, a minute positional deviation of individual pattern edges, and a minute difference in gradation values are allowed, a normal part is erroneously recognized as a defect. Disappears. In addition, it is possible to easily control the allowable amount of positional deviation and gradation value variation by the parameters a a, b b, γ, and ε.
[0164]
[Embodiment 3]
A third embodiment of the pattern inspection method and apparatus according to the present invention is shown in FIG. In FIG. 23, as in FIGS. 1 and 2, reference numeral 1 denotes an image sensor, which outputs a grayscale image signal corresponding to the brightness of reflected light from the semiconductor wafer 4 as the pattern to be inspected, that is, the grayscale. Reference numeral 2 denotes an A / D converter for converting a grayscale image signal obtained from the image sensor 1 into a digital image signal 9; 3 a delay memory for delaying the grayscale image signal; 4 a semiconductor wafer having a pattern to be inspected; An X, Y, Z, and θ direction (rotation) moving stage on which a semiconductor wafer 4 having an inspection pattern is placed, 6 an objective lens for the semiconductor wafer 4, and 7 an illumination of the semiconductor wafer 4 having an inspection pattern. An illumination light source 8 reflects the illumination light and irradiates the semiconductor wafer 4 through the objective lens 6 and transmits a reflected light from the semiconductor wafer 4. A digital image signal the image signal is converted by the A / D converter. In this way, the illumination light from the illumination light source 7 is reflected, and the semiconductor wafer 4 is configured to perform, for example, bright field illumination through the objective lens 6.
[0165]
Further, 3 may be a delay memory that stores and delays the image signal 9 for one or a plurality of repeated cell pitches, or stores and delays the image signal 9 for one or more repeated chip pitches. A delay memory may be used.
[0166]
11 is used to align the digital image signal 9 and the delayed digital image signal 10, and here, a positional shift amount in which the grayscale difference is minimized in units of pixels is detected by a normalized correlation, and this positional shift amount is calculated. Based on this, one image is shifted to align the two images. Note that the reason for normalization is to reduce the influence of the difference in brightness between images to be aligned.
[0167]
That is, the stored image g (x, y) is moved with respect to the detected image f (x, y), and the position where the correlation value is maximized is obtained by the following equation.
[0168]
[Expression 29]
Figure 0004024381
[0169]
[30]
Figure 0004024381
[0170]
[31]
Figure 0004024381
[0171]
[Expression 32]
Figure 0004024381
[0172]
[Expression 33]
Figure 0004024381
[0173]
Here, the images are continuously detected by the image sensor, but the image is divided into line units described later, and alignment is performed in these units. In the above equation, the detected image has dimensions of X × Y pixels.
Although not shown in the drawing, the above-described normalized correlation for obtaining the positional deviation of the image does not have to be performed for all the images. For example, the image is divided into K in the longitudinal direction of the image sensor, and each divided small image is divided. Of the images (size of X / K × Y pixels), a small image with information may be used. For determining whether there is information, for example, each small image is differentiated, the presence or absence of an edge is detected, and a small image with many edges is selected. For example, when the image sensor is a linear image sensor with a multi-tap configuration capable of parallel output, each tap output image corresponds to a small image. This concept is based on the fact that images output in parallel have the same positional deviation.
[0174]
A gradation conversion unit 13 converts the gradations of the image signals having different brightnesses so that the brightnesses of the image signals match. Here, linear transformation is performed for each individual pixel using a gain and an offset, and the brightness is matched.
[0175]
[Expression 34]
Figure 0004024381
[0176]
[Expression 35]
Figure 0004024381
[0177]
[Expression 36]
Figure 0004024381
[0178]
[Expression 37]
Figure 0004024381
[0179]
Reference numeral 12 denotes a brightness conversion unit that converts image signals having different brightnesses so that the brightness of the image signals is matched. Here, filter operations are performed collectively on the entire image to match the brightness.
[0180]
Then, the obtained image signals are compared in the comparison unit 14 to detect a mismatch as a defect.
[0181]
Reference numeral 23 denotes an image input unit for inputting two images to be compared. From this image, a scatter diagram creation unit 24 obtains a scatter diagram. In the scatter diagram, the vertical axis and the horizontal axis indicate the brightness of two images. Reference numeral 25 denotes a display unit that displays the obtained scatter diagram. Reference numeral 15 denotes input means. For example, a threshold value for binarizing the absolute value of the difference image is input, and a line segment of the input threshold value is plotted on a scatter diagram. From this scatter diagram, it is easy to judge the validity of the input threshold value. Further, a threshold suitable for an image can be determined with reference to the displayed scatter diagram. An example of a scatter diagram is shown in FIG.
[0182]
When W (x, y, dx, dy) = 1, it is shown as follows.
[0183]
[Formula 38]
Figure 0004024381
[0184]
[39]
Figure 0004024381
[0185]
In a scatter diagram, a line segment can be applied to the plotted data group by the least square method or the like, and an error that is a deviation from the line segment can be obtained.
[0186]
If the straight line is Y = m · f (x, y) + n, the least square method (m, n) is calculated by the following equation), and linear approximation is performed.
[0187]
[Formula 40]
Figure 0004024381
[0188]
[Expression 41]
Figure 0004024381
[0189]
The error from the straight line is obtained by the following equation, for example.
[0190]
[Expression 42]
Figure 0004024381
[0191]
[Expression 43]
Figure 0004024381
[0192]
Based on this error, a threshold value can be obtained and the obtained threshold value can be plotted on a scatter diagram. For example, the threshold value is a value proportional to the square root of Ve. FIG. 24 shows a configuration example for realizing this.
[0193]
Reference numeral 26 denotes a statistic calculation unit for calculating the above-described line segment fitting and an error from the line segment. 27 is a threshold value calculation part which calculates a threshold value from this obtained statistic. Of course, there is no problem even if the threshold value can be input by the user.
[0194]
The images used in the scatter diagram are two images to be compared, for example, images after pixel unit alignment. At each stage of image processing, two images can be input to the image input unit 23.
[0195]
26 and 27 show an example in which two images are processed based on the method shown in FIG. The object is a line and space pattern detected in the lower right part of the image. The upper left is an area without a pattern. The histogram of the image during each process and the statistics of the difference image are also shown. As can be seen from the histogram, the brightness of the two images does not match at the first stage. First, a correlation value of the image is obtained by normalization correlation, and a position where the correlation value is high is obtained, thereby aligning in units of pixels. Next, local brightness correction, which is local gradation conversion, is performed on the two aligned images. Finally, filtering for matching the brightness of the two images is performed to further improve the matching degree of the brightness of the images.
[0196]
28 to 30 show scatter diagrams of images at each processing stage. At the stage of alignment in pixel units, the brightness of the two images does not match, and therefore, there is a variation from the straight line in the scatter diagram, not the diagonal 45 ° line. However, after the processing of local brightness correction and filtering, which is local gradation conversion according to the present invention, the scatter diagram is distributed near a straight line, which is effective in the sense that the brightness of the two images is made uniform. I know that there is. The slope and intercept are the slope and intercept of the line segment fitted to the scatter diagram data. The slope, which is a measure of the degree of coincidence between the two images, was initially 0.705, but became 0.986 after local brightness correction, which is local tone conversion, and then 0.991 after the filtering process. It can be seen that the degree of coincidence is improved.
[0197]
Furthermore, the value of Ve, which represents the degree of coincidence between the two images, was initially 40.02, but became 8.598 after the local brightness correction, which is local gradation conversion, and after the filtering process. It becomes 7.477, and it can be seen that the degree of coincidence of brightness is improved. In addition, the Ve value image is displayed as an image obtained by calculating the error Ve by linear approximation for each region of 7 × 7 pixels including the periphery of each pixel, for example, instead of the entire image of Ve. FIG. 28 to FIG. 30 show this. From this image, it can be seen where the brightness adjustment error is large.
[0198]
FIGS. 31 to 33 show scatter diagrams regarding the local contrast of an image. Here, for the contrast, the maximum value and the minimum value are detected around each pixel, for example, 3 × 3 pixels, and indicate the maximum value-minimum value. The local contrast is also considered to be meaningful because the scatter diagram is distributed near a straight line after the processing of local gradation conversion and filtering according to the present invention. The slope, intercept, etc. have the same meaning as in the previous figure. The Ve value image is obtained by linearly approximating a 7 × 7 pixel region including the periphery of each pixel in a local contrast image.
[0199]
34 to 37 show examples of scatter diagrams and threshold values. In FIG. 34, since the two images are different, the threshold value is set large so as not to erroneously detect this. FIG. 35 is a scatter diagram after brightness correction, which is local gradation conversion according to the present invention. Since the degree of coincidence of two images is high, the set threshold value is small. FIG. 36 is a scatter diagram after brightness adjustment, and the threshold value is further reduced. In FIG. 37, one of the images is subjected to linear gradation conversion in units of image instead of each pixel, and the threshold value has an offset on the scatter diagram.
[0200]
FIG. 38 shows an example in which the gradation conversion for each image is a piecewise linear conversion. In this example, it is divided into two sections.
[0201]
As described above, the scatter diagram and the threshold value can be used extensively, for example, as a standard for determining defect detection sensitivity or the like, or for checking the validity of the set threshold value.
[0202]
Such scatter diagram creation, display, threshold calculation using scatter diagram data, and the like can be performed by detecting an image and using this image before starting the examination. Furthermore, it will be apparent that a more sensitive inspection can be realized if scatter diagram creation, threshold setting, etc. are performed for each image in synchronization with image detection. The image detection may be performed at the stage where each processing is completed. As described above, the image processing is realized by pipeline processing, but it can be applied to other configurations.
[0203]
FIG. 41 shows another processing result. In FIG. 40, first, alignment by image matching (normalized correlation) is performed. Next, brightness correction is performed. In brightness correction, the above-described brightness filtering and local brightness correction are performed simultaneously. This further simplifies the configuration.
[0204]
In the above example, the brightness of the image is corrected by obtaining the coefficients m, n, etc. in real time (in synchronization with image detection). As a simplified version, a means for obtaining the coefficients m and n for the brightness of each image and correcting the brightness by referring to these coefficients may be considered. Each image may be two images to be compared. That is, the brightness of two images to be compared is input, and the coefficients m and n are obtained. Then, brightness correction is performed based on the created reference table.
[0205]
Next, the size of the image will be described. The size of the image, that is, the unit of image alignment (matching) can be determined by the following method. First, the amount of positional deviation between the two images to be compared is obtained in a finely divided unit. This is shown in FIG. Detection is performed separately in the X and Y directions. When this position shift data is subjected to spectrum analysis, a waveform as shown in FIG. 40 is obtained. In the spectrum analysis diagram, the vertical axis represents the spectral density and the horizontal axis represents the frequency. In this figure, attention is paid to the highest frequency and the high density frequency. In this case, it is 0.011. This frequency is determined by, for example, apparatus characteristics such as stage running characteristics and vibration characteristics.
[0206]
The spectrum analysis result shows that the positional deviation of the two images repeats at this frequency. If 88 lines, which is the reciprocal number, are used as the unit of the image, that is, the unit of matching, the peak of the positional deviation is included in the image. When the to peak appears and the amount of positional deviation is large, it is difficult to perform highly accurate alignment. However, when the image unit is 1/4 of the reciprocal of this frequency, the amount of positional deviation can be reduced to ½ or less of the peak positional deviation. Furthermore, when the reciprocal of the frequency is set to 1/8, the amount of positional deviation can be reduced to 1/4 or less of the peak positional deviation.
[0207]
Thus, the finer the unit of the image, the more accurate the image alignment should be, but the less information about the pattern that should be included in the image, the resulting image alignment accuracy. Does not go up. Therefore, from the spectrum analysis result, the size of the image is limited based on the required alignment accuracy. From the viewpoint of securing pattern information, the space information of the pattern is dependent on the pattern to be compared. The lower limit of the size of the image can be determined based on (information on the area where no pattern is formed). FIG. 25 shows this configuration. In the above description, attention is paid to the highest frequency, but it is also effective to pay attention to the amount of positional deviation and pay attention to the frequency corresponding to the highest frequency.
[0208]
Note that the above can be performed separately for the x and y components, or may be performed with attention paid only to the advancing direction of the stage as in the case of an accumulation type linear image sensor.
[0209]
According to the first, second, and third embodiments of the present invention, it is possible to detect a defect with high sensitivity without being affected by the difference in brightness of the pattern depending on the location. In addition, in a dark region such as the memory mat portion 21, even a pattern whose brightness varies greatly can be inspected with high sensitivity. In addition, highly accurate image matching can be realized without being affected by vibration characteristics of the apparatus. Therefore, a highly reliable inspection can be realized as compared with the conventional case.
[0210]
As described above, the embodiment of the present invention has been described mainly for the comparative inspection method using an optical microscope or a scanning electron microscope, but also when used for image detection obtained by other infrared rays or X-rays, It goes without saying that it is equally effective.
[0211]
【The invention's effect】
According to the configuration of the present invention, there is an effect that defects can be detected with high sensitivity without the overall inspection sensitivity being restricted by the difference in brightness caused by the difference in film thickness of the multilayer pattern.
[0212]
In addition, it is effective in realizing high-precision image matching. In addition, use scatter plots with the vertical and horizontal axes of brightness information obtained by performing processing such as brightness and differentiation of the two detected image signals to be compared, or brightness information during specified image processing. This makes it possible to determine the threshold value and validate it.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a defect inspection apparatus for a pattern to be inspected according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of a defect inspection apparatus for a pattern to be inspected according to an embodiment of the present invention.
FIG. 3 is an explanatory diagram of an image brightness matching filter operation unit.
FIG. 4 is an explanatory diagram of a gradation conversion unit.
FIG. 5 is a diagram illustrating an example of a dual filter.
FIG. 6 is a diagram showing an example of a detected image and a difference image according to the present invention.
FIG. 7 is a diagram illustrating an example in which gradation conversion according to the present invention is performed.
FIG. 8 is a diagram illustrating an example in which gradation conversion according to the present invention is performed.
FIG. 9 is a diagram illustrating an example in which gradation conversion of the present invention is performed.
FIG. 10 is a diagram illustrating an example in which gradation conversion of the present invention is performed.
FIG. 11 is a diagram illustrating an example in which gradation conversion according to the present invention is performed.
FIG. 12 is an explanatory diagram of a threshold setting method according to the present invention.
FIG. 13 is an explanatory diagram of a threshold setting method according to the present invention.
FIG. 14 is an operation explanatory diagram of an image brightness matching filter operation unit according to the present invention.
FIG. 15 is a schematic explanatory diagram of a memory mat portion and a peripheral circuit portion in a memory chip of a pattern to be inspected.
16 is a histogram of brightness in a memory mat portion and a peripheral circuit portion in the memory chip of FIG.
FIG. 17 is a diagram illustrating a flow of CMP process processing.
FIG. 18 is a histogram of brightness in a memory mat portion and a peripheral circuit portion in different memory chips subjected to CMP processing;
FIG. 19 is a configuration diagram of a defect inspection apparatus for a pattern to be inspected according to an embodiment of the present invention.
FIG. 20 is a diagram illustrating a configuration of a threshold value operation circuit.
FIG. 21 is a diagram illustrating a sum of squares of a difference between two images.
FIG. 22 is a diagram illustrating a sum of absolute values of differences between two images.
FIG. 23 is a configuration diagram of a defect inspection apparatus for a pattern to be inspected according to an embodiment of the present invention.
FIG. 24 is a diagram for explaining scatter diagram creation and display according to an embodiment of the present invention.
FIG. 25 is a configuration diagram of a defect inspection apparatus for a pattern to be inspected according to an embodiment of the present invention.
FIG. 26 is a diagram illustrating a result at each image processing stage regarding two images to be compared;
FIG. 27 is a diagram illustrating a result at each image processing stage regarding two images to be compared;
FIG. 28 is a diagram showing a scatter diagram at each image processing stage for two images to be compared.
FIG. 29 is a diagram showing a scatter diagram at each image processing stage for two images to be compared;
FIG. 30 is a diagram illustrating a scatter diagram at each image processing stage for two images to be compared.
FIG. 31 is a diagram showing a scatter diagram of local contrast at each image processing stage for two images to be compared.
FIG. 32 is a diagram showing a scatter diagram of local contrast at each image processing stage for two images to be compared.
FIG. 33 is a diagram illustrating a scatter diagram of local contrast at each image processing stage for two images to be compared.
FIG. 34 is a diagram illustrating an example of a scatter diagram.
FIG. 35 is a diagram illustrating an example of a scatter diagram.
FIG. 36 is a diagram illustrating an example of a scatter diagram.
FIG. 37 is a diagram illustrating an example of a scatter diagram.
FIG. 38 is a diagram illustrating an example of a scatter diagram.
[Fig. 39] Fig. 39 is a diagram for describing the amount of image positional deviation.
FIG. 40 is a diagram for explaining spectrum analysis;
FIG. 41 is a diagram illustrating a result at each image processing stage regarding two images to be compared;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image sensor, 2 ... A / D converter, 3 ... Delay memory, 4 ... Semiconductor wafer, 5 ... X, Y, Z, (theta) stage, 6 ... Objective lens, 7 ... Illumination light source, 8 ... Half mirror, 9 ... Image signal, 10 ... Image signal, 11 ... Pixel unit alignment unit, 12 ... Image brightness matching filter operation unit, 13 ... Tone conversion unit, 14 ... Comparison unit, 15 ... Input means, 16 ... CPU, 17 ... Memory 20: chip memory, 21: memory mat section, 22: peripheral circuit section (a non-repetitive pattern, including a repeated pattern having a plurality of repeated pitches), 23: image input section, 24: scatter diagram creating section , 25 ... display unit, 26 ... statistic calculation unit, 27 ... threshold value calculation unit (or input unit), 31 ... electron gun, 32 ... magnetic lens, 33 ... objective lens, 34 ... deflector, 35 ... detector 36 ... Amplifier 37 ... Land electrode, 38 ... retarding electrode, 39 ... A / D converter, 40 ... pre-processing circuit, 41 ... delay circuit, 42 ... pixel unit alignment unit, 46 ... local gradation conversion circuit, 48 ... threshold value Arithmetic circuit 49... Difference extraction circuit 50. Defect determination circuit 101. Detection unit 102 102 Image extraction unit 103 Image processing unit 104 Overall control unit

Claims (10)

基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する方法であって、第1の被検査パターンを検出して該第1の被検査パターンの第1の画像を得、該第1の画像を記憶し、第2の被検査パターンを検出して該第2の被検査パターンの第2の画像を得、前記記憶した第1の画像と前記第2の画像との画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行い、該画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行なった第1の画像と第2の画像とを比較することにより前記パターンを検査するものであり、
前記記憶した第1の画像と前記第2の画像との画像全体の明るさを合わせ込むことを、前記記憶した第1の画像と前記第2の画像との画像全体に一括したフィルタ操作を行うことにより行うことを特徴とする被検査パターンの欠陥検査方法。
A method for inspecting defects in a plurality of sets of patterns originally formed to be identical on a substrate, wherein a first image of the first pattern to be inspected is detected by detecting a first pattern to be inspected. And storing the first image, detecting a second pattern to be inspected to obtain a second image of the second pattern to be inspected, and storing the stored first image and the second image A first image obtained by performing the adjustment of the brightness of the entire image and the adjustment of the local brightness, and performing the adjustment of the brightness of the entire image and the adjustment of the local brightness. Inspecting the pattern by comparing with a second image,
To adjust the brightness of the entire image of the stored first image and the second image, a filter operation is performed collectively on the entire image of the stored first image and the second image. defect inspection method of an inspection pattern you and performing by.
基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する方法であって、第1の被検査パターンを検出して該第1の被検査パターンの第1の画像を得、該第1の画像を記憶し、第2の被検査パターンを検出して該第2の被検査パターンの第2の画像を得、前記記憶した第1の画像と前記第2の画像との画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行い、該画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行なった第1の画像と第2の画像とを比較することにより前記パターンを検査するものであり、
前記記憶した第1の画像と前記第2の画像との画像全体の明るさを合わせ込むことを、前記記憶した第1の画像と前記第2の画像との濃淡の2乗誤差が最小になるようなフィルタを用いて操作を行って該第1の画像と第2の画像との明るさの2乗誤差が最小になるように画像全体の明るさを合わせ込むことにより行うことを特徴とする被検査パターンの欠陥検査方法。
A method for inspecting defects in a plurality of sets of patterns originally formed to be identical on a substrate, wherein a first image of the first pattern to be inspected is detected by detecting a first pattern to be inspected. And storing the first image, detecting a second pattern to be inspected to obtain a second image of the second pattern to be inspected, and storing the stored first image and the second image A first image obtained by performing the adjustment of the brightness of the entire image and the adjustment of the local brightness, and performing the adjustment of the brightness of the entire image and the adjustment of the local brightness. Inspecting the pattern by comparing with a second image,
Matching the brightness of the entire image of the stored first image and the second image minimizes the square error of the density of the stored first image and the second image. The operation is performed using such a filter, and the brightness of the entire image is adjusted so that the square error in brightness between the first image and the second image is minimized. defect inspection method of an inspection pattern that.
基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する方法であって、第1の被検査パターンを検出して該第1の被検査パターンの第1の画像を得、該第1の画像を記憶し、第2の被検査パターンを検出して該第2の被検査パターンの第2の画像を得、前記記憶した第1の画像と前記第2の画像との画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行い、該画像全体の明るさの合わせ込みと局所的な明るさの合わせ込みとを行なった第1の画像と第2の画像とを比較することにより前記パターンを検査するものであり、
前記記憶した第1の画像と前記第2の画像との明るさを局所的に合わせ込むことを、ゲインとオフセットをもつ線形変換によって、前記第1の画像と前記第2の画像との明るさがほぼ同一となるように変換するものであり、
記ゲインとオフセットをもつ線形変換に、前記局所的に合わせ込む領域の着目した画素と周囲の画素との明るさの差に応じて重みを付けることを特徴とする被検査パターンの欠陥検査方法。
A method for inspecting defects in a plurality of sets of patterns originally formed to be identical on a substrate, wherein a first image of the first pattern to be inspected is detected by detecting a first pattern to be inspected. And storing the first image, detecting a second pattern to be inspected to obtain a second image of the second pattern to be inspected, and storing the stored first image and the second image A first image obtained by performing the adjustment of the brightness of the entire image and the adjustment of the local brightness, and performing the adjustment of the brightness of the entire image and the adjustment of the local brightness. Inspecting the pattern by comparing with a second image,
The brightness of the first image and the second image is obtained by performing linear transformation having a gain and an offset to locally match the brightness of the stored first image and the second image. Are converted to be almost the same,
A linear transformation with previous SL gain and offset, defect inspection of a pattern to be inspected you characterized be weighted in accordance with the brightness difference between the focused pixel and the surrounding pixels of the Komu locally combined area Method.
前記記憶した第1の画像と前記第2の画像との明るさを局所的に合わせ込むことを、2枚の画像の画素単位の位置合わせの前に行うことを特徴とする請求項1ないしの何れかに記載の被検査パターンの欠陥検査方法。The way to push locally align the brightness of the first image and the second image the storage, claims 1, characterized in that it is carried out in the previous alignment of pixels of two images 3 A defect inspection method for a pattern to be inspected according to any one of the above. 前記記憶した第1の画像と前記第2の画像との明るさを合わせ込むことを、2枚の画像の画素単位の位置合わせの後に行うことを特徴とする請求項1ないしの何れかに記載の被検査パターンの欠陥検査方法。That is intended to adjust the brightness of the first image and the second image the storage, no claim 1, characterized in that it is carried out in the following alignment of the pixel units of the two images to either of the 3 A method for inspecting a defect of a pattern to be inspected. 基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する方法であって、第1の被検査パターンを撮像して該第1の被検査パターンの第1の画像を得、 該第1の画像を記憶し、第2の被検査パターンを撮像して該第2の被検査パターンの第2の画像を得、前記記憶した第1の画像と前記第2の画像との位置ずれを補正し、該位置ずれを補正した第1の画像と第2の画像との局所的な明るさの違いを検出して該検出した明るさの差に応じて局所的な階調変換を行うことにより局所的な明るさを合わせ込み、該局所的な明るさを合わせ込んだ前記第1の画像の全体と前記第2の画像の全体との明るさを合わせ込み、該明るさを合わせ込んだ第1の画像と第2の画像とを比較することにより前記パターンを検査するものであり、
前記第1の画像の全体と前記第2の画像の全体との明るさを合わせ込むことを、前記第1の画像の全体と前記第2の画像の全体との濃淡の2乗誤差が最小になるように前記第1の画像の全体と前記第2の画像の全体とにフィルタリングを施すことにより行うことを特徴とする被検査パターンの欠陥検査方法。
A method for inspecting a defect of a plurality of sets of patterns originally formed to be identical on a substrate, the first image of the first pattern to be inspected by imaging a first pattern to be inspected And storing the first image, imaging the second pattern to be inspected to obtain a second image of the second pattern to be inspected, and storing the first image and the second image , The difference in local brightness between the first image and the second image in which the position shift is corrected is detected, and a local level is determined according to the detected difference in brightness. The local brightness is adjusted by performing tone conversion, and the brightness of the whole of the first image and the whole of the second image in which the local brightness is adjusted is adjusted. The pattern is inspected by comparing the first image and the second image combined with each other. ,
Matching the brightness of the whole of the first image and the whole of the second image to minimize the square error of the light and shade of the whole of the first image and the whole of the second image. the first total and the second defect inspection method of an inspection pattern you and performing by performing filtering on the whole and the image of the image to be.
基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する方法であって、第1の被検査パターンを撮像して該第1の被検査パターンの第1の画像を得、該第1の画像を記憶し、第2の被検査パターンを撮像して該第2の被検査パターンの第2の画像を得、前記記憶した第1の画像と前記第2の画像との位置ずれを補正し、該位置ずれを補正した第1の画像と第2の画像との局所的な明るさの違いを検出して該検出した明るさの差に応じて局所的な階調変換を行うことにより局所的な明るさを合わせ込み、該局所的な明るさを合わせ込んだ前記第1の画像の全体と前記第2の画像の全体との明るさを合わせ込み、該明るさを合わせ込んだ第1の画像と第2の画像とを比較することにより前記パターンを検査するものであり、
前記第1の画像と前記第2の画像との明るさを局所的に合わせ込むことを、ゲインとオフセットをもつ線形変換によって、前記第1の画像と前記第2の画像との明るさがほぼ同一となるように変換することを特徴とする被検査パターンの欠陥検査方法。
A method for inspecting a defect of a plurality of sets of patterns originally formed to be identical on a substrate, the first image of the first pattern to be inspected by imaging a first pattern to be inspected And storing the first image, imaging the second pattern to be inspected to obtain a second image of the second pattern to be inspected, and storing the first image and the second image , The difference in local brightness between the first image and the second image in which the position shift is corrected is detected, and a local level is determined according to the detected difference in brightness. The local brightness is adjusted by performing tone conversion, and the brightness of the whole of the first image and the whole of the second image in which the local brightness is adjusted is adjusted. The pattern is inspected by comparing the first image and the second image combined with each other. ,
The brightness of the first image and the second image is approximately adjusted by linear transformation having a gain and an offset to locally match the brightness of the first image and the second image. defect inspection method of an inspection pattern you and converting to be identical.
基板上に本来同一となるように形成された複数個の組のパターンの欠陥を検査する欠陥検査装置であって、第1の被検査パターンを撮像して該第1の被検査パターンの第1の画像を得ると共に第2の被検査パターンを撮像して該第2の被検査パターンの第2の画像を得る撮像手段と、該撮像手段により撮像して得た前記第1の画像を記憶する記憶手段と、前記第1の画像と前記第2の画像との少なくとも何れか一方を局所的に階調変換する階調変換手段と、該階調変換手段により少なくとも何れか一方を局所的に階調変換した第1の画像と第2の画像との明るさを合わせ込む明るさ補正手段と、該明るさ補正手段で明るさを合わせ込んだ前記第1の画像と第2の画像とを比較して前記パターンの欠陥を検出する欠陥検出手段とを備えたことを特徴とする被検査パターンの欠陥検査装置。  A defect inspection apparatus for inspecting defects of a plurality of sets of patterns originally formed to be identical on a substrate, imaging a first pattern to be inspected, and first of the first pattern to be inspected. An imaging means for obtaining a second image of the second pattern to be inspected by obtaining a second image to be inspected, and storing the first image obtained by imaging by the imaging means Storage means, gradation conversion means for locally converting at least one of the first image and the second image, and at least one of the first image and the second image is locally converted by the gradation conversion means. A brightness correction unit that matches the brightness of the first image and the second image that have undergone the tone conversion, and the first image and the second image that have been adjusted by the brightness correction unit are compared. And a defect detecting means for detecting a defect of the pattern. Defect inspection apparatus of an inspection pattern to symptoms. 前記階調変換手段は、前記比較する第1の画像と第2の画像との明るさを、ゲインとオフセットをもつ線形変換によって変換することを特徴とする請求項記載の被検査パターンの欠陥検査装置。9. The defect in a pattern to be inspected according to claim 8 , wherein the gradation converting means converts the brightness of the first image and the second image to be compared by linear conversion having a gain and an offset. Inspection device. 更に前記第1の画像と第2の画像との位置ずれを補正する位置ずれ補正手段を備え、前記階調変換手段は前記位置ずれ補正手段で位置ずれを補正した前記第1の画像と第2の画像との少なくとも何れか一方を局所的に階調変換することを特徴とする請求項記載の被検査パターンの欠陥検査装置。Further, the image processing apparatus further includes misregistration correction means for correcting misregistration between the first image and the second image, and the gradation converting means corrects the misregistration by the misregistration correction means. 9. The defect inspection apparatus for a pattern to be inspected according to claim 8 , wherein gradation conversion is locally performed on at least one of the image and the image.
JP11038398A 1998-04-21 1998-04-21 Defect inspection method and apparatus Expired - Fee Related JP4024381B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP11038398A JP4024381B2 (en) 1998-04-21 1998-04-21 Defect inspection method and apparatus
US09/294,137 US6947587B1 (en) 1998-04-21 1999-04-20 Defect inspection method and apparatus
US11/204,181 US7274813B2 (en) 1998-04-21 2005-08-16 Defect inspection method and apparatus
US11/858,215 US7512259B2 (en) 1998-04-21 2007-09-20 Defect inspection method and apparatus
US12/359,452 US7916929B2 (en) 1998-04-21 2009-01-26 Defect inspection method and apparatus
US13/072,102 US8107717B2 (en) 1998-04-21 2011-03-25 Defect inspection method and apparatus
US13/362,151 US20120128230A1 (en) 1998-04-21 2012-01-31 Defect inspection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11038398A JP4024381B2 (en) 1998-04-21 1998-04-21 Defect inspection method and apparatus

Publications (2)

Publication Number Publication Date
JPH11304718A JPH11304718A (en) 1999-11-05
JP4024381B2 true JP4024381B2 (en) 2007-12-19

Family

ID=14534425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11038398A Expired - Fee Related JP4024381B2 (en) 1998-04-21 1998-04-21 Defect inspection method and apparatus

Country Status (1)

Country Link
JP (1) JP4024381B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614924B1 (en) * 1999-08-02 2003-09-02 Applied Materials, Inc. Adaptive mask technique for defect inspection
US6912304B1 (en) * 1999-08-02 2005-06-28 Applied Materials, Inc. Two-dimensional scatter plot technique for defect inspection
JP4009409B2 (en) * 1999-10-29 2007-11-14 株式会社日立製作所 Pattern defect inspection method and apparatus
US6795573B2 (en) 2000-01-27 2004-09-21 Nikon Corporation Inspection method and apparatus
JP4591802B2 (en) * 2000-09-13 2010-12-01 株式会社ニコン Surface inspection apparatus and method
JP2003271927A (en) * 2002-03-18 2003-09-26 Hitachi High-Technologies Corp Defect inspecting method
JP2004012201A (en) * 2002-06-04 2004-01-15 Toshiba Solutions Corp Defect inspection apparatus and defect inspection program
JP4185789B2 (en) * 2003-03-12 2008-11-26 株式会社日立ハイテクノロジーズ Pattern inspection method and apparatus
JP2004294358A (en) * 2003-03-28 2004-10-21 Hitachi High-Technologies Corp Method and apparatus for inspecting defect
US20050207639A1 (en) 2004-03-22 2005-09-22 Olympus Corporation Inspection apparatus
JP4594772B2 (en) * 2004-03-22 2010-12-08 オリンパス株式会社 Inspection device
JP5028014B2 (en) * 2006-02-08 2012-09-19 株式会社日立ハイテクノロジーズ Pattern inspection method and apparatus
JP5275017B2 (en) 2008-12-25 2013-08-28 株式会社日立ハイテクノロジーズ Defect inspection method and apparatus
US8270701B2 (en) * 2010-01-08 2012-09-18 3M Innovative Properties Company Optical web-based defect detection using intrasensor uniformity correction
JP2014126445A (en) * 2012-12-26 2014-07-07 Sharp Corp Alignment device, defect inspection device, alignment method and control program
JP6473047B2 (en) * 2015-05-26 2019-02-20 株式会社Screenホールディングス Inspection apparatus and substrate processing apparatus
TWI627588B (en) 2015-04-23 2018-06-21 日商思可林集團股份有限公司 Inspection device and substrate processing apparatus
US11579184B2 (en) 2017-11-27 2023-02-14 Hamamatsu Photonics K.K. Analysis method, analysis device, analysis program, and recording medium for recording analysis program

Also Published As

Publication number Publication date
JPH11304718A (en) 1999-11-05

Similar Documents

Publication Publication Date Title
JP3397101B2 (en) Defect inspection method and apparatus
US6947587B1 (en) Defect inspection method and apparatus
JP4024381B2 (en) Defect inspection method and apparatus
JP4002655B2 (en) Pattern inspection method and apparatus
JP4009409B2 (en) Pattern defect inspection method and apparatus
JP3484042B2 (en) Pattern inspection method and apparatus
US6587581B1 (en) Visual inspection method and apparatus therefor
US20040240723A1 (en) Pattern inspection method and its apparatus
WO2011024362A1 (en) Apparatus and method for inspecting defect
JP3660763B2 (en) Inspection pattern inspection method, manufacturing process diagnosis method, and semiconductor substrate manufacturing method
JP4016472B2 (en) Appearance inspection method and apparatus
JP4060558B2 (en) Defect inspection method and apparatus
JPH09203621A (en) Method for inspecting defect of pattern to be inspected, method for evaluating semiconductor-manufacturing process using the method, and method for positioning plurality of images
JP2006138708A (en) Image flaw inspection method, image flaw inspecting device and visual inspection device
JP3878340B2 (en) Pattern defect inspection method and apparatus
JP4013510B2 (en) Defect inspection method and apparatus
JP3788586B2 (en) Pattern inspection apparatus and method
JP3665194B2 (en) Circuit pattern inspection method and inspection apparatus
JP2002168799A (en) Pattern defect inspection method
JP5391172B2 (en) Foreign object inspection apparatus and alignment adjustment method
JP3055323B2 (en) Circular container inner surface inspection device
KR100564871B1 (en) Inspecting method and apparatus for repeated micro-miniature patterns

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050112

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20070612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071003

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees