JP2005079274A - Pattern defect inspection method and apparatus thereof - Google Patents

Pattern defect inspection method and apparatus thereof Download PDF

Info

Publication number
JP2005079274A
JP2005079274A JP2003306664A JP2003306664A JP2005079274A JP 2005079274 A JP2005079274 A JP 2005079274A JP 2003306664 A JP2003306664 A JP 2003306664A JP 2003306664 A JP2003306664 A JP 2003306664A JP 2005079274 A JP2005079274 A JP 2005079274A
Authority
JP
Japan
Prior art keywords
image
inspection
images
pattern
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003306664A
Other languages
Japanese (ja)
Inventor
Seiji Hamano
誠司 濱野
Koichi Wakitani
康一 脇谷
Jun Yokoyama
潤 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003306664A priority Critical patent/JP2005079274A/en
Publication of JP2005079274A publication Critical patent/JP2005079274A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for inspecting a pattern within a short period of time, which is taken by two times of imaging, namely the pattern which is taken only at a part of image through reduction of the number of times of imaging, by sythesizing images with the image process and then utilizing the synthesized image for the inspection. <P>SOLUTION: This method can reduce the time required for inspection through reduction in the number of times of imaging, by synthesizing the images taken by a plurality times of imaging and then using the same images for inspection. Moreover, this method conducts the inspection by comparing the images obtained by a plurality times of imaging and the image in the same position of the standard image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、半導体基板、回路基板等に形成されたパターンを検査する方法およびその方法を用いた装置に関する。   The present invention relates to a method for inspecting a pattern formed on a semiconductor substrate, a circuit board or the like, and an apparatus using the method.

半導体基板、回路基板等に形成されたパターンを検査する方法として、検査画像と基準画像との濃度差分を行い、欠陥の有無を検査する方法がある。(例えば、特許文献1参照)。図9と図10と図11を用いて、従来のこの技術を説明する。   As a method for inspecting a pattern formed on a semiconductor substrate, a circuit board or the like, there is a method for inspecting the presence / absence of a defect by performing a density difference between an inspection image and a reference image. (For example, refer to Patent Document 1). This conventional technique will be described with reference to FIGS. 9, 10 and 11. FIG.

図9に、従来のパターン検査装置の構成を示す。イメージセンサー11は、被検査物12の上方に設けられ、被検査物12の表面に存在するパターン22(図示せず)を撮影する。被検査物12は、テーブル65に設置されていて、その下部に設置されたXYステージ66にて、水平面内で移動可能となっている。イメージセンサー11は、被検査物12上を相対的に移動し、被検査物12上の表面のパターン22のすべてを撮影する。パターン22を高精度に検査するため、XYステージ66の移動速度は、遅く設定されている。そのため、測定にはかなりの時間を要する。撮影された画像は、画像処理部67で画像処理された後、検査画像として、検査データ記録部63に記録される。一方、良品のパターンの画像を、基準画像として、前もって基準データ記録部64に記録しておき、逐次、記録される検査画像と基準画素を比較することで欠陥検査がなされていく。比較は画像データ間の濃度差をとることでなされる。装置全体の制御は、制御装置62によりなされる。なお、基準画像としては、設計データから作成してもよいし、良品画像を用いてもよい。   FIG. 9 shows a configuration of a conventional pattern inspection apparatus. The image sensor 11 is provided above the inspection object 12 and images a pattern 22 (not shown) existing on the surface of the inspection object 12. The inspection object 12 is installed on a table 65, and can be moved in a horizontal plane by an XY stage 66 installed in the lower part thereof. The image sensor 11 relatively moves on the inspection object 12 and images all the surface patterns 22 on the inspection object 12. In order to inspect the pattern 22 with high accuracy, the moving speed of the XY stage 66 is set to be slow. Therefore, it takes a considerable time for the measurement. The captured image is subjected to image processing by the image processing unit 67 and then recorded in the inspection data recording unit 63 as an inspection image. On the other hand, an image of a non-defective pattern is recorded in advance in the reference data recording unit 64 as a reference image, and defect inspection is performed by sequentially comparing the recorded inspection image with reference pixels. The comparison is made by taking a density difference between the image data. The entire device is controlled by the control device 62. The reference image may be created from design data or a non-defective image may be used.

図10は、図9の被検査物12とイメージセンサー11の撮影領域19の位置関係を説明している。図10では、撮影領域19と被検査物12とイメージセンサー移動軌跡13とイメージセンサー通過重なり領域16とパターン22との位置関係が示されている。被検査物12上には、「H」というパターン22が存在する。撮影領域19は、検査物12上を覆い、被検査物12上の全パターン22の画像をとりこむ。この時、撮影領域19が重なるように、イメージセンサー通過重なり領域16を設定することで、すべての「H」パターン22を、分割せずに1つの「H」パターン22として撮影できるように設定している(分割の意味は、図12で説明する)。   FIG. 10 illustrates the positional relationship between the inspection object 12 of FIG. 9 and the imaging region 19 of the image sensor 11. FIG. 10 shows the positional relationship among the imaging region 19, the inspection object 12, the image sensor movement locus 13, the image sensor passage overlapping region 16, and the pattern 22. A pattern 22 of “H” exists on the inspection object 12. The imaging region 19 covers the inspection object 12 and captures an image of all patterns 22 on the inspection object 12. At this time, by setting the image sensor passing overlap area 16 so that the shooting areas 19 overlap, it is set so that all the “H” patterns 22 can be shot as one “H” pattern 22 without being divided. (The meaning of the division will be described with reference to FIG. 12).

図11に、全体のプロセスフローを示す。まず、位置合わせ工程31は、被検査物12を、XYテーブル66にて、所定の位置に合わせる。次に、撮影工程32では、イメージセンサー11が移動し、被検査物12上のパターン22を撮影する。画像処理工程33は、イメージセンサー11にて撮影された画像データを画像処理部67にて、二値化処理やレベリング、スムージング処理を行い、最終的に単独の1つの「H」パターン22の抽出されるが行われる。詳細は図12で説明する。記録工程34では、前記の抽出された1つの「H」パターン22が、検査データ記録部63に記録される。比較工程35は、検査データ記録工程63に記録される画像データと、あらかじめ、基準データ記録工程64に記録された基準画像データとの濃度差を比較(差分)する。判定工程36は、前記比較したデータと、ある閾値とを比較し、欠陥であるか判定する。表示工程37は、前記判定結果を、制御装置62のディスプレイ(図示せず)に表示する。撮影とともに、順次、画像処理がなされ、欠陥検査がされる。   FIG. 11 shows the entire process flow. First, in the alignment step 31, the inspection object 12 is aligned with a predetermined position on the XY table 66. Next, in the imaging step 32, the image sensor 11 moves and images the pattern 22 on the inspection object 12. In the image processing step 33, the image data taken by the image sensor 11 is subjected to binarization processing, leveling, and smoothing processing in the image processing section 67, and finally one single “H” pattern 22 is extracted. Is done. Details will be described with reference to FIG. In the recording step 34, the one extracted “H” pattern 22 is recorded in the inspection data recording unit 63. The comparison step 35 compares (differs) the density difference between the image data recorded in the inspection data recording step 63 and the reference image data previously recorded in the reference data recording step 64. In the determination step 36, the compared data is compared with a certain threshold value to determine whether it is a defect. The display step 37 displays the determination result on a display (not shown) of the control device 62. Along with photographing, image processing is sequentially performed and defect inspection is performed.

次に、画像処理について、図12を用いて説明する。図12に、実際に撮影された画像を示す。この画像は、イメージセンサー11で撮影させた画像から、「H」パターン22が、画像の横方向の中央になるように抽出されている。パターン22とパターンのない画素21が存在する。図12には、2個の「H」パターン22が存在する。この2個のパターン22を抽出し、それぞれ1個の「H」パターン22に分離し、図13(a)と図13(b)に示す。図13(a)と図13(b)は、図12から、「H」パターン22が、画像の縦方向の中央になるように抽出されている。また、基準の「H」パターン22を図13(c)に示す。それぞれ検査パターン画像(図13(a)、(b))と基準パターン「H」画像(図13(c))との濃度差分を行い、欠陥の有無を判定する。明らかに、図13(b)の欠陥部70が検出できる。この時、図12の下部に、「H」パターン22の一部部分が撮影されたものがあるが、この部分的に撮影された「H」パターン22は、次に続く撮影時に、「H」パターン22全体として、撮影され、上記と同様に、検査される。
特開2002−022421号公報(第2頁、[0014])
Next, image processing will be described with reference to FIG. FIG. 12 shows an actually captured image. This image is extracted from the image photographed by the image sensor 11 so that the “H” pattern 22 is in the center in the horizontal direction of the image. There are a pattern 22 and a pixel 21 without a pattern. In FIG. 12, there are two “H” patterns 22. These two patterns 22 are extracted and separated into one “H” pattern 22, which are shown in FIGS. 13 (a) and 13 (b). FIG. 13A and FIG. 13B are extracted from FIG. 12 so that the “H” pattern 22 is in the center in the vertical direction of the image. A reference “H” pattern 22 is shown in FIG. The density difference between the inspection pattern image (FIGS. 13A and 13B) and the reference pattern “H” image (FIG. 13C) is determined to determine the presence or absence of a defect. Obviously, the defective portion 70 in FIG. 13B can be detected. At this time, a part of the “H” pattern 22 is photographed in the lower part of FIG. 12. This partially photographed “H” pattern 22 is “H” during the subsequent photographing. The entire pattern 22 is photographed and inspected in the same manner as described above.
JP 2002-022421 A (Page 2, [0014])

しかしながら、従来の方法では、1つの「H」パターン22として、撮影されなかった場合(図12の下部の残りパターン)、そのパターン22は、再度、撮影されるため、撮影時間が余分にかかるという課題を有していた。特に、高精度なパターン検査には、高精度な撮影が必要で、たくさんの撮影時間を要している。   However, in the conventional method, when the image is not photographed as one “H” pattern 22 (the remaining pattern in the lower part of FIG. 12), the pattern 22 is photographed again, so that it takes an extra photographing time. Had problems. In particular, high-accuracy pattern inspection requires high-accuracy imaging and requires a lot of imaging time.

本発明は、この課題を解決するもので、1つのパターンが2つの撮影に分かれて撮影したもの、つまり、1部分のみ撮影されたものに関しても、画像処理により画像を合成し、合成された画像を検査に利用することで、撮影回数を減らし、短時間に検査する方法を提供することを目的とする。   The present invention solves this problem, and an image obtained by synthesizing an image by image processing for an image obtained by dividing one pattern into two images, that is, an image obtained by shooting only one part. It is an object of the present invention to provide a method of reducing the number of times of photographing and inspecting in a short time by using for inspection.

前記記載の目的を達成するために、以下の本発明の方法を用いる。第一の発明の方法は、被検査物上のパターンを撮影して得られる検査パターンと、基準パターンとの比較により、欠陥を検出する方法であって、異なる2つの画像に分かれて撮影されたパターンの共通部を見積る工程と、前記共通部を平均化または、一方を削除することで、1つの検査パターンを画像合成する工程と、前記検査パターンと基準パターンを比較し、欠陥を抽出する工程とからなるパターン欠陥検査方法を用いる。   In order to achieve the object described above, the following inventive method is used. The method of the first invention is a method of detecting a defect by comparing an inspection pattern obtained by photographing a pattern on an inspection object and a reference pattern, and was photographed separately in two different images. A step of estimating a common part of a pattern, a step of averaging the common part or deleting one of the common parts, and a step of extracting a defect by comparing the inspection pattern with a reference pattern A pattern defect inspection method consisting of:

さらに、2つの画像の各特徴点を合わせることで、画像の共通部を見積もると好ましい。さらに、2つの画像の合わせ面から、それぞれ、画像の列を抽出し、画像の一致性を判断し、画像の共通部を見積もると好ましい。   Furthermore, it is preferable to estimate the common part of the images by combining the feature points of the two images. Furthermore, it is preferable to extract a sequence of images from the mating surfaces of the two images, determine the matching of the images, and estimate the common part of the images.

第二の発明の方法は、被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する方法であって、撮影により分割された検査画像に対して、対応する基準画像を作成する合成工程と、前記検査画像と前記対応する基準画像を比較し、欠陥を抽出する抽出工程とからなるパターン欠陥検査方法を用いる。   The method of the second invention is a method for detecting a defect by comparing an inspection image obtained by photographing a pattern on an inspection object with a reference image, and for an inspection image divided by photographing. A pattern defect inspection method is used which includes a synthesis step of creating a corresponding reference image and an extraction step of comparing the inspection image with the corresponding reference image to extract a defect.

さらに、合成工程として、検査画像と基準画像の2つの画像の各特徴点から、画像の共通部を見積もり、前記共通部の画像内での位置を合わせることで、対応する基準画像を作成する合成工程とするとよい。また、合成工程として、検査画像と基準画素の2つの画像の合わせ面から、それぞれの画像の列を抽出し、その画像の一致性を判断し、画像の共通部を見積もり、前記共通部の画像内での位置を合わせることで、対応する基準画像を作成する工程とするとよい。   Further, as a compositing step, a compositing that creates a corresponding reference image by estimating the common part of the image from the feature points of the two images of the inspection image and the reference image and aligning the position of the common part in the image. It may be a process. Also, as a compositing step, each image row is extracted from the joining surface of the two images of the inspection image and the reference pixel, the matching of the images is judged, the common part of the image is estimated, and the image of the common part It is good to set it as the process of producing a corresponding reference image by matching the position in the inside.

第三の発明の方法は、被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する方法であって、撮影により分割された検査画像に対して、対応する基準画像を作成する合成工程と前記検査画像と前記対応する基準画像を比較し、欠陥を抽出する抽出工程とからなるパターン欠陥検査方法を用いる。   The method of the third invention is a method for detecting a defect by comparing an inspection image obtained by photographing a pattern on an inspection object with a reference image, and for an inspection image divided by photographing. Then, a pattern defect inspection method including a synthesis step for creating a corresponding reference image and an extraction step for comparing the inspection image with the corresponding reference image to extract a defect is used.

さらに、上記合成工程が、検査画像と基準画像の2つの画像の各特徴点から、画像の共通部を見積もり、前記共通部の画像内での位置を合わせることで、対応する基準画像を作成する合成工程とするとよい。   Further, the synthesis step estimates the common part of the image from the feature points of the two images of the inspection image and the reference image, and creates a corresponding reference image by matching the position of the common part in the image. It may be a synthesis process.

さらに、上記合成工程が、検査画像と基準画素の2つの画像の合わせ面から、それぞれの画像の列を抽出し、その画像の一致性を判断し、画像の共通部を見積もり、前記共通部の画像内での位置を合わせることで、対応する基準画像を作成する工程とするとよい。
被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する方法であって、
検査画像と基準画像との画像間の共通部を見積る見積工程と、
前記共通部を、前記検査画像と基準画像からそれぞれ抽出する抽出工程と、
前記抽出した共通部を比較し、欠陥を抽出する抽出工程
とからなるパターン欠陥検査方法を用いる。
Further, the synthesis step extracts a sequence of each image from the joining surface of the two images of the inspection image and the reference pixel, judges the coincidence of the images, estimates the common part of the image, It may be a step of creating a corresponding reference image by matching the positions in the image.
A method for detecting defects by comparing an inspection image obtained by photographing a pattern on an inspection object with a reference image,
An estimation process for estimating a common part between the inspection image and the reference image;
An extraction step of extracting the common part from the inspection image and the reference image, respectively.
The extracted common part is compared, and a pattern defect inspection method comprising an extraction process for extracting defects is used.

さらに、見積工程として、検査画像と基準画像の2つの画像の各特徴点を合わせることで、画像の共通部を見積もる工程がよい。また、見積工程が、検査画像と基準画像も2つの画像の合わせ面から、それぞれ、画像の列を抽出し、画像の一致性を判断し、画像の共通部を見積もる工程がよい。   Further, as the estimation step, a step of estimating the common part of the image by combining the feature points of the two images of the inspection image and the reference image is preferable. In addition, it is preferable that the estimation step is a step of extracting a sequence of images from the joining surface of two images of the inspection image and the reference image, judging the coincidence of the images, and estimating the common part of the images.

前記記載の目的を達成するために、以下の本発明の装置を用いる。   In order to achieve the object described above, the following apparatus of the present invention is used.

被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する装置において、前記被検査物の上方に位置し、前記被検査物を撮影する撮影部と、前記被検査物と前記撮影部を相対的に移動させる移動機構部と、前記撮影部で撮影した画像データを画像処理する画像装置部と、前記移動機構部を制御する制御部とからなるパターン欠陥検査装置であって、前記画像装置部が、検査データ記録部と、基準データ記録部と、画像合成部とからなるパターン欠陥検査装置を用いる。   In an apparatus for detecting a defect by comparing an inspection image obtained by photographing a pattern on the inspection object and a reference image, an imaging unit that is located above the inspection object and images the inspection object A pattern comprising: a moving mechanism unit that relatively moves the object to be inspected and the imaging unit; an image device unit that performs image processing on image data captured by the imaging unit; and a control unit that controls the moving mechanism unit A defect inspection apparatus, wherein the image apparatus unit uses a pattern defect inspection apparatus including an inspection data recording unit, a reference data recording unit, and an image composition unit.

以上のように、本発明の検査方法および装置によれば、撮影により分かれて撮影された画像間の共通部を見積もり、検査画像を合成し、基準画像と比較し検査することで、撮影回数を削減し、結果、検査時間を短くすることができる。   As described above, according to the inspection method and apparatus of the present invention, the number of times of photographing can be reduced by estimating a common part between images photographed separately and synthesizing the inspection images and comparing them with the reference image. As a result, the inspection time can be shortened.

また、分割された検査画像に対して、新しく基準画像を作成し、両画像を比較検査することで、撮影回数を削減し、結果、検査時間を短くすることができる。   In addition, by newly creating a reference image for the divided inspection images and comparing and inspecting both images, the number of times of photographing can be reduced, and as a result, the inspection time can be shortened.

また、撮影により分かれて撮影された検査画像と基準画像の共通部20を抽出し、両者を比較し検査することで、撮影回数を削減し、結果、検査時間を短くすることができる。
この結果、半導体基板、回路基板等の表面に形成されたパターンを、検査するために要していた検査時間を短くでき、生産性を向上させることができる。
Further, by extracting the common part 20 of the inspection image and the reference image that are separately photographed and comparing them, the number of times of photographing can be reduced, and as a result, the inspection time can be shortened.
As a result, the inspection time required for inspecting the pattern formed on the surface of the semiconductor substrate, the circuit board, or the like can be shortened, and the productivity can be improved.

(実施形態1)
以下本発明の実施形態1を、図1〜図7を用いて説明する。本実施形態1で用いる装置を図1に示す。従来の装置図9と同じ部分は、詳細は省略する。本実施形態の装置図1と図9との違いは、画像合成部69が設置されていることである。この画像合成部69では、2つの検査画像から1つの検査画像を合成する。詳細については、図4から図8のところで説明する。図1の装置において、本実施形態の被検査物12とイメージセンサー11の位置関係を図2に示す。イメージセンサー移動軌跡13は、イメージセンサー11が1回目に移動する軌跡を示し、イメージセンサー移動軌跡14は、イメージセンサー11が2回目に被検査物12上を移動する径路を示す。従来のイメージセンサー11の移動を示めしている図10との違いは、イメージセンサー通過重なり領域16の面積が小さいため、移動回数が少なくなることである。図3(a)は、図2の1回目のイメージセンサー移動軌跡13で撮影され、抽出された画像である。図3(b)は、図1の2回目のイメージセンサー移動軌跡14の経路で撮影され、抽出された画像である。図3(a)と図3(b)で、1つの「H」パターン22全体が、撮影されているものに関しては、1つの「H」パターン22として抽出されて、図13(a)と(b)に抽出させる。これらは、基準パターンの図13(c)と比較される。一方、パターンが1つの「H」パターン22でなく、図3(a)の下部と(b)上部に分かれて、撮影されているものに関して、この実施形態では、図3(a)と(b)の両図に撮影されている共通部20を補正して、パターンを合成し、図3(a)や(b)のような検査画像を合成する。補正方法は以下で説明する。
(Embodiment 1)
Hereinafter, Embodiment 1 of the present invention will be described with reference to FIGS. The apparatus used in Embodiment 1 is shown in FIG. Details of the conventional apparatus shown in FIG. 9 are omitted. The apparatus of this embodiment is different from FIGS. 1 and 9 in that an image composition unit 69 is installed. The image composition unit 69 synthesizes one inspection image from two inspection images. Details will be described with reference to FIGS. In the apparatus of FIG. 1, the positional relationship between the inspection object 12 and the image sensor 11 of the present embodiment is shown in FIG. The image sensor movement locus 13 indicates a locus on which the image sensor 11 moves for the first time, and the image sensor movement locus 14 indicates a path on which the image sensor 11 moves on the inspection object 12 for the second time. The difference from FIG. 10 showing the movement of the conventional image sensor 11 is that the number of movements is reduced because the area of the image sensor passing overlap region 16 is small. FIG. 3A shows an image captured and extracted by the first image sensor movement locus 13 of FIG. FIG. 3B is an image taken and extracted along the path of the second image sensor movement locus 14 of FIG. In FIG. 3A and FIG. 3B, one “H” pattern 22 as a whole is extracted as one “H” pattern 22 with respect to what is photographed, and FIG. Let b) extract. These are compared with the reference pattern of FIG. On the other hand, the pattern is not a single “H” pattern 22, but is divided into the lower part and the upper part of FIG. 2), the common portion 20 photographed in both figures is corrected to synthesize a pattern, and an inspection image as shown in FIGS. 3A and 3B is synthesized. The correction method will be described below.

次に、本実施形態の工程フローについて、図4を用いて説明する。従来のフローチャート図11との違いのみについて説明する。パターン抽出工程33で、パターンが抽出される時に、1つの「H」パターン22として抽出されたものは、従来と同様に、記録工程34、比較工程35へと工程が進む。一方、パターン抽出工程33で、1つの「H」パターン22が分割されたもの(図3(a)下部)を、仮記録工程38に記録する。その後、次の撮影により画像が取得された時に、前記と同様に、パターンが分割され撮影させたもの(図3(b)上部)が、仮記録工程38に記録される。この2画像が、仮記録工程38に記録された時点で、パターン合成工程39に転送され、2画像間の共通部20が見積もられ、補正させ、1パターンが合成される。この工程は、図1の画像合成部69で処理させる。その後、そのパターンは、記録工程34で記録され、従来と同じ、検査工程を進み検査される。   Next, the process flow of this embodiment is demonstrated using FIG. Only the difference from the conventional flowchart of FIG. 11 will be described. When the pattern is extracted in the pattern extraction step 33, the pattern extracted as one “H” pattern 22 proceeds to the recording step 34 and the comparison step 35 as in the conventional case. On the other hand, in the pattern extraction step 33, the one obtained by dividing one “H” pattern 22 (lower part of FIG. 3A) is recorded in the temporary recording step 38. After that, when an image is acquired by the next shooting, the pattern is divided and shot (upper part of FIG. 3B) is recorded in the temporary recording step 38 as described above. When these two images are recorded in the temporary recording step 38, they are transferred to the pattern synthesis step 39, where the common portion 20 between the two images is estimated and corrected, and one pattern is synthesized. This step is processed by the image composition unit 69 in FIG. Thereafter, the pattern is recorded in the recording step 34, and is inspected by going through the same inspection step as before.

次に、画像の合成方法(補正方法)を説明する。図5(a)と図5(b)に、パターンが分かれて撮影された画像部分を示す。この両図は、図3(a)の下部と(b)の上部より抽出されたものである。   Next, an image composition method (correction method) will be described. FIG. 5A and FIG. 5B show image portions taken by dividing patterns. These figures are extracted from the lower part of FIG. 3 (a) and the upper part of (b).

まず、第一の方法として、パターン内に特徴点を設定し、画像を合成する方法を図5(a)と(b)にて説明する。図5(a)で、この画像内の特徴的な点として、特徴点41と42を選んだ。これらの点は、図5(a)の右側の図、下側の図に示したところの画像濃度の強度分布から、濃度最大値である交差点であり、検出しやすい特徴のある点である。同様に、図5(b)で、特徴点41、42を見つける。これらの特徴点41、42の座標をあわせるように、補正をすることで、パターンの合成ができる。当然、パターンが変われば、この特徴点41、42を設定しなおすことが必要である。また、特徴点41、42は、2つの画像の共通部20に位置させる必要がある。あらかじめ、画像を撮影し、特徴点41、42を設定する必要がある。特徴点41、42の設定方法は、その場所が検出しやすく、かつ、他の点と間違いにくいことが要求される。つまり、この実施形態のように、パターンが集中する交点が最もよい。   First, as a first method, a method of setting feature points in a pattern and synthesizing an image will be described with reference to FIGS. 5 (a) and 5 (b). In FIG. 5A, feature points 41 and 42 are selected as characteristic points in the image. These points are intersections that are the maximum density values from the intensity distribution of the image density shown in the right and lower diagrams of FIG. 5A, and are features that are easy to detect. Similarly, feature points 41 and 42 are found in FIG. A pattern can be synthesized by correcting so that the coordinates of these feature points 41 and 42 are matched. Of course, if the pattern changes, it is necessary to reset the feature points 41 and 42. Further, the feature points 41 and 42 need to be located in the common part 20 of the two images. It is necessary to take an image in advance and set the feature points 41 and 42. The setting method of the feature points 41 and 42 is required to be easy to detect the location and not to be mistaken for other points. That is, as in this embodiment, the intersection where the patterns are concentrated is the best.

共通部20に特徴点41、42が設定できない場合は、以下の別の方法を利用することもできる。共通部20の補正は、どちらかの共通部20を消去するか、または、平均化することでなされる。   When the feature points 41 and 42 cannot be set in the common unit 20, another method described below can be used. The correction of the common unit 20 is performed by deleting or averaging one of the common units 20.

次に、第二の方法として、画像の端部から画像合わせていく方法を、図6と図7を用いて説明する。図6(a)と(b)は、図5(a)と(b)の画像の濃度をデジタル化したものである。共通部20を見積もる方法を説明する。まず、図6(a)と(b)の境界55から、別々に、図7(a)から図7(d)に示す画像をそれぞれ取り出す。図7(a)は1列、図7(b)は2列、図7(c)は3列、図7(d)は4列を取り出したものである。これらの図形間を比較し、一致する画素数を調べる。表1に、列数と一致画素数と一致する割合を示す。5列以上は、図7で示していないが、すべて一致する。列数が増すにしたがい、一致の割合が90%以上となったところを、共通部分と定義する。1列目は、すべての画素が一致し、一致の割合が高く90%以上であるが、2列目の一致の割合が90%以上でないため、共通部20ではないためである。表1からは、4列の図形(図7(d))が共通部20と断定できる。   Next, as a second method, a method of aligning images from the edge of the image will be described with reference to FIGS. FIGS. 6 (a) and 6 (b) are digitized images of FIGS. 5 (a) and 5 (b). A method for estimating the common unit 20 will be described. First, images shown in FIGS. 7A to 7D are separately taken out from the boundary 55 between FIGS. 6A and 6B. FIG. 7A shows one row, FIG. 7B shows two rows, FIG. 7C shows three rows, and FIG. 7D shows four rows. These figures are compared to find the number of matching pixels. Table 1 shows the ratio of the number of columns and the number of matching pixels. Although five columns or more are not shown in FIG. 7, they all match. As the number of columns increases, the point where the coincidence ratio becomes 90% or more is defined as a common part. In the first column, all the pixels match, and the matching ratio is high and is 90% or more, but the matching ratio in the second column is not 90% or more, so it is not the common part 20. From Table 1, four rows of figures (FIG. 7D) can be determined as the common part 20.

Figure 2005079274
Figure 2005079274

次に、第三の方法を、図6を用いて説明する。この方法は、第二の方法において、比較する列数をはじめから固定して、比較していく方法である。この場合、3列ごとに比較することに設定した。図6(a)の抽出領域51の部分と図6(b)の抽出領域52を比較し、一致しなければ、図6(b)の抽出領域53、抽出領域54と順に、3列ごとで比較をしていく。比較の基準は、第二の方法と同様に、画素の一致画素数と一致の割合とすることでできる。表2に、一致画素数と一致の割合を示す。判定基準を、一致の割合90%とすることで、抽出領域51と53が一致するという結果になり、共通部20として、抽出領域53と断定し、抽出領域51と53をあわせる補正をすることで、パターンを合成できる。これらの比較する抽出領域の選択は、パターンの種類により、最適な列数を選択しなければいけない。単純なパターンの場合、一致数は多く設定し、複雑な場合は、小さな値を設定する。また、設定する列数が多いと、画像の一致の判断に時間を要し、検査時間がかかってしまう。設定する列数が小さいと、共通部20の見積もりを誤る可能性が高い。ここで、抽出領域51を3列としたのは、パターン「H」の場合、横のバー部分に特徴があり、この部分の列を含めて前後の列を設定した。   Next, the third method will be described with reference to FIG. This method is a method in which the number of columns to be compared is fixed from the beginning and compared in the second method. In this case, it was set to compare every three columns. The portion of the extraction region 51 in FIG. 6A and the extraction region 52 in FIG. 6B are compared, and if they do not match, the extraction region 53 and the extraction region 54 in FIG. Compare. The reference for comparison can be made by using the number of coincident pixels and the coincidence ratio as in the second method. Table 2 shows the number of matching pixels and the matching ratio. By setting the determination criterion to be 90% of the coincidence ratio, the result is that the extraction areas 51 and 53 coincide with each other, and the common unit 20 determines that the extraction area 53 and corrects the extraction areas 51 and 53 together. Now you can synthesize the pattern. In selecting the extraction regions to be compared, the optimum number of columns must be selected depending on the type of pattern. In the case of a simple pattern, a large number of matches is set, and in a complicated case, a small value is set. In addition, if the number of columns to be set is large, it takes time to determine whether the images match, and inspection time is required. If the number of columns to be set is small, there is a high possibility that the common unit 20 is erroneously estimated. Here, the extraction area 51 is divided into three columns. In the case of the pattern “H”, there is a feature in the horizontal bar portion, and the preceding and following columns including the column of this portion are set.

Figure 2005079274
Figure 2005079274

また、はじめから、図6(a)と図6(b)全体を、一致するかを、それぞれの図をずらしながら、判定することはできるが、判定する範囲が広く、画像が一致するかどうかの画像処理には、かなりの時間を要する。   In addition, from the beginning, it is possible to determine whether or not FIG. 6A and FIG. 6B match with each other while shifting the respective drawings, but whether or not the images are matched is wide. This image processing takes a considerable amount of time.

また、上記の画像の一致性を判断する方法として、上記に説明した差分方法以外に相関方法などのパターンマッチングアルゴリズムを用いることができる。相関方法では、相関関数を用いて、画像間の一致性を判断するので、正確な判断ができる。差分方法では、2つの画像間の差をとることで、その差分の大小にて一致性を判断するので、正確な判断ができない場合もある。どちらを採用するかは、対象物により選択される。半導体の場合、パターンを高精度に検査する必要があるので、相関方法が用いられる。一方、回路パターンの場合、パターン精度が高くないので、差分方法でもよい。   Further, as a method for determining the coincidence of the images, a pattern matching algorithm such as a correlation method can be used in addition to the difference method described above. In the correlation method, since the coincidence between images is determined using a correlation function, an accurate determination can be made. In the difference method, the difference between the two images is taken to determine the coincidence based on the magnitude of the difference. Which one is adopted is selected depending on the object. In the case of a semiconductor, since it is necessary to inspect a pattern with high accuracy, a correlation method is used. On the other hand, in the case of a circuit pattern, since the pattern accuracy is not high, a difference method may be used.

相関方法の場合、完全一致で1.0の値となる。欠陥、ダスト等の存在のため、完全一致はしない場合があるので、一致する条件として、たとえば、0.8から1.0とすることができる。それぞれの対象物で、この基準の範囲が決められる。   In the case of the correlation method, a value of 1.0 is obtained with perfect match. Since there is a case where perfect matching may not occur due to the presence of defects, dust, etc., the matching condition can be set to 0.8 to 1.0, for example. The range of this standard is determined for each object.

実際に、上記、3つの方法と従来の方法および全画像の一致性を判断する方法で、6インチウェハー表面のトランジスタのパターンを検査した時間の比を(表3)に示す。[1]従来方法は、パターンを合成せずに、撮影回数を増やして検査する方法、[2]から[4]は、上記で説明した方法であり、[2]特徴点を利用した方法、[3]列数を変化させて一致性判断する方法、[4]ある列数で画像一致性の判断する方法、[5]比較例は、2つ画像全体(例えば、図6(a)と図6(b))をずらしながら、画像全体の一致性を判断して、パターン合成し、検査する方法である。[1]と[2]、[3]、[4]の時間の違いは、撮影回数の差である。つまり、従来[1]では、図10に示すように、撮影が6回行われるのに対して、図2に示すように、撮影は4回となり、その撮影時間の差が、表3に現われている。共通部20を見積もる処理は、制御装置62の演算処理能力が高いため、あらわれていない。しかし、[5]の全体画像の一致性を調べる場合では、その演算処理時間が長いため、撮影時間長くなっている。   Actually, Table 3 shows the ratio of the time when the transistor pattern on the surface of the 6-inch wafer was inspected by the above-mentioned three methods, the conventional method, and the method for judging the coincidence of all images. [1] The conventional method is a method of inspecting by increasing the number of photographing without synthesizing patterns, [2] to [4] are the methods described above, [2] a method using feature points, [3] A method for determining matching by changing the number of columns, [4] A method for determining image matching by a certain number of columns, [5] A comparative example shows two images (for example, FIG. 6A). This is a method in which the consistency of the entire image is judged, the patterns are synthesized, and the inspection is performed while shifting FIG. The difference in time between [1] and [2], [3], [4] is the difference in the number of times of shooting. That is, in the conventional [1], as shown in FIG. 10, shooting is performed 6 times, whereas as shown in FIG. 2, shooting is performed 4 times, and the difference in shooting time appears in Table 3. ing. The process for estimating the common unit 20 is not shown because the control processing capability of the control device 62 is high. However, in the case of checking the coincidence of the entire images in [5], the calculation processing time is long, so the shooting time is long.

表3より、従来の方法よりも、本実施形態の方法[2]から[4]では検査時間を短くすることができる。この結果、同じ時間でも、検査数を増加させることができ、歩留率の向上が図られる。   From Table 3, the inspection time can be shortened in the methods [2] to [4] of the present embodiment as compared with the conventional method. As a result, the number of inspections can be increased even at the same time, and the yield rate can be improved.

Figure 2005079274
Figure 2005079274

(実施形態2)
以下本発明の実施形態2を、図5(a)と図8を用いて説明する。図5(a)は、図2の下部でしめすもので、パターン「H」が完全な形で撮影されなかったものである。実施形態1では、この図5(a)とその画像に組み合わされる画像である図5(b)とから1つの完全なパターン「H」を合成し、検査に用いるという実施形態であった。この実施形態2では、この図5(a)と、新しく合成された基準画像とを比較して、検査する方法、または、図5(a)と基準画像からそれぞれの共通部分を抽出し、比較、検査する方法である。
(Embodiment 2)
Hereinafter, Embodiment 2 of the present invention will be described with reference to FIGS. FIG. 5A shows what is shown in the lower part of FIG. 2, in which the pattern “H” was not photographed completely. In the first embodiment, one complete pattern “H” is synthesized from FIG. 5A and FIG. 5B, which is an image combined with the image, and used for inspection. In the second embodiment, a method for inspecting by comparing FIG. 5A with a newly synthesized reference image, or extracting a common portion from FIG. 5A and the reference image, and comparing them. Is a method of inspection.

たとえば、検査画像を示す図8(a)で、特徴点41、42の座標を、設定し、基準画像を示す図8(b)のパターンの特徴点41、42の座標が、上記座標位置となるように、データ変換し、図8(c)に示す新しい基準画像を合成する。この新しい基準画像の図8(c)と、図8(a)を比較して、欠陥を検査することができる。また、図8(a)と基準画像図8(b)を比較し、共通部分を見積もり新しい基準画像図8(c)を合成し、検査する方法でもよい。   For example, in FIG. 8A showing the inspection image, the coordinates of the feature points 41 and 42 are set, and the coordinates of the feature points 41 and 42 of the pattern of FIG. Data conversion is performed so that a new reference image shown in FIG. 8C is synthesized. A defect can be inspected by comparing FIG. 8C of this new reference image with FIG. Alternatively, a method may be used in which FIG. 8A is compared with the reference image FIG. 8B, the common part is estimated, and a new reference image FIG. 8C is synthesized and inspected.

また、別な方法として、図8(a)と図8(b)の共通部分を見積もり、それぞれの共通部分図8(d)を抽出し、比較することもできる。共通部分を見積もる方法は、実施形態1でしめした3つの方法が利用できる。つまり、特徴点により求める方法、1列ごとに比較し求める方法、決められた列ごとで比較し求める方法が利用できる。   As another method, the common part of FIGS. 8A and 8B can be estimated, and the common part figure 8D can be extracted and compared. The method for estimating the common part can use the three methods shown in the first embodiment. That is, a method of obtaining by feature points, a method of obtaining by comparing each column, and a method of obtaining by comparing each determined column can be used.

本実施形態のフローチャートについては、実施形態1の図3と同じであるので、違いのみについて説明する。仮記録工程38では、パターン抽出工程33で、1つの「H」パターン22が分割されたもの(図3(a)下部)を記録する。実施形態1では、次の分割された画像が記録されるのを待って処理されたが、実施形態2では、すぐに、パターン合成工程39へ移行する。パターン合成工程39では、実施形態1で検査される2画像間の共通部20が見積もられ、補正させ、1パターンが合成されたが、この実施形態2では、基準画像と検査画像を比較し、共通部分を抽出する。または、検査画像にあわせて、新しい基準画像を合成する。その後、それらのパターンは、記録部34で記録され、従来と同じく、検査工程を進み検査される。   Since the flowchart of this embodiment is the same as that of FIG. 3 of the first embodiment, only the differences will be described. In the temporary recording step 38, the pattern extraction step 33 records the one “H” pattern 22 divided (lower part of FIG. 3A). In the first embodiment, processing is performed after the next divided image is recorded, but in the second embodiment, the process immediately proceeds to the pattern synthesis step 39. In the pattern synthesis step 39, the common portion 20 between the two images to be inspected in the first embodiment is estimated and corrected, and one pattern is synthesized. In this second embodiment, the reference image and the inspection image are compared. Extract common parts. Alternatively, a new reference image is synthesized in accordance with the inspection image. Thereafter, these patterns are recorded by the recording unit 34, and are inspected by proceeding with the inspection process as in the prior art.

この実施形態2では、実施形態1と同様の効果が得られる。   In the second embodiment, the same effect as in the first embodiment can be obtained.

以上のように、本発明にかかるパターン欠陥検査方法および装置は、半導体基板、回路基板等に形成されたパターンを検査に利用可能である。   As described above, the pattern defect inspection method and apparatus according to the present invention can use a pattern formed on a semiconductor substrate, a circuit board or the like for inspection.

本発明の実施形態の装置構成を示す図The figure which shows the apparatus structure of embodiment of this invention. 本発明の実施形態の画像取り込みイメージセンサーと披検査物の相対移動の方向を示す図The figure which shows the direction of the relative movement of the image capture image sensor and test article of embodiment of this invention 本発明の実施形態で撮影した画像を示す図The figure which shows the image image | photographed by embodiment of this invention. 本発明の実施形態のフローチャートFlowchart of an embodiment of the present invention 本発明の実施形態を説明する図The figure explaining embodiment of this invention 本発明の実施形態を説明する図The figure explaining embodiment of this invention 本発明の実施形態を説明する図The figure explaining embodiment of this invention 本発明の実施形態を説明する図The figure explaining embodiment of this invention 従来のパターン検査装置構成を示す図The figure which shows the conventional pattern inspection apparatus constitution 従来の画像取り込みイメージセンサーと被検査物の相対移動方向を示す図The figure which shows the relative movement direction of the conventional image capturing image sensor and the inspection object 従来の実施形態のフローチャートConventional Embodiment Flowchart 従来の撮影された画像を示す図Figure showing a conventional photographed image 従来の抽出された画像の図Figure of conventional extracted image

符号の説明Explanation of symbols

11 イメージセンサー
12 被検査物
13 イメージセンサー移動領域
15 イメージセンサー移動軌跡
16 イメージセンサー通過重なり領域
19 撮影領域
20 共通部
22 パターン
41、42 特徴点
51〜54 抽出領域
55 合わせ面
61 撮影手段
62 制御装置
63 検査データ記録部
64 基準データ記録部
65 テーブル
66 XYテーブル
67 画像処理部
69 画像処理装置


DESCRIPTION OF SYMBOLS 11 Image sensor 12 To-be-inspected object 13 Image sensor moving area 15 Image sensor moving locus 16 Image sensor passage overlap area 19 Imaging area 20 Common part 22 Pattern 41, 42 Feature point 51-54 Extraction area 55 Matching surface 61 Imaging means 62 Control apparatus 63 Inspection Data Recording Unit 64 Reference Data Recording Unit 65 Table 66 XY Table 67 Image Processing Unit 69 Image Processing Device


Claims (10)

被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する方法であって、
分かれて撮影させた検査画像間の共通部を見積もる見積工程と、
前記共通部を平均化または、一方を削除することで、検査画像を合成する合成工程と、
前記検査画像と基準画像を比較し、欠陥を抽出する抽出工程
とからなるパターン欠陥検査方法。
A method for detecting defects by comparing an inspection image obtained by photographing a pattern on an inspection object with a reference image,
An estimation process for estimating the common part between inspection images taken separately,
A synthesizing step of synthesizing an inspection image by averaging the common part or deleting one,
A pattern defect inspection method comprising an extraction step of comparing the inspection image with a reference image and extracting a defect.
見積工程が、2つの画像の各特徴点を合わせることで、画像の共通部を見積もる工程である請求項1記載のパターン欠陥検査方法。 The pattern defect inspection method according to claim 1, wherein the estimating step is a step of estimating a common portion of the images by combining the feature points of the two images. 見積工程が、2つの画像の合わせ面から、それぞれ、画像の列を抽出し、画像の一致性を判断し、画像の共通部を見積もる工程である請求項1記載のパターン欠陥検査方法。 The pattern defect inspection method according to claim 1, wherein the estimating step is a step of extracting a sequence of images from the mating surfaces of the two images, judging the coincidence of the images, and estimating a common part of the images. 被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する方法であって、
撮影により分割された検査画像に対して、対応する基準画像を作成する合成工程と、
前記検査画像と前記対応する基準画像を比較し、欠陥を抽出する抽出工程と、
からなるパターン欠陥検査方法。
A method for detecting defects by comparing an inspection image obtained by photographing a pattern on an inspection object with a reference image,
A synthesis step for creating a corresponding reference image for an inspection image divided by photographing,
An extraction step of comparing the inspection image with the corresponding reference image and extracting defects;
A pattern defect inspection method comprising:
合成工程が、検査画像と基準画像の2つの画像の各特徴点から、画像の共通部を見積もり、前記共通部の画像内での位置を合わせることで、対応する基準画像を作成する合成工程である請求項4記載のパターン欠陥検査方法。 A compositing step is a compositing step of estimating a common part of an image from each feature point of two images of an inspection image and a reference image, and creating a corresponding reference image by aligning the positions of the common part in the image. The pattern defect inspection method according to claim 4. 合成工程が、検査画像と基準画素の2つの画像の合わせ面から、それぞれの画像の列を抽出し、その画像の一致性を判断し、画像の共通部を見積もり、前記共通部の画像内での位置を合わせることで、対応する基準画像を作成する工程である請求項4記載のパターン欠陥検査方法。 The compositing step extracts a sequence of each image from the joining surface of the two images of the inspection image and the reference pixel, determines the coincidence of the images, estimates the common part of the image, and within the image of the common part 5. The pattern defect inspection method according to claim 4, which is a step of creating a corresponding reference image by aligning the positions of. 被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する方法であって、
検査画像と基準画像との画像間の共通部を見積る見積工程と、
前記共通部を、前記検査画像と基準画像からそれぞれ抽出する抽出工程と、
前記抽出した共通部を比較し、欠陥を抽出する抽出工程
とからなるパターン欠陥検査方法。
A method for detecting defects by comparing an inspection image obtained by photographing a pattern on an inspection object with a reference image,
An estimation process for estimating a common part between the inspection image and the reference image;
An extraction step of extracting the common part from the inspection image and the reference image, respectively.
A pattern defect inspection method comprising an extraction step of comparing the extracted common parts and extracting defects.
見積工程が、検査画像と基準画像の2つの画像の各特徴点を合わせることで、画像の共通部を見積もる工程である請求項7記載のパターン欠陥検査方法。 The pattern defect inspection method according to claim 7, wherein the estimating step is a step of estimating a common portion of the images by combining the feature points of the two images of the inspection image and the reference image. 見積工程が、検査画像と基準画像も2つの画像の合わせ面から、それぞれ、画像の列を抽出し、画像の一致性を判断し、画像の共通部を見積もる工程である請求項8記載のパターン欠陥検査方法。 9. The pattern according to claim 8, wherein the estimating step is a step of extracting a sequence of images from the joining surface of the two images of the inspection image and the reference image, determining the coincidence of the images, and estimating a common part of the images. Defect inspection method. 被検査物上のパターンを撮影して得られる検査画像と、基準画像との比較により、欠陥を検出する装置において、
前記被検査物の上方に位置し、前記被検査物を撮影する撮影部と、
前記被検査物と前記撮影部を相対的に移動させる移動機構部と、
前記撮影部で撮影した画像データを画像処理する画像装置部と、
前記移動機構部を制御する制御部と
からなるパターン欠陥検査装置であって、
前記画像装置部が、撮影された画像を記録する検査データ記録部と、基準の画像を記録する基準データ記録部と、2つの画像を合成する画像合成部とからなることを特徴とするパターン欠陥検査装置。
In the apparatus for detecting defects by comparing the inspection image obtained by photographing the pattern on the inspection object and the reference image,
An imaging unit that is located above the inspection object and images the inspection object;
A moving mechanism for relatively moving the object to be inspected and the imaging unit;
An image device unit that performs image processing on image data captured by the imaging unit;
A pattern defect inspection apparatus comprising a control unit for controlling the moving mechanism unit,
A pattern defect characterized in that the image device unit comprises an inspection data recording unit for recording a photographed image, a reference data recording unit for recording a reference image, and an image combining unit for combining two images Inspection device.
JP2003306664A 2003-08-29 2003-08-29 Pattern defect inspection method and apparatus thereof Pending JP2005079274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003306664A JP2005079274A (en) 2003-08-29 2003-08-29 Pattern defect inspection method and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003306664A JP2005079274A (en) 2003-08-29 2003-08-29 Pattern defect inspection method and apparatus thereof

Publications (1)

Publication Number Publication Date
JP2005079274A true JP2005079274A (en) 2005-03-24

Family

ID=34409691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003306664A Pending JP2005079274A (en) 2003-08-29 2003-08-29 Pattern defect inspection method and apparatus thereof

Country Status (1)

Country Link
JP (1) JP2005079274A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015729A (en) * 2007-07-06 2009-01-22 Nissan Motor Co Ltd Method and device for forming reference model
JP2009157543A (en) * 2007-12-26 2009-07-16 Hitachi High-Technologies Corp Method and apparatus for creating image
WO2011090111A1 (en) * 2010-01-22 2011-07-28 株式会社 日立ハイテクノロジーズ Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
CN102375343A (en) * 2010-08-18 2012-03-14 上海微电子装备有限公司 Workbench position measuring system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015729A (en) * 2007-07-06 2009-01-22 Nissan Motor Co Ltd Method and device for forming reference model
JP2009157543A (en) * 2007-12-26 2009-07-16 Hitachi High-Technologies Corp Method and apparatus for creating image
WO2011090111A1 (en) * 2010-01-22 2011-07-28 株式会社 日立ハイテクノロジーズ Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
JP2011150146A (en) * 2010-01-22 2011-08-04 Hitachi High-Technologies Corp Method for extracting contour line of image data obtained by charged particle beam device, and contour line extracting device
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
CN102375343A (en) * 2010-08-18 2012-03-14 上海微电子装备有限公司 Workbench position measuring system

Similar Documents

Publication Publication Date Title
JP4825469B2 (en) Defect review method and apparatus for semiconductor device
US5774574A (en) Pattern defect detection apparatus
US7869643B2 (en) Advanced cell-to-cell inspection
JP2004077164A (en) Defect inspection method
JP2010522316A (en) Method for recognizing array region in die formed on wafer, and setting method for such method
KR20140044395A (en) Defect observation method and defect observation device
JP4954469B2 (en) Appearance inspection method
JP5088165B2 (en) Defect detection method and defect detection apparatus
JP2006023178A (en) 3-dimensional measuring method and device
JP2006170922A (en) Visual inspection method and its apparatus
JP2005345290A (en) Streak-like flaw detecting method and streak-like flaw detector
JP2005079274A (en) Pattern defect inspection method and apparatus thereof
JP2006269624A (en) Method for accelerating alignment of optical appearance inspection apparatus, and pattern inspection apparatus using same
JP5157575B2 (en) Defect detection method
JP2006234554A (en) Method and device for inspecting pattern
KR20200126921A (en) A method for inspecting a skeleton wafer
JPS62267649A (en) Pattern defect detecting device
JP2009074828A (en) Flaw detection method and flaw detector
JP3753234B2 (en) Defect detection method
JP2000321038A (en) Method for detecting fault of pattern
JP2008292342A (en) Edge defect detecting method, program of the same, and detector
JP2010243214A (en) Method and device for detection of flaw
JP4889018B2 (en) Appearance inspection method
JP2009145161A (en) Method and apparatus for detecting defect
JP3146882B2 (en) Picture inspection method