JP2005098970A - Method and apparatus for identifying foreign matter - Google Patents

Method and apparatus for identifying foreign matter Download PDF

Info

Publication number
JP2005098970A
JP2005098970A JP2004094269A JP2004094269A JP2005098970A JP 2005098970 A JP2005098970 A JP 2005098970A JP 2004094269 A JP2004094269 A JP 2004094269A JP 2004094269 A JP2004094269 A JP 2004094269A JP 2005098970 A JP2005098970 A JP 2005098970A
Authority
JP
Japan
Prior art keywords
image
image information
foreign matter
sample
foreign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004094269A
Other languages
Japanese (ja)
Other versions
JP4523310B2 (en
Inventor
Tetsuaki Fukamachi
哲昭 深町
Takahiro Shimizu
高博 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2004094269A priority Critical patent/JP4523310B2/en
Publication of JP2005098970A publication Critical patent/JP2005098970A/en
Application granted granted Critical
Publication of JP4523310B2 publication Critical patent/JP4523310B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an identification method and an identification apparatus for especially allowing a detected foreign matters, to identify whether an inspection target is one adhering to the surface, regarding the apparatus for inspecting foreign matters formed on the surface of or in the inside of the inspection target. <P>SOLUTION: The identification apparatus acquires image information (focal point image information), in which the upper surface of the inspection target is focused from an imaging device; and image information (non-focal image information), in which the focal point is shifted from the surface to the lower surface and at a position for enabling an internal foreign matter to be recognized, thus identifying the surface foreign matters and internal foreign matters, based on the focal point image information and non-focal point image information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、検査対象物上または内部に形成された異物を検査する装置に関し、特に、検出された異物が検査対象物が表面に付着したものか否かを識別する識別方法及び装置に関するものであるするものである。   The present invention relates to an apparatus for inspecting foreign matter formed on or in an inspection object, and more particularly, to an identification method and apparatus for identifying whether or not a detected foreign object is a substance attached to a surface of the inspection object. There is something to do.

従来の光学顕微鏡とCCD等の撮像装置を用いた異物検査装置では、検査対象物(試料)表面を透過光または反射光によって撮像する。このとき、検査対象物の表面または内部に存在する異物は表面部に比較して暗い輝度レベルの画像として撮像される。この暗い輝度レベルの画像領域を異物として検出する。
しかし、検出された異物が、検査対象物表面より上に存在するのか下に存在するのかが識別できにくかった。
以降、顕微鏡を介して取得する画像の合焦点位置を検査対象物(試料)表面と云う。また、この表面よりZ軸方向について、上に存在する異物を表面異物、下に存在する異物を内部異物と称する。
例えば、異物とは、欠陥、ボイド、溝、穴、凹凸、等、検査対象物面に形成された穴、凹み、溝、及び内部に形成された異物、空洞、等を総称するものである。また、表面異物には、その他に表面に付着した異物や搭載部品等がある。
また例えば、異物とは、元の試料(検査対象物)について、加工等、外部的時間的等の要因によって生起された外観的な変化がある部分のことで、内部の空洞、欠陥、きず、付着物、パターン配線、生成膜、搭載部品、はんだ、等を含む。
In a foreign substance inspection apparatus using a conventional optical microscope and an imaging apparatus such as a CCD, the surface of an inspection object (sample) is imaged with transmitted light or reflected light. At this time, the foreign matter existing on the surface or inside of the inspection object is captured as an image having a darker luminance level than the surface portion. This dark luminance level image area is detected as a foreign object.
However, it is difficult to identify whether the detected foreign matter is above or below the surface of the inspection object.
Hereinafter, the in-focus position of an image acquired through a microscope is referred to as an inspection object (sample) surface. Further, in the Z-axis direction from the surface, foreign matter existing above is referred to as surface foreign matter, and foreign matter existing below is referred to as internal foreign matter.
For example, the foreign substance is a general term for a hole, a dent, a groove formed on the surface of the inspection object, such as a defect, a void, a groove, a hole, and an unevenness, and a foreign object, a cavity, and the like formed inside. In addition, the surface foreign matter includes foreign matter attached to the surface and mounted parts.
In addition, for example, the foreign matter is a part of the original sample (inspection object) that has an external change caused by factors such as external time such as processing, and includes internal cavities, defects, scratches, Includes deposits, pattern wiring, generated films, mounted components, solder, and the like.

検出された異物を識別する方法としては、例えば、検出が予想される(または、事前に分かっている)検査対象物面に形成された穴、凹み、溝、及び内部に形成された空洞、更に検査対象物が透明に近い材料ならば屈折率の異なる異物、等や搭載部品等を、画像情報として記憶しておき、実際に検出された異物と比較し、同じ位置にある異物を検査対象から除外するテンプレート比較という方法がある。
このテンプレートによる比較方法は、検出された異物のサイズ、形状、輝度レベル差について、テンプレート画像と比較することによって、形成物と異物とを識別していた。しかし、この識別方法では異物の形状、サイズ、輝度レベル差により見逃しや誤認識が発生する可能性があった。また、テンプレートによる比較方法では、事前に検査対象物に形成されている異物(例えば、穴、や搭載部品、等)の位置情報が必要な上、テンプレートの作成に多くの時間が必要であった(例えば、先行特許文献1参照)。
As a method for identifying the detected foreign matter, for example, holes, dents, grooves, and cavities formed in the inspection target surface where detection is expected (or known in advance), and further, If the object to be inspected is a material that is close to transparency, foreign materials with different refractive indexes, etc., and mounted parts are stored as image information, compared with the actually detected foreign materials, and foreign materials at the same position are removed from the inspection object. There is a method called template comparison to exclude.
In this comparison method using a template, a formed product and a foreign material are identified by comparing the detected foreign material size, shape, and luminance level difference with a template image. However, this identification method may cause oversight or misrecognition due to differences in the shape, size, and luminance level of foreign matter. Further, in the comparison method using the template, position information of foreign matters (for example, holes, mounted parts, etc.) formed on the inspection target in advance is required, and much time is required for creating the template. (For example, refer to the prior patent document 1).

特開平3−72249号公報JP-A-3-72249

上述の従来技術では、検出された異物が、検査対象物表面より上に存在するのか下に存在するのかが識別できにくかった。
また、テンプレートによる比較方法を使って識別すると、異物の形状、サイズ、輝度レベル差により見逃しや誤認識が発生する場合があり、更に、事前に検査対象物に形成されている異物の位置情報が必要な上、テンプレートの作成に多くの時間が必要だった
本発明の目的は、検査対象物表面または内部に形成される内部異物を検査対象物表面に付着した異物(表面異物)と確実に識別する方法とその装置を提供するものである。
In the above-described prior art, it has been difficult to identify whether the detected foreign matter exists above or below the surface of the inspection object.
In addition, if identification is performed using a comparison method using a template, there may be cases where oversight or misrecognition may occur due to differences in the shape, size, and luminance level of the foreign material. In addition, it took a lot of time to create a template. The purpose of the present invention is to reliably identify the foreign matter (surface foreign matter) adhering to the surface of the inspection target or the internal foreign matter formed on the surface of the inspection target. And a device for the same are provided.

上記の目的を達成するため、本発明の異物識別方法は、顕微鏡装置と撮像装置を用い、検査対象物の基準となる焦点位置で基準画像取得し、焦点位置と異なる少なくとも1つの焦点位置で異なる焦点位置の画像を取得し、取得したそれらの画像を比較して、比較結果から、基準となる焦点位置より上にある異物と下にある異物とを識別することを特徴とする。
また、本発明の異物識別装置は、検査対象物を載せるステージを有する顕微鏡装置と、顕微鏡装置で拡大された検査対象物の拡大画像を撮影する撮像装置と、上記ステージを制御する制御装置とを備える異物識別装置において、顕微鏡装置は、基準となる焦点位置と異なる焦点位置の少なくとも1つの画像を得るために、検査対象物の表面に焦点面を合わせる撮像装置と、これを基準に異なる位置に焦点の合うように第2の撮像装置を備え、撮像装置は上記検査対象物の表面に焦点の合った画像情報を取得し、第2の撮像装置は表面と異なる位置に焦点を変えた画像情報を取得し、焦点がずれた画像情報の微分成分を求め、微分値の大きくなる部分を認識し、前者の画像情報にある部分と認識した微分値の大きくなる部分とを識別することを特徴とする。
In order to achieve the above object, the foreign matter identification method of the present invention uses a microscope device and an imaging device, acquires a reference image at a focal position serving as a reference for an inspection object, and differs at least at one focal position different from the focal position. An image of a focal position is acquired, the acquired images are compared, and a foreign matter above and below a reference focal position is identified from the comparison result.
Further, the foreign matter identification device of the present invention includes a microscope apparatus having a stage on which an inspection object is placed, an imaging apparatus that captures an enlarged image of the inspection object magnified by the microscope apparatus, and a control apparatus that controls the stage. In the foreign object identification device provided, the microscope device has an imaging device that matches a focal plane with the surface of the object to be inspected to obtain at least one image having a focal position different from the reference focal position, and a position different from the imaging apparatus. A second imaging device is provided so as to be in focus, the imaging device acquires image information focused on the surface of the inspection object, and the second imaging device changes image focus to a position different from the surface. To obtain the differential component of the image information out of focus, recognize the part where the differential value is large, and identify the part in the former image information and the part where the recognized differential value is large And butterflies.

即ち、上記の目的を達成するため、本発明の異物識別方法及び装置は、検査対象物を載せるステージを有する顕微鏡装置と、その顕微鏡装置で拡大された検査対象物の拡大画像を撮影する撮像装置と、検査対象物を載せたステージを制御する制御装置と、検査対象物に応じた検査条件を記録する記録装置とを有し、記録装置に記録された検査条件に基づいて、撮像装置から出力した画像情報を解析し、検査対象物上の異物を検査する検査装置において、検査対象物の表面または内部に本来存在する穴または凹みまたは溝等の内部異物と表面に付着した異物(表面異物)とを識別するために、撮像装置から検査対象物の表面に焦点の合った画像情報(合焦点画像情報)と、表面から下面でかつ内部異物が認識できる位置に焦点をずらした画像情報(非焦点画像情報)とを取得し、合焦点画像情報と非焦点画像情報とに基づいて表面異物と内部異物とを識別するものである。
また、本発明の異物識別方法及び装置は、合焦点画像情報と非焦点画像情報との情報とは、好ましくは、非焦点画像情報の微分成分を算出し、算出された微分値が所定値以上の画素領域の部分と、合焦点画像情報の輝度レベルが所定値未満の画素領域の部分がほぼ一致する画素領域の部分を内部異常物として識別するものである。
また、好ましくは、本発明の異物識別方法及び装置は、合焦点画像情報と非焦点画像情報との情報とは、非焦点画像情報の輝度レベルが所定値未満の画素領域の部分と、合焦点画像情報の輝度レベルが所定値未満の画素領域の部分がほぼ一致する画素領域の部分を内部異常物として識別するものである。
That is, in order to achieve the above object, the foreign matter identifying method and apparatus of the present invention includes a microscope apparatus having a stage on which an inspection object is placed, and an imaging apparatus that captures an enlarged image of the inspection object magnified by the microscope apparatus. And a control device that controls the stage on which the inspection object is placed, and a recording device that records the inspection conditions according to the inspection object, and outputs from the imaging device based on the inspection conditions recorded in the recording device In an inspection device that analyzes the image information and inspects foreign matter on the inspection target, internal foreign matter such as holes, dents, or grooves originally present on the surface or inside of the inspection target and foreign matter (surface foreign matter) attached to the surface Image information focused on the surface of the object to be inspected (focused image information) and image information shifted from the surface to the position where the internal foreign object can be recognized. Get the (non-focus image information) and is intended to distinguish the foreign surface particles and internal foreign substances on the basis of the focus image information and unfocused image information.
In the foreign matter identifying method and apparatus of the present invention, the information of the focused image information and the non-focused image information preferably calculates a differential component of the non-focused image information, and the calculated differential value is equal to or greater than a predetermined value. The pixel region portion in which the portion of the pixel region substantially coincides with the portion of the pixel region in which the brightness level of the focused image information is less than a predetermined value is identified as an internal abnormal object.
Preferably, in the foreign matter identifying method and apparatus according to the present invention, the information on the focused image information and the unfocused image information includes a portion of the pixel area where the luminance level of the unfocused image information is less than a predetermined value, The pixel region portion where the pixel region portion where the luminance level of the image information is less than a predetermined value substantially matches is identified as an internal abnormal object.

また本発明の異物識別装置は、焦点面の異なる2つの画像情報を得る手段として、顕微鏡装置に、検査対象物の表面に焦点面を合わせる撮像装置と、これを基準に異なる位置に合焦点する撮像装置を配置し、後者の撮像装置の焦点位置を調整するものである。   In addition, the foreign substance identification apparatus of the present invention focuses on a microscope apparatus, an imaging apparatus that focuses the focal plane on the surface of the inspection object, and a different position on the basis of the microscope apparatus as means for obtaining two pieces of image information having different focal planes. An imaging device is arranged and the focal position of the latter imaging device is adjusted.

即ち、本発明は、光学顕微鏡と撮像装置を利用して検査対象物の画像を取得し、取得された画像を解析して、検査対象物上または内部に形成された微細な穴や凹凸、パターンなどを形成した際の溝、または傷や、その表面に付着した異物を検査する装置に関し、特に、検出された異物が検査対象物が表面に付着したものか否かを識別するものである。   That is, the present invention acquires an image of an inspection object using an optical microscope and an imaging device, analyzes the acquired image, and forms fine holes, irregularities, and patterns formed on or in the inspection object. In particular, the detected foreign matter is used to identify whether the inspection object is attached to the surface.

本発明の異物識別方法及び異物識別装置によれば、試料のテンプレート等の事前情報なしに、かつ、試料面下に形成された異物と、表面に付着した異物とを識別し、検査不要のものは検査対象から除外できるため、検査準備時間及び検査時間を短くできる。   According to the foreign matter identification method and foreign matter identification device of the present invention, it is possible to identify a foreign matter formed under the sample surface and a foreign matter attached to the surface without prior information such as a sample template and the like, and does not require inspection. Can be excluded from the inspection target, so that the inspection preparation time and the inspection time can be shortened.

以下、本発明の実施の形態について説明する。
本発明は、検査対象物の表面または内部に本来存在する穴または凹みまたは溝等の内部異物と表面に付着した異物(表面異物)とを識別するために、撮像装置から検査対象物の表面に焦点の合った画像情報(合焦点画像情報)と、表面から下面でかつ内部異物が認識できる位置に焦点をずらした画像情報(非焦点画像情報)とを取得し、合焦点画像情報と非焦点画像情報とに基づいて表面異物と内部異物とを識別する。このとき、合焦点画像情報と非焦点画像情報との情報とは、好ましくは、非焦点画像情報の微分成分を算出し、算出された微分値が所定値以上の画素領域の部分と、合焦点画像情報の輝度レベルが所定値未満の画素領域の部分がほぼ一致する画素領域の部分を内部異常物として識別する。
また、好ましくは、合焦点画像情報と非焦点画像情報との情報とは、非焦点画像情報の輝度レベルが所定値未満の画素領域の部分と、合焦点画像情報の輝度レベルが所定値未満の画素領域の部分がほぼ一致する画素領域の部分を内部異常物として識別する。
Embodiments of the present invention will be described below.
According to the present invention, in order to distinguish an internal foreign matter such as a hole, a dent, or a groove originally present on the surface or inside of the inspection object and a foreign matter (surface foreign matter) adhering to the surface, the imaging device can detect the surface of the inspection object. Focused image information (focused image information) and image information (nonfocused image information) shifted from the front surface to the bottom surface and a position where an internal foreign object can be recognized are acquired. Based on the image information, the surface foreign matter and the internal foreign matter are identified. At this time, the information of the in-focus image information and the non-focus image information is preferably calculated by calculating a differential component of the non-focus image information, the portion of the pixel area where the calculated differential value is equal to or greater than a predetermined value, and the in-focus image information. A portion of the pixel area in which the portion of the pixel area whose luminance level of the image information is less than a predetermined value substantially matches is identified as an internal abnormal object.
Preferably, the information on the in-focus image information and the non-focus image information includes a portion of a pixel area where the brightness level of the non-focus image information is less than a predetermined value, and the brightness level of the focus image information is less than a predetermined value. A part of the pixel area in which the part of the pixel area substantially matches is identified as an internal abnormal object.

また本発明の異物識別装置は、焦点面の異なる2つの画像情報を得る手段として、顕微鏡装置に、検査対象物の表面に焦点面を合わせる撮像装置と、これを基準に異なる位置に合焦点する撮像装置を配置し、後者の撮像装置の焦点位置を調整する。   In addition, the foreign substance identification apparatus of the present invention focuses on a microscope apparatus, an imaging apparatus that focuses the focal plane on the surface of the inspection object, and a different position on the basis of the microscope apparatus as means for obtaining two pieces of image information having different focal planes. An imaging device is arranged and the focal position of the latter imaging device is adjusted.

即ち、本発明は、光学顕微鏡と撮像装置を利用して検査対象物の画像を取得し、取得された画像を解析して、検査対象物上または内部に形成された微細な穴や凹凸、パターンなどを形成した際の溝、または傷や、その表面に付着した異物を検査する装置に関し、特に、検出された異物について、検査対象物の表面に付着したものか否かを識別する。   That is, the present invention acquires an image of an inspection object using an optical microscope and an imaging device, analyzes the acquired image, and forms fine holes, irregularities, and patterns formed on or in the inspection object. In particular, it is possible to identify whether or not the detected foreign matter is attached to the surface of the object to be inspected.

本発明の識別方法の具体的な実施例を図7、図2〜図4、及び図5によって説明する。図7と図2〜図4は、本発明の一実施例の原理を説明するための図で、図5は、本発明の一実施例の処理動作例のフローチャートである。106は試料、701と702は内部異物、703は表面異物、704はカメラフォーカス面、705は対物レンズ、706は接眼レンズ、707はカメラ撮像面、708は光軸である。内部異物701、702は、図7の例では、試料に開けられた穴である。
図示しない光源からの光(落射光)が試料106に垂直に照射され、照射された光が試料106の表面から反射し、反射した光が、対物レンズ705、接眼レンズ706を通って、カメラ撮像面707で結像する。
A specific embodiment of the identification method of the present invention will be described with reference to FIGS. 7, 2 to 4 and 5. FIG. 7 and 2 to 4 are diagrams for explaining the principle of the embodiment of the present invention, and FIG. 5 is a flowchart of an example of processing operation of the embodiment of the present invention. Reference numeral 106 denotes a sample, 701 and 702 are internal foreign matters, 703 is a surface foreign matter, 704 is a camera focus surface, 705 is an objective lens, 706 is an eyepiece lens, 707 is a camera imaging surface, and 708 is an optical axis. The internal foreign substances 701 and 702 are holes formed in the sample in the example of FIG.
Light from a light source (not shown) (epi-illumination light) is irradiated perpendicularly to the sample 106, the irradiated light is reflected from the surface of the sample 106, and the reflected light passes through the objective lens 705 and the eyepiece lens 706 and is captured by the camera. An image is formed on the surface 707.

図7(a) は、検査対象物である試料106の上表面にカメラフォーカス面(焦点)が合っている場合の光学系を説明する図である。また、図7(b) は、試料106の上表面より下方向にカメラフォーカス面(焦点)が合っている場合の光学系を説明する図である。   FIG. 7A is a diagram for explaining the optical system when the camera focus plane (focus) is in alignment with the upper surface of the sample 106 that is the inspection object. FIG. 7B is a diagram for explaining the optical system when the camera focus plane (focus) is in the downward direction from the upper surface of the sample 106.

試料106の上表面に焦点が合っている場合には、カメラ撮像面707で結像した光学像によって取得された画像は、図2(a) に示すようになる。図2は、第1のカメラ104が撮像した画像(図2(a) )とその画像の輝度プロファイル(図2(b) )の一例を示す図である。201と202は検出対象となる試料に形成された穴701と702の画像、203は試料106の表面上にある異物703の画像、204は破線部の輝度プロファイルである。図2(a) の画像は、顕微鏡の反射照明による画像であり、穴701(画像201)、穴702(画像202)と異物703(画像203)は、他の表面部分の画像と比較して反射光が少なく暗いため、輝度レベルが低い。図2(b) は、図2(a) の破線部分の輝度プロファイル204を示し、画像201,202と画像203の輝度が、共に、低いことを表す。   When the upper surface of the sample 106 is in focus, an image acquired by the optical image formed on the camera imaging surface 707 is as shown in FIG. FIG. 2 is a diagram showing an example of an image (FIG. 2A) taken by the first camera 104 and a luminance profile (FIG. 2B) of the image. 201 and 202 are images of the holes 701 and 702 formed in the sample to be detected, 203 is an image of the foreign material 703 on the surface of the sample 106, and 204 is a luminance profile of the broken line portion. The image in FIG. 2 (a) is an image obtained by reflected illumination of a microscope. The hole 701 (image 201), the hole 702 (image 202), and the foreign substance 703 (image 203) are compared with the images of other surface portions. The brightness level is low because the reflected light is dark and dark. FIG. 2 (b) shows the luminance profile 204 of the broken line part of FIG. 2 (a), indicating that the luminance of the images 201 and 202 and the image 203 are both low.

図7(b) のように、試料106の上表面より下側に焦点が合っている場合には、カメラ撮像面707で結像した光学像によって取得された画像は、図3(a) に示すようになる。図3は、カメラB105が撮像した画像(図3(a) )とその画像の輝度プロファイル(図3(b) )の一例を示す図である。301と302は検出対象となる試料106に形成された穴701と702の画像、303は試料106の表面上にある異物703の画像、304は破線部の輝度プロファイルである。図2と図3とで、穴の画像201と301は同じ穴701を撮像し、穴の画像202と302は同じ穴702を撮像し、異物の画像203と303は同じ異物703を撮像している。図3(a) の画像は、図2と同一場所を撮像しているが、顕微鏡の焦点位置が図2に比べて試料の内部(表面から下方向に)少しずれている。このため、画像全体としてはぼけた像となっており、輝度レベルの変化が少ない。この焦点位置は、試料106の下面より上にあることが望ましいが、試料106の下面より合っても良い。   As shown in FIG. 7B, when the focal point is below the upper surface of the sample 106, an image acquired by the optical image formed on the camera imaging surface 707 is shown in FIG. As shown. FIG. 3 is a diagram showing an example of an image (FIG. 3A) taken by the camera B105 and a luminance profile (FIG. 3B) of the image. Reference numerals 301 and 302 denote images of holes 701 and 702 formed in the sample 106 to be detected, 303 denotes an image of the foreign substance 703 on the surface of the sample 106, and 304 denotes a luminance profile of a broken line portion. 2 and 3, the hole images 201 and 301 capture the same hole 701, the hole images 202 and 302 capture the same hole 702, and the foreign matter images 203 and 303 capture the same foreign matter 703. Yes. The image in FIG. 3A is taken at the same location as in FIG. 2, but the focal position of the microscope is slightly shifted from the inside of the sample (downward from the surface) compared to FIG. For this reason, the image as a whole is blurred, and the change in the luminance level is small. The focal position is desirably above the lower surface of the sample 106, but may be aligned with the lower surface of the sample 106.

図3(a) において、穴701,702(画像301,302)と異物703(画像303)は、他の表面部分の画像と比較して反射光が少なく暗いため、表面部分より輝度レベルが低い。図3(b) は、図3(a) の破線部分の輝度プロファイル304を示し、穴701,702の画像301,302と異物703の画像303の輝度が、共に、低いことを表す。
しかし、表面異物703は、穴701,702より焦点がずれていく方向に存在するため、輝度レベルが高く見える。また、穴701,702は、試料106の上表面より深い(下方向)場所に空洞があるものであり、図7(b) の場合でも焦点が合うところが存在することから、輝度レベルが低い。例えば、穴が光軸708方向に平行に空いていれば、図7(a) と図7(b) のどちらの焦点で撮影しても穴701,702の画像の輝度レベルは同じになる。
即ち、穴701,702の画像301,302は、焦点位置が試料106の上表面より下方向にあるため、その輝度レベルは、穴701,702の画像201,202より輝度レベルが等しいかまたは多少小さいが、他の部分の画像と比較して反射光が少なく暗いため、輝度レベルが低い。したがって、他の部分との輝度レベル差が大きいため、輝度レベルの微分値が高くなる。
これに対し、異物703の画像303は、図7(b) の焦点で取得した画像では、焦点が合わなくなるため、画像203よりぼけた画像となっており輝度レベルが表面の輝度レベルに近くなる。
In FIG. 3A, the holes 701 and 702 (images 301 and 302) and the foreign material 703 (image 303) have lower reflected light and darker than the surface portions, and therefore have a lower luminance level than the surface portions. . FIG. 3B shows the luminance profile 304 of the broken line part of FIG. 3A, and indicates that the luminance of the images 301 and 302 of the holes 701 and 702 and the luminance of the image 303 of the foreign material 703 are both low.
However, since the surface foreign matter 703 exists in a direction in which the focus is shifted from the holes 701 and 702, the luminance level looks high. Further, the holes 701 and 702 have cavities deeper (downward) than the upper surface of the sample 106, and the brightness level is low because there are places where focus is achieved even in the case of FIG. 7B. For example, if the hole is open parallel to the direction of the optical axis 708, the brightness levels of the images of the holes 701 and 702 are the same regardless of whether the image is taken at the focal point shown in FIGS. 7 (a) or 7 (b).
That is, the images 301 and 302 of the holes 701 and 702 have a focal point located below the upper surface of the sample 106, and therefore the luminance level is equal to or slightly higher than that of the images 201 and 202 of the holes 701 and 702. Although it is small, the luminance level is low because the reflected light is less and darker than the image of other parts. Therefore, since the difference in luminance level with other parts is large, the differential value of the luminance level becomes high.
On the other hand, the image 303 of the foreign object 703 is out of focus in the image acquired at the focus in FIG. 7B, and thus is a blurred image from the image 203, and the luminance level is close to the luminance level of the surface. .

次に図2〜図4を用いて、異物を識別する方法の一実施例を説明する。
まず、図2の画像について、所定の輝度レベル未満の部分を異物として検出し、その異物の位置座標を算出する。位置座標の算出方法としては、例えば、所定の輝度レベル未満の画素領域を画素毎に2値化して検出し、検出したそれぞれのかたまりの重心位置をその異物の位置座標とする。
また、図3の画像について、輝度レベルの微分値を算出する。そして、微分値が所定値以上の部分を輝点として検出し、その輝点の位置座標を求める。もし、異物の大きさが1画素〜数画素分に近いサイズであれば、検出したそれぞれのかたまりの形状は異物の形状に似ているし、異物の大きさが数画素分以上のサイズであれば、検出したそれぞれのかたまりの形状は異物の輪郭形状に近くなる。位置座標の算出方法としては、例えば、所定の輝度レベル以上の画素領域を画素毎に2値化して検出し、検出したそれぞれのかたまりの重心位置をその異物の位置座標とする。
図4は、カメラB105が取得した画像(図3(a) )から算出した微分値から算出した2値化画像の一実施例である。401と402は穴の2値化画像、403は表面異常物の2値化画像である。表面異常物403は2値化すると、実際には、図4に示すものより輝度が周囲の黒い部分と同じになるが、図4では、周囲の黒い部分と区別するために明るめに描いている。
そして、カメラA104の画像(図2(a) )から求めた異物の位置座標と、カメラB105の画像(図3(a) )から求めた輝点とが一致する位置と一致しない位置とを検出し、一致する位置にある異物を内部異常物と判定し、一致しない位置にある異物を表面異常物と判定する。
Next, an embodiment of a method for identifying a foreign object will be described with reference to FIGS.
First, in the image of FIG. 2, a part having a level less than a predetermined luminance level is detected as a foreign object, and the position coordinates of the foreign object are calculated. As a method for calculating the position coordinates, for example, a pixel region having a luminance level lower than a predetermined luminance level is detected by binarization for each pixel, and the detected barycentric position of each cluster is set as the position coordinates of the foreign object.
Further, a differential value of the luminance level is calculated for the image of FIG. Then, a portion where the differential value is a predetermined value or more is detected as a bright spot, and the position coordinates of the bright spot are obtained. If the size of a foreign object is a size close to one pixel to several pixels, the detected shape of each lump is similar to the shape of a foreign object, and the size of a foreign object is a size of several pixels or more. For example, the shape of each detected mass is close to the contour shape of the foreign matter. As a method for calculating the position coordinates, for example, a pixel area having a predetermined luminance level or more is detected by binarization for each pixel, and the detected barycentric position of each mass is used as the position coordinates of the foreign object.
FIG. 4 shows an example of a binarized image calculated from the differential value calculated from the image (FIG. 3A) acquired by the camera B105. 401 and 402 are binarized images of holes, and 403 is a binarized image of abnormal surface objects. When the surface abnormal object 403 is binarized, the luminance actually becomes the same as that of the surrounding black part as shown in FIG. 4, but in FIG. 4, it is drawn brightly so as to be distinguished from the surrounding black part. .
Then, the position where the position coordinates of the foreign matter obtained from the image of the camera A104 (FIG. 2 (a)) and the bright spot obtained from the image of the camera B105 (FIG. 3 (a)) coincide with the position which does not coincide is detected. Then, the foreign substance at the matching position is determined as an internal abnormal object, and the foreign substance at the non-matching position is determined as an abnormal surface object.

このように、図2の異物検出結果と図3,図4の輝度レベルの微分値から算出した2値化画像の結果とが一致するか否かで穴と異物を区別することが可能となり、穴の位置と分布を異物と混在することなく求めることができる。   In this way, it is possible to distinguish holes and foreign objects based on whether or not the foreign object detection result in FIG. 2 and the binarized image result calculated from the differential value of the luminance level in FIGS. The position and distribution of the holes can be obtained without mixing with foreign substances.

より簡単な方法としては、図2の画像による輝度レベルが低い部分と図3の画像による輝度レベルが低い部分(画素のかたまり)とを比較し、どちらも輝度レベルが低い部分は、内部異物(図7(a) の焦点位置より下方向に分布する異物)であると判定することもできる。また、図2の画像による輝度レベルが低い部分であるが、図の画像では輝度レベルがそれほど低くない部分は表面異物(図7(a) の焦点位置より上方向に分布する異物)であると識別できる。   As a simpler method, a portion with a low luminance level according to the image in FIG. 2 is compared with a portion with a low luminance level according to the image in FIG. 3 (a cluster of pixels). It is also possible to determine that the foreign material is distributed downward from the focal position in FIG. Further, although the luminance level in the image of FIG. 2 is a low portion, the portion in which the luminance level is not so low in the image is a surface foreign matter (foreign matter distributed upward from the focal position in FIG. 7A). Can be identified.

図4は、図3(a) の画像について画素毎に輝度レベルを微分して、微分した値が所定値未満の輝度レベルの画素を“ 0 ”、それ以外の画素を“ 255 ”とした場合の2値化画像の一例である。401と402は穴701と702の2値化画像、403は表面異常物703の2値化画像である。表面異常物703は実際には、周囲の黒い部分と同じであるが、図4では、周囲の黒い部分と区別するために斜線を入れて描いている。
そして、図2(a) の画像から求めた異物の位置座標と、図3(a) の画像から求めた輝点とが一致する位置と一致しない位置とを検出し、一致する位置にある異物を内部異物と判定し、一致しない位置にある異物を表面異物と判定し、内部異物と表面異物とを識別する。
FIG. 4 shows a case where the luminance level is differentiated for each pixel in the image of FIG. 3A, and the pixel having a luminance level with a differentiated value less than a predetermined value is “0” and the other pixels are “255”. This is an example of the binarized image. 401 and 402 are binarized images of the holes 701 and 702, and 403 is a binarized image of the abnormal surface object 703. The surface abnormal object 703 is actually the same as the surrounding black part, but in FIG. 4, it is drawn with diagonal lines to distinguish it from the surrounding black part.
Then, the position coordinates of the foreign matter obtained from the image of FIG. 2A and the position where the bright spot obtained from the image of FIG. Is determined as an internal foreign matter, and a foreign matter at a position that does not match is determined as a surface foreign matter, and the internal foreign matter and the surface foreign matter are identified.

図5において、ステップ501では、図7(a) の焦点位置で画像 ImA を取得する。
ステップ502では、図7(a) の焦点位置での2値化閾値 ThA を入力機器またはメモリから読出す。メモリは、例えば、本処理動作を実行する制御用パーソナルコンピュータ(後述)に内蔵されているか、または外付けの記憶装置である。また、入力機器は、制御用パーソナルコンピュータと操作者とのマンマシンインタフェースであって、例えば、キーボード、ポインティングデバイス、操作パネル等である。
ステップ503では、画像 ImA について読込んだ2値化閾値 ThA を使って2値化処理し、2値化画像 BimA を算出する。即ち、例えば、画素毎に、輝度レベルが2値化閾値 ThA 未満の画素を、“ 0 ”とし、輝度レベルが2値化閾値 ThA 以上の画素を、“ 255 ”に設定する(輝度レベルの最小値が“ 0 ”で最大値が“ 255 ”の場合)。
ステップ504では、2値化画像 BimA から、輝度レベルが2値化閾値 ThA 未満の画素のかたまりについてラベリング処理を行う。
ステップ505では、ステップ504のラベリング処理で作成された各ラベルの画像上の位置座標 Pn をメモリに記憶する。ここで、n は整数で、n ≧ 0 である。
In FIG. 5, in step 501, an image ImA is acquired at the focal position shown in FIG.
In step 502, the binarization threshold ThA at the focal position in FIG. 7A is read from the input device or memory. The memory is, for example, a built-in control personal computer (described later) that executes this processing operation, or an external storage device. The input device is a man-machine interface between a control personal computer and an operator, such as a keyboard, a pointing device, and an operation panel.
In step 503, binarization processing is performed using the binarization threshold ThA read for the image ImA, and a binarized image BimA is calculated. That is, for example, for each pixel, a pixel whose luminance level is less than the binarization threshold ThA is set to “0”, and a pixel whose luminance level is equal to or higher than the binarization threshold ThA is set to “255” (the minimum luminance level). When the value is “0” and the maximum value is “255”).
In step 504, a labeling process is performed on a cluster of pixels having a luminance level less than the binarization threshold ThA from the binarized image BimA.
In step 505, the position coordinate Pn on the image of each label created by the labeling process in step 504 is stored in the memory. Here, n is an integer, and n ≧ 0.

ステップ506では、図7(b) の焦点位置に試料を移動する。
ステップ507では、図7(b) の焦点位置で画像 ImB を取得する。
ステップ508では、画像 ImB の輝度レベルを画素毎に微分し、微分値を画像 ImBd として取得する。
ステップ509では、2値化閾値 ThB を入力機器またはメモリから読出す。
ステップ510では、画像 ImBd について読込んだ2値化閾値 ThB を使って2値化処理し、2値化画像 BimB を算出する。即ち、例えば、画素毎に、輝度レベルが2値化閾値 ThB 未満の画素を、“ 0 ”とし、輝度レベルが2値化閾値 ThB 以上の画素を、“ 255 ”に設定する(輝度レベルの最小値が“ 0 ”で最大値が“ 255 ”の場合)。
ステップ511では、2値化画像 BimB から、輝度レベルが2値化閾値 ThB 未満の画素のかたまりについてラベリング処理を行う。
ステップ512では、ステップ511のラベリング処理で作成された各ラベルの画像上の位置座標 pk をメモリに記憶する。ここで、k は整数で、k ≧ 0 である。
In step 506, the sample is moved to the focal position shown in FIG.
In step 507, an image ImB is acquired at the focal position shown in FIG.
In step 508, the luminance level of the image ImB is differentiated for each pixel, and the differential value is acquired as an image ImBd.
In step 509, the binarization threshold ThB is read from the input device or memory.
In step 510, binarization processing is performed using the binarization threshold ThB read for the image ImBd, and a binarized image BimB is calculated. That is, for example, for each pixel, a pixel whose luminance level is less than the binarization threshold ThB is set to “0”, and a pixel whose luminance level is the binarization threshold ThB or more is set to “255” (minimum luminance level). When the value is “0” and the maximum value is “255”).
In step 511, a labeling process is performed on a cluster of pixels having a luminance level less than the binarization threshold ThB from the binarized image BimB.
In step 512, the position coordinate pk on the image of each label created by the labeling process in step 511 is stored in the memory. Here, k is an integer, and k ≧ 0.

ステップ513では、すべての位置座標 Pn と全ての位置座標 pk の値をそれぞれ比較して、位置座標 Pn が位置座標 pk に所定の範囲以内であればステップ514に進み、所定の範囲以上であればステップ515に進む。例えば、位置座標 Pn と位置座標 pk の間の2点間距離の最小値を算出し、2点間距離の最小値が所定の値以内であれば所定の範囲以内とする。
例えば、位置座標 P1 と位置座標 p1 〜 pk とを次々と比較し、位置座標 p1 〜 pk のいずれかが位置座標 P1 とほぼ一致するか否かを調べる。
ステップ514では、所定の範囲以内にある位置座標の値の組合わせ Pn と pk とを対象の異物として抽出し、内部異物として記憶する。
ステップ515では、全ての位置座標 Pn について、位置座標 pk の組合わせについて比較が終了したか否かを判定し、終了していれば、位置座標 pk と関連付けられなかった位置座標 Pn を表面異物として記憶し、この識別処理動作を終了する。全ての比較が終了していなければ、ステップ513に戻り識別処理を続ける。
この結果、例えば、試料に加工した穴の検査をする場合に、試料表面に付着した異物を誤検出することがないため、検出した部分だけを検査できるため、迅速な検査を行うことができる。
In step 513, the values of all the position coordinates Pn and all the position coordinates pk are respectively compared. If the position coordinates Pn are within the predetermined range with respect to the position coordinates pk, the process proceeds to step 514. Proceed to step 515. For example, the minimum value of the distance between two points between the position coordinate Pn and the position coordinate pk is calculated, and if the minimum value of the distance between the two points is within a predetermined value, it is set within the predetermined range.
For example, the position coordinates P1 and the position coordinates p1 to pk are compared one after another to check whether any of the position coordinates p1 to pk substantially matches the position coordinates P1.
In step 514, a combination of position coordinate values Pn and pk within a predetermined range is extracted as a target foreign matter and stored as an internal foreign matter.
In step 515, it is determined whether or not the comparison is completed for the combination of the position coordinates pk for all the position coordinates Pn. If the comparison is completed, the position coordinates Pn that are not associated with the position coordinates pk are set as surface foreign matters. Store, and the identification processing operation ends. If all the comparisons have not been completed, the process returns to step 513 to continue the identification process.
As a result, for example, when a hole processed in a sample is inspected, foreign matter adhering to the surface of the sample is not erroneously detected, and only the detected portion can be inspected, so that a quick inspection can be performed.

本発明の識別方法を実施するための装置の一実施例を図6によって説明する。図6は、本発明の一実施例の識別装置の構成を示すブロック図である。図6の識別装置は、検査対象物(試料)の表面に付着した異物と試料の表面から内部に向かって開いた穴を判別し、穴の開いた位置とその分布を検査する機能を兼ねている。   An embodiment of an apparatus for carrying out the identification method of the present invention will be described with reference to FIG. FIG. 6 is a block diagram showing the configuration of the identification device according to one embodiment of the present invention. 6 discriminates foreign matter adhering to the surface of the object to be inspected (sample) and holes opened from the surface of the sample toward the inside, and also has a function of inspecting the position and distribution of the holes. Yes.

101は顕微鏡、102は対物レンズを切替えるためのレボルバー、103はオートフォーカス光学ユニット、120は光学像、604はカメラ、111は制御用パーソナルコンピュータである。カメラ604は、例えば、CCD等の撮像素子を備え、顕微鏡101から入射する光(光学像120)を電気信号に変換して制御用パーソナルコンピュータ111に出力する。
また、107はX軸ステージ、108はY軸ステージ、109はZ軸ステージ、106はY軸ステージ108上に載置した検査対象物(試料)である。X軸ステージ107とY軸ステージ108は、Z軸ステージ109上に配置されXY軸方向、Z軸方向の移動が可能で観察位置を制御できる。試料106は、Y軸ステージ108上に載置されているため、X,Y,Zステージの移動に伴って、X軸方向,Y軸方向,Z軸方向に移動する。
Reference numeral 101 denotes a microscope, 102 denotes a revolver for switching the objective lens, 103 denotes an autofocus optical unit, 120 denotes an optical image, 604 denotes a camera, and 111 denotes a control personal computer. The camera 604 includes, for example, an image sensor such as a CCD, converts light (optical image 120) incident from the microscope 101 into an electrical signal, and outputs the electrical signal to the control personal computer 111.
Reference numeral 107 denotes an X-axis stage, 108 denotes a Y-axis stage, 109 denotes a Z-axis stage, and 106 denotes an inspection object (sample) placed on the Y-axis stage 108. The X-axis stage 107 and the Y-axis stage 108 are arranged on the Z-axis stage 109, can move in the XY-axis direction and the Z-axis direction, and can control the observation position. Since the sample 106 is placed on the Y-axis stage 108, the sample 106 moves in the X-axis direction, the Y-axis direction, and the Z-axis direction as the X, Y, and Z stages move.

116は反射照明、117と118はハーフミラー、122はレーザ光である。
反射照明光116は、図6に示すように、顕微鏡101の横方向から入射して、ハーフミラー117で反射してレボルバー102に取付けられた対物レンズ(図示しない)を通って試料106の表面を照射する。照射された光によって試料106は反射光(光学像120)を出し、対物レンズを通って顕微鏡に入射する。即ち、対物レンズを通った光は、ハーフミラー117、118を通過して、光学像120として図示しない結像レンズによってカメラ604の結像面位置(光電変換面)で結像する。カメラ604は光学像120を画像データに変換して制御用パーソナルコンピュータ111に出力する。
Reference numeral 116 denotes reflected illumination; 117 and 118, half mirrors; 122, laser light.
As shown in FIG. 6, the reflected illumination light 116 enters from the lateral direction of the microscope 101, is reflected by the half mirror 117, passes through the objective lens (not shown) attached to the revolver 102, and passes through the surface of the sample 106. Irradiate. The sample 106 emits reflected light (optical image 120) by the irradiated light, and enters the microscope through the objective lens. That is, the light that has passed through the objective lens passes through the half mirrors 117 and 118 and forms an image as an optical image 120 at an imaging plane position (photoelectric conversion plane) of the camera 604 by an imaging lens (not shown). The camera 604 converts the optical image 120 into image data and outputs it to the control personal computer 111.

110はステージ制御ユニット、112は制御用パーソナルコンピュータ111内に実装された位置制御ボードである。ステージ制御ユニット110は、位置制御ボード112からの指令でステージ機構(X軸ステージ107、Y軸ステージ108、及びZ軸ステージ109)の制御を行う。   Reference numeral 110 denotes a stage control unit, and 112 denotes a position control board mounted in the control personal computer 111. The stage control unit 110 controls the stage mechanism (the X-axis stage 107, the Y-axis stage 108, and the Z-axis stage 109) according to a command from the position control board 112.

113は画像入力ボードで、制御用パーソナルコンピュータ111内に実装されており、第1のカメラ104と第2のカメラ105が取得した画像の取込みを行う。114はディスプレイで、この検査装置の制御画面、取込んだ画像、処理画像の少なくとも1つを表示する。
115はオートフォーカス制御ユニットで、オートフォーカス光学ユニット103とステージ制御ユニット110、Z軸ステージ109の組合せで第1のカメラ104のフォーカスを検査対象物106の表面に合わせる。即ち、オートフォーカス制御ユニット115は、オートフォーカス光学ユニット103からレーザ光を出力させ、ハーフミラー118で試料106の表面に直角に照射させ、反射したレーザ光を検知させ、焦点が合っていなければ、ステージ制御ユニット110に誤差信号を出力する。ステージ制御ユニット110は、入力された誤差信号に対応して、Zステージ109に制御信号を送る。Zステージ109は、入力された制御信号に応じてステージを上下動する。
An image input board 113 is mounted in the control personal computer 111 and captures images acquired by the first camera 104 and the second camera 105. Reference numeral 114 denotes a display that displays at least one of a control screen of the inspection apparatus, a captured image, and a processed image.
Reference numeral 115 denotes an autofocus control unit, which focuses the first camera 104 on the surface of the inspection object 106 by a combination of the autofocus optical unit 103, the stage control unit 110, and the Z-axis stage 109. That is, the autofocus control unit 115 outputs laser light from the autofocus optical unit 103, irradiates the surface of the sample 106 at a right angle with the half mirror 118, detects the reflected laser light, and is not in focus. An error signal is output to the stage control unit 110. The stage control unit 110 sends a control signal to the Z stage 109 in response to the input error signal. The Z stage 109 moves the stage up and down according to the input control signal.

制御用パーソナルコンピュータ111は、カメラ604から画像入力ボード113を介して入力された画像を処理し、ディスプレイ114に表示画像を出力する。また、制御用パーソナルコンピュータ111は、オートフォーカス制御ユニット115からフォーカス情報をもらい、ディスプレイ114に表示したり、画像解析のデータとして使用する。また、制御用パーソナルコンピュータ111は、設定されたプログラムに応じて焦点距離の変更情報をオートフォーカス制御ユニット115に出力して焦点位置を変更する。また、制御用パーソナルコンピュータ111は、レボルバー102に信号を送り、レボルバー102に取付けられた対物レンズを入力機器またはメモリから読出した指定された倍率の対物レンズに変更する。   The control personal computer 111 processes an image input from the camera 604 via the image input board 113 and outputs a display image to the display 114. The control personal computer 111 receives focus information from the autofocus control unit 115 and displays it on the display 114 or uses it as data for image analysis. In addition, the control personal computer 111 outputs focal length change information to the autofocus control unit 115 according to the set program to change the focal position. Also, the control personal computer 111 sends a signal to the revolver 102 to change the objective lens attached to the revolver 102 to an objective lens with a designated magnification read from the input device or memory.

上記図5の実施例では、焦点位置を試料上表面より下方向にずらして撮像した画像について、微分画像を求めてから閾値を用いて2値化した画像についてラベリングしていた。しかし、試料の表面に合焦点して撮像した画像と試料の表面より下に合焦点して撮像した画像のどちらを微分しても良いし、両方とも微分した画像について2値化しても良いし、また両方とも微分しないで2値化しても良い。図10によって、図3で示した焦点位置を試料上表面より下方向にずらして撮像した画像について、所定の閾値で2値化した場合の輝度プロファイルと閾値ThB′との関係の一例を示す。   In the embodiment of FIG. 5 above, the image obtained by shifting the focal position downward from the upper surface of the sample and labeling the image binarized using the threshold after obtaining the differential image. However, either the image picked up by focusing on the surface of the sample or the image picked up by focusing below the surface of the sample may be differentiated, or both of the differentiated images may be binarized. Alternatively, both may be binarized without differentiation. FIG. 10 shows an example of the relationship between the luminance profile and the threshold ThB ′ in the case where the image captured by shifting the focal position shown in FIG. 3 downward from the upper surface of the sample and binarized with a predetermined threshold.

また、焦点位置を変更して取得する画像の数は、2つに限るわけではなく、例えば、更に、焦点位置を下方または上方(表面より上の場合もある)にして取得した画像を用いて複数の画像の論理計算によって異物の識別を行っても良いことは自明である。多数回の焦点位置変更は、例えば、半導体や絶縁体基板上に複数のパターン膜を生成して重ねた場合のそれぞれの膜についての異物の解析に有効である。また、搭載部品の高さが異なる部品についてそれぞれの高さごとに異物があるか否かの検査のために本発明の識別方法が適用可能である。   In addition, the number of images acquired by changing the focal position is not limited to two. For example, using images acquired with the focal position downward or upward (in some cases, above the surface). Obviously, foreign matter may be identified by logical calculation of a plurality of images. For example, when the focal position is changed many times, it is effective for analyzing foreign matter on each film when a plurality of pattern films are generated and stacked on a semiconductor or insulator substrate. In addition, the identification method of the present invention can be applied to inspect whether there is a foreign object for each height of components having different heights of the mounted components.

図8によって、両方とも微分しないで2値化する方法の一実施例の処理を説明する。図8は、本発明の一実施例の処理動作例を示すフローチャートである。
図8において、図5と同一の処理には同一のステップ番号を付与した。図8のフローチャートは、図5のフローチャートのステップ508を削除し、ステップ510をステップ810に変更したものである。
図5で説明した処理については、説明を省略する。
図5と同様な処理によってステップ501からステップ507の処理が終り、ステップ509に進むと、図5と同様に、ステップ509では、2値化閾値 ThB′を入力機器またはメモリから読出す。
そして次のステップ810では、ステップ507で取得した画像 ImB について、読込んだ2値化閾値 ThB′を使って2値化処理し、2値化画像 BimB を算出する。ステップ511では、2値化画像 BimB から、輝度レベルが2値化閾値 ThB′未満の画素のかたまりについてラベリング処理を行う。
以降、ステップ512からの処理は図5と同様である。
With reference to FIG. 8, the processing of one embodiment of a method for binarizing without differentiating both will be described. FIG. 8 is a flowchart showing an example of processing operation according to an embodiment of the present invention.
In FIG. 8, the same step number is assigned to the same process as in FIG. In the flowchart of FIG. 8, step 508 of the flowchart of FIG. 5 is deleted, and step 510 is changed to step 810.
Description of the processing described in FIG. 5 is omitted.
When the processing from step 501 to step 507 is completed by the same processing as in FIG. 5 and proceeds to step 509, the binarization threshold ThB ′ is read from the input device or memory in step 509 as in FIG.
In the next step 810, the image ImB acquired in step 507 is binarized using the read binarization threshold ThB 'to calculate the binarized image BimB. In step 511, a labeling process is performed on a cluster of pixels having a luminance level less than the binarization threshold ThB ′ from the binarized image BimB.
Thereafter, the processing from step 512 is the same as in FIG.

図9を用いて、本発明の異物識別方法の他の実施例について説明する。図9は、本発明の一実施例の原理を説明するための図である。図9の実施例は、図7で説明した識別方法が、焦点位置を変えて少なくとも2回撮像するため、識別に時間がかかることを改善する方法である。即ち、図9に示すように、複数の撮像装置を備え、同時に焦点位置の異なる画像を取得するものである。
図9において、図7と同一の機能のものには、同一の参照番号を付した。その他、707′はカメラAの撮像面、807はカメラBの撮像面、808は光軸、806は接眼レンズ、801は結像面位置、119はハーフミラーである。
Another embodiment of the foreign matter identifying method of the present invention will be described with reference to FIG. FIG. 9 is a diagram for explaining the principle of one embodiment of the present invention. The embodiment of FIG. 9 is a method for improving that the identification method described with reference to FIG. 7 takes a long time for identification because the imaging is performed at least twice by changing the focal position. That is, as shown in FIG. 9, a plurality of imaging devices are provided, and images having different focal positions are acquired simultaneously.
9, components having the same functions as those in FIG. 7 are denoted by the same reference numerals. In addition, 707 'is the imaging surface of the camera A, 807 is the imaging surface of the camera B, 808 is the optical axis, 806 is the eyepiece, 801 is the image plane position, and 119 is the half mirror.

図9において、カメラAの動作は、図7(a) におけるカメラと同一である。即ち、カメラAが、カメラA撮像面707′で取得する画像は、検査対象物である試料106の上表面に焦点が合っている。これに対して、カメラBの場合は、ハーフミラー119が試料から反射する光を2つに分岐し、一方は従来どおり接眼レンズ706によってカメラA撮像面707′で結像するように設置するのに対し、他方が接眼レンズ806によって結像面位置801で結像するようにし、かつ、カメラB撮像面807を結像面位置801より前ピン位置に設けている。
これによって、試料106上表面に合焦点している画像とそれ以外の焦点位置にある画像とを同時に別のカメラで取得できる。
図9の実施例では、カメラB撮像面807を結像面位置801より前ピン位置に設けているが、結像面位置801より後ピン位置に設けても良いし、カメラA撮像面707′とカメラB撮像面807の焦点位置は相対的に異なればよいので、どちらが基準ということはないことは自明である。
また、図7の実施例のように、更に、Zステージの位置を変更することにより、更に焦点位置の組合わせのバリエーションを多くすることができ、解析に多様な処理方法を適用できる。
In FIG. 9, the operation of the camera A is the same as that of the camera in FIG. That is, the image acquired by the camera A on the camera A imaging surface 707 ′ is focused on the upper surface of the sample 106 that is the inspection object. On the other hand, in the case of the camera B, the half mirror 119 splits the light reflected from the sample into two, and one is installed so that an image is formed on the camera A imaging surface 707 ′ by the eyepiece lens 706 as in the past. On the other hand, the other image is formed by the eyepiece lens 806 at the imaging plane position 801, and the camera B imaging plane 807 is provided at the front pin position from the imaging plane position 801.
As a result, an image focused on the upper surface of the sample 106 and an image at another focal position can be simultaneously acquired by another camera.
In the embodiment of FIG. 9, the camera B imaging surface 807 is provided at the front pin position from the imaging plane position 801, but it may be provided at the rear pin position from the imaging plane position 801, or the camera A imaging plane 707 ′. Since the focal positions of the camera B imaging surface 807 need only be relatively different, it is obvious that neither is the reference.
Further, as in the embodiment of FIG. 7, by changing the position of the Z stage, it is possible to further increase the variation of combinations of focal positions, and various processing methods can be applied to the analysis.

図9の具体的な実施例を図1によって説明する。図1は、本発明の一実施例の識別装置の構成を示すブロック図である。図1の識別装置は、検査対象物(試料)の表面に付着した異物と試料の表面から内部に向かって開いた穴を判別し、穴の開いた位置とその分布を検査するための装置に含まれている。図6と同一の機能のものには同一の参照番号を付した。その他、104はカメラA、105はカメラB、119はハーフミラー、121はハーフミラー119で分光されたカメラB105に入射する光学像である。   A specific embodiment of FIG. 9 will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of an identification apparatus according to an embodiment of the present invention. The identification device of FIG. 1 is a device for discriminating foreign matters adhering to the surface of an inspection object (sample) and holes opened from the surface of the sample toward the inside, and inspecting the positions and distribution of the holes. include. Components having the same functions as those in FIG. 6 are denoted by the same reference numerals. In addition, 104 is a camera A, 105 is a camera B, 119 is a half mirror, and 121 is an optical image incident on the camera B 105 dispersed by the half mirror 119.

図1において、カメラA104は、図1で説明したカメラ604と同一の機能と役割を有し、試料106の上表面に合焦点された画像(光学像120)を取得し、制御用パーソナルコンピュータ111に出力する。この場合、図9で説明したように、光学像120が接眼レンズ706によってカメラA撮像面707′で結像するように設置する。同様に、カメラB105は、試料106の上表面より下方向の位置に合焦点された画像(光学像121)を取得し、制御用パーソナルコンピュータ111に出力する。この場合、図9で説明したように、光学像121が接眼レンズ806によってカメラB撮像面807より後方で結像するように設置する。   In FIG. 1, the camera A 104 has the same function and role as the camera 604 described in FIG. 1, acquires an image (optical image 120) focused on the upper surface of the sample 106, and controls the personal computer 111. Output to. In this case, as described with reference to FIG. 9, the optical image 120 is installed so as to form an image on the camera A imaging surface 707 ′ with the eyepiece lens 706. Similarly, the camera B 105 acquires an image (optical image 121) focused at a position below the upper surface of the sample 106 and outputs it to the control personal computer 111. In this case, as described in FIG. 9, the optical image 121 is installed so as to form an image behind the camera B imaging surface 807 by the eyepiece 806.

図2のような画像と、これと焦点位置の異なる図3のような画像を用いることで、試料のテンプレート等の事前情報なしに、かつ、試料面下に形成された異物と、表面に付着した異物とを識別し、検査不要のものは検査対象から除外できるため、検査準備時間及び検査時間を短くできる。   By using the image as shown in FIG. 2 and the image as shown in FIG. 3 having a different focal position, there is no prior information such as the template of the sample, and the foreign matter formed below the sample surface and attached to the surface. Therefore, the inspection preparation time and the inspection time can be shortened.

本発明の一実施例として、試料に貫通した穴を検出する手順の一例を以下に述べる。
手順1. 試料表面に焦点を合わせた画像を取得し、この画像を2値化処理して、黒点を検出し、その画像上の座標を求める。検出に際しては、2値化閾値を黒点判別する面積閾値は可変で設定可能なものとする。
手順2. 試料裏面に近い位置に焦点を合わせた画像を取得し、手順1で求めた黒点の座標を中心に検査ウインドを設定し、ウインド内の微分画像を求める。手順1で黒点が複数存在する場合は、検査ウインドは複数となる。また、ウインドのサイズは可変とし設定可能とする。一般に、検査ウインドのサイズは検出する貫通穴の予想される傾きによって定める。傾きが小さい場合は、ウインドサイズも小さく、傾きが大きくなると大きく設定する必要がある。
手順3. 手順2で求めた各微分画像のうち、微分値が大きくなる位置を検出し画像上の座標を求める。検出に際して閾値となる微分値は可変で設定可能なものとする。貫通穴であれば、手順1及び手順3で共通に(論理積)検出されることが条件となる。このため、処理順序を試料表面に焦点を合わせた画像、試料裏面付近に焦点を合わせた画像の順で行う。ここで、共通に検出される条件は画像上の座標情報で、穴が傾きを持つことと装置の構成上考えられる画像のずれを考慮した範囲を持った一致検出とする。
手順4. 共通に検出させるものがある場合は、試料表面と試料裏面の間、例えば中間付近に焦点を合わせた画像で、共通に検出された点に対し検査ウインドを設定し、検査ウインド内の微分画像を求める。
手順5. 手順4で求めた各微分画像のうち、微分値が大きくなる位置を検出する。ここで、検出される点を貫通穴とする。
手順4以降の処理は、試料表面、試料裏面共に付着した異物、傷等が想定されるため検出信頼性を向上するために行う。
また、手順4以降の処理を繰返し実行することで検出信頼性の向上が見込める。
As an embodiment of the present invention, an example of a procedure for detecting a hole penetrating a sample will be described below.
Procedure 1. An image focused on the sample surface is acquired, this image is binarized, black spots are detected, and coordinates on the image are obtained. At the time of detection, it is assumed that the area threshold value for determining the black point as the binarization threshold value can be set variably.
Procedure 2. An image focused on a position close to the back surface of the sample is obtained, an inspection window is set around the coordinates of the black spot obtained in step 1, and a differential image in the window is obtained. When there are a plurality of black spots in the procedure 1, there are a plurality of inspection windows. The window size is variable and can be set. In general, the size of the inspection window is determined by the expected inclination of the through hole to be detected. When the inclination is small, the window size is also small, and when the inclination is large, it is necessary to set it large.
Procedure 3. Among the differential images obtained in the procedure 2, the position where the differential value becomes large is detected and the coordinates on the image are obtained. It is assumed that the differential value serving as a threshold value at the time of detection is variable and can be set. If it is a through hole, it is a condition that it is detected in common in the procedure 1 and procedure 3 (logical product). For this reason, the processing order is performed in the order of an image focused on the sample surface and an image focused on the vicinity of the sample back surface. Here, the condition to be detected in common is coordinate information on the image, and coincidence detection having a range in consideration of the inclination of the hole and the image shift considered in the configuration of the apparatus.
Procedure 4. If there is something to be detected in common, set the inspection window for the points detected in common between the sample surface and the back of the sample, for example, near the middle, and display the differential image in the inspection window. Ask.
Procedure 5. Among the differential images obtained in step 4, the position where the differential value is large is detected. Here, let the detected point be a through hole.
The processing after the procedure 4 is performed in order to improve detection reliability because foreign matter, scratches, etc. adhering to both the sample surface and the sample back surface are assumed.
Further, it is expected that the detection reliability can be improved by repeatedly executing the processing after the procedure 4.

図11と図12によって、本発明の他の実施例の識別装置を説明する説明する。図11は、本発明の一実施例の識別装置の構成を示すブロック図である。また図12は、シリコン等の結晶で作られた半導体ウエハの断面の一部を示す図で、ウエハの表面、裏面及びバルク内に存在する欠陥、傷、穴等を模式的に表している。
図11の識別装置は、検査対象物(試料、例えば、図12)の表面に付着した異物と試料の表面から内部に向かって開いた穴を判別し、穴の開いた位置とその分布を検査するための装置に含まれている。図11の装置には、カメラが3台(カメラ1、カメラ2、カメラ3)が備えられ、図12にその一部を断面図で示すような半導体ウエハ内または表面または裏面等に存在する貫通孔、へこみ等の傷、異物、等を検出するものである。図11において、図1または図6に記載したようなオートフォーカスユニット、ステージ制御ユニット、制御用PC、ディスプレイ、及びそれらとの間を結ぶケーブル等の配線は省略している。
With reference to FIG. 11 and FIG. 12, a description will be given of an identification apparatus according to another embodiment of the present invention. FIG. 11 is a block diagram showing the configuration of the identification device according to one embodiment of the present invention. FIG. 12 is a view showing a part of a cross section of a semiconductor wafer made of a crystal such as silicon, and schematically shows defects, scratches, holes, etc. existing in the front surface, back surface and bulk of the wafer.
11 discriminates foreign matter adhering to the surface of an inspection object (sample, for example, FIG. 12) and holes opened from the surface of the sample toward the inside, and inspects the positions and distribution of the holes. Included in the device to do. The apparatus shown in FIG. 11 is provided with three cameras (camera 1, camera 2, camera 3). A part of the camera is shown in a sectional view in FIG. This is to detect flaws such as holes and dents, foreign matters, and the like. In FIG. 11, wiring such as an autofocus unit, a stage control unit, a control PC, a display, and a cable connecting between them as shown in FIG. 1 or FIG. 6 is omitted.

図11において、カメラ1〜カメラ3は、例えば 2000 × 2000 画素の高解像度カメラであり、光学顕微鏡から得られる試料の像をミラー5、6及びハーフミラー7、8で分岐して、それぞれ撮像する。このとき、それぞれのカメラの結像面は、例えば図12に示すように、カメラ1が試料の表面、カメラ2が試料の表面から1/3ほど中に入った位置、カメラ3が試料の表面から2/3ほど中に入った位置である。これらの位置は、事前に設定できるか、または、測定対象の試料の種類や厚さに応じて変更できる。   In FIG. 11, cameras 1 to 3 are high-resolution cameras having, for example, 2000 × 2000 pixels, and images of the sample obtained from the optical microscope are branched by mirrors 5 and 6 and half mirrors 7 and 8 and captured. . At this time, as shown in FIG. 12, for example, the imaging plane of each camera is such that the camera 1 is on the surface of the sample, the camera 2 is about 1/3 from the surface of the sample, and the camera 3 is on the surface of the sample. It is the position which entered in about 2/3. These positions can be set in advance or can be changed according to the type and thickness of the sample to be measured.

図13〜図15によって、図12に示す貫通孔(貫通穴)の検出結果を目視の結果と比較して説明する。図13は、試料としての半導体ウエハ(例えば、シリコンウエハ、直径約 50 mm )と評価範囲の関係を示す図である。また、図14は、図13に示した試料の評価範囲について、本発明の一実施例の画像処理方法及び装置を使用して得られた貫通穴の検出結果の一例を示す図である。また、図15は同じ試料の同じ評価範囲を目視で貫通穴を検出した結果を示す図である。   The detection result of the through hole (through hole) shown in FIG. 12 is compared with the result of visual observation with reference to FIGS. FIG. 13 is a diagram showing a relationship between a semiconductor wafer (for example, a silicon wafer, a diameter of about 50 mm) as a sample and an evaluation range. Moreover, FIG. 14 is a figure which shows an example of the detection result of the through-hole obtained using the image processing method and apparatus of one Example of this invention about the evaluation range of the sample shown in FIG. Moreover, FIG. 15 is a figure which shows the result of having detected the through-hole visually in the same evaluation range of the same sample.

図13〜図15においては、視野を約 1 mm × 1 mm(対物レンズ 10 倍を使用)とし、照明方式は透過照明、撮像に使用したカメラ解像度は 2000 × 2000 画素、評価範囲の観察視野数を約 1900 視野(目視にて確認、全視野の画像を記録)、評価範囲は約 15 × 15 視野(図14に示すように画像処理シミュレーションを実施)である。また、図14の画像処理は、表面及び異なる内部層(例えば、図12の表面、A 面、B 面)に焦点を合わせた画像で共通に検出された対象を貫通穴としてカウントした。
以上の結果、貫通穴の検出率を 95 %以上にすることができた。
また、画像処理の過程で、貫通穴と区別して、ウエハ表面の異物、傷やウエハ中の気泡、欠陥、等を検出することができた。
13 to 15, the field of view is about 1 mm × 1 mm (10x objective lens is used), the illumination method is transmitted illumination, the camera resolution used for imaging is 2000 × 2000 pixels, and the number of observation fields in the evaluation range Is about 1900 fields of view (confirmed by visual observation and recording images of all fields of view), and the evaluation range is about 15 × 15 fields of view (image processing simulation is performed as shown in FIG. 14). Further, in the image processing of FIG. 14, objects commonly detected in images focused on the surface and different inner layers (for example, the surface, A surface, and B surface in FIG. 12) were counted as through holes.
As a result, the through-hole detection rate could be increased to 95% or higher.
Further, in the course of image processing, it was possible to detect foreign matters on the wafer surface, scratches, bubbles in the wafer, defects, etc., as distinguished from through holes.

試料のどの高さに異物等の検査すべき対象が有るかが予め分かっている場合には、本発明の識別方法を用いて、対象の識別や特定を行いその対象の位置座標を記憶し、その後、識別装置を兼ねた検査装置または測定装置を用いて、識別や特定をした対象の検査または測定を行うことができる。また、本発明の識別装置によって対象を識別した位置座表等のデータをもとに、別の検査装置または想定装置で、検査または測定を行うことが容易に可能である。   When it is known in advance at which height of the sample there is an object to be inspected such as a foreign object, the identification method of the present invention is used to identify and identify the object and store the position coordinates of the object, Thereafter, using the inspection device or the measurement device that also serves as the identification device, it is possible to inspect or measure the identified or specified object. In addition, it is possible to easily perform inspection or measurement with another inspection device or assumed device based on data such as a position table that identifies the object by the identification device of the present invention.

本発明の一実施例の識別装置の構成を示すブロック図。The block diagram which shows the structure of the identification device of one Example of this invention. 本発明の原理の一例を説明するための図。The figure for demonstrating an example of the principle of this invention. 本発明の原理の一例を説明するための図。The figure for demonstrating an example of the principle of this invention. 本発明の原理の一例を説明するための図。The figure for demonstrating an example of the principle of this invention. 本発明の一実施例の処理動作例を示すフローチャート。The flowchart which shows the processing operation example of one Example of this invention. 本発明の一実施例の識別装置の構成を示すブロック図。The block diagram which shows the structure of the identification device of one Example of this invention. 本発明の原理の一例を説明するための図。The figure for demonstrating an example of the principle of this invention. 本発明の一実施例の処理動作例を示すフローチャート。The flowchart which shows the processing operation example of one Example of this invention. 本発明の一実施例の原理を説明するための図。The figure for demonstrating the principle of one Example of this invention. 本発明の原理の一例を説明するための図。The figure for demonstrating an example of the principle of this invention. 本発明の一実施例の識別装置の構成を示すブロック図。The block diagram which shows the structure of the identification device of one Example of this invention. 半導体ウエハの断面の一部を示す図。The figure which shows a part of cross section of a semiconductor wafer. 試料と評価範囲の関係を示す図。The figure which shows the relationship between a sample and an evaluation range. 本発明の一実施例の画像処理方法及び装置を使用して得られた貫通穴の検出結果の一例を示す図。The figure which shows an example of the detection result of the through-hole obtained using the image processing method and apparatus of one Example of this invention. 目視で貫通穴を検出した結果を示す図。The figure which shows the result of having detected the through-hole visually.

符号の説明Explanation of symbols

101:顕微鏡、 102:レボルバー、 103:オートフォーカス光学ユニット、 104:カメラA、 105:カメラB、 106:試料、 107:X軸ステージ、 108:Y軸ステージ、 109:Z軸ステージ、 110:ステージ制御ユニット、 111:制御用パーソナルコンピュータ、 112:位置制御ボード、 113:画像入力ボード、 116:反射照明光、117,118,119:ハーフミラー、 120,121:光学像、 122:レーザ光、 201,202:穴の画像、 203:異物の画像、 204:輝度プロファイル、 301,302:穴の画像、 303:異物の画像、 304:輝度プロファイル、 701,702:内部異物、 703:表面異物、 704:カメラフォーカス面、 705:対物レンズ、 706:接眼レンズ、 707:カメラ撮像面、 708:光軸。   101: Microscope, 102: Revolver, 103: Autofocus optical unit, 104: Camera A, 105: Camera B, 106: Sample, 107: X axis stage, 108: Y axis stage, 109: Z axis stage, 110: Stage Control unit, 111: personal computer for control, 112: position control board, 113: image input board, 116: reflected illumination light, 117, 118, 119: half mirror, 120, 121: optical image, 122: laser light, 201 , 202: Hole image, 203: Foreign object image, 204: Luminance profile, 301, 302: Hole image, 303: Foreign object image, 304: Luminance profile, 701, 702: Internal foreign object, 703: Surface foreign object, 704 : Camera focus surface, 705: Pair Lens, 706: eyepiece, 707: camera imaging plane, 708: optical axis.

Claims (2)

顕微鏡装置と撮像装置を用い、検査対象物の基準となる焦点位置で基準画像取得し、該焦点位置と異なる少なくとも1つの焦点位置で異なる焦点位置の画像を取得し、取得したそれらの画像を比較して、比較結果から、上記基準となる焦点位置より上にある異物と下にある異物とを識別することを特徴とする異物識別方法。 Using a microscope device and an imaging device, obtain a reference image at the focal position that serves as a reference for the inspection object, obtain images of different focal positions at at least one focal position different from the focal position, and compare the obtained images Then, from the comparison result, a foreign matter identification method characterized by identifying foreign matter above and below the reference focal position. 検査対象物を載せるステージを有する顕微鏡装置と、該顕微鏡装置で拡大された上記検査対象物の拡大画像を撮影する撮像装置と、上記ステージを制御する制御装置とを備える異物識別装置において、
上記顕微鏡装置は、上記基準となる焦点位置と異なる焦点位置の少なくとも1つの画像を得るために、上記検査対象物の表面に焦点面を合わせる撮像装置と、これを基準に異なる位置に焦点の合うように第2の撮像装置を備え、
上記撮像装置は上記検査対象物の表面に焦点の合った画像情報を取得し、上記第2の撮像装置は表面と異なる位置に焦点を変えた画像情報を取得し、該焦点がずれた画像情報の微分成分を求め、微分値の大きくなる部分を認識し、前者の画像情報にある部分と認識した微分値の大きくなる部分とを識別することを特徴とする異物識別装置手法。
In a foreign object identification apparatus comprising a microscope apparatus having a stage on which an inspection object is placed, an imaging apparatus that captures an enlarged image of the inspection object magnified by the microscope apparatus, and a control apparatus that controls the stage,
In order to obtain at least one image at a focal position different from the reference focal position, the microscope apparatus focuses on a position different from the imaging apparatus that focuses on the surface of the inspection object. A second imaging device,
The imaging device acquires image information focused on the surface of the inspection object, and the second imaging device acquires image information whose focus is changed to a position different from the surface, and the image information defocused. A foreign substance identification device method characterized in that a differential component of the first image information is obtained, a portion having a larger differential value is recognized, and a portion in the former image information is identified from a portion having a recognized differential value increased.
JP2004094269A 2003-08-25 2004-03-29 Foreign matter identification method and foreign matter identification device Expired - Fee Related JP4523310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004094269A JP4523310B2 (en) 2003-08-25 2004-03-29 Foreign matter identification method and foreign matter identification device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003300248 2003-08-25
JP2004094269A JP4523310B2 (en) 2003-08-25 2004-03-29 Foreign matter identification method and foreign matter identification device

Publications (2)

Publication Number Publication Date
JP2005098970A true JP2005098970A (en) 2005-04-14
JP4523310B2 JP4523310B2 (en) 2010-08-11

Family

ID=34467126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004094269A Expired - Fee Related JP4523310B2 (en) 2003-08-25 2004-03-29 Foreign matter identification method and foreign matter identification device

Country Status (1)

Country Link
JP (1) JP4523310B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024733A (en) * 2005-07-19 2007-02-01 Hitachi High-Technologies Corp Substrate inspection device and substrate inspection method
JP2008076071A (en) * 2006-09-19 2008-04-03 Hitachi High-Technologies Corp Substrate inspecting device and substrate inspection method
JP2010008125A (en) * 2008-06-25 2010-01-14 Toppan Printing Co Ltd Bubble sorting method in glass substrate
JP2011242310A (en) * 2010-05-20 2011-12-01 Hitachi High-Technologies Corp Checking apparatus and checking method
JP2013191990A (en) * 2012-03-13 2013-09-26 Mitsubishi Electric Corp Shading correction chart inspecting method of image sensor using defocusing, inspection device and image sensor
KR20140054134A (en) * 2011-07-28 2014-05-08 케이엘에이-텐코 코포레이션 Detecting defects on a wafer
JP2016540231A (en) * 2013-11-29 2016-12-22 ネックスティン,インコーポレイテッド Wafer image inspection system
US9880107B2 (en) 2009-01-26 2018-01-30 Kla-Tencor Corp. Systems and methods for detecting defects on a wafer

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63313041A (en) * 1987-06-17 1988-12-21 Hitachi Ltd Inspecting device for foreign matter
JPH01260348A (en) * 1988-04-12 1989-10-17 Hitachi Electron Eng Co Ltd Surface inspector for glass disc
JPH0372249A (en) * 1989-08-14 1991-03-27 Fujitsu Ltd X-ray soldering inspecting device
JPH0395444A (en) * 1989-09-07 1991-04-19 Furukawa Electric Co Ltd:The Method for automatic discriminating defect
JPH06213820A (en) * 1993-01-14 1994-08-05 Toshiba Corp Foreign-matter discriminating method
JPH07243981A (en) * 1994-03-07 1995-09-19 Hitachi Electron Eng Co Ltd Switching control method for foreign matter detection threshold value
JPH0835934A (en) * 1994-07-25 1996-02-06 Kobe Steel Ltd Internal-flaw evaluation apparatus of sample
JPH0868618A (en) * 1995-07-17 1996-03-12 Hitachi Ltd System and method for manufacture of semiconductor device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63313041A (en) * 1987-06-17 1988-12-21 Hitachi Ltd Inspecting device for foreign matter
JPH01260348A (en) * 1988-04-12 1989-10-17 Hitachi Electron Eng Co Ltd Surface inspector for glass disc
JPH0372249A (en) * 1989-08-14 1991-03-27 Fujitsu Ltd X-ray soldering inspecting device
JPH0395444A (en) * 1989-09-07 1991-04-19 Furukawa Electric Co Ltd:The Method for automatic discriminating defect
JPH06213820A (en) * 1993-01-14 1994-08-05 Toshiba Corp Foreign-matter discriminating method
JPH07243981A (en) * 1994-03-07 1995-09-19 Hitachi Electron Eng Co Ltd Switching control method for foreign matter detection threshold value
JPH0835934A (en) * 1994-07-25 1996-02-06 Kobe Steel Ltd Internal-flaw evaluation apparatus of sample
JPH0868618A (en) * 1995-07-17 1996-03-12 Hitachi Ltd System and method for manufacture of semiconductor device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4679282B2 (en) * 2005-07-19 2011-04-27 株式会社日立ハイテクノロジーズ Substrate inspection apparatus and substrate inspection method
JP2007024733A (en) * 2005-07-19 2007-02-01 Hitachi High-Technologies Corp Substrate inspection device and substrate inspection method
JP2008076071A (en) * 2006-09-19 2008-04-03 Hitachi High-Technologies Corp Substrate inspecting device and substrate inspection method
JP2010008125A (en) * 2008-06-25 2010-01-14 Toppan Printing Co Ltd Bubble sorting method in glass substrate
US9880107B2 (en) 2009-01-26 2018-01-30 Kla-Tencor Corp. Systems and methods for detecting defects on a wafer
US10605744B2 (en) 2009-01-26 2020-03-31 Kla-Tencor Corp. Systems and methods for detecting defects on a wafer
JP2011242310A (en) * 2010-05-20 2011-12-01 Hitachi High-Technologies Corp Checking apparatus and checking method
KR20190090874A (en) * 2011-07-28 2019-08-02 케이엘에이-텐코 코포레이션 Detecting defects on a wafer
JP2018009995A (en) * 2011-07-28 2018-01-18 ケーエルエー−テンカー コーポレイション Detecting defects on wafer
JP2014521957A (en) * 2011-07-28 2014-08-28 ケーエルエー−テンカー コーポレイション Wafer defect detection
KR102004530B1 (en) 2011-07-28 2019-07-26 케이엘에이-텐코 코포레이션 Detecting defects on a wafer
KR20140054134A (en) * 2011-07-28 2014-05-08 케이엘에이-텐코 코포레이션 Detecting defects on a wafer
KR20210034699A (en) * 2011-07-28 2021-03-30 케이엘에이 코포레이션 Detecting defects on a wafer
KR102232913B1 (en) 2011-07-28 2021-03-30 케이엘에이 코포레이션 Detecting defects on a wafer
KR20220014340A (en) * 2011-07-28 2022-02-04 케이엘에이 코포레이션 Detecting defects on a wafer
KR102356941B1 (en) 2011-07-28 2022-02-08 케이엘에이 코포레이션 Detecting defects on a wafer
KR102407075B1 (en) 2011-07-28 2022-06-08 케이엘에이 코포레이션 Detecting defects on a wafer
JP2013191990A (en) * 2012-03-13 2013-09-26 Mitsubishi Electric Corp Shading correction chart inspecting method of image sensor using defocusing, inspection device and image sensor
JP2016540231A (en) * 2013-11-29 2016-12-22 ネックスティン,インコーポレイテッド Wafer image inspection system

Also Published As

Publication number Publication date
JP4523310B2 (en) 2010-08-11

Similar Documents

Publication Publication Date Title
US10935503B2 (en) Apparatus, method and computer program product for defect detection in work pieces
KR930008773B1 (en) Method and apparatus for detecting circuit pattern detect
US8013989B2 (en) Defects inspecting apparatus and defects inspecting method
JPH0221541B2 (en)
TWI564556B (en) Scratch detection method and apparatus
US20080175466A1 (en) Inspection apparatus and inspection method
JPS6182147A (en) Method and device for inspecting surface
US10157457B2 (en) Optical measurement of opening dimensions in a wafer
JP2005214980A (en) Macro inspection method for wafer and automatic wafer macro inspection device
JP4523310B2 (en) Foreign matter identification method and foreign matter identification device
US20230020684A1 (en) Laser based inclusion detection system and methods
JP2001118899A (en) Inspection apparatus for foreign object and pattern defect
JP2001209798A (en) Method and device for inspecting outward appearance
US8135207B2 (en) Optical inspection tools featuring parallel post-inspection analysis
JP2004301847A (en) Defects inspection apparatus and method
JP2005315792A (en) Defect inspecting/classifying apparatus
Torng et al. Development of an automated optical inspection system for mobile phone panels
JP4408902B2 (en) Foreign object inspection method and apparatus
JP2019066222A (en) Visual inspection device and visual inspection method
US5745239A (en) Multiple focal plane image comparison for defect detection and classification
US20180275063A1 (en) Semiconductor device inspection of metallic discontinuities
JPH11352073A (en) Foreign matter inspection method and apparatus thereof
JPH04174348A (en) Method and device for inspecting defect
JP2011185715A (en) Inspection device and inspection method
KR100505219B1 (en) The apparatus of inspection for flat panel display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100527

R150 Certificate of patent or registration of utility model

Ref document number: 4523310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130604

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140604

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees