WO2010086940A1 - 欠陥検査装置及びその方法 - Google Patents

欠陥検査装置及びその方法 Download PDF

Info

Publication number
WO2010086940A1
WO2010086940A1 PCT/JP2009/006767 JP2009006767W WO2010086940A1 WO 2010086940 A1 WO2010086940 A1 WO 2010086940A1 JP 2009006767 W JP2009006767 W JP 2009006767W WO 2010086940 A1 WO2010086940 A1 WO 2010086940A1
Authority
WO
WIPO (PCT)
Prior art keywords
defect
feature
detection
optical system
image data
Prior art date
Application number
PCT/JP2009/006767
Other languages
English (en)
French (fr)
Inventor
酒井薫
前田俊二
Original Assignee
株式会社日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテクノロジーズ filed Critical 株式会社日立ハイテクノロジーズ
Priority to US13/146,033 priority Critical patent/US20110311126A1/en
Publication of WO2010086940A1 publication Critical patent/WO2010086940A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • G01N2021/95615Inspecting patterns on the surface of objects using a comparative method with stored comparision signal

Definitions

  • the present invention compares an image (detected image) of an object to be inspected obtained using light, laser, electron beam, or the like with a reference image, and detects fine pattern defects, foreign matters, etc. based on the comparison result.
  • the present invention relates to a defect inspection apparatus and method suitable for visual inspection of semiconductor wafers, TFTs, photomasks, and the like.
  • Patent Document 1 Japanese Patent Laid-Open No. 05-264467
  • the difference in brightness due to the difference in film thickness may occur only between specific chips in the wafer, or may occur only in specific patterns in the chip. If the threshold values are adjusted, the overall inspection sensitivity is significantly reduced. Furthermore, it is not preferable for the user to set the threshold value according to the difference in brightness for each local area because the operation becomes complicated.
  • defects there are various types of defects, which can be roughly classified into defects that do not need to be detected (those that can be regarded as normal pattern noise) and defects that should be detected.
  • a defect what is not a defect but erroneously detected as a defect (false report) and normal pattern noise are collectively referred to as a non-defect.
  • appearance inspection it is required to extract only a defect desired by a user from a large number of defects.
  • the appearance of each type of defect often changes depending on the combination of factors that depend on the inspection target, such as material, surface roughness, size, and depth, and factors that depend on the detection system such as illumination conditions. It is difficult to set conditions for extracting only defects.
  • an object of the present invention is to detect a defect desired by a user buried in noise or a defect that does not need to be detected with high sensitivity and high speed without performing complicated threshold setting. It is to provide a defect inspection apparatus and method.
  • the present invention provides an illumination optical system that irradiates an object to be inspected under predetermined optical conditions, and scattered light from the object to be inspected that is irradiated by the illumination optical system under predetermined optical conditions.
  • a defect inspection apparatus including a detection optical system that detects image data under a predetermined detection condition and acquires image data, and a feature calculation unit that calculates features from design data of an input inspection target;
  • a defect candidate detection unit that detects a defect candidate using image data of a corresponding location on the inspection target acquired by the detection optical system and the feature calculated by the feature calculation unit, and the defect candidate detection unit
  • An image processing unit including a defect extraction unit that extracts a highly fatal defect based on the design data feature calculated by the feature calculation unit from the defect candidates detected in step (b).
  • the present invention is characterized in that the image data used in the defect candidate detection unit is a plurality of image data having different optical conditions or image data acquisition conditions acquired by the detection optical system.
  • the defect candidate detection unit may perform a plurality of different defect candidate detection processes in parallel depending on the shape of the pattern formed on the inspection target in parallel.
  • an image acquired by the detection optical system according to a shape of a pattern formed on the inspection target object extracted from design data of the inspection target object One of a plurality of defect candidate detection processes is applied to each area of data.
  • the present invention also provides an illumination optical system that irradiates an object to be inspected under a predetermined optical condition, and scattered light from the object to be inspected that is irradiated with the illumination optical system under a predetermined optical condition under a predetermined detection condition.
  • a defect inspection apparatus including a detection optical system that detects and acquires image data, and further calculates a feature from design data of an input object to be inspected, and an optical condition acquired by the detection optical system
  • a feature calculation unit that calculates a feature amount from a plurality of image data having different image data acquisition conditions, and a feature from the design data calculated by the feature calculation unit and a feature amount from the plurality of image data are integrated.
  • a defect candidate detection unit for detecting a defect candidate; and a defect extraction unit for extracting a highly fatal defect from the defect candidates detected by the defect candidate detection unit based on the feature of the design data calculated by the feature calculation unit; Image processing with Characterized by comprising a part.
  • the present invention is characterized in that in the defect candidate detection unit, the integration process of the feature from the design data and the feature quantity from the plurality of image data is performed by determining corresponding points from the design data. To do.
  • the present invention also provides an illumination optical system that irradiates an object to be inspected under a predetermined optical condition, and scattered light from the object to be inspected that is irradiated with the illumination optical system under a predetermined optical condition under a predetermined detection condition.
  • a defect inspection apparatus including a detection optical system that detects and acquires image data, and further calculates a feature from design data of an input object to be inspected, and an optical condition acquired by the detection optical system Alternatively, a feature calculation unit that calculates a feature amount from a plurality of image data with different image data acquisition conditions, and a feature and a plurality of image data from design data of a corresponding location on the inspection target calculated by the feature calculation unit
  • a defect candidate detection unit that detects a defect candidate by integrating the feature amount from the defect, and a fatality based on the feature of the design data calculated by the feature calculation unit from the defect candidate detected by the defect candidate detection unit
  • the present invention further calculates in advance image data obtained by irradiating the inspection object under a predetermined optical condition and detecting scattered light from the inspection object under a predetermined detection condition by simulation. And a defect candidate detecting unit that associates the integration process of the feature from the design data with the feature quantity from the plurality of image data based on a simulation result by the simulator. Further, the present invention is characterized in that in the simulator, design data is used for simulation of image data obtained from the inspection object.
  • FIG. 1 It is a conceptual diagram which shows the structure of the defect inspection apparatus which concerns on this invention. It is a schematic block diagram which shows one Embodiment of the defect inspection apparatus which concerns on this invention. It is explanatory drawing of the distribution method of the several image and design data detected on different optical conditions based on this invention.
  • the figure which shows one Embodiment which an image processing part performs the defect candidate detection process and defect extraction process (fatal defect extraction process) by the integration process of the several image and design data which detect on different optical conditions based on this invention is there.
  • Embodiments of a defect inspection apparatus and method according to the present invention will be described with reference to FIGS. First, an embodiment of a defect inspection apparatus using dark field illumination for a semiconductor wafer as an object to be inspected will be described.
  • FIG. 1 is a conceptual diagram showing an embodiment of a defect inspection apparatus according to the present invention.
  • the optical unit 1 includes a plurality of illumination units 15 a and 15 b and a detection unit 17.
  • the illumination unit 15a and the illumination unit 15b irradiate the inspection target (semiconductor wafer 11) with illumination light having different optical conditions (for example, different irradiation angles, polarization states, wavelengths, and the like).
  • Scattered light 3a and scattered light 3b are generated from the inspected object 11 by the illumination light emitted from each of the illumination unit 15a and the illumination unit 15b, and each of the generated scattered light 3a and scattered light 3b is detected by the detection unit 17a.
  • the image processing unit 18 includes a preprocessing unit 18-1, a defect candidate detection unit 18-2, and a defect extraction unit 18-3 as appropriate.
  • the pre-processing unit 18-1 performs signal correction, image division, and the like, which will be described later, on the scattered light intensity signal input to the image processing unit 18.
  • the defect candidate detection unit 18-2 detects a defect candidate by performing processing described later from the image generated by the preprocessing unit 18-1.
  • the defect extraction unit 18-3 excludes defect types that are not required by the user and non-fatal defects from the defect candidates detected by the defect candidate detection unit 18-2, and the defect types and criticality that are required by the user. High defects are extracted and output to the overall control unit 19.
  • FIG. 1 shows an embodiment in which scattered light 3a and 3b are detected by separate detectors 17a and 17b, they may be detected in common by one detector. Moreover, the illumination part and the detection part do not need to be two, and may be 1 or 3 or more.
  • Each of the scattered light 3a and the scattered light 3b indicates a scattered light distribution generated corresponding to the illumination units 15a and 15b, respectively. If the optical condition of the illumination light by the illumination unit 15a and the optical condition of the illumination light by the illumination unit 15b are different, the scattered light 3a and the scattered light 3b generated by each differ from each other.
  • the optical properties and characteristics of scattered light generated by certain illumination light are referred to as scattered light distribution of the scattered light. More specifically, the scattered light distribution refers to a distribution of optical parameter values such as intensity, amplitude, phase, polarization, wavelength, and coherency with respect to the emission position, emission direction, and emission angle of the scattered light.
  • FIG. 2 shows a schematic diagram as an embodiment of a specific defect inspection apparatus that realizes the configuration shown in FIG. That is, the defect inspection apparatus according to the present invention includes a plurality of illumination units 15a and 15b that irradiate illumination light obliquely onto an object to be inspected (semiconductor wafer 11), and scattering from the semiconductor wafer 11 in the vertical direction.
  • a detection optical system (upper detection system) 16 that forms an image of light
  • a detection optical system (oblique detection system) 130 that forms an image of scattered light in an oblique direction, and optical images formed by the respective detection optical systems
  • a memory 2 for storing the obtained image signal, an image processing unit 18, and an overall control unit 19 as appropriate.
  • the semiconductor wafer 11 is mounted on a stage (XYZ- ⁇ stage) 12 that can move and rotate in the XY plane and move in the Z direction.
  • the XYZ- ⁇ stage 12 is moved by a mechanical controller 13. Driven.
  • the semiconductor wafer 11 is mounted on the XYZ- ⁇ stage 12, and the scattered light from the foreign matter on the object to be inspected is detected while moving the XYZ- ⁇ stage 12 in the horizontal direction.
  • the detection result is obtained as a two-dimensional image.
  • Each illumination light source of the illumination units 15a and 15b may use a laser or a lamp.
  • the light of the wavelength of each illumination light source may be a short wavelength, or may be light of a broad wavelength (white light).
  • light with a short wavelength light with a wavelength in the ultraviolet region (Ultra (Violet Light: UV light) can be used in order to increase the resolution of an image to be detected (detect a minute defect).
  • UV light Ultra (Violet Light: UV light)
  • a laser is used as the light source, if it is a single wavelength laser, it is possible to provide means (not shown) for reducing coherence in each of the illumination units 15a and 15b.
  • the scattered light emitted from the semiconductor wafer 11 has its optical path branched, and one is converted into an image signal by the detection unit 17 via the detection optical system 16. The other is converted into an image signal by the detection unit 131 via the detection optical system 130.
  • the detection units 17 and 131 employ a time delay integration type image sensor (Time Delay Integration Image Sensor: TDI image sensor) configured by arranging a plurality of one-dimensional image sensors in an image sensor in a two-dimensional manner. A signal detected by each one-dimensional image sensor in synchronization with the movement of the Z- ⁇ stage 12 is transferred to the next-stage one-dimensional image sensor and added to obtain a two-dimensional image at a relatively high speed and with high sensitivity. It becomes possible.
  • TDI image sensor Time Delay Integration Image Sensor
  • the image processing unit 18 extracts defects on the semiconductor wafer 11 that is an object to be inspected, and performs image correction such as shading correction and dark level correction on the image signals input from the detection units 17 and 131.
  • a pre-processing unit 18-1 for dividing into images of a certain unit size, a defect candidate detecting unit 18-2 for detecting defect candidates from the corrected and divided images, and a user-specified unnecessary defect from the detected defect candidates
  • a defect extraction unit 18-3 for extracting a critical defect other than noise and noise
  • a defect classification unit 18-4 for classifying the extracted critical defect according to the defect type, a parameter input from the outside, and the like, a defect candidate detection unit
  • a parameter setting unit (teaching data setting unit) 18-5 set to 18-2 and the defect extraction unit 18-3 is appropriately included.
  • the parameter setting unit 18-5 is configured by connecting the database 1102.
  • the overall control unit 19 includes a CPU (built in the overall control unit 19) that performs various controls, accepts parameters from the user, and displays detected defect candidate images, finally extracted defect images, and the like.
  • a user interface unit (GUI unit) 19-1 having a display unit and an input unit, and a storage device 19-2 for storing the feature amounts and images of defect candidates detected by the image processing unit 18 are appropriately connected.
  • the mechanical controller 13 drives the XYZ- ⁇ stage 12 based on a control command from the overall control unit 19.
  • the image processing unit 18 and the detection optical systems 16 and 130 are also driven by commands from the overall control unit 19.
  • the design data 30 of the semiconductor wafer 11 is also input to the image processing unit 18 in addition to the image signal that is a scattered light image from the semiconductor wafer 11.
  • the image processing unit 18 integrates design data in addition to the two image signals, and performs defect extraction processing.
  • a semiconductor wafer 11 that is an object to be inspected regularly has a large number of chips with the same pattern having, for example, a memory mat portion and a peripheral circuit portion.
  • the overall control unit 19 continuously moves the semiconductor wafer 11 by the XYZ- ⁇ stage 12, and in synchronization with this, sequentially captures the chip images from the detection units 17 and 131, and obtains the two types obtained.
  • a defect is extracted by comparing the image at the same position of the regularly arranged chips with the image feature from the design data 30 at the corresponding position.
  • the data flow is shown in FIG. It is assumed that an image of the band-like region 40 is obtained on the semiconductor wafer 11 by scanning the XYZ- ⁇ stage 12, for example.
  • 41a, 42a,..., 46a are divided images obtained by dividing the image of the chip n obtained from the detection unit 17 into six.
  • 31a, 32a,..., 36a are divided images obtained by dividing the adjacent chip m obtained from the detection unit 17 into six similarly to the chip n. These divided images obtained from the same detection unit 17 are illustrated by vertical stripes.
  • 41b, 42b,..., 46b are divided images obtained by similarly dividing the image of the chip n obtained from the detection unit 131 into six.
  • Reference numerals 41b, 42b,..., 46b are divided images obtained by dividing the adjacent chip m obtained from the detection unit 131 into six similarly. These divided images obtained from the same detection unit 131 are illustrated by horizontal stripes.
  • 1d, 2d,..., 6d are data at positions corresponding to the divided images divided into six in the design data 30.
  • the two detection system images and design data input to the image processing unit 18 are divided so that all the data correspond on the chip.
  • the defect inspection apparatus converts the design data 30 into image features described later.
  • the image processing unit 18 includes a plurality of processors operating in parallel, and each corresponding image (for example, the divided image 41a; 41b of the corresponding chip n obtained by the detection unit 17; 131, and the corresponding of the chip m).
  • the design data (1d) corresponding to the divided images 31a and 31b) is input to the same processor 1 to perform defect extraction processing.
  • the processor 2 corresponds to the divided image (42a; 42b) of the chip n and the corresponding divided image (32a; 32b) of the adjacent chip m acquired from different detection units 17; 131 at different corresponding positions.
  • Design data (2d) to be input is input, and defect extraction processing is performed in parallel with the processor 1.
  • FIG. 4 shows two types of image information (41a; 41b, 31a; 31b) acquired from two different detection units 17; 131 by the defect candidate detection unit 18-2 and the defect extraction unit 18-3 of the image processing unit 18, for example. ) And design data (1d) integration process to detect defect candidates, and the detected defect candidates (outlier pixels) and image features obtained from the design data are integrated to extract critical defects.
  • defect candidate detection processing and defect extraction processing are performed in parallel by a plurality of processors, but each processor has the same position detected by different detection units 17; 131.
  • the image (41a; 41b), the corresponding reference image (31a; 31b), and design data (1d) are input as a set, and defect candidate detection processing and defect extraction processing (fatal defect extraction processing) are performed.
  • the semiconductor wafer 11 is regularly formed with the same pattern as described above, and the detection image 41a and the reference image 31a should originally be the same, but the wafer 11 made of a multilayer film has a film thickness between chips. Due to the difference, there is a large brightness difference between images. Further, since the image acquisition position is shifted between chips due to vibration during stage scanning, for example, the preprocessing unit 18-1 of the image processing unit 18 first corrects them. First, a brightness shift between the detected image 41a and the reference image 31a obtained by the detecting unit 17 is detected and corrected (step 501a). Next, a position shift between images is detected and corrected (step 502a). Similarly, a brightness shift between the detected image 41b and the reference image 31b obtained by the detecting unit 130 is detected and corrected (step 501b). Next, a position shift between images is detected and corrected (step 502b).
  • FIG. 5 is a diagram illustrating a processing flow of brightness deviation detection and correction processing step 501a performed by, for example, the defect candidate detection unit 18-2 of the image processing unit 18.
  • a smoothing filter shown in the equation (1) is applied to the input detection image 41a and reference image 31a.
  • Equation (1) is an example of smoothing using a two-dimensional Gaussian function with an average of 0 and a variance ⁇ 2 for each pixel f (x, y) of 41a and 31a. Any of simple averaging and median filter taking the median value in the local region may be used.
  • a correction coefficient for correcting a brightness shift between images is calculated.
  • an example by least square approximation using all pixels in the image is shown.
  • the position shift amount detection and correction processing (step 502a, step 502b) shown in FIG. 4 obtains a shift amount that minimizes the sum of squares of the luminance difference with the other image while shifting one image, or A general method is to obtain a deviation amount that maximizes the correlation coefficient.
  • a feature amount is calculated between the target pixel of the detected image 41a subjected to brightness correction and position correction and the corresponding pixel of the reference image 31a (step 503a).
  • the feature amounts of the detected image 41b and the reference image 31b are similarly calculated (step 503b).
  • the amount of positional deviation between the detection image 41a and the detection image 41b is calculated in the same manner (step 504).
  • all or some of the feature amounts of the target pixel are selected to form a feature space (step 505).
  • the feature amount only needs to represent the feature of the pixel.
  • the brightness of each point of the detected image is f (x, y) and the brightness of the corresponding reference image is g (x, y). Calculate from the set (41a and 31a, 41b and 31b).
  • the image of each detection system may be integrated and, for example, the feature values (1) to (6) may be obtained from the average values of the detection image 41a and the detection image 41b, and the reference image 31a and the reference image 31b.
  • the detection unit 131 applies the feature amount Ba (x, y) of each pixel (x, y) calculated from the detection unit 17.
  • the calculated feature amount is Bb (x + x1, y + y1).
  • the feature space is generated by plotting the values of all the pixels in a two-dimensional space where the X value is Ba (x, y) and the Y value is Bb (x + x1, y + y1). Then, a threshold plane is calculated in this two-dimensional space (step 506), and pixels outside the threshold plane, that is, pixels that are characteristically outliers are detected as defect candidates (step 507).
  • the embodiment in which the feature space of step 505 is two-dimensional has been described, but a multi-dimensional feature space having some or all of the feature amounts as an axis may be used.
  • the design data 1d for the area corresponding to the detected image is also input to the same processor.
  • the input design data 1d is first converted into image features (image feature amounts) so as to be handled in the same manner as the feature amounts calculated from the above-described image (step 508 in FIG. 4). It is also possible to detect a defect candidate from a feature space to which a feature amount calculated from design data is added.
  • FIG. 6 shows an example of a feature space formed by three feature quantities.
  • Each pixel of the target image is plotted in a feature space with feature values A, B, and C as axes according to the values of features A, B, and C, and a threshold plane is set so as to surround the distribution estimated to be normal To do.
  • the polygonal surface 70 is the threshold value surface
  • the pixels surrounded by 70 are normal (including noise)
  • the off-pixels outside the polygonal surface 70 are defect candidates.
  • the user may individually set a threshold value, or the distribution of features of normal pixels is assumed to follow a normal distribution, and a method for identifying and identifying the probability that the target pixel is a non-defective pixel But you can.
  • an identification function ⁇ for detecting a pixel having a feature quantity x as a defect candidate is expressed by the following equation (9): It is given by equation (10).
  • the design data 1d is converted into image features (image feature amounts) in step 508 of FIG. 4 and defect candidates are detected using the converted image features will be described with reference to FIGS. .
  • the design data 1d input to the same processor together with the above-described inspection target images 41a, 31a, 41b, and 41b has binary (whether white or black) information on the structure of the wiring pattern as indicated by 30 in FIG. Is.
  • a defect to be detected (target defect: for example, short-circuit defect, foreign object defect, etc.), target process, inspection condition (illumination polarization state, illumination wavelength, polarization state at the time of detection)
  • Inspection information 81 relating to the semiconductor wafer 11 to be inspected (such as optical conditions) is also input to the same processor, and the design data 1d is subjected to feature conversion in accordance with the inspection information 81. (Step 508).
  • the binary design data 30 (1d) is converted into optical information such as the inspection information (target defect, target process, inspection condition (illumination polarization state, illumination wavelength, polarization state at the time of detection).
  • the inspection condition etc.
  • the density and line width of the wiring pattern that can vary depending on the target process, which is the inspection information 81, are represented by luminance values. Converted to. An area with a sparse wiring pattern is converted to low luminance (black), and a dense area is converted to high luminance (white).
  • the feature conversion (step 508) reflecting the inspection condition according to the inspection information 81 is performed. That is, in a region where the wiring pattern is sparse, the possibility of short-circuiting even with a relatively large foreign object is low, so that the sensitivity is reduced and a defect candidate is detected.
  • the design data 30 (1d) is subjected to pattern corners, edges of thick wiring patterns, etc. according to the optical conditions (illumination conditions) as inspection information 81.
  • the probability of occurrence of noise (bright spot) generated as scattered light from the light is converted into a luminance value.
  • the higher the noise occurrence probability the higher the brightness (white).
  • the corner of the pattern, the edge of the thick wiring pattern, and the like are not defects, but depending on the optical conditions (illumination conditions), the occurrence probability of noise indicating a bright spot (high luminance) is high.
  • the defect candidate detection unit 18-2 includes the image features 83 and 84 obtained by converting the design data 30 (1d) into multi-value data according to the inspection information 81, and the images obtained from the detection units 17 and 131.
  • the feature 85 is integrated and defect candidate detection processing is performed (step 505).
  • Reference numeral 85 denotes an example of the feature amount calculated from the input images 41a, 31a, 41b, and 31b shown in FIG. 4 through the feature amount calculation processing (step 503a, step 503b, and step 504).
  • the difference between the detected image and the reference image It is a defect candidate indicating The brighter the light, the greater the difference and the higher the possibility of a defect.
  • Reference numerals 86, 87, and 88 denote detection images obtained by cutting out the periphery of 85 defect candidates. There is a defect in the dashed circle. Although the difference between the defect candidates 86 and 87 is larger than that of the 88 defect candidate, it occurs at the corner of the pattern or at the edge of the high-brightness wiring pattern and is highly likely to be noise. In such a case, it may be difficult to set a threshold value that can remove noise only from the feature amount calculated from the image (85 in the figure) and detect a defect with a small difference.
  • FIG. 8 shows a process of integrating the image feature 84 converted from the design data 1d into multi-value data according to the inspection information 81 and the feature 85 calculated from the image, and setting a threshold plane (step 506).
  • reference numeral 91 is a value on AB of the image feature indicating the occurrence probability of 84 noise.
  • 92 is a value on AB of a feature amount (difference from the reference image in this case) calculated from 85 images.
  • 93 is a value on AB of the defect probability distribution calculated by integrating these features.
  • the portion where the noise occurrence probability 91 is large is integrated and the defect probability distribution 93 becomes small, and the portion where there is no noise occurrence probability 91 is the feature amount (difference).
  • the feature amount (difference) is small, but the image feature converted from the design data (30 (1d)) into multi-value data according to the inspection information 81.
  • a pixel 94 having a low noise occurrence probability obtained based on (84) is detected as a defect candidate.
  • the defect extracting unit 18-3 first receives the defect candidate. Each dimension of 94 is estimated (step 1500). Then, the defect extraction unit 18-3 performs an integration process on each estimated size 101 of the defect candidate 94 and the image feature (step 1501), calculates the criticality of each defect candidate, and extracts only the critical defect. (Step 1502).
  • FIG. 9 is a diagram illustrating a specific example of extracting a fatal defect by integrating the outlier pixel (defect candidate) 94 detected in FIG. 8 and the image feature 83 calculated from the design data 30.
  • the size of the defect part (the area is calculated by counting the number of pixels in the defect part from the detected image, and the number of pixels in the X direction and Y direction of the defect part is counted. The lengths in the X and Y directions are calculated) (step 1500).
  • the dimension information 101 and the image feature 83 indicating the density of the wiring pattern are integrated (step 1501) to calculate whether each defect candidate is a fatal defect on the wafer.
  • Reference numeral 102 denotes an example of a fatality distribution in which the fatality level of each defect candidate is indicated by luminance. The brighter the spot, the higher the fatality.
  • design data is converted into image features having multiple values of two or more values, and each stage of the feature and defect determination processing calculated from the image (defect candidate detection unit, defect extraction) , Etc.), noise and defects are identified, and the fatality of defects is estimated to enable detection of defects with high fatality buried in noise and unnecessary defects.
  • step 505 it is possible to use design data when integrating images obtained under different optical conditions (step 505) shown in FIG.
  • the detection images 41a and 41b obtained from the detection units 17 and 131 in FIG. 2 are integrated, the correspondence between the images is obtained, that is, the pixel positions in the image with respect to the target object are the same.
  • the acquisition positions with respect to the object do not always match.
  • images obtained with different detection systems or different optical conditions for the same pattern can be seen due to differences in the way the pattern shines due to differences in illumination angles and differences in the scattered light obtained due to differences in detection conditions.
  • the image processing unit 18 uses the design data 30 to determine corresponding points of images having different appearances.
  • FIG. 10A shows a flow of a misregistration detection process using design data 30 for images with different detection systems or optical conditions.
  • Reference numerals 1100a and 1100b denote examples of images obtained from different detection units 17 and 131 for the same area of the same chip. Since the two images are greatly different in appearance due to differences in detection systems, it is difficult to calculate the amount of positional deviation between the images in step 1603.
  • each inspection condition (here Then, the image under the two detection conditions) is estimated from the design data, and the corresponding points, that is, the places where scattered light is obtained in common between the conditions are calculated (1101 in FIG. 10).
  • the position where the corresponding point 1101 matches between the two images 1100a and 1100b is calculated as the amount of displacement.
  • the database 1102 includes, for the design data 30, the target process of the target wafer, which is inspection information, and inspection conditions (illumination conditions (dark field illumination), detection conditions (detection elevation angle ⁇ , detection orientation). Each angle (such as the angle ⁇ ) is estimated in advance by optical simulation (1103) and registered. As described above, the corresponding points may be obtained from the database 1102 registered in advance, but may be calculated by the image processing unit 18 when the design data 30 is input at the time of inspection.
  • FIG. 11 is a diagram illustrating another example in which the image processing unit 18 utilizes design data, for example.
  • 1200a is an image to be inspected (detected image)
  • 1200b is a corresponding reference image.
  • inspection information 81 regarding a semiconductor wafer to be inspected such as a target process and inspection conditions
  • the inspection processing conditions 18 The image is estimated from the design data, and an optimum defect determination mode is automatically set for each region for the input image (1202).
  • the image processing unit 18 has a plurality of defect determination modes, and the pattern is shining, not shining, a region having periodicity, a random region having no periodicity, or the like. A region is divided from the estimated image, and a defect determination process is performed for each region according to the set defect determination mode on the detected image. Thereby, a high sensitivity inspection is realized.
  • the estimated image 1201 is registered in the database 1102 in advance.
  • the database 1102 performs an optical simulation (an optical simulator is used as the image processing unit 18) on the design data 30 for each process and inspection condition (illumination condition, detection condition, etc.) of the target wafer.
  • the image processing unit 18 may obtain the estimated image from the database 1102 registered in advance, but may be calculated by the image processing unit 18 when design data is input at the time of inspection.
  • the defect determination mode setting for each area 1202 in the image processing unit 18 may be performed using only the estimated image, or may be performed by integrating with the detected actual image.
  • FIG. 12 is a diagram showing an example of setting a defect determination mode for each region performed by the image processing unit 18, for example.
  • the region indicated by the horizontal stripe is estimated as a random pattern having no periodicity
  • the region is set to the defect determination mode A.
  • the defect determination mode A the brightness of the detected image 1200a is compared with, for example, the reference image 1200b, and a pixel having a large difference is used as a defect candidate.
  • the area indicated by the solid color has no pattern, that is, the area where the scattered light is not generated and the brightness is flat, the area is set to the defect determination mode B.
  • the detected image 1200a is compared with a threshold value, and pixels brighter than the threshold value are used as defect candidates.
  • the area is set to the defect determination mode C.
  • the defect determination mode C is a process in which the detected image 1200a is compared with, for example, design data, and a pixel in which a periodic pattern interval or line width is significantly different from a design value is determined as a defect candidate. In this way, defects are detected with high sensitivity by performing optimum defect determination processing for each region such as comparison with a reference image, comparison with a threshold value, and comparison with design data.
  • the user does not need to set complicated areas or set the mode for each area.
  • FIG. 13A shows a normal setting method in the case where a plurality of defect determination modes using the GUI unit 19-1 are set for each region.
  • reference numeral 1400 denotes an input chip image.
  • the user sets a rectangular area while viewing the image (step 141), and sets a defect determination mode for each designated rectangular area.
  • an area surrounded by a broken line 1400 is set as mode 2 (1401), and an area surrounded by a double line is set as mode 1 (1402). Since both the mode 1 and the mode 2 are set in the area surrounded by the broken line, priority is set in the area where the different mode is set (step 142). In the area surrounded by the broken line, the defect determination mode 2 having a high priority is set.
  • FIG. 1400 denotes an input chip image.
  • the user sets a rectangular area while viewing the image (step 141), and sets a defect determination mode for each designated rectangular area.
  • an area surrounded by a broken line 1400 is set as mode 2 (1401)
  • 13B is a diagram illustrating an example of the defect determination mode automatic setting for each region using, for example, the design data illustrated in FIG. 12 by the image processing unit 18.
  • the image processing unit 18 determines from the design data 30 whether it is a cell area (a memory mat unit in which minute identical patterns are repeatedly formed) or a peripheral circuit unit. Then, the structure information such as the cell pitch of the cell area (cycle of the repetitive pattern), the cell arrangement direction (X direction or Y direction of the image), line width, etc. is extracted (step 143). Then, an area is divided according to the extracted structure information, and an optimum defect determination mode is set for each area (1202).
  • Reference numeral 1404 indicates the defect determination mode of each region set based on the design data 30 by black, vertical stripes, horizontal stripes, and diagonal lines. The plurality of defect determination processes can be performed in parallel or in time series.
  • a plurality of images 41a; 41b, 31a; 31b having different appearances such as a plurality of detection systems and a plurality of optical conditions, and corresponding design data 1b are imaged.
  • the image processing unit 18 extracts a plurality of features corresponding to the inspection information 81 from the design data 1 b to obtain multi-valued image features.
  • the image processing unit 18 detects the defect candidate 94 with high sensitivity using the feature value 85 calculated from the images 41a; 41b, 31a; 31b and the multivalued image features 83, 84 extracted from the design data 1d. Make it possible.
  • the image processing unit 18 makes a criticality determination using the design data 1b (83) from the detected defect candidate 94, and reveals a highly fatal defect from a large number of non-fatal defects.
  • the image processing unit 18 obtains corresponding points when detecting misalignment of a plurality of images having different appearances from the design data, performs alignment, and performs feature integration to detect a defect candidate 94.
  • the defect candidate 94 is detected based on an optimum defect determination mode that is different for each region.
  • the layout information of the pattern in the chip is obtained from the design data, and the optimum mode is automatically set according to the characteristics, so that the user can perform highly sensitive inspections without complicated operations and settings. To do.
  • the present invention can detect defects of 20 nm to 90 nm. It becomes possible.
  • inorganic insulating films such as SiO 2 , SiOF, BSG, SiOB, porous Iran film, methyl group-containing SiO 2 , MSQ, polyimide-based film, parelin-based film, Teflon (registered trademark) -based film, amorphous
  • a defect of 20 nm to 90 nm is detected. Detection is possible.
  • the embodiment of the present invention has been described with respect to the example of the comparative inspection image in the dark field inspection apparatus for the semiconductor wafer.
  • the embodiment can also be applied to the comparative image in the electron beam pattern inspection.
  • it is applicable also to the pattern inspection apparatus of bright field illumination.
  • the inspection target is not limited to a semiconductor wafer, and any defect can be applied to a TFT substrate, a photomask, a printed board, or the like as long as defect detection is performed by comparing images.
  • detected image 31a -36a, 31b-36b ... reference image, 81 ... inspection information, 83, 84 ... image characteristics of design data, 85 ... defect candidate indicated by difference between detected image and reference image, 86, 87, 88 ... defect candidate 85 Detecting image including a defect candidate obtained by cutting the periphery, 94 ... defect candidate, 101 ... dimensional information for each defect candidate, 102 ... fatality distribution, 1102 ... database.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

 本発明は、煩雑なしきい値設定を行うことなく、ノイズや検出する必要のない欠陥に埋没した、ユーザが所望する欠陥を高感度、かつ高速に検出することができる欠陥検査装置及びその方法に関するもので、被検査対象物を所定の光学条件で照射する照明光学系と、被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置において、さらに、入力される被検査対象物の設計データから特徴を算出し、前記検出光学系で取得される光学条件若しくは画像データ取得条件が異なる複数の画像データから特徴量を算出する特徴算出部と、該算出された設計データからの特徴と複数の画像データからの特徴量とを統合処理して欠陥候補を検出する欠陥候補検出部と、該検出された欠陥候補から前記特徴算出部で算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出部とを有する画像処理部を備えたことを特徴とする。

Description

欠陥検査装置及びその方法
 本発明は、光若しくはレーザ若しくは電子線等を用いて得られた被検査対象物の画像(検出画像)と参照画像とを比較して、その比較結果に基づいて微細パターン欠陥や異物等を検出する検査に係り、特に半導体ウェハ、TFT、ホトマスク等の外観検査を行うのに好適な欠陥検査装置及びその方法に関する。
 検出画像と参照画像とを比較して欠陥検出を行う従来の技術としては、特開平05-264467号公報(特許文献1)に記載の方法が知られている。これは、繰り返しパターンが規則的に並んでいる被検査対象物をラインセンサで順次撮像し、繰り返しパターンピッチ分の時間遅れをおいた画像と比較し、その不一致部を欠陥として検出するものである。
特開平05-264467号公報
 被検査対象物である半導体ウェハでは、CMPによる平坦化等により、隣接チップであってもパターンに膜厚の微妙な違いが生じ、チップ間の画像には局所的に明るさの違い(輝度差)がある。従来方式のように、輝度差が特定のしきい値th以上となる部分を欠陥とするならば、このような膜厚の違いにより明るさが異なる領域も欠陥として検出されることになる。これは本来、欠陥として検出されるべきものではない。つまり虚報である。従来は虚報発生を避けるための1つの方法として、欠陥検出のためのしきい値を大きくしていた。しかし、これは感度を下げることになり、同程度以下の差分値の欠陥は検出できない。
 また、膜厚の違いによる明るさの違いは、配列チップのうち、ウェハ内の特定チップ間でのみ生じる場合や、チップ内の特定のパターンでのみ生じる場合があるが、これらのローカルなエリアにしきい値を合わせてしまうと全体の検査感度を著しく低下させることになる。さらに、ローカルなエリア毎の明るさの違いに応じてしきい値を設定するのは、操作が煩雑となり、ユーザにとって好ましくない。
 また、感度を阻害する要因として、パターンの太さのばらつきを起因とするチップ間の明るさの違いがある。従来の明るさによる比較検査では、このような明るさばらつきがある場合、検査時のノイズとなる。
 一方、欠陥の種類は多様であり、検出する必要のない欠陥(正常パターンノイズと見なしてよいもの)と検出すべき欠陥に大別できる。本願では、欠陥ではないのに誤って欠陥として検出されたもの(虚報)と正常パターンノイズ等とを合わせて非欠陥と呼ぶ。外観検査には、膨大な数の欠陥の中からユーザが所望する欠陥のみを抽出することが求められているが、上記輝度差としきい値との比較では、これを実現することは難しい。また、材質、表面粗さ、サイズ、深さ等検査対象に依存したファクタと、照明条件等検出系に依存したファクタとの組合せにより、欠陥の種類ごとの見え方が変わることが多く、所望する欠陥のみを抽出する条件設定を行うのは困難である。
 本発明の目的は、上記課題に鑑み、煩雑なしきい値設定を行うことなく、ノイズや検出する必要のない欠陥に埋没した、ユーザが所望する欠陥を高感度、かつ高速に検出することができる欠陥検査装置及びその方法を提供することにある。
 上記目的を達成するために、本発明は、被検査対象物を所定の光学条件で照射する照明光学系と、該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置であって、さらに、入力される被検査対象物の設計データから特徴を算出する特徴算出部と、前記検出光学系で取得される被検査対象物上の対応する箇所の画像データと前記特徴算出部で算出された特徴とを用いて欠陥候補を検出する欠陥候補検出部と、該欠陥候補検出部で検出された欠陥候補から前記特徴算出部で算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出部とを有する画像処理部を備えたことを特徴とする。
 また、本発明は、前記欠陥候補検出部において用いる前記画像データは、前記検出光学系により取得される光学条件若しくは画像データ取得条件が異なる複数の画像データであることを特徴とする。また、本発明は、前記欠陥候補検出部において、前記被検査対象物上に形成されたパターンの形状に応じて異なる複数の欠陥候補検出処理を並列に実行することを特徴とする。また、本発明は、前記欠陥候補検出部において、前記被検査対象物の設計データから抽出される前記被検査対象物上に形成されたパターンの形状に応じて前記検出光学系により取得される画像データの各領域に対して複数の欠陥候補検出処理の何れかを適用することを特徴とする。
 また、本発明は、被検査対象物を所定の光学条件で照射する照明光学系と、該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置であって、さらに、入力される被検査対象物の設計データから特徴を算出し、前記検出光学系で取得される光学条件若しくは画像データ取得条件が異なる複数の画像データから特徴量を算出する特徴算出部と、該特徴算出部で算出された設計データからの特徴と複数の画像データからの特徴量とを統合処理して欠陥候補を検出する欠陥候補検出部と、該欠陥候補検出部で検出された欠陥候補から前記特徴算出部で算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出部とを有する画像処理部を備えたことを特徴とする。
 また、本発明は、前記欠陥候補検出部において、前記設計データからの特徴と前記複数の画像データからの特徴量との統合処理を、前記設計データから対応点を決定して行うことを特徴とする。
 また、本発明は、被検査対象物を所定の光学条件で照射する照明光学系と、該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置であって、さらに、入力される被検査対象物の設計データから特徴を算出し、前記検出光学系で取得される光学条件若しくは画像データ取得条件が異なる複数の画像データから特徴量を算出する特徴算出部と、該特徴算出部で算出された被検査対象物上の対応する箇所の設計データからの特徴と複数の画像データからの特徴量とを統合処理して欠陥候補を検出する欠陥候補検出部と、該欠陥候補検出部で検出された欠陥候補から前記特徴算出部で算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出部とを有する画像処理部を備えたことを特徴とする。
 また、本発明は、さらに、前記被検査対象物を所定の光学条件で照射し、被検査対象物からの散乱光を所定の検出条件で検出した場合に得られる画像データを予めシミュレーションにより算出するシミュレータを備え、前記欠陥候補検出部において、前記設計データからの特徴と前記複数の画像データからの特徴量との統合処理の対応付けを前記シミュレータによるシミュレーション結果に基づいて行うことを特徴とする。また、本発明は、前記シミュレータにおいて、前記被検査対象物から得られる画像データのシミュレーションには設計データを用いることを特徴とする。
 本発明によれば、設計データを利用することにより、煩雑な設定を必要とせずに、高感度に致命性の高い欠陥を検出することが可能となる。
本発明に係る欠陥検査装置の構成を示す概念図である。 本発明に係る欠陥検査装置の一実施の形態を示す概略構成図である。 本発明に係る異なる光学条件で検出する複数の画像と設計データとの分配方法の説明図である。 本発明に係る異なる光学条件で検出する複数の画像と設計データとの統合処理による欠陥候補検出処理と欠陥抽出処理(致命欠陥抽出処理)とを画像処理部が行う一実施の形態を示す図である。 本発明に係る画像処理部(例えば欠陥候補検出部)における画像間の明るさずれ補正処理の一実施例を示す図である。 本発明に係る画像処理部(例えば欠陥候補検出部)において行う特徴空間形成(統合処理)おけるしきい値面とはずれ画素(欠陥候補)の説明図である。 本発明に係る画像処理部(例えば欠陥候補検出部)において設計データを検査情報に応じて画像特徴に変換し、画像と統合処理して欠陥候補を検出する一実施例を示す図である。 本発明に係る画像処理部(例えば欠陥候補検出部)において設計データを検査情報に応じて画像特徴に変換し、画像と統合して欠陥候補を検出する別の実施例を示す図である。 本発明に係る画像処理部(例えば欠陥抽出部)において設計データを検査情報に応じて画像特徴に変換し、欠陥候補の致命性判定を行う実施例を示す図である。 本発明に係る画像処理部(例えば欠陥候補検出部)において設計データから、光学条件の異なる画像の対応点を算出する実施例を示す図である。 本発明に係る画像処理部(例えば欠陥候補検出部)において設計データから、領域毎に異なる欠陥候補検出処理を設定する実施例を示す図である。 本発明に係る画像処理部(例えば欠陥候補検出部)において領域毎に異なる欠陥候補検出処理が設定された実施例を示す図である。 本発明に係る画像処理部(例えば欠陥候補検出部)において行う領域毎の欠陥判定モードの設定方法の説明図である。 本発明に係る画像処理部(例えば欠陥抽出部)において設計データを検査情報に応じて画像特徴に変換し、欠陥候補の致命性判定を行う一実施の形態を示す図である。
 本発明に係る欠陥検査装置及びその方法の実施の形態について図1乃至図14を用いて説明する。まず、被検査対象物として半導体ウェハを対象とした暗視野照明による欠陥検査装置の実施の形態について説明する。
 図1は本発明に係る欠陥検査装置の実施の形態を示す概念図である。光学部1は、複数の照明部15a、15b及び検出部17を有して構成される。照明部15aと照明部15bとは互いに異なる光学条件(例えば照射角度、偏光状態、波長等が異なる)の照明光を被検査対象物(半導体ウェハ11)に照射する。照明部15a及び照明部15bの各々から出射される照明光により被検査対象物11から夫々散乱光3a及び散乱光3bが発生し、該発生した散乱光3a及び散乱光3bの夫々を検出部17a及び検出部17bの夫々で散乱光強度信号として検出する。該検出された散乱光強度信号の夫々は一旦、メモリ2に格納され、画像処理部18に入力される。画像処理部18は、前処理部18-1、欠陥候補検出部18-2、欠陥抽出部18-3を適宜有して構成される。画像処理部18に入力された散乱光強度信号に対し、前処理部18-1において、後述する信号補正、画像分割等を行う。欠陥候補検出部18-2では前処理部18-1で生成された画像から、後述する処理を行い、欠陥候補を検出する。欠陥抽出部18-3では、欠陥候補検出部18-2で検出された欠陥候補からユーザが不要とする欠陥種や致命性のない欠陥を除外し、ユーザが必要とする欠陥種や致命性の高い欠陥を抽出し、全体制御部19に出力する。図1では、散乱光3a、3bは別々の検出部17a、17bで検出する実施の形態を示すが、1つの検出部で共通に検出しても構わない。また、照明部及び検出部は2つである必要はなく、1又は3つ以上であっても構わない。
 散乱光3a及び散乱光3bの夫々は、各々照明部15a及び15bに対応して発生する散乱光分布を指す。照明部15aによる照明光の光学条件と照明部15bによる照明光の光学条件が異なれば、各々によって発生する散乱光3aと散乱光3bは互いに異なる。本明細書において、ある照明光によって発生した散乱光の光学的性質およびその特徴を、その散乱光の散乱光分布と呼ぶ。散乱光分布とは、より具体的には、散乱光の出射位置・出射方位・出射角度に対する、強度・振幅・位相・偏光・波長・コヒーレンシ等の光学パラメータ値の分布を指す。
 次に、図1に示す構成を実現する具体的な欠陥検査装置の一実施の形態としての模式図を図2に示す。即ち、本発明に係る欠陥検査装置は、被検査対象物(半導体ウェハ11)に対して照明光を斜方から照射する複数の照明部15a、15bと、半導体ウェハ11からの垂直方向への散乱光を結像させる検出光学系(上方検出系)16と、斜方向への散乱光を結像させる検出光学系(斜方検出系)130と、それぞれの検出光学系により結像された光学像を受光し、画像信号に変換する検出部17、131と、得られた画像信号を格納するメモリ2と、画像処理部18と、全体制御部19とを適宜含んで構成される。半導体ウェハ11はXY平面内の移動及び回転とZ方向への移動が可能なステージ(X-Y-Z-θステージ)12に搭載され、X-Y-Z-θステージ12はメカニカルコントローラ13により駆動される。このとき、半導体ウェハ11をX-Y-Z-θステージ12に搭載し、該X-Y-Z-θステージ12を水平方向に移動させながら被検査対象物上の異物からの散乱光を検出することで、検出結果を二次元画像として得る。
 照明部15a及び15bの各照明光源は、レーザを用いても、ランプを用いてもよい。また、各照明光源の波長の光は短波長であってもよく、また、広帯域の波長の光(白色光)であってもよい。短波長の光を用いる場合、検出する画像の分解能を上げる(微細な欠陥を検出する)ために、紫外領域の波長の光(Ultra Violet Light:UV光)を用いることもできる。レーザを光源として用いる場合、それが単波長のレーザである場合には、可干渉性を低減する手段(図示していない)を照明部15a及び15bの夫々に備えることも可能である。
 半導体ウェハ11から発した散乱光は光路が分岐され、一方は検出光学系16を介して検出部17にて画像信号に変換される。また、他方は検出光学系130を介して検出部131にて画像信号に変換される。
 検出部17、131は、イメージセンサに複数の1次元イメージセンサを2次元に配列して構成した時間遅延積分型のイメージセンサ(Time Delay Integration Image Sensor:TDIイメージセンサ)を採用し、X-Y-Z-θステージ12の移動と同期して各1次元イメージセンサが検出した信号を次段の1次元イメージセンサに転送して加算することにより、比較的高速で高感度に2次元画像を得ることが可能になる。このTDIイメージセンサとして複数の出力タップを備えた並列出力タイプのセンサを用いることにより、センサからの出力を並列に処理することができ、より高速な検出が可能になる。
 画像処理部18は被検査対象物である半導体ウェハ11上の欠陥を抽出するものであって、検出部17、131から入力された画像信号に対してシェーディング補正、暗レベル補正等の画像補正を行い、一定単位の大きさの画像に分割する前処理部18-1、補正、分割された画像から欠陥候補を検出する欠陥候補検出部18-2、検出された欠陥候補からユーザ指定の不要欠陥やノイズ以外の致命欠陥を抽出する欠陥抽出部18-3、抽出された致命欠陥を欠陥種に応じて分類する欠陥分類部18-4、外部から入力されるパラメータなどを受け付け、欠陥候補検出部18-2および欠陥抽出部18-3へセットするパラメータ設定部(教示データ設定部)18-5を適宜含んで構成される。そして、画像処理部18において例えばパラメータ設定部18-5はデータベース1102を接続して構成される。
 全体制御部19は、各種制御を行うCPU(全体制御部19に内蔵)を備え、ユーザからのパラメータなどを受け付け、検出された欠陥候補の画像、最終的に抽出された欠陥の画像等を表示する表示手段と入力手段を持つユーザインターフェース部(GUI部)19-1及び画像処理部18で検出された欠陥候補の特徴量や画像等を記憶する記憶装置19-2を適宜接続している。メカニカルコントローラ13は、全体制御部19からの制御指令に基づいてX-Y-Z-θステージ12を駆動する。尚、画像処理部18、検出光学系16、130等も全体制御部19からの指令により駆動される。
 ここで、本発明では、半導体ウェハ11からの散乱光像である画像信号に加え、半導体ウェハ11の設計データ30も画像処理部18に入力される。そして、画像処理部18では、2つの画像信号に加え、設計データも統合して、欠陥抽出処理を行う。被検査対象物である半導体ウェハ11は、例えばメモリマット部と周辺回路部とを有する同一パターンのチップが多数、規則的に並んでいる。全体制御部19は半導体ウェハ11をX-Y-Z-θステージ12により連続的に移動させ、これに同期して、順次、チップの像を検出部17、131より取り込み、得られた2種の散乱光の画像に対し、規則的に配列されたチップの同じ位置の画像と、対応する位置の設計データ30からの画像特徴とを比較して欠陥を抽出する。そのデータの流れを図3に示す。半導体ウェハ11において、例えばX-Y-Z-θステージ12の走査により帯状の領域40の画像が得られたとする。
 チップnを検査対象チップとした場合、41a、42a、・・、46aは検出部17から得られたチップnの画像を6分割した分割画像である。また、31a、32a、・・、36aは検出部17から得られた隣接するチップmをチップnと同様に6分割した分割画像である。同じ検出部17から得られたこれらの分割画像は、縦縞で図示されている。
 一方、41b、42b、・・、46bは検出部131から得られたチップnの画像を同様に6分割した分割画像である。また、41b、42b、・・、46bは検出部131から得られた隣接するチップmを同様に6分割した分割画像である。同じ検出部131から得られたこれらの分割画像は、横縞で図示されている。また、1d、2d、・・、6dは設計データ30について、6つに分割した分割画像に対応する位置のデータである。
 本発明では画像処理部18に入力される2つの検出系の画像及び設計データについて、すべてのデータがチップ上で対応するように分割する。本発明に係る欠陥検査装置は、設計データ30を後述する画像特徴に変換する。画像処理部18は複数の並列に動作するプロセッサで構成されており、各対応する画像(例えば、検出部17;131で得た対応するチップnの分割画像41a;41b、かつチップmの対応する分割画像31a;31b)と対応する設計データ(1d)を同じプロセッサ1に入力し、欠陥抽出処理を行う。一方、プロセッサ2には、別の対応位置での、異なる検出部17;131から取得したチップnの分割画像(42a;42b)とその対応する隣接チップmの分割画像(32a;32b)と対応する設計データ(2d)を入力し、プロセッサ1と並行に欠陥抽出処理を行う。
 次に、図3に示した、異なる2つの検出部17;131の各々で取得されるチップnの先頭の分割画像41a;41bを検査対象画像(以下、検出画像と記載)、隣接チップmの対応する領域の分割画像31a;31bを参照画像とした場合において、画像処理部18の例えば欠陥候補検出部18-2における処理の流れについて説明する。図4は、画像処理部18の例えば欠陥候補検出部18-2及び欠陥抽出部18-3が、異なる2つの検出部17;131から取得した2種の画像情報(41a;41b,31a;31b)及び設計データ(1d)の統合処理により欠陥候補を検出し、該検出された欠陥候補(はずれ画素)と設計データから得られる画像特徴とを統合処理して致命欠陥を抽出する処理のフローを示す図である。
 上述の通り、欠陥候補検出処理、欠陥抽出処理(致命欠陥抽出処理)は、それぞれ複数のプロセッサで並列に処理を行うが、各プロセッサには、同一位置を異なる検出部17;131で取得した検出画像(41a;41b)とそれに対応した参照画像(31a;31b)、設計データ(1d)がセットで入力され、欠陥候補検出処理及び欠陥抽出処理(致命欠陥抽出処理)が行われる。
 半導体ウェハ11は前述の通り同一パターンが規則的に形成されており、検出画像41aと参照画像31aは本来、同一であるべきだが、多層膜でできているウェハ11には、チップ間の膜厚の違いに起因して、画像間には大きな明るさの違いが生じている。また、ステージ走査時の振動などにより、画像取得位置がチップ間でずれているため、画像処理部18の例えば前処理部18-1は最初にそれらの補正を行う。まず、検出部17により得られた検出画像41aと参照画像31aの明るさのずれを検出し、補正を行う(step501a)。次に、画像間の位置のずれを検出し、補正を行う(step502a)。同様に検出部130により得られた検出画像41bと参照画像31bの明るさのずれを検出し、補正を行う(step501b)。次に画像間の位置のずれを検出し、補正を行う(step502b)。
 図5は、画像処理部18の例えば欠陥候補検出部18-2が行う明るさずれ検出、補正処理step501aの処理フローを示す図である。入力される検出画像41a、参照画像31aに(1)式に示す平滑化フィルタをかける。(1)式は、41a、31aの各画素f(x,y)に対し、平均0、分散σの2次元ガウス関数を用いた平滑化の実施例であるが、(2)式に示す単純平均化や、局所領域での中央値をとるメディアンフィルタなど、いずれでも構わない。次に、画像間の明るさのずれを補正するための補正係数を計算する。ここでは、画像内の全画素を用いた最小二乗近似による例を示す。これは、平滑化後の画像41a’、31a’の各点Gf(x,y)、Gg(x,y)について、(3)式に示す線形関係があると仮定し、(4)式が最小となるようにa、bを算出し、これを補正係数gain、offsetとするものである。そして、平滑化前の検出画像f(x,y)の全画素に対して、(5)式の通りに明るさの補正を行う。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
  G(g(x,y))=a+b・G(f(x,y))       (3)
  Σ{G(g(x,y))-(a+b・G(f(x,y))}   (4)
  L(f(x,y))=gain・f(x,y)+offset   (5)
 図4に示した位置のずれ量検出、補正処理(step502a、step502b)は一方の画像をずらしながら、他方の画像との間で輝度差の二乗和が最小になるずれ量を求める、もしくは、正規化相関係数が最大となるずれ量を求める方法等が一般的である。
 次に、明るさ補正、及び位置補正を行った検出画像41aの対象画素に対して、参照画像31aの対応する画素との間で特徴量を演算する(step503a)。同様に検出画像41bとその参照画像31bも同様に特徴量を演算する(step503b)。更に、検出部17と検出部131との画像が時系列に撮像されたものであれば、検出画像41aと検出画像41bとの位置ずれ量も同様に算出する(step504)。そして、検出部17と検出部131との画像の位置関係を加味して、対象画素の特徴量全て、あるいは、いくつかを選択し、特徴空間を形成する(step505)。特徴量は、その画素の特徴を表すものであればよい。その一実施例としては、(1)コントラスト、(2)濃淡差、(3)近傍画素の明るさ分散値、(4)相関係数、(5)近傍画素との明るさの増減、(6)2次微分値等がある。これらの特徴量の一実施例は、検出画像の各点の明るさをf(x,y)、対応する参照画像の明るさをg(x,y)とすると以下の式でそれぞれの画像のセット(41aと31a、41bと31b)から算出する。
 コントラスト;max{f(x,y)、f(x+1,y)、f(x,y+1)、f(x+1,y+1)}-
         min{f(x,y)、f(x+1,y)、f(x,y+1)、f(x+1,y+1)}  (6)
 濃淡差; f(x,y)-g(x,y)                     (7)
 分散; [Σ{f(x+i,y+j)}-{Σf(x+i,y+j)}/M]/(M-1)
                     i,j=-1、0、1  M=9   (8)
 加えて、各画像の明るさそのもの(検出画像41a、参照画像31a、検出画像41b、参照画像31b)も特徴量とする。また、各検出系の画像を統合処理して、例えば、検出画像41aと検出画像41b、参照画像31aと参照画像31bの平均値から(1)~(6)の特徴量を求める等でも構わない。ここで、特徴量として、検出画像41aと参照画像31aで算出した明るさ平均Baと、検出画像31bと参照画像31bで算出した明るさ平均Bbの2つを選択する実施例について説明する。検出画像41aに対する検出画像41bの位置のずれが(x1,y1)であった場合、検出部17から算出した各画素(x,y)の特徴量Ba(x,y)に対する、検出部131から算出した特徴量はBb(x+x1,y+y1)である。このため、特徴空間は、X値をBa(x,y)、Y値をBb(x+x1,y+y1)として、2次元空間に全画素の値をプロットして生成する。そして、この2次元空間内でしきい値面を演算し(step506)、しきい値面の外側にある画素、すなわち、特徴的にはずれ値となる画素を欠陥候補として検出する(step507)。ここで、step505の特徴空間は2次元である実施例について説明したが、複数の特徴量のうち、いくつか、あるいは全ての特徴量を軸とする多次元特徴空間でも構わない。
 更に、本発明では、検出画像に対応する領域の設計データ1dも同一プロセッサに入力される。入力された設計データ1dは、まず、上述の画像から算出される特徴量と同等に扱えるように、画像特徴(画像特徴量)に変換する(図4のstep508)。そして、設計データから算出した特徴量も加えた特徴空間から欠陥候補を検出することも可能である。
 図6は3つの特徴量で形成した特徴空間の実施例である。対象画像の各画素を、特徴A、B、Cの値に応じて特徴量A、B、Cを軸とする特徴空間にプロットし、正常と推定された分布を囲むようにしきい値面を設定する。図中では、多角形面70がしきい値面、70に囲まれた画素が正常(ノイズを含む)、その外側にあるはずれ画素が欠陥候補である。正常範囲の推定には、ユーザが個別にしきい値を設定してもよいし、正常画素の特徴の分布は正規分布に従うと仮定し、対象画素が非欠陥画素である確率を求めて識別する方法でもよい。後者は、n個の正常画素のd個の特徴量をx1、x2、‥、xnとすると、特徴量がxとなる画素を欠陥候補として検出するための識別関数φは、(9)式、(10)式で与えられる。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 次に、設計データ1dを図4のstep508において画像特徴(画像特徴量)に変換し、該変換した画像特徴を用いて欠陥候補の検出を行う実施例について図7及び図8を用いて説明する。前述の検査対象画像41a、31a、41b、41bとともに同じプロセッサに入力される設計データ1dは、図7の30で示す通り、配線パターンの構造などが2値(白か黒か)情報になったものである。本発明においては、上記2値の設計データ1dと共に、検出したい欠陥(目的欠陥:例えば短絡欠陥や異物欠陥等)や対象工程、検査条件(照明の偏光状態、照明の波長、検出時の偏光状態などの光学条件)などの検査対象である半導体ウェハ11に関する検査情報81も一緒に同じプロセッサに入力し、さらに設計データ1dを、上記検査情報81に応じて、特徴変換を行うことを特徴とする(step508)。該特徴変換(step508)は、上記2値の設計データ30(1d)を、上記検査情報(目的欠陥、対象工程、検査条件(照明の偏光状態、照明の波長、検出時の偏光状態などの光学条件)など)81に応じて、画像と同様に2値以上の多値データに変換するものである。
 特徴変換(多値データへの変換)の一実施例83としては、2値の設計データ30(1d)において、検査情報81である対象工程によって変動し得る配線パターンの密度や線幅を輝度値に変換したものである。配線パターンが疎な領域については低輝度(黒)に、密な領域になるほど高輝度(白)に変換する。このとき、検査対象ウェハの対象工程により、配線パターンの密度や線幅が異なるため、検査情報81に応じた検査条件も反映した特徴変換(step508)を行うことになる。即ち、配線パターンが疎な領域については比較的大きな異物でも短絡する可能性が低いので感度を下げて欠陥候補を検出することになる。
 特徴変換(多値データへの変換)の他の実施例84としては、設計データ30(1d)を検査情報81である光学条件(照明条件)に応じてパターンのコーナや太い配線パターンのエッジなどから散乱光として発生するノイズ(輝点)の発生確率を輝度値に変換したものである。ノイズの発生確率が高い箇所ほど高輝度(白)に変換する。ところで、パターンのコーナや太い配線パターンのエッジなどは欠陥ではないが光学条件(照明条件)によっては輝点(高輝度)を示すノイズの発生確率が高い箇所となる。
 このように、欠陥候補検出部18-2は、設計データ30(1d)を検査情報81に応じて多値のデータに変換した画像特徴83、84と、検出部17、131から得られた画像の特徴85を統合処理して欠陥候補検出処理を行う(step505)。85は、図4で示した入力画像41a、31a、41b、31bから特徴量演算処理(step503a、step503b、step504)を経て算出された特徴量の一実施例で、検出画像と参照画像との差異を示す欠陥候補である。明るいところほど、差異が大きく、欠陥である可能性が高いことを示す。86、87、88は85の欠陥候補の周辺を切り出した検出画像である。破線の円の中に欠陥がある。86、87の欠陥候補は88の欠陥候補に比べて差異は大きいが、パターンのコーナ、もしくは高輝度な配線パターンのエッジ部で発生しており、ノイズである可能性が高い。このような場合、画像から算出される特徴量(図中の85)のみからノイズを除去し、差異の小さい欠陥を検出できるしきい値を設定するのは困難なことがある。これに対し、本発明では、画像(41a,41b,31a,31b)から算出される特徴(85)と設計データ(30(1d))から検査情報81に応じて多値のデータに変換した画像特徴(83、84)を用いて統合処理を行い(step505)、差異が大きくても、ノイズの発生する確率が大きい箇所にあれば、感度を下げるなどをして、欠陥のみを検出することを可能とする。
 図8は、上述の設計データ1dから検査情報81に応じて多値のデータに変換した画像特徴84と、画像から算出した特徴85を統合処理してしきい値面を設定し(step506)、該設定されたしきい値面の外側のはずれ画素を検出する(step507)処理の一実施例を示す図である。図中91は、84のノイズの発生確率を示す画像特徴のA-B上の値である。92は、85の画像から算出した特徴量(ここでは参照画像との差異)のA-B上の値である。93は、これらの特徴を統合処理して算出した欠陥確率分布のA-B上の値である。即ち、92で示す特徴量(差異)が大きくてもノイズの発生確率91が大きい箇所については統合処理されて欠陥確率分布93は小さくなり、ノイズの発生確率91が無い箇所については特徴量(差異)がそのまま欠陥確率分布93として顕在化されることになる。従って、統合処理して算出された欠陥確率分布93をしきい値と比較することによってはずれ画素(図中の白で示す)94が欠陥候補として検出される。即ち、画像41a,41b,31a,31bから算出した特徴85において、特徴量(差異)は小さいが、設計データ(30(1d))から検査情報81に応じて多値のデータに変換した画像特徴(84)を基に得られるノイズ発生確率が小さい画素94が欠陥候補として検出されることになる。
 次に、欠陥抽出部18-3において、欠陥候補検出部18-2で検出された欠陥候補94から、ユーザにとって必要な欠陥のみを抽出する処理について図9及び図14を用いて説明する。欠陥抽出部18-3は、欠陥候補検出部18-2において検出された欠陥候補94と一緒に設計データ1dから検査情報81に応じて変換された画像特徴が入力されると、まず、欠陥候補94の各々の寸法を推定する(step1500)。そして、欠陥抽出部18-3は、推定された欠陥候補94の各々の寸法101と、画像特徴とを統合処理し(step1501)、各欠陥候補の致命度を算出し、致命な欠陥のみを抽出する(step1502)。
 図9は、図8で検出したはずれ画素(欠陥候補)94と、設計データ30から算出した画像特徴83とを統合処理して、致命欠陥を抽出する具体例を示す図である。94の白点で示す欠陥候補について、それぞれ検出画像から欠陥部の寸法(欠陥部の画素数を計数することによって面積が算出され、欠陥部のX方向およびY方向の画素数を計数することによってX方向及びY方向の長さが算出される。)を推定する(step1500)。そして、寸法情報101と配線パターンの密度を示す画像特徴83とを統合し(step1501)、各欠陥候補がウェハ上で致命となる欠陥か否かを算出する。102はそれぞれの欠陥候補の致命度を輝度で示した致命性分布の実施例である。明るい点ほど致命性が高い。
 以上に説明したように、本発明では、設計データを2値以上の多値の値を持つ画像特徴に変換し、画像から算出した特徴と欠陥判定処理の各段階(欠陥候補検出部、欠陥抽出部など)で統合することにより、ノイズと欠陥を識別したり、欠陥の致命性推定を行い、ノイズや不要な欠陥に埋没した致命性の高い欠陥の検出を可能とする。
 更に本発明では、図4で示した、異なる光学条件で得られた画像の統合(step505)の際、設計データを使用することも可能である。例えば、図2の検出部17と131から得られた検出画像41aと41bの統合の際、画像間の対応関係が取れている、すなわち、対象物に対する画像内での画素位置が一致していることが望ましいが、これらの画像が時系列に撮像された場合、対象物に対する取得位置が必ずしも一致しているとは限らない。このため、画像41aと41bの位置のずれを算出して、対応関係をとる必要がある(図4のstep504)。ここで、同一パターンに対し、異なる検出系、もしくは異なる光学条件で得られる像は、照明角度の違いによるパターンの光り方の違いや、検出条件の違いによる得られる散乱光の違いなどにより、見え方が異なることが多く、位置ずれ量を算出するのが困難なことがある。
 そこで、本発明では、例えば画像処理部18は、設計データ30を用いて見え方の異なる画像の対応点を決定する。図10(a)は検出系、もしくは光学条件の異なる画像について、設計データ30を利用した位置ずれ検出処理の流れである。1100a、1100bは、同一チップの同一領域に対して、異なる検出部17、131より得られた画像の実施例を示す。この2枚の画像は検出系の違いにより、見え方が大きく異なっているため、step1603において、画像間の位置ずれ量を算出するのは難しい。
 そこで、本発明では、例えば画像処理部18は、対応する領域の設計データ30と、対象工程、検査条件といった検査対象である半導体ウェハに関する検査情報81が入力されると、それぞれの検査条件(ここでは、2つの検出条件)における画像を設計データから推定し、対応点、すなわち条件間で共通に散乱光が得られる箇所を算出する(図10の1101)。そして、step1603では、対応点1101が、2枚の画像1100a、1100bの間で一致する位置を位置ずれ量として算出する。
 ここでは、画像間の対応点についてはデータベース1102に登録されており、設計データ30と検査条件81が入力されると、それに対応する対応点がデータベース1102から探索される実施例を示す。データベース1102は、図10(b)に示す通り、設計データ30に対し、検査情報である対象ウェハの対象工程、及び検査条件(照明条件(暗視野照明)、検出条件(検出仰角θ、検出方位角φ)など)毎の見え方を光学シミュレーションにより事前に推定し(1103)、登録することにより生成される。このように、対応点は事前に登録したデータベース1102から求めてもよいが、検査時に、設計データ30が入力された段階で画像処理部18が算出してもよい。
 図11は、例えば画像処理部18が設計データを活用する別の実施例を示す図である。1200aは、検査対象となる画像(検出画像)、1200bは対応する参照画像である。本発明では、例えば画像処理部18は、1200aと1200bと対応する位置の設計データ30、対象工程、検査条件といった被検査対象である半導体ウェハに関する検査情報81が入力されると、その検査条件における画像を設計データから推定し、入力された画像について、領域毎に最適な欠陥判定モードを自動で設定する(1202)。本発明では、例えば画像処理部18は、複数の欠陥判定モードを備えており、パターンが光っているか、光っていないか、周期性のある領域か、周期性のないランダムな領域かなどの大まかな領域分けを推定画像から行い、検出画像に対して、設定された欠陥判定モードに従って領域毎に別々の欠陥判定処理を行う。これにより、高感度検査を実現する。
 ここでは、推定画像1201はあらかじめデータベース1102に登録されており、設計データ30と検査条件81が入力されると、それに対応する推定画像はデータベース1102から探索される。データベース1102は、図10(b)に示した通り、設計データ30に対し、対象ウェハの工程、検査条件(照明条件、検出条件など)毎の見え方を光学シミュレーション(光学シミュレータを画像処理部18または全体制御部19に接続しても良い。)により事前に推定し(1103)、登録することにより生成される。このように、画像処理部18は、事前に登録したデータベース1102から推定画像を求めてもよいが、検査時に、設計データが入力された段階で画像処理部18が算出してもよい。また、画像処理部18での領域毎欠陥判定モード設定1202は、推定画像のみを用いて行ってもよいが、検出された実際の画像と統合して行ってもよい。
 図12は、例えば画像処理部18が行う領域毎の欠陥判定モード設定の実施例を示す図である。検出画像1200aについて、横縞で示す領域が周期性のないランダムパターンと推定された場合には、その領域を欠陥判定モードAに設定する。欠陥判定モードAは、検出画像1200aについて例えば参照画像1200bと明るさを比較し、その差異の大きい画素を欠陥候補とする処理である。また、無地で示す領域は、パターンがない、すなわち、散乱光が発生しない、明るさが平坦な領域と推定された場合には、その領域は欠陥判定モードBに設定する。欠陥判定モードBは、検出画像1200aについて例えばしきい値と比較し、しきい値より明るい画素を欠陥候補とする処理である。また、斜線で示す領域は、微細な周期性のあるパターン領域と推定された場合には、その領域は欠陥判定モードCに設定する。欠陥判定モードCは、検出画像1200aについて例えば設計データと比較し、周期的パターンの間隔や線幅が設計値と大きく異なる画素を欠陥候補とする処理である。このように、参照画像との比較、しきい値との比較、設計データとの比較など領域毎に最適な欠陥判定処理を行うことにより、高感度に欠陥を検出する。また、設計データから領域を推定し、その特性に応じて欠陥判定モードを自動設定することにより、ユーザは複雑な領域設定や領域毎のモード設定を不要とする。
 図13(a)は、GUI部19-1を用いた複数の欠陥判定モードを領域毎に設定する場合の通常の設定方法を示す。図中の1400は入力されるチップの画像である。これに対し、ユーザは画像を見ながら、矩形領域を設定し(step141)、指定した矩形領域毎に欠陥判定モードを設定する。ここでは、1400の破線で囲まれた領域をモード2と設定(1401)、2重線で囲まれた領域をモード1と設定(1402)している。破線で囲まれた領域は、モード1とモード2の両者を設定されたことになるため、異なるモードが設定される領域には、優先順位を設定する(step142)。破線で囲まれた領域は、優先順位の高い欠陥判定モード2が設定される。図13(b)は、例えば画像処理部18が図12に示した設計データを活用した領域毎の欠陥判定モード自動設定の実施例を示す図である。チップの設計データ1403が入力されると、本発明では、例えば画像処理部18は、設計データ30から、セルエリア(微細な同一パターンが繰返して形成されているメモリマット部)か周辺回路部か、セルエリアのセルピッチ(繰返しパターンの周期)、セルの並び方向(画像のX方向か、Y方向)、線幅などの構造情報を抽出する(step143)。そして、抽出した構造情報に応じて領域分割し、領域毎に最適な欠陥判定モードを設定する(1202)。1404は設計データ30を基に設定された各領域の欠陥判定モードを、黒、縦縞、横縞、斜線で示したものである。これらの複数の欠陥判定処理は、並列で行うことも、時系列に行うことも可能である。
 以上のように、本発明に係る欠陥検査装置によれば、複数の検出系、複数の光学条件といった見え方の異なる複数の画像41a;41b,31a;31bと、対応する設計データ1bとを画像処理部18に入力し、画像処理部18は設計データ1bから検査情報81に応じた複数の特徴を抽出して、多値の画像特徴を得る。そして、画像処理部18は、画像41a;41b,31a;31bから算出される特徴量85と設計データ1dから抽出した多値の画像特徴83,84を用いて欠陥候補94を高感度に検出することを可能とする。更に、画像処理部18は、上記検出された欠陥候補94から設計データ1b(83)を用いて致命性判定を行い、大量の非致命欠陥の中から致命性の高い欠陥を顕在化する。また、画像処理部18は、見え方の異なる複数の画像の位置ずれ検出を行う際の対応点について、設計データから得て、位置合せを行い、特徴量を統合処理して欠陥候補94を検出する。該欠陥候補94の検出は、領域毎に異なる最適な欠陥判定モードに基づいて行う。ここで、設計データからチップ内のパターンのレイアウト情報を得て、その特性に応じて最適なモードを自動設定することにより、ユーザが煩雑な操作や設定を不要として、高感度な検査を可能とする。
 CMP等平坦化プロセス後のパターンの膜厚の微妙な違いや、照明光の短波長化により比較するチップ間に大きな明るさの違いがあっても、本発明により、20nm~90nm欠陥の検出が可能となる。
 また、SiOをはじめ、SiOF、BSG、SiOB、多孔質シリア膜、等の無機絶縁膜や、メチル基含有SiO、MSQ、ポリイミド系膜、パレリン系膜、テフロン(登録商標)系膜、アモルファスカーボン膜等の有機絶縁膜といったlow k膜の検査において、屈折率分布の膜内ばらつきによる局所的な明るさの違いがあっても、本発明の実施の形態によれば、20nm~90nm欠陥の検出が可能となる。
 以上、本発明の実施の形態について半導体ウェハを対象とした暗視野検査装置における比較検査画像の実施例について説明したが、電子線式パターン検査における比較画像にも適用可能である。また、明視野照明のパターン検査装置にも適用可能である。
 検査対象は半導体ウェハに限られるわけではなく、画像の比較により欠陥検出が行われているものであれば、例えばTFT基板、ホトマスク、プリント板等でも適用可能である。
 2…メモリ、3a、3b…散乱光、11…半導体ウェハ、12…X-Y-Z-θステージ、13…メカニカルコントローラ、15a、15b…照明部、16…検出光学系、17、131…検出部、18…画像処理部、18-1…前処理部、18-2…欠陥候補検出部、18-3…欠陥抽出部、18-4…欠陥分類部、18-5…パラメータ設定部(教示データ設定部)、19-1…ユーザインターフェース部、19-2…記憶装置、19…全体制御部、30…設計データ、1d-6d…設計データ、41a-46a、41b-46b…検出画像、31a-36a、31b-36b…参照画像、81…検査情報、83、84…設計データの画像特徴、85…検出画像と参照画像との差異で示される欠陥候補、86、87、88…欠陥候補85の周辺を切り出した欠陥候補を含む検出画像、94…欠陥候補、101…各欠陥候補の寸法情報、102…致命性分布、1102…データベース。

Claims (12)

  1. 被検査対象物を所定の光学条件で照射する照明光学系と、
     該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置であって、
     さらに、入力される被検査対象物の設計データから特徴を算出する特徴算出部と、前記検出光学系で取得される被検査対象物上の対応する箇所の画像データと前記特徴算出部で算出された特徴とを用いて欠陥候補を検出する欠陥候補検出部と、該欠陥候補検出部で検出された欠陥候補から前記特徴算出部で算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出部とを有する画像処理部を備えたことを特徴とする欠陥検査装置。
  2. 前記欠陥候補検出部において用いる前記画像データは、前記検出光学系により取得される光学条件若しくは画像データ取得条件が異なる複数の画像データであることを特徴とする請求の範囲1に記載の欠陥検査装置。
  3. 前記欠陥候補検出部において、前記被検査対象物上に形成されたパターンの形状に応じて異なる複数の欠陥候補検出処理を並列に実行することを特徴とする請求の範囲1に記載の欠陥検査装置。
  4. 前記欠陥候補検出部において、前記被検査対象物の設計データから抽出される前記被検査対象物上に形成されたパターンの形状に応じて前記検出光学系により取得される画像データの各領域に対して複数の欠陥候補検出処理の何れかを適用することを特徴とする請求の範囲1に記載の欠陥検査装置。
  5. 被検査対象物を所定の光学条件で照射する照明光学系と、
     該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置であって、
     さらに、入力される被検査対象物の設計データから特徴を算出し、前記検出光学系で取得される光学条件若しくは画像データ取得条件が異なる複数の画像データから特徴量を算出する特徴算出部と、該特徴算出部で算出された設計データからの特徴と複数の画像データからの特徴量とを統合処理して欠陥候補を検出する欠陥候補検出部と、該欠陥候補検出部で検出された欠陥候補から前記特徴算出部で算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出部とを有する画像処理部を備えたことを特徴とする欠陥検査装置。
  6. 前記欠陥候補検出部において、前記設計データからの特徴と前記複数の画像データからの特徴量との統合処理を、前記設計データから対応点を決定して行うことを特徴とする請求の範囲5に記載の欠陥検査装置。
  7. 被検査対象物を所定の光学条件で照射する照明光学系と、
     該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置であって、
     さらに、入力される被検査対象物の設計データから特徴を算出し、前記検出光学系で取得される光学条件若しくは画像データ取得条件が異なる複数の画像データから特徴量を算出する特徴算出部と、該特徴算出部で算出された被検査対象物上の対応する箇所の設計データからの特徴と複数の画像データからの特徴量とを統合処理して欠陥候補を検出する欠陥候補検出部と、該欠陥候補検出部で検出された欠陥候補から前記特徴算出部で算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出部とを有する画像処理部を備えたことを特徴とする欠陥検査装置。
  8. さらに、前記被検査対象物を所定の光学条件で照射し、被検査対象物からの散乱光を所定の検出条件で検出した場合に得られる画像データを予めシミュレーションにより算出するシミュレータを備え、
     前記欠陥候補検出部において、前記設計データからの特徴と前記複数の画像データからの特徴量との統合処理の対応付けを前記シミュレータによるシミュレーション結果に基づいて行うことを特徴とする請求の範囲7に記載の欠陥検査装置。
  9. 前記シミュレータにおいて、前記被検査対象物から得られる画像データのシミュレーションには設計データを用いることを特徴とする請求の範囲8に記載の欠陥検査装置。
  10. 被検査対象物を所定の光学条件で照射する照明光学系と、該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置における欠陥検査方法であって、
     入力される被検査対象物の設計データから特徴を算出する特徴算出ステップと、前記検出光学系で取得される被検査対象物上の対応する箇所の画像データと前記特徴算出ステップで算出された特徴とを用いて欠陥候補を検出する欠陥候補検出ステップと、該欠陥候補検出ステップで検出された欠陥候補から前記特徴算出ステップで算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出ステップとを含む画像処理過程を有することを特徴とする欠陥検査方法。
  11. 被検査対象物を所定の光学条件で照射する照明光学系と、該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置における欠陥検査方法であって、
     入力される被検査対象物の設計データから特徴を算出し、前記検出光学系で取得される光学条件若しくは画像データ取得条件が異なる複数の画像データから特徴量を算出する特徴算出ステップと、該特徴算出ステップで算出された設計データからの特徴と複数の画像データからの特徴量とを統合処理して欠陥候補を検出する欠陥候補検出ステップと、該欠陥候補検出ステップで検出された欠陥候補から前記特徴算出ステップで算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出ステップとを含む画像処理過程を有することを特徴とする欠陥検査方法。
  12. 被検査対象物を所定の光学条件で照射する照明光学系と、該照明光学系で所定の光学条件で照射された被検査対象物からの散乱光を所定の検出条件で検出して画像データを取得する検出光学系とを備えた欠陥検査装置における欠陥検査方法であって、
     入力される被検査対象物の設計データから特徴を算出し、前記検出光学系で取得される光学条件若しくは画像データ取得条件が異なる複数の画像データから特徴量を算出する特徴算出ステップと、該特徴算出ステップで算出された被検査対象物上の対応する箇所の設計データからの特徴と複数の画像データからの特徴量とを統合処理して欠陥候補を検出する欠陥候補検出ステップと、該欠陥候補検出ステップで検出された欠陥候補から前記特徴算出ステップで算出される設計データの特徴を基に致命性の高い欠陥を抽出する欠陥抽出ステップとを含む画像処理過程を有することを特徴とする欠陥検査方法。
PCT/JP2009/006767 2009-01-27 2009-12-10 欠陥検査装置及びその方法 WO2010086940A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/146,033 US20110311126A1 (en) 2009-01-27 2009-12-10 Defect inspecting apparatus and defect inspecting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009015282A JP5641463B2 (ja) 2009-01-27 2009-01-27 欠陥検査装置及びその方法
JP2009-015282 2009-01-27

Publications (1)

Publication Number Publication Date
WO2010086940A1 true WO2010086940A1 (ja) 2010-08-05

Family

ID=42395211

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/006767 WO2010086940A1 (ja) 2009-01-27 2009-12-10 欠陥検査装置及びその方法

Country Status (3)

Country Link
US (1) US20110311126A1 (ja)
JP (1) JP5641463B2 (ja)
WO (1) WO2010086940A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120020546A1 (en) * 2010-07-16 2012-01-26 Kabushiki Kaisha Toshiba Pattern inspection apparatus

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7570796B2 (en) 2005-11-18 2009-08-04 Kla-Tencor Technologies Corp. Methods and systems for utilizing design data in combination with inspection data
KR101729669B1 (ko) 2008-07-28 2017-04-24 케이엘에이-텐코어 코오포레이션 웨이퍼 상의 메모리 디바이스 영역에서 검출된 결함들을 분류하기 위한 컴퓨터-구현 방법들, 컴퓨터-판독 가능 매체, 및 시스템들
JP5553716B2 (ja) * 2010-09-15 2014-07-16 株式会社日立ハイテクノロジーズ 欠陥検査方法及びその装置
JP5417306B2 (ja) * 2010-11-29 2014-02-12 株式会社日立ハイテクノロジーズ 欠陥検査方法および欠陥検査装置
JP2012117814A (ja) * 2010-11-29 2012-06-21 Hitachi High-Technologies Corp 欠陥検査装置および欠陥検査方法
US9170211B2 (en) 2011-03-25 2015-10-27 Kla-Tencor Corp. Design-based inspection using repeating structures
US9087367B2 (en) 2011-09-13 2015-07-21 Kla-Tencor Corp. Determining design coordinates for wafer defects
US9858658B2 (en) * 2012-04-19 2018-01-02 Applied Materials Israel Ltd Defect classification using CAD-based context attributes
JP5743955B2 (ja) * 2012-05-28 2015-07-01 株式会社日立ハイテクノロジーズ パターン検査装置およびパターン検査方法
US9189844B2 (en) 2012-10-15 2015-11-17 Kla-Tencor Corp. Detecting defects on a wafer using defect-specific information
JP5997039B2 (ja) * 2012-12-26 2016-09-21 株式会社日立ハイテクノロジーズ 欠陥検査方法および欠陥検査装置
US9053527B2 (en) 2013-01-02 2015-06-09 Kla-Tencor Corp. Detecting defects on a wafer
US9134254B2 (en) 2013-01-07 2015-09-15 Kla-Tencor Corp. Determining a position of inspection system output in design data space
US9311698B2 (en) * 2013-01-09 2016-04-12 Kla-Tencor Corp. Detecting defects on a wafer using template image matching
KR102019534B1 (ko) 2013-02-01 2019-09-09 케이엘에이 코포레이션 결함 특유의, 다중 채널 정보를 이용한 웨이퍼 상의 결함 검출
US9865512B2 (en) 2013-04-08 2018-01-09 Kla-Tencor Corp. Dynamic design attributes for wafer inspection
US9310320B2 (en) 2013-04-15 2016-04-12 Kla-Tencor Corp. Based sampling and binning for yield critical defects
WO2015121952A1 (ja) * 2014-02-14 2015-08-20 株式会社 日立ハイテクノロジーズ 検査装置
US9767548B2 (en) * 2015-04-24 2017-09-19 Kla-Tencor Corp. Outlier detection on pattern of interest image populations
EP3190464B1 (en) * 2015-12-14 2021-08-11 IMEC vzw Method for inspecting a pattern of features on a semiconductor die
JP6556266B2 (ja) * 2016-01-29 2019-08-07 富士フイルム株式会社 欠陥検査装置、方法およびプログラム
US11029253B2 (en) * 2017-03-30 2021-06-08 Applied Materials Israel Ltd. Computerized method for configuring an inspection system, computer program product and an inspection system
CN108444921B (zh) * 2018-03-19 2021-02-26 长沙理工大学 一种基于信号相关分析的增材制造构件在线检测方法
CN114035013B (zh) * 2021-10-19 2024-06-18 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 缺陷诊断方法和缺陷诊断装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63126242A (ja) * 1986-11-17 1988-05-30 Hitachi Ltd 外観検査方法および装置
JPH1187446A (ja) * 1997-07-04 1999-03-30 Hitachi Ltd パターン欠陥検査装置及びパターン欠陥検査方法
JP2005158780A (ja) * 2003-11-20 2005-06-16 Hitachi Ltd パターン欠陥検査方法及びその装置
WO2007079344A2 (en) * 2005-12-14 2007-07-12 Kla-Tencor Technologies Corporation Methods and systems for binning defects detected on a specimen

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040008879A1 (en) * 2002-07-11 2004-01-15 United Microelectronics Corp. Method for detecting wafer level defect
US6812462B1 (en) * 2003-02-21 2004-11-02 Kla-Tencor Technologies Corporation Dual electron beam instrument for multi-perspective
JP2005309140A (ja) * 2004-04-22 2005-11-04 Toshiba Corp フォトマスク製造方法、フォトマスク欠陥修正箇所判定方法、及びフォトマスク欠陥修正箇所判定装置
JP2006220644A (ja) * 2005-01-14 2006-08-24 Hitachi High-Technologies Corp パターン検査方法及びその装置
JP4791267B2 (ja) * 2006-06-23 2011-10-12 株式会社日立ハイテクノロジーズ 欠陥検査システム
US8139844B2 (en) * 2008-04-14 2012-03-20 Kla-Tencor Corp. Methods and systems for determining a defect criticality index for defects on wafers

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63126242A (ja) * 1986-11-17 1988-05-30 Hitachi Ltd 外観検査方法および装置
JPH1187446A (ja) * 1997-07-04 1999-03-30 Hitachi Ltd パターン欠陥検査装置及びパターン欠陥検査方法
JP2005158780A (ja) * 2003-11-20 2005-06-16 Hitachi Ltd パターン欠陥検査方法及びその装置
WO2007079344A2 (en) * 2005-12-14 2007-07-12 Kla-Tencor Technologies Corporation Methods and systems for binning defects detected on a specimen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120020546A1 (en) * 2010-07-16 2012-01-26 Kabushiki Kaisha Toshiba Pattern inspection apparatus

Also Published As

Publication number Publication date
JP2010175270A (ja) 2010-08-12
US20110311126A1 (en) 2011-12-22
JP5641463B2 (ja) 2014-12-17

Similar Documents

Publication Publication Date Title
JP5641463B2 (ja) 欠陥検査装置及びその方法
US8737718B2 (en) Apparatus and method for inspecting defect
JP4928862B2 (ja) 欠陥検査方法及びその装置
JP5260183B2 (ja) 欠陥検査方法及びその装置
JP4664327B2 (ja) パターン検査方法
JP5174535B2 (ja) 欠陥検査方法及びその装置
JP2004271470A (ja) パターン検査方法及びその装置
JP5028014B2 (ja) パターン検査方法及びその装置
JP5553716B2 (ja) 欠陥検査方法及びその装置
JP2005158780A (ja) パターン欠陥検査方法及びその装置
US20120294507A1 (en) Defect inspection method and device thereof
US7275006B2 (en) Workpiece inspection apparatus assisting device, workpiece inspection method and computer-readable recording media storing program therefor
JP2005321237A (ja) パターン検査方法及びその装置
JP2006220644A (ja) パターン検査方法及びその装置
JP2003215060A (ja) パターン検査方法及び検査装置
WO2020105319A1 (ja) 欠陥検査装置、欠陥検査方法
JP2010151824A (ja) パターン検査方法及びその装置
US20060290930A1 (en) Method and apparatus for inspecting pattern defects
US9933370B2 (en) Inspection apparatus
TW202225675A (zh) 雜訊圖案化特徵之檢測
JP2009097928A (ja) 欠陥検査装置及び欠陥検査方法
JP4013510B2 (ja) 欠陥検査方法及びその装置
JP3878340B2 (ja) パターンの欠陥検査方法およびその装置
JP5391172B2 (ja) 異物検査装置及びアライメント調整方法
JP2010230611A (ja) パターン欠陥検査装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09839132

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13146033

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 09839132

Country of ref document: EP

Kind code of ref document: A1