WO2009133849A1 - 検査装置 - Google Patents

検査装置 Download PDF

Info

Publication number
WO2009133849A1
WO2009133849A1 PCT/JP2009/058273 JP2009058273W WO2009133849A1 WO 2009133849 A1 WO2009133849 A1 WO 2009133849A1 JP 2009058273 W JP2009058273 W JP 2009058273W WO 2009133849 A1 WO2009133849 A1 WO 2009133849A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
test substrate
path switching
optical path
wafer
Prior art date
Application number
PCT/JP2009/058273
Other languages
English (en)
French (fr)
Inventor
透 吉川
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2010510118A priority Critical patent/JPWO2009133849A1/ja
Publication of WO2009133849A1 publication Critical patent/WO2009133849A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9501Semiconductor wafers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95623Inspecting patterns on the surface of objects using a spatial filtering method

Definitions

  • the present invention relates to an inspection apparatus for detecting a pattern formed on the surface of a substrate to be tested in a manufacturing process of a semiconductor element, a liquid crystal display element or the like.
  • the measurement accuracy is high, but the observation magnification is high and sampling is performed by sampling several points. It will take. Therefore, the light of a predetermined wavelength emitted from the light source is irradiated on the surface of the test substrate by epi-illumination through the polarizer and the objective lens, and the reflected light from the test substrate by the illumination is converted into the objective lens and the polarizer.
  • the polarizer and the objective lens By detecting a Fourier image obtained through an analyzer that satisfies the conditions of crossed Nicols and a field stop with a CCD camera, and selecting a place with high sensitivity in the Fourier image, it is possible to change the pattern width with high sensitivity.
  • An inspection device for detection has been proposed.
  • the present invention has been made in view of such problems, and an object thereof is to provide an inspection apparatus capable of performing two-dimensional inspection with high sensitivity.
  • an inspection apparatus receives an illumination unit that irradiates illumination light on the surface of a test substrate, and reflected light from the surface of the test substrate irradiated with the illumination light.
  • a light receiving optical system that forms an image of the surface of the substrate to be tested, a pupil plane of the light receiving optical system or a position conjugate with the pupil plane, and a plurality of optical path switching elements, and the plurality of optical paths
  • An optical path switching unit capable of switching each reflection direction of the switching element between one direction and another direction different from the direction of the one direction, and detection capable of detecting luminance on the pupil plane from light reflected by the optical path switching element
  • a two-dimensional image sensor capable of capturing an image of the surface of the test substrate obtained by forming the light reflected by the optical path switching element by the light receiving optical system, and controlling the operation of the optical path switching unit.
  • An inspection unit that inspects the surface of the test substrate based on an image of the surface of the test substrate, and the control unit is suitable for the inspection based on luminance information detected by the detection unit
  • a two-dimensional image sensor that obtains a part of the surface, controls the operation of the optical path switching element corresponding to the part, and controls the light of the part of the pupil surface used for the examination to the two-dimensional image sensor; Is configured to capture an image of the surface of the test substrate obtained by the light of the part of the pupil plane used for the inspection.
  • the optical path switching element faces the one side
  • reflected light from the surface of the test substrate is guided to the detection unit, and the optical path switching element faces the other side. Further, it is preferable that reflected light from the surface of the test substrate is guided to the two-dimensional image sensor.
  • the illumination light is linearly polarized light irradiated on the surface of the test substrate having a repetitive pattern
  • the light receiving optical system is the linearly polarized light in the reflected light from the test substrate. It is preferable to receive a polarized light component whose polarization directions are substantially orthogonal to each other.
  • the illumination unit irradiates the surface of the substrate to be examined with epi-illumination.
  • the detection unit is a second two-dimensional image sensor and detects a two-dimensional luminance distribution on the pupil plane.
  • the plurality of optical path switching elements are a plurality of micromirrors constituting a digital micromirror device.
  • the inspection apparatus 1 of the present embodiment includes a wafer stage 5, an objective lens 6, a half mirror 7, an illumination optical system 10, a detection optical system 20, an imaging unit 30, and a control unit. 40 as a main component.
  • a semiconductor wafer W (hereinafter referred to as a wafer W), which is a substrate to be tested, is placed with the pattern (repetitive pattern) formation surface facing upward.
  • the wafer stage 5 is configured to be movable in three directions of x, y, and z axes orthogonal to each other (note that the vertical direction in FIG. 1 is the z axis direction). Thereby, the wafer stage 5 can support the wafer W so as to be movable in the x-, y-, and z-axis directions.
  • the wafer stage 5 is configured to be rotatable about the z axis.
  • the illumination optical system 10 includes a light source 11 (for example, a white LED or a halogen lamp), a condenser lens 12, an illuminance uniformizing unit 13, an aperture stop 14 in order of arrangement from the left side to the right side in FIG.
  • a field stop 15, a collimator lens 16, and a detachable polarizer 17 (polarization filter) are included.
  • the light emitted from the light source 11 of the illumination optical system 10 is guided to the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13.
  • the illuminance uniformizing unit 13 scatters illumination light and uniformizes the light quantity distribution.
  • An interference filter can also be included.
  • the aperture stop 14 and the field stop 15 are configured such that the size and position of the opening can be changed with respect to the optical axis of the illumination optical system 10. Therefore, in the illumination optical system 10, by operating the aperture stop 14 and the field stop 15, the size and position of the illumination area can be changed and the aperture angle of the illumination can be adjusted.
  • the light that has passed through the aperture stop 14 and the field stop 15 is collimated by the collimator lens 16, passes through the polarizer 17, and enters the half mirror 7.
  • the half mirror 7 reflects light from the illumination optical system 10 downward and guides it to the objective lens 6. Thereby, the wafer W is incidentally illuminated by the light from the illumination optical system 10 that has passed through the objective lens 6. On the other hand, the light incident on the wafer W can be reflected by the wafer W, return to the objective lens 6 again, pass through the half mirror 7, and enter the detection optical system 20.
  • the detection optical system 20 includes a detachable analyzer 21 (polarization filter), a lens 22, a half prism 23, a belt run lens 24, and a field stop 25 in order of arrangement from the lower side to the upper side in FIG. It is configured.
  • the analyzer 21 is arranged so as to be in a crossed Nicols state (a state in which the polarization directions are orthogonal) with respect to the polarizer 17 of the illumination optical system 10. Since the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 satisfy the condition of crossed Nicols, the amount of light received by the detection optical system 20 is zero unless the polarization main axis rotates in the pattern of the wafer W. Close to.
  • Half prism 23 splits the incident light beam in two directions.
  • One light beam passing through the half prism 23 forms an image of the surface of the wafer W on the field stop 25 via the belt-run lens 24 and at the same time, converts the image of the pupil plane of the objective lens 6 into the DMD (digital micrometer) of the imaging unit 30.
  • Mirror device Projects on the element 31. Since the Fourier image pickup element 33 of the image pickup unit 30 is conjugate with the DMD element 31, a luminance distribution on the pupil plane of the objective lens 6 appears on the image pickup surface of the Fourier image pickup element 33, and the Fourier image pickup element 33 An image (Fourier image) of the wafer W subjected to Fourier transform can be taken.
  • the Bertrand lens generally refers to a converging lens that connects an image of the rear focal plane of the objective lens to the focal plane of the eyepiece, but an optical system such as a microscope is generally telecentric on the image side. Since the rear focal plane of the objective lens is the pupil plane, in this embodiment, the lens 24 that forms an image of the pupil plane of the objective lens 6 on the imaging plane of the Fourier image pickup device 33 is referred to as a belt run lens 24. To do.
  • the field stop 25 is used as a countermeasure against stray light.
  • the other light beam passing through the half prism 23 is guided to the second imaging unit 50 for capturing an image of a normal wafer W that has not undergone Fourier transform.
  • the Fourier image (that is, the image of the pupil plane of the objective lens 6) is picked up by the defect inspection of the present embodiment for the following reason. If an image obtained by directly imaging the pattern of the wafer W is used in the defect inspection, the pattern defect cannot be optically detected when the pattern pitch is less than the resolution of the inspection apparatus. On the other hand, in the Fourier image, if there is a defect in the pattern of the wafer W, the symmetry of the reflected light is lost, and the luminance, color, etc. of portions orthogonal to the optical axis of the Fourier image change due to structural birefringence. Therefore, even when the pattern pitch is less than the resolution of the inspection apparatus, it is possible to detect a defect in the pattern by detecting the change in the Fourier image.
  • the incident angle of the illumination light on the wafer W when the incident angle of the illumination light to the wafer W is 0 °, the image formation position on the pupil is the pupil center.
  • the imaging unit 30 includes a DMD (Digital Micromirror Device) element 31, a relay lens 32, a Fourier image imaging element 33, an imaging lens 34 provided on the opposite side, and an imaging for inspection. And an element 35.
  • the DMD element 31 has a plurality of movable micromirrors (not shown) arranged on a plane.
  • the micromirror of the DMD element 31 is electrically driven to tilt so that the light from the detection optical system 20 is reflected toward the Fourier image pickup element 33 in the ON state, and in the OFF state, the detection optical system 20. So that the light from the light is reflected toward the inspection image sensor 35.
  • the light from the detection optical system 20 reflected by the micromirror in the ON state is guided to the imaging surface of the Fourier image sensor 33 through the relay lens 32 (tilt optical system).
  • the light from the detection optical system 20 reflected by the micromirror in the OFF state is guided to the image pickup surface of the inspection image pickup device 35 through the imaging lens 34 (tilt optical system), and the wafer W on the image pickup surface.
  • An image of the surface is formed. That is, the imaging lens 34 performs inverse Fourier transform.
  • the Fourier image pickup element 33 is a two-dimensional image sensor such as a CCD or CMOS having a Bayer array color filter array, and picks up the above-described Fourier image.
  • the inspection imaging device 35 is a two-dimensional image sensor such as a CCD or CMOS having a Bayer array color filter array, and is arranged in a conjugate manner with the field stop 25 to capture an image of the surface of the wafer W within the field of view.
  • the control unit 40 includes a recording unit 41 that records Fourier image data, an input interface 42, a CPU 43 that executes various arithmetic processes, a monitor 44, and an operation unit 45. Perform overall control.
  • the recording unit 41, the input interface 42, the monitor 44, and the operation unit 45 are electrically connected to the CPU 43, respectively.
  • the CPU 43 analyzes the Fourier image by executing the program, and obtains a region that is highly sensitive to the pattern change in the Fourier image captured by the Fourier image capturing element 33.
  • the input interface 42 has a connector for connecting a recording medium (not shown) and a connection terminal for connecting to an external computer (not shown), and reads data from the recording medium or the computer. Do.
  • step S101 the pixel correspondence table is created by removing the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 from the optical axis.
  • step S ⁇ b> 102 the wafer W having no pattern is moved below the objective lens 6 by the wafer stage 5.
  • the light source 11 of the illumination optical system 10 is turned on.
  • the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance equalizing unit 13, and is converted into parallel light by the collimator lens 16 to be half mirror 7.
  • the wafer W is irradiated through the objective lens 6.
  • the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the lens 22, the half prism 23, the belt run lens 24,
  • the Fourier image is projected onto the DMD element 31 of the imaging unit 30 through the field stop 25.
  • step S104 only one pixel (micromirror) of the DMD element 31 is turned on, and the other pixels (micromirror) are turned off. Then, the light from the detection optical system 20 reflected by the pixels in the ON state passes through the relay lens 32 and is guided to the imaging surface of the Fourier image imaging device 33.
  • the image is picked up by the Fourier image pickup device 33, the light reflected by the pixel in the ON state (micromirror) is detected, and the light reflected by the pixel in the ON state by the CPU 43 (Fourier) The pixel position in the image pickup device 33) is calculated and obtained.
  • the CPU 43 determines the relationship between the pixel position of the Fourier image pickup element 33 obtained in step S105 and the pixel position (micromirror position) of the DMD element 31 at that time. Register in the correspondence table.
  • step S107 the CPU 43 determines whether or not all the pixels of the DMD element 31 have been measured. If the determination is Yes, the creation of the pixel correspondence table is terminated, and if the determination is No, the process proceeds to step S108.
  • step S108 the pixel (micromirror) for turning on the DMD element 31 is changed to a pixel that has not been measured, and the process returns to step S105.
  • the relationship between the pixels of the Fourier image pickup element 33 and the DMD element 31 can be registered in the pixel correspondence table.
  • step S201 the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis.
  • step S202 all the pixels (micromirrors) of the DMD element 31 are turned on so that all the light from the wafer W is reflected toward the Fourier image pickup element 33.
  • step S203 the light source 11 of the illumination optical system 10 is turned on.
  • the wafer W on which the repeated pattern is formed is placed on the wafer stage 5, and the pattern to be measured (one shot) on the wafer W is moved below the objective lens 6 by the wafer stage 5.
  • a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are used is used.
  • the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13, and is converted into parallel light by the collimator lens 16 and then the polarizer 17.
  • the wafer W After being reflected by the half mirror 7, the wafer W is irradiated through the objective lens 6.
  • the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the analyzer 21, the lens 22, the half prism 23, A Fourier image is projected on the DMD element 31 of the imaging unit 30 through the Bertrand lens 24 and the field stop 25.
  • the light reflected by the DMD element 31 passes through the relay lens 32 and a Fourier image is projected on the imaging surface of the imaging element 33 for Fourier images.
  • a Fourier image is picked up by the Fourier image pickup device 33, and the picked-up Fourier image is recorded in the recording unit 41.
  • step S206 the CPU 43 determines whether all necessary patterns on the wafer W have been measured. If the determination is yes, the process proceeds to step S207. If the determination is no, the process returns to step S204, and a pattern (another shot) that has not been measured yet is moved below the objective lens 6 to perform imaging in step S205. . As a result, the recording unit 41 records color data of a plurality of Fourier images having different exposure conditions for the same shape pattern.
  • step S207 the CPU 43 generates luminance data (average value) of R (red), G (green), and B (blue) for each position of the Fourier image for each Fourier image.
  • the luminance data is obtained by dividing a Fourier image (for example, the Fourier image FI 1 of the first frame) into a plurality of divided regions P having a square lattice shape at equal intervals in the vertical and horizontal directions. For each divided region P, an average of RGB luminance values is obtained for each color. This process is performed for each Fourier image. Thereby, for the Fourier images FI 1 to FI n from the first frame to the nth frame, luminance data indicating the gradation for each color component of R, G, B is generated for each divided region P of each Fourier image. Will be.
  • the CPU 43 converts the gradation difference data indicating the gradation difference between the Fourier images FI 1 to FI n in the same divided area into R, G , B for each color component.
  • an arbitrary divided region on the Fourier image FI is P m
  • luminance data of each color component in the divided region P m obtained in step S207.
  • the difference among the gradation values of luminance data corresponding to the divided area P m, R, G, and maximum and minimum values extracts the maximum and minimum values of each color component, extracted in B Calculate the value.
  • step S209 based on the gradation difference data (difference value between the maximum gradation value and the minimum gradation value) obtained in step S208, the CPU 43 determines the maximum gradation value and the minimum gradation value among the divided areas of the Fourier image. A color and a divided region having a maximum difference value from the value are obtained, the divided region is determined as a region having high sensitivity, and this is determined as a detection condition.
  • FIGS. 8 to 10 are diagrams showing the distribution state of the gradation difference in each divided region of the Fourier image for each color component. In the examples of FIGS. 8 to 10, the upper left area of the gradation difference B shown in FIG. 10 is the area of maximum sensitivity. In this way, in order to detect a change in the line width and profile of the pattern with high sensitivity, it is determined which color of R, G, and B should be used and which divided region should be used in the Fourier image. Can do.
  • an unknown pattern change can be detected from an image captured by the Fourier image sensor 33.
  • this method only one average value in the range limited by the field stop 25 can be obtained. Even if the field stop 25 is enlarged, only an average value in a wide range on the wafer W can be obtained. Further, if two-dimensional measurement is to be performed, the measurement must be performed while moving the wafer stage 5.
  • step S301 the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis.
  • step S302 the CPU 43 determines a pixel (micromirror) of the DMD element 31 to be turned on / off in order to guide the reflected light from the wafer W to the inspection image sensor 35.
  • the CPU 43 determines a pixel (micromirror) of the DMD element 31 to be turned on / off in order to guide the reflected light from the wafer W to the inspection image sensor 35.
  • the sensitivity is high on the Fourier image pickup element 33 obtained in steps S201 to S209.
  • the pixel of the DMD element 31 corresponding to the pixel region (divided region) is obtained.
  • the CPU 43 sets the pixels of the DMD element 31 corresponding to the high-sensitivity pixel area (divided area) obtained in step S302 to be turned off and led to the inspection image sensor 35.
  • the other pixels are turned on and set so as to be guided toward the Fourier image sensor 33.
  • step S304 the light source 11 of the illumination optical system 10 is turned on.
  • step S 305 the wafer W to be inspected is placed on the wafer stage 5, and the pattern to be inspected (for one shot) on the wafer W is moved below the objective lens 6 by the wafer stage 5.
  • the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13, and is converted into parallel light by the collimator lens 16 and then the polarizer 17.
  • the wafer W After being reflected by the half mirror 7, the wafer W is irradiated through the objective lens 6.
  • the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the analyzer 21, the lens 22, the half prism 23, It passes through the Bertrand lens 24 and the field stop 25 and reaches the DMD element 31 of the imaging unit 30.
  • the reflected light in a region sensitive to the pattern change of the wafer W is reflected by the OFF pixel (micromirror) in the DMD element 31, passes through the imaging lens 34, and is guided to the inspection imaging element 35. It is burned.
  • the imaging lens 34 is a lens that conjugates the wafer W (field stop 25) and the inspection image sensor 35
  • the DMD element 31 selects the image pickup surface of the image sensor 35 for inspection.
  • An image of the surface (pattern) of the wafer W is formed only with reflected light having high sensitivity to the pattern change of the wafer W.
  • the inspection image pickup device 35 picks up an image of the pattern (one shot) of the wafer W.
  • the image of the pattern of the wafer W picked up in this way is an image having high sensitivity (the luminance is likely to change) with respect to the pattern change.
  • the image of the pattern of the wafer W imaged by the inspection imaging device 35 is displayed on the monitor 44, and the operator visually observes the image of the wafer W, thereby changing the pattern on the wafer W (that is, the pattern pattern). (Defect) can be detected.
  • a pattern image of the wafer W from which a specific color component with high sensitivity is extracted may be displayed on the monitor 44.
  • the CPU 43 calculates an average value of luminance (gradation) in the pattern image of the wafer W, and compares the calculated average value with a pre-set good product range. . If the calculated average value is within the non-defective range, it is determined to be non-defective, and if it is outside the non-defective range, it is determined to be defective. Thereby, the quality of the pattern can be automatically determined. Note that, by changing the range of the data to be averaged, it is possible to obtain the effect of changing the visual field size on the wafer W. In addition, a local defect can be found by calculating the maximum value or the minimum value instead of the average value of luminance and comparing it with a predetermined good product range.
  • the inspection image sensor 35 is in a state where the micromirror corresponding to the high-sensitivity portion suitable for inspection faces the image sensor 35 for inspection. Since an image of the surface (pattern) of W is taken, the pattern formed on the surface of the wafer W can be inspected two-dimensionally with high sensitivity.
  • the detection optical system 20 receives a polarization component whose polarization direction is substantially orthogonal to the illumination light that is linearly polarized light out of the light from the wafer W, and in this way, a so-called crossed Nicol state is obtained.
  • the polarization directions of the polarizer 17 and the analyzer 21 are not limited to 90 ° (in a crossed Nicol state), but may be finely adjusted according to the rotation of elliptically polarized light due to structural birefringence generated in the pattern to be inspected. Good.
  • the two-dimensional luminance distribution (Fourier image) on the pupil plane using the Fourier image pickup device 33 (two-dimensional image sensor).
  • the Fourier image pickup device 33 two-dimensional image sensor
  • the DMD element 31 including a plurality of micromirrors as an optical path switching element for switching the traveling direction of light from the wafer W, so that the traveling direction of the light from the wafer W can be set to a minute unit for each pixel. It becomes possible to switch for each area.
  • the DMD element 31 corresponding to the high-sensitivity pixel area (divided area) obtained in step S302 is set to be in an OFF state and guided toward the inspection image sensor 35, and although the other pixels are turned on and set so as to be guided toward the Fourier image pickup element 33, the present invention is not limited to this.
  • a half prism 38 is disposed between the DMD element 31 and the relay lens 32, and a part of the light traveling from the DMD element 31 to the Fourier image pickup element 33 is imaged from the half prism 38. It may be guided to the inspection image sensor 35 via the lens 34.
  • step S303 the CPU 43 turns on the pixels of the DMD element 31 corresponding to the highly sensitive pixel area (divided area) obtained in step S302 to turn on the Fourier image pickup element 33 and the inspection image pickup element 35.
  • the setting is made so that the other pixels are turned off, and the other pixels are set in an OFF state so as not to be led toward the inspection image sensor 35.
  • the pixel of the DMD element 31 can be turned on with higher positional accuracy, and the light from the wafer W can be guided toward the inspection image sensor 35.
  • the configuration may be such that the Fourier image pickup element 33 and the inspection image pickup element 35 are also used as one image pickup element, and the relay lens 32 and the imaging lens 34 are interchanged.
  • the Fourier image pickup device 33 (two-dimensional image sensor) is used to detect the two-dimensional luminance distribution (Fourier image) on the pupil plane.
  • the present invention is not limited to this. .
  • a spectral prism 63 and three detection elements 64a, 64b, and 64c are used to change the luminance on the pupil plane (each color component of R, G, and B). May be detected).
  • the micromirror of the DMD element 31 is turned on for each pixel so that the light from the detection optical system 20 is reflected toward the detection elements 64a, 64b, 64c (spectral prism 35), It is possible to obtain a two-dimensional luminance distribution on the pupil plane.
  • the light from the detection optical system 20 reflected by the micromirror in the ON state passes through the lens 32 (tilt optical system) and is R (red), G (green), and B (blue) by the spectroscopic prism 63. And then guided to three detection elements 64a, 64b and 64c, respectively.
  • the three detection elements 64a, 64b, and 64c are photodiodes, avalanche elements, and the like, and detect R (red), G (green), and B (blue) light dispersed by the spectral prism 63, respectively.
  • the inspection apparatus 1 that performs defect inspection of the wafer W has been described as an example.
  • the substrate to be tested is not limited to the wafer W, and may be a liquid crystal glass substrate, for example.
  • a region having high sensitivity to a change in pattern is determined based on the gradation difference data (difference value between the maximum value and the minimum value of the gradation). It is not something that can be done. Therefore, a modified example of the method for determining a highly sensitive region will be described with reference to the flowchart shown in FIG. As in the case of the above-described embodiment, this method uses a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are formed, and a Fourier image of each pattern and a line for each pattern. Based on the width data, a region having high sensitivity to the pattern change is determined.
  • the line width data corresponding to the above pattern is obtained by using a line width measuring instrument such as a scatterometer or a scanning electron microscope (SEM), and these line width data groups are input in advance. It is assumed that the data is input from the interface 42 and recorded in the recording unit 41.
  • a line width measuring instrument such as a scatterometer or a scanning electron microscope (SEM)
  • step S251 the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis.
  • step S252 all the pixels (micromirrors) of the DMD element 31 are turned on so that all the light from the wafer W is reflected toward the Fourier image pickup element 33.
  • step S253 the light source 11 of the illumination optical system 10 is turned on.
  • next step S254 the wafer W on which a plurality of patterns having the same shape with different exposure conditions (doses and focus) are formed is placed on the wafer stage 5, and a pattern to be measured (one shot) on the wafer W is placed.
  • the wafer stage 5 is moved below the objective lens 6.
  • next step S255 a Fourier image is picked up by the Fourier image pickup device 33, and the picked-up Fourier image is recorded in the recording unit 41.
  • step S256 the CPU 43 determines whether all the patterns on the wafer W have been measured. If the determination is yes, the process proceeds to step S257, and if the determination is no, the process returns to step S254, and a pattern (another shot) that has not been measured yet is moved below the objective lens 6 to perform imaging in step S255. .
  • step S257 as in the above-described embodiment, the CPU 43, for each Fourier image, brightness data (average value) of R (red), G (green), and B (blue) for each divided region of the Fourier image. Are generated respectively.
  • step S258 attention is paid to the same divided area, and the CPU 43 calculates an approximate expression indicating the rate of change between the gradation value and the line width of the pattern in the same divided area of each of the Fourier images FI 1 to FI n. , G, and B for each color component.
  • an arbitrary divided region on the Fourier image FI is P m
  • line width data of a pattern corresponding to each Fourier image FI 1 to FI n is read from the recording unit 41.
  • the luminance data of each color component in the divided region P m (obtained in step S257) is extracted.
  • the correspondence between the line width of the pattern and the gradation value of the luminance data in the divided area P m is obtained.
  • the line width of the pattern corresponding to each of the Fourier images FI 1 to FI n is set to y
  • the gradation value of B (or R or G) in the divided region P m is set to x
  • the inclination is set to a
  • y the approximate expression is expressed by the following expression (1).
  • the absolute value of the coefficient a corresponds to the reciprocal of the gradation change with respect to the change in the line width of the pattern (that is, the reciprocal of the detection sensitivity with respect to the change in the pattern). That is, when the absolute value of the coefficient a is small, the gradation change of the Fourier image is large even if the difference in line width is the same, so that the detection sensitivity to the change of the pattern is higher.
  • step S259 the CPU 43 obtains a correlation error between the approximate expression obtained in step S258 and the line width of the pattern for each color component of R, G, and B in each divided region on the Fourier image. Specifically, deviation data between the line width of the pattern corresponding to each of the Fourier images FI 1 to FI n and the line width of the pattern calculated using the approximate expression are used as R, G, and B color components. The standard deviation is calculated for each color component of each divided region from the calculated deviation data, and the value is used as a correlation error.
  • step S260 based on the coefficient a obtained in step S258 and the correlation error obtained in step S259, the CPU 43 has a small absolute value of the coefficient a in the divided region of the Fourier image and a sufficient correlation error.
  • a small divided area is obtained, the divided area is determined as a highly sensitive area, and this is determined as a detection condition. Specifically, for example, each divided region is scored according to the small absolute value of the coefficient a and the small correlation error, and a highly sensitive divided region is selected based on the scoring result. decide. Even in this case, in order to detect a change in the line width or profile of the pattern with high sensitivity, it is necessary to determine which color of R, G, and B should be used and which divided region should be used in the Fourier image. Can do.

Abstract

 検査装置(1)において、CPU(43)は、DMD素子(31)(マイクロミラー)を一方向に向けて、フーリエ画像用撮像素子(33)で検出して得られる輝度情報に基づいてフーリエ画像における検査に適する部分を求め、検査に適する部分に対応するDMD素子(31)(マイクロミラー)を他方向に向ける制御を行い、検査用撮像素子(35)は、検査に適する部分に対応するDMD素子(31)(マイクロミラー)が他方向に向いた状態でウェハ(W)の表面の像を撮像するようになっている。

Description

検査装置
 本発明は、半導体素子や液晶表示素子等の製造過程において、被検基板の表面に形成されたパターンを検出する検査装置に関する。
 従来、半導体ウェハや液晶ガラス基板等の被検基板の表面に形成されたパターンから発生する反射光を利用して、基板表面のムラや傷等の欠陥を検査する装置が種々提案されている(例えば、特許文献1を参照)。特に、近年では半導体プロセスの微細化に伴って、被検基板の欠陥管理にもより高い精度が求められている。
 例えば、被検基板のパターン幅の測定をSEM(走査型電子顕微鏡)で行った場合、測定精度は高いが、観察倍率が高く何点かをサンプリングして測定を行うため、測定に膨大な時間がかかってしまう。そこで、光源から射出された所定波長の光を偏光子および対物レンズを介して落射照明により被検基板の表面に照射し、当該照明による被検基板からの反射光を、対物レンズ、偏光子とクロスニコルの条件を満足する検光子、および視野絞り等を介して得られるフーリエ画像をCCDカメラで検出し、フーリエ画像内で感度の高い所を選択することにより、高感度でパターン幅の変化を検出する検査装置が提案されている。
特開2000-155099号公報
 しかしながら、このような検査装置においては、フーリエ画像内での輝度情報に基づいて検査を行っていたため、検出視野内における2次元的な検査を行うことができなかった。
 本発明は、このような問題に鑑みてなされたものであり、高い感度で2次元的に検査を行うことが可能な検査装置を提供することを目的とする。
 このような目的達成のため、本発明に係る検査装置は、被検基板の表面に照明光を照射する照明部と、前記照明光が照射された前記被検基板の表面からの反射光を受光して前記被検基板の表面の像を結像する受光光学系と、前記受光光学系の瞳面または瞳面と共役な位置に配置され、複数の光路切替素子を有し、前記複数の光路切替素子のそれぞれの反射方向を一方向と前記一方向の向きと異なる他方向とに切替可能な光路切替部と、前記光路切替素子で反射した光から前記瞳面での輝度を検出可能な検出部と、前記光路切替素子で反射した光が前記受光光学系により結像されて得られる前記被検基板の表面の像を撮像可能な2次元イメージセンサと、前記光路切替部の作動を制御する制御部と、前記2次元イメージセンサにより撮像された前記被検基板の表面の画像に基づいて、前記被検基板の表面を検査する検査部とを備え、前記制御部は、前記検出部で検出される輝度情報に基づいて前記検査に適する前記瞳面の部位を求め、前記部位に対応する前記光路切替素子の作動を制御して、前記検査に用いる前記瞳面の部位の光を前記2次元イメージセンサへ導く制御を行い、前記2次元イメージセンサは、前記検査に用いる前記瞳面の部位の光により得られる前記被検基板の表面の像を撮像するようになっている。
 なお、上述の発明において、前記光路切替素子が前記一方を向いているときに前記被検基板の表面からの反射光が前記検出部へ導かれ、前記光路切替素子が前記他方を向いているときに前記被検基板の表面からの反射光が前記2次元イメージセンサへ導かれるようにすることが好ましい。
 また、上述の発明において、前記照明光は、繰り返しパターンを有する前記被検基板の表面に照射される直線偏光であり、前記受光光学系は、前記被検基板からの反射光のうち前記直線偏光と偏光方向が略直交する偏光成分を受光することが好ましい。
 また、上述の発明において、前記照明部は、落射照明により前記照明光を前記被検基板の表面に照射することが好ましい。
 また、上述の発明において、前記検出部は、第2の2次元イメージセンサであり、前記瞳面における2次元の輝度分布を検出することが好ましい。
 また、上述の発明において、前記複数の光路切替素子は、デジタルマイクロミラーデバイスを構成する複数のマイクロミラーであることが好ましい。
 本発明によれば、高い感度で2次元的に検査を行うことが可能になる。
本発明に係る検査装置の概要図である。 ウェハへの照明光の入射角度と瞳内での結像位置との関係を示す説明図である。 フーリエ画像用撮像素子とDMD素子との画素対応テーブルの作成方法を示すフローチャートである。 パターンの変化に対して感度の高い領域の決定方法を示すフローチャートである。 高い感度で2次元的にパターンの変化を検出する方法を示すフローチャートである。 フーリエ画像を領域分割した状態の一例を示す図である。 輝度データの抽出状態を示す模式図である。 フーリエ画像におけるRの階調差の分布状態を示す図である。 フーリエ画像におけるGの階調差の分布状態を示す図である。 フーリエ画像におけるBの階調差の分布状態を示す図である。 検査装置の変形例を示す概要図である。 検査装置の第2の変形例を示す概要図である。 感度の高い領域の決定方法の変形例を示すフローチャートである。
 以下、図面を参照して本発明の好ましい実施形態について説明する。本発明に係る検査装置を図1に示している。本実施形態の検査装置1は、図1に示すように、ウェハステージ5と、対物レンズ6と、ハーフミラー7と、照明光学系10と、検出光学系20と、撮像部30と、制御ユニット40とを主体に構成される。
 ウェハステージ5には、パターン(繰り返しパターン)の形成面を上にした状態で被検基板である半導体ウェハW(以下、ウェハWと称する)が載置される。このウェハステージ5は、互いに直交するx,y,z軸の3方向へ移動可能に構成されている(なお、図1の上下方向をz軸方向とする)。これにより、ウェハステージ5は、ウェハWをx,y,z軸方向へ移動可能に支持することができる。また、ウェハステージ5は、z軸を中心に回転できるように構成されている。
 照明光学系10は、図1の左側から右側へ向けて配置順に、光源11(例えば、白色LEDやハロゲンランプ等)と、集光レンズ12と、照度均一化ユニット13と、開口絞り14と、視野絞り15と、コリメータレンズ16と、着脱可能な偏光子17(偏光フィルタ)とを有して構成される。
 ここで、照明光学系10の光源11から放出された光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15に導かれる。照度均一化ユニット13は、照明光を散乱し、光量分布を均一化する。また、干渉フィルタを含めることもできる。開口絞り14および視野絞り15は、照明光学系10の光軸に対して開口部の大きさおよび位置が変更可能に構成されている。したがって、照明光学系10では、開口絞り14および視野絞り15を操作することによって、照明領域の大きさおよび位置の変更と、照明の開口角の調整とを行うことができる。そして、開口絞り14および視野絞り15を通過した光は、コリメータレンズ16によって平行光にされた後に偏光子17を通過してハーフミラー7に入射する。
 ハーフミラー7は、照明光学系10からの光を下方に反射して対物レンズ6に導く。これにより、対物レンズ6を通過した照明光学系10からの光でウェハWが落射照明される。一方、ウェハWに落射照明された光は、ウェハWで反射して再び対物レンズ6に戻り、ハーフミラー7を透過して検出光学系20に入射することができる。
 検出光学系20は、図1の下側から上側に向けて配置順に、着脱可能な検光子21(偏光フィルタ)と、レンズ22と、ハーフプリズム23と、ベルトランレンズ24と、視野絞り25とを有して構成される。検光子21は、照明光学系10の偏光子17に対してクロスニコルの状態(偏光方向が直交する状態)となるように配置されている。照明光学系10の偏光子17と検出光学系20の検光子21とはクロスニコルの条件を満たすので、ウェハWのパターンで偏光主軸が回転しない限り、検出光学系20で受光される光量は零に近くなる。
 ハーフプリズム23は入射光束を二方向に分岐させる。ハーフプリズム23を通過する一方の光束は、ベルトランレンズ24を介して視野絞り25にウェハWの表面の像を結像させるとともに、対物レンズ6の瞳面の像を撮像部30のDMD(デジタルマイクロミラーデバイス)素子31に投影させる。撮像部30のフーリエ画像用撮像素子33はDMD素子31と共役であるため、フーリエ画像用撮像素子33の撮像面に対物レンズ6の瞳面上の輝度分布が現れ、フーリエ画像用撮像素子33によりフーリエ変換されたウェハWの画像(フーリエ画像)を撮像することが可能である。なお、ベルトランレンズ(Bertrand lens)は、一般に、対物レンズの後部焦点面の像を接眼レンズの焦点面に結ばせる収束レンズをいうが、顕微鏡等の光学系は一般に像側がテレセントリックな状態であり、対物レンズの後部焦点面が瞳面となるため、本実施形態において、フーリエ画像用撮像素子33の撮像面に対物レンズ6の瞳面の像を結像させるレンズ24をベルトランレンズ24と称することにする。
 また、視野絞り25は、迷光対策で使用される。また、ハーフプリズム23を通過する他方の光束は、フーリエ変換されていない通常のウェハWの画像を撮像するための第2の撮像部50に導かれる。
 ここで、本実施形態の欠陥検査でフーリエ画像(すなわち、対物レンズ6の瞳面の像)を撮像するのは以下の理由による。欠陥検査においてウェハWのパターンをそのまま撮像した画像を用いると、パターンのピッチが検査装置の分解能以下のときには、パターンの欠陥を光学的に検出できなくなる。一方、フーリエ画像では、ウェハWのパターンに欠陥があると反射光の対称性が崩れ、構造性複屈折によりフーリエ画像の光軸に対して直交する部分同士の輝度や色などに変化が生じる。そのため、パターンのピッチが検査装置の分解能以下のときでも、フーリエ画像における上記の変化を検出することでパターンの欠陥検出が可能になる。
 さらに、図2を参照しつつ、ウェハWへの照明光の入射角度と瞳面内での結像位置との関係を説明する。図2の破線で示すように、ウェハWへの照明光の入射角度が0°のときには、瞳上の結像位置は瞳中心となる。一方、図2の実線で示すように、入射角度が64°(NA=0.9相当)のときには、瞳上の結像位置は瞳の外縁部となる。すなわち、ウェハWへの照明光の入射角度は、瞳上では瞳内の半径方向の位置に対応する。また、瞳内の光軸から同一半径内の位置に結像する光は、ウェハWに同一角度で入射した光である。
 撮像部30は、図1に示すように、DMD(Digital Micromirror Device)素子31と、リレーレンズ32と、フーリエ画像用撮像素子33と、反対側に設けられた結像レンズ34と、検査用撮像素子35とを有して構成される。DMD素子31は、平面上に並ぶ複数の可動式マイクロミラー(図示せず)を有して構成される。DMD素子31のマイクロミラーは、電気駆動することにより、ON状態のときには検出光学系20からの光がフーリエ画像用撮像素子33の方へ反射するように傾斜し、OFF状態のときには検出光学系20からの光が検査用撮像素子35の方へ反射するように傾斜する。
 そのため、ON状態のマイクロミラーで反射した検出光学系20からの光は、リレーレンズ32(アオリ光学系)を通ってフーリエ画像用撮像素子33の撮像面に導かれる。一方、OFF状態のマイクロミラーで反射した検出光学系20からの光は、結像レンズ34(アオリ光学系)を通って検査用撮像素子35の撮像面に導かれ、撮像面上にウェハWの表面の像が結像されるようになっている。つまり、結像レンズ34は逆フーリエ変換を行っている。
 フーリエ画像用撮像素子33は、ベイヤ配列のカラーフィルタアレイを有するCCDやCMOS等の2次元イメージセンサであり、前述のフーリエ画像を撮像する。検査用撮像素子35は、ベイヤ配列のカラーフィルタアレイを有するCCDやCMOS等の2次元イメージセンサであり、視野絞り25と共役に配置されて視野範囲内のウェハWの表面の像を撮像する。
 制御ユニット40は、フーリエ画像のデータを記録する記録部41と、入力インターフェース42と、各種の演算処理を実行するCPU43と、モニタ44および操作部45とを有して構成され、検査装置1の統括的な制御を実行する。また、記録部41、入力インターフェース42、モニタ44および操作部45は、それぞれCPU43と電気的に接続されている。CPU43は、プログラムの実行によってフーリエ画像を解析し、フーリエ画像用撮像素子33で撮像されるフーリエ画像の中でパターンの変化に対して感度の高い領域を求める。また、入力インターフェース42は、記録媒体(図示せず)を接続するコネクタや、外部のコンピュータ(図示せず)と接続するための接続端子を有しており、記録媒体またはコンピュータからデータの読み込みを行う。
 以上のように構成される検査装置1を用いてウェハWを検査する方法について、図3~図5に示すフローチャートを参照しながら説明する。まず、図3に示すフローチャートを用いて、フーリエ画像用撮像素子33とDMD素子31との画素対応テーブルを作成する方法について説明する。画素対応テーブルの作成方法は、まず、ステップS101において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸から外す。次に、ステップS102において、パターンのないウェハWをウェハステージ5により対物レンズ6の下方に移動させる。
 次のステップS103において、照明光学系10の光源11を点灯させる。このとき、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされてハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、レンズ22、ハーフプリズム23、ベルトランレンズ24、および視野絞り25を通過し、撮像部30のDMD素子31にフーリエ像が投影される。
 次のステップS104において、DMD素子31の1画素(マイクロミラー)だけON状態にし、それ以外の画素(マイクロミラー)はOFF状態にする。そうすると、ON状態の画素で反射した検出光学系20からの光は、リレーレンズ32を通ってフーリエ画像用撮像素子33の撮像面に導かれる。
 次のステップS105において、フーリエ画像用撮像素子33で撮像を行って、ON状態の画素(マイクロミラー)で反射した光を検出し、CPU43がON状態の画素で反射した光の撮像面上(フーリエ画像用撮像素子33)での画素位置を計算して求める。
 次のステップS106において、CPU43は、ステップS105で求めたフーリエ画像用撮像素子33の画素位置と、そのときのDMD素子31の画素位置(マイクロミラーの位置)との関係を、記録部41の画素対応テーブルに登録する。
 次のステップS107において、CPU43は、DMD素子31の全ての画素について測定が済んだか否かを判定する。判定がYesであれば、画素対応テーブルの作成を終了し、判定がNoであればステップS108へ進む。
 ステップS108では、DMD素子31のON状態にする画素(マイクロミラー)を未だ測定が済んでいない画素に変更し、ステップS105へ戻る。このようなシーケンスにより、フーリエ画像用撮像素子33の画素とDMD素子31の画素との関係を画素対応テーブルに登録することができる。
 次に、図4に示すフローチャートを用いて、フーリエ画像用撮像素子33で撮像されるフーリエ画像の中で、パターンの変化に対して感度の高い領域を決定する方法について説明する。感度の高い領域の決定方法は、まず、ステップS201において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。次に、ステップS202において、DMD素子31の全ての画素(マイクロミラー)をON状態にして、ウェハWからの光が全てフーリエ画像用撮像素子33の方へ反射するようにする。次のステップS203において、照明光学系10の光源11を点灯させる。
 次のステップS204において、繰り返しパターンが形成されたウェハWをウェハステージ5上に載置し、ウェハW上の測定するパターン(1ショット分)をウェハステージ5により対物レンズ6の下方に移動させる。このとき、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWを使用する。
 そうすると、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされた後に偏光子17を通過してハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、検光子21、レンズ22、ハーフプリズム23、ベルトランレンズ24、および視野絞り25を通過し、撮像部30のDMD素子31にフーリエ像が投影される。このとき、DMD素子31の全ての画素(マイクロミラー)がON状態であるので、DMD素子31で反射した光はリレーレンズ32を通り、フーリエ画像用撮像素子33の撮像面にフーリエ像が投影される。
 そこで、次のステップS205において、フーリエ画像用撮像素子33でフーリエ像を撮像し、撮像したフーリエ画像を記録部41に記録する。
 次のステップS206において、CPU43は、ウェハW上の必要な全てのパターンについて測定が済んだか否かを判定する。判定がYesであればステップS207へ進み、判定がNoであればステップS204へ戻り、未だ測定が済んでいないパターン(別のショット)を対物レンズ6の下方に移動させてステップS205の撮像を行う。これにより、記録部41には、同一形状のパターンについて露光条件が異なる複数のフーリエ画像のカラーデータが記録されることになる。
 ステップS207では、CPU43は、各フーリエ画像について、フーリエ画像の各位置ごとにR(赤色)、G(緑色)、B(青色)の輝度データ(平均値)をそれぞれ生成する。輝度データの求め方は、まず、図6に示すように、フーリエ画像(例えば1フレーム目のフーリエ画像FI1)を縦横等間隔に正方格子状の複数の分割領域Pに分割し、フーリエ画像の分割領域Pごとに、RGBの輝度値の平均をそれぞれの色別に求める。そして、この工程を各々のフーリエ画像について行う。これにより、1フレーム目からnフレーム目までのフーリエ画像FI1~FInについて、各フーリエ画像の分割領域Pごとに、R、G、Bの各色成分ごとの階調を示す輝度データがそれぞれ生成されることになる。
 次のステップS208において、図7に示すように同じ分割領域に注目し、CPU43は、同じ分割領域におけるフーリエ画像FI1~FIn間での階調差を示す階調差データを、R、G、Bの各色成分ごとに生成する。具体的には、フーリエ画像FI上の任意の分割領域をPとすると、まず、各々のフーリエ画像FI1~FInについて、分割領域Pでの各色成分の輝度データ(ステップS207で求めたもの)をそれぞれ抽出する。次に、分割領域Pに対応する輝度データの階調値のうちで、R、G、Bの各色成分ごとの最大値と最小値とを抽出し、抽出した最大値と最小値との差分値を算出する。そして、これらの工程を全ての分割領域について行う。これにより、フーリエ画像の全ての分割領域について、分割領域Pにおけるフーリエ画像間での階調差を示す階調差データ(階調の最大値と最小値との差分値)が、R、G、Bの各色成分ごとに生成されることになる。
 そして、ステップS209において、CPU43は、ステップS208で求めた階調差データ(階調の最大値と最小値との差分値)に基づいて、フーリエ画像の分割領域うち、階調の最大値と最小値との差分値が最大となる色と分割領域を求め、当該分割領域を感度の高い領域と決定し、そこを検出条件に決める。図8~図10は、フーリエ画像の各分割領域における階調差の分布状態を色成分ごとに示した図である。図8~図10の例において、図10に示すBの階調差の左上の領域が最大感度の領域となる。このようにすれば、パターンの線幅やプロファイルの変化を感度よく検出するために、R、G、Bのどの色を使い、フーリエ画像の中でどの分割領域を使用すればよいか決定することができる。
 上述のようにして、未知のパターンの変化をフーリエ画像用撮像素子33で撮像した画像より検出することが可能になる。ところが、この方法では、視野絞り25で制限された範囲の平均値1つしか得られない。仮に、視野絞り25を大きくしても、ウェハW上の広い範囲の平均値しか得られない。また仮に、2次元的な測定を行おうとすると、ウェハステージ5を移動させながら測定を行わなければならない。
 そこで、図5に示すフローチャートを用いて、高い感度で2次元的にパターンの変化を検出する方法について説明する。このパターンの検出方法は、まず、ステップS301において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。
 次に、ステップS302において、CPU43は、ウェハWからの反射光を検査用撮像素子35の方へ導くためにON/OFFさせるDMD素子31の画素(マイクロミラー)を決定する。具体的には、ステップS101~S108で求めたフーリエ画像用撮像素子33とDMD素子31との画素対応テーブルを参照して、ステップS201~S209で求めたフーリエ画像用撮像素子33上で感度の高い画素領域(分割領域)に対応するDMD素子31の画素を求める。
 次のステップS303において、CPU43は、ステップS302で求めた感度の高い画素領域(分割領域)に対応するDMD素子31の画素をOFF状態にして検査用撮像素子35の方へ導くように設定するとともに、他の画素をON状態にしてフーリエ画像用撮像素子33の方へ導くように設定する。
 次のステップS304では、照明光学系10の光源11を点灯させる。次に、ステップS305において、検査するウェハWをウェハステージ5上に載置し、ウェハW上の検査するパターン(1ショット分)をウェハステージ5により対物レンズ6の下方に移動させる。
 そうすると、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされた後に偏光子17を通過してハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、検光子21、レンズ22、ハーフプリズム23、ベルトランレンズ24、および視野絞り25を通過し、撮像部30のDMD素子31に達する。
 このとき、ウェハWのパターン変化に対して感度の高い領域の反射光は、DMD素子31におけるOFF状態の画素(マイクロミラー)で反射して結像レンズ34を通り、検査用撮像素子35へ導かれる。前述したように、結像レンズ34は、ウェハW(視野絞り25)と検査用撮像素子35とを共役にするレンズであるため、検査用撮像素子35の撮像面には、DMD素子31で選択されたウェハWのパターン変化に対して感度の高い反射光のみでウェハWの表面(パターン)の像が結像される。
 そして、次のステップS306において、検査用撮像素子35がウェハWのパターン(1ショット分)の像を撮像する。このようにして撮像したウェハWのパターンの画像は、パターン変化に対して感度の高い(輝度が変化しやすい)画像となる。また、検査用撮像素子35により撮像されたウェハWのパターンの画像はモニタ44に表示され、ウェハWの画像をオペレータが目視で観察することにより、ウェハW上のパターンの変化(すなわち、パターンの欠陥)を検出することが可能になる。なおこのとき、感度の高い特定の色成分を抽出したウェハWのパターンの画像をモニタ44に表示するようにしてもよい。
 またこのとき、ウェハWのパターンの画像からパターンの良否を自動的に判定することも可能である。パターンの自動判定方法について説明すると、CPU43は、まず、ウェハWのパターンの画像における輝度(階調)の平均値を算出し、算出した平均値と予め設定しておいた良品範囲とを比較する。そして、算出した平均値が良品範囲内であれば良品であると判定し、良品範囲外であれば不良であると判定する。これにより、パターンの良否を自動的に判定することができる。なお、平均するデータの範囲を変えることにより、あたかもウェハW上での視野サイズを変更した効果を得ることができる。また、輝度の平均値ではなく、最大値や最小値を算出して所定の良品範囲と比較することにより、局所的な欠陥を見つけることができる。
 このように、本実施形態の検査装置1によれば、検査用撮像素子35が、検査に適した感度の高い部分に対応するマイクロミラーが検査用撮像素子35の方に向いた状態で、ウェハWの表面(パターン)の像を撮像するため、ウェハWの表面に形成されたパターンを高い感度で2次元的に検査することが可能になる。
 このとき、検出光学系20は、ウェハWからの光のうち直線偏光である照明光と偏光方向が略直交する偏光成分を受光することが好ましく、このようにすれば、いわゆるクロスニコルの状態となって構造性複屈折を利用した感度の高い検査が可能になる。なお、偏光子17と検光子21の偏光方向は、90°(クロスニコルの状態)に限らず、検査対象のパターンで発生する構造性複屈折による楕円偏光の回転に合わせて微調整してもよい。
 またこのとき、落射照明によりウェハWの表面を照明することが好ましく、このようにすれば、装置の大きさを小型にすることができる。
 また、前述したように、フーリエ画像用撮像素子33(2次元イメージセンサ)を用いて、瞳面における2次元の輝度分布(フーリエ画像)を検出するようにすることが好ましく、このようにすれば、瞳面での輝度情報を一度に短時間で検出することが可能になる。
 また、ウェハWからの光の進む方向を切り替える光路切替素子として、複数のマイクロミラーを備えたDMD素子31を用いることが好ましく、これにより、ウェハWからの光の進む方向を画素単位の微小な領域ごとに切り替えることが可能になる。
 なお、上述の実施形態において、ステップS302で求めた感度の高い画素領域(分割領域)に対応するDMD素子31の画素をOFF状態にして検査用撮像素子35の方へ導くように設定するとともに、他の画素をON状態にしてフーリエ画像用撮像素子33の方へ導くように設定しているが、これに限られるものではない。例えば、図11に示すように、DMD素子31とリレーレンズ32との間にハーフプリズム38を配置し、DMD素子31からフーリエ画像用撮像素子33へ向かう光の一部をハーフプリズム38から結像レンズ34を介して検査用撮像素子35へ導くようにしてもよい。この場合、ステップS303において、CPU43は、ステップS302で求めた感度の高い画素領域(分割領域)に対応するDMD素子31の画素をON状態にしてフーリエ画像用撮像素子33および検査用撮像素子35の方へ導くように設定するとともに、他の画素をOFF状態にして検査用撮像素子35の方へ導かないように設定する。これにより、DMD素子31の画素をより位置精度の高いON状態にしてウェハWからの光を検査用撮像素子35の方へ導くことができる。また、フーリエ画像用撮像素子33および検査用撮像素子35を1つの撮像素子で兼用して、リレーレンズ32と結像レンズ34とを入れ換える構成としてもよい。
 また、上述の実施形態において、フーリエ画像用撮像素子33(2次元イメージセンサ)を用いて、瞳面における2次元の輝度分布(フーリエ画像)を検出しているが、これに限られるものではない。例えば、図12に示すように、フーリエ画像用撮像素子33の代わりに、分光プリズム63および3つの検出素子64a,64b,64cを用いて、瞳面における輝度を(R、G、Bの各色成分ごとに)検出するようにしてもよい。なおこのとき、DMD素子31のマイクロミラーを1画素分ずつON状態にして、検出光学系20からの光を検出素子64a,64b,64c(分光プリズム35)の方へ反射させるようにすれば、瞳面における2次元の輝度分布を得ることが可能である。またこのとき、ON状態のマイクロミラーで反射した検出光学系20からの光は、レンズ32(アオリ光学系)を通って、分光プリズム63でR(赤色)、G(緑色)、B(青色)の光に分光された後、それぞれ3つの検出素子64a,64b,64cに導かれる。また、3つの検出素子64a,64b,64cは、フォトダイオードやアバランシェ素子等であり、分光プリズム63によって分光されたR(赤色)、G(緑色)、B(青色)の光をそれぞれ検出する。
 また、上述の実施形態において、ウェハWの欠陥検査を行う検査装置1を例に説明を行ったが、被検基板はウェハWに限られず、例えば液晶ガラス基板であっても構わない。
 また、上述の実施形態において、階調差データ(階調の最大値と最小値との差分値)に基づいて、パターンの変化に対して感度の高い領域を決定しているが、これに限られるものではない。そこで、図13に示すフローチャートを用いて、感度の高い領域の決定方法の変形例について説明する。この方法は、上述の実施形態の場合と同様に、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWを用いて、各々のパターンのフーリエ画像とパターン毎の線幅のデータとに基づいて、パターンの変化に対して感度の高い領域を決定するものである。なお、上記のパターンに対応する線幅のデータは、例えば、スキャトロメータや走査型電子顕微鏡(SEM)等の線幅測定器で測定したものを利用し、これら線幅のデータ群は予め入力インターフェース42より入力して記録部41に記録されているものとする。
 まず、前述の実施形態の場合と同様に、ステップS251において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。次に、ステップS252において、DMD素子31の全ての画素(マイクロミラー)をON状態にして、ウェハWからの光が全てフーリエ画像用撮像素子33の方へ反射するようにする。次のステップS253において、照明光学系10の光源11を点灯させる。
 次のステップS254において、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWをウェハステージ5上に載置し、ウェハW上の測定するパターン(1ショット分)をウェハステージ5により対物レンズ6の下方に移動させる。次のステップS255において、フーリエ画像用撮像素子33でフーリエ像を撮像し、撮像したフーリエ画像を記録部41に記録する。
 次のステップS256において、CPU43は、ウェハW上の全てのパターンについて測定が済んだか否かを判定する。判定がYesであればステップS257へ進み、判定がNoであればステップS254へ戻り、未だ測定が済んでいないパターン(別のショット)を対物レンズ6の下方に移動させてステップS255の撮像を行う。
 ステップS257において、CPU43は、上述の実施形態の場合と同様に、各フーリエ画像について、フーリエ画像の分割領域ごとにR(赤色)、G(緑色)、B(青色)の輝度データ(平均値)をそれぞれ生成する。
 さて、次のステップS258では、同じ分割領域に注目し、CPU43は、各フーリエ画像FI1~FInの同じ分割領域における階調値とパターンの線幅との変化率を示す近似式を、R、G、Bの各色成分ごとに求める。具体的には、フーリエ画像FI上の任意の分割領域をPとすると、まず、各々のフーリエ画像FI1~FInに対応するパターンの線幅のデータを記録部41から読み出す。またこのとき、各々のフーリエ画像FI1~FInについて、分割領域Pでの各色成分の輝度データ(ステップS257で求めたもの)をそれぞれ抽出する。次に、各々のフーリエ画像FI1~FInごとに、パターンの線幅と分割領域Pでの輝度データの階調値との対応関係を求める。
 続いて、パターンの線幅と分割領域Pでの階調値との対応関係に基づいて、最小二乗法により分割領域Pでの階調値とパターンの線幅との変化率を示す近似式を求める。ここで、各々のフーリエ画像FI1~FInに対応するパターンの線幅をyとし、分割領域PでのB(あるいはRもしくはG)の階調値をxとし、傾きをaとし、y切片をbとすると、近似式は次の(1)式で表わされる。
 y=ax+b   …(1)
 なお、係数aの絶対値は、パターンの線幅の変化に対する階調変化の逆数(すなわち、パターンの変化に対する検出感度の逆数)に相当する。すなわち、上記の係数aの絶対値が小さくなると、線幅の差が同じでもフーリエ画像の階調変化が大きくなるので、パターンの変化に対する検出感度がより高くなる。そして、これらの工程を全ての分割領域について、R、G、Bの各色成分ごとに行う。
 次に、ステップS259において、CPU43は、フーリエ画像上の各分割領域において、ステップS258で得た近似式とパターンの線幅との相関誤差をR、G、Bの各色成分ごとに求める。具体的には、各々のフーリエ画像FI1~FInに対応するパターンの線幅と、近似式を用いて算出されるパターンの線幅との偏差のデータを、R、G、Bの各色成分ごとに算出し、算出した偏差のデータから各分割領域の色成分ごとに標準偏差を算出し、その値を相関誤差とする。
 そして、ステップS260において、CPU43は、ステップS258で求めた係数aと、ステップS259で求めた相関誤差とに基づいて、フーリエ画像の分割領域うち、係数aの絶対値が小さく、かつ相関誤差が十分に小さい分割領域を求め、当該分割領域を感度の高い領域と決定し、そこを検出条件に決める。具体的には、例えば、係数aの絶対値の小ささと、相関誤差の小ささとに応じて各々の分割領域のスコアリングを行い、このスコアリングの結果に基づいて感度の高い分割領域を決定する。このようにしても、パターンの線幅やプロファイルの変化を感度よく検出するために、R、G、Bのどの色を使い、フーリエ画像の中でどの分割領域を使用すればよいか決定することができる。
  W ウェハ(被検基板)
  1 検査装置
 10 照明光学系(照明部)       17 偏光子
 20 検出光学系(受光光学系)     21 検光子
 30 撮像部
 31 DMD素子(光路切替素子)
 33 フーリエ画像用撮像素子(検出部および第2の2次元イメージセンサ)
 35 検査用撮像素子(2次元イメージセンサ)
 40 制御ユニット           43 CPU(検査部)
 63 分光プリズム(検出部の変形例)
 64a 第1の検出素子(検出部の変形例)
 64b 第2の検出素子(検出部の変形例)
 64c 第3の検出素子(検出部の変形例)

Claims (6)

  1.  被検基板の表面に照明光を照射する照明部と、
     前記照明光が照射された前記被検基板の表面からの反射光を受光して前記被検基板の表面の像を結像する受光光学系と、
     前記受光光学系の瞳面または瞳面と共役な位置に配置され、複数の光路切替素子を有し、前記複数の光路切替素子のそれぞれの反射方向を一方向と前記一方向の向きと異なる他方向とに切替可能な光路切替部と、
     前記光路切替素子で反射した光から前記瞳面での輝度を検出可能な検出部と、
     前記光路切替素子で反射した光が前記受光光学系により結像されて得られる前記被検基板の表面の像を撮像可能な2次元イメージセンサと、
     前記光路切替部の作動を制御する制御部と、
     前記2次元イメージセンサにより撮像された前記被検基板の表面の画像に基づいて、前記被検基板の表面を検査する検査部とを備え、
     前記制御部は、前記検出部で検出される輝度情報に基づいて前記検査に適する前記瞳面の部位を求め、前記部位に対応する前記光路切替素子の作動を制御して、前記検査に用いる前記瞳面の部位の光を前記2次元イメージセンサへ導く制御を行い、
     前記2次元イメージセンサは、前記検査に用いる前記瞳面の部位の光により得られる前記被検基板の表面の像を撮像することを特徴とする検査装置。
  2.  前記光路切替素子が前記一方を向いているときに前記被検基板の表面からの反射光が前記検出部へ導かれ、前記光路切替素子が前記他方を向いているときに前記被検基板の表面からの反射光が前記2次元イメージセンサへ導かれることを特徴とする請求項1に記載の検査装置。
  3.  前記照明光は、繰り返しパターンを有する前記被検基板の表面に照射される直線偏光であり、
     前記受光光学系は、前記被検基板からの反射光のうち前記直線偏光と偏光方向が略直交する偏光成分を受光することを特徴とする請求項1もしくは2に記載の検査装置。
  4.  前記照明部は、落射照明により前記照明光を前記被検基板の表面に照射することを特徴とする請求項1から3のうちいずれか一項に記載の検査装置。
  5.  前記検出部は、第2の2次元イメージセンサであり、前記瞳面における2次元の輝度分布を検出することを特徴とする請求項1から4のうちいずれか一項に記載の検査装置。
  6.  前記複数の光路切替素子は、デジタルマイクロミラーデバイスを構成する複数のマイクロミラーであることを特徴とする請求項1から5のうちいずれか一項に記載の検査装置。
PCT/JP2009/058273 2008-04-28 2009-04-27 検査装置 WO2009133849A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010510118A JPWO2009133849A1 (ja) 2008-04-28 2009-04-27 検査装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-116879 2008-04-28
JP2008116879 2008-04-28

Publications (1)

Publication Number Publication Date
WO2009133849A1 true WO2009133849A1 (ja) 2009-11-05

Family

ID=41255065

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/058273 WO2009133849A1 (ja) 2008-04-28 2009-04-27 検査装置

Country Status (3)

Country Link
JP (1) JPWO2009133849A1 (ja)
TW (1) TW200951428A (ja)
WO (1) WO2009133849A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012007952A (ja) * 2010-06-23 2012-01-12 Panasonic Electric Works Co Ltd 外観検査装置
JP2014521116A (ja) * 2011-06-27 2014-08-25 ケーエルエー−テンカー コーポレイション 照明制御
WO2019039241A1 (ja) * 2017-08-25 2019-02-28 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
JP2019129510A (ja) * 2018-01-26 2019-08-01 京セラ株式会社 電磁波検出装置および情報取得システム
WO2019198568A1 (ja) * 2018-04-13 2019-10-17 京セラ株式会社 電磁波検出装置および情報取得システム
WO2020022150A1 (ja) * 2018-07-27 2020-01-30 京セラ株式会社 電磁波検出装置および情報取得システム
US10670975B2 (en) 2015-12-17 2020-06-02 Asml Netherlands B.V. Adjustment of a metrology apparatus or a measurement thereby based on a characteristic of a target measured

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6377459B2 (ja) * 2014-08-29 2018-08-22 株式会社ディスコ ウエーハ検査方法、研削研磨装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0545862A (ja) * 1991-08-15 1993-02-26 Hitachi Electron Eng Co Ltd 異物検出方式および異物検査装置
JPH10504905A (ja) * 1994-10-25 1998-05-12 ピクセル・システムズ・インコーポレイテッド 光学的計算を用いる物体表面のパターン検査器及びパターン検査方法
JP2005535869A (ja) * 2002-01-15 2005-11-24 アプライド マテリアルズ インコーポレイテッド 空間フィルタリングを使用したパターン化されたウェハの検査
JP2006023221A (ja) * 2004-07-09 2006-01-26 Tokyo Seimitsu Co Ltd 外観検査装置及び投影方法
WO2008015973A1 (fr) * 2006-08-02 2008-02-07 Nikon Corporation Appareil de détection de défauts et procédé de détection de défauts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0545862A (ja) * 1991-08-15 1993-02-26 Hitachi Electron Eng Co Ltd 異物検出方式および異物検査装置
JPH10504905A (ja) * 1994-10-25 1998-05-12 ピクセル・システムズ・インコーポレイテッド 光学的計算を用いる物体表面のパターン検査器及びパターン検査方法
JP2005535869A (ja) * 2002-01-15 2005-11-24 アプライド マテリアルズ インコーポレイテッド 空間フィルタリングを使用したパターン化されたウェハの検査
JP2006023221A (ja) * 2004-07-09 2006-01-26 Tokyo Seimitsu Co Ltd 外観検査装置及び投影方法
WO2008015973A1 (fr) * 2006-08-02 2008-02-07 Nikon Corporation Appareil de détection de défauts et procédé de détection de défauts

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012007952A (ja) * 2010-06-23 2012-01-12 Panasonic Electric Works Co Ltd 外観検査装置
JP2014521116A (ja) * 2011-06-27 2014-08-25 ケーエルエー−テンカー コーポレイション 照明制御
US10996571B2 (en) 2015-12-17 2021-05-04 Asml Netherlands B.V. Adjustment of a metrology apparatus or a measurement thereby based on a characteristic of a target measured
US10670975B2 (en) 2015-12-17 2020-06-02 Asml Netherlands B.V. Adjustment of a metrology apparatus or a measurement thereby based on a characteristic of a target measured
CN111051914A (zh) * 2017-08-25 2020-04-21 京瓷株式会社 电磁波检测装置、程序以及电磁波检测系统
WO2019039241A1 (ja) * 2017-08-25 2019-02-28 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
JP2019039829A (ja) * 2017-08-25 2019-03-14 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
US11675052B2 (en) 2017-08-25 2023-06-13 Kyocera Corporation Electromagnetic wave detection apparatus, program, and electromagnetic wave detection system
JP7025940B2 (ja) 2018-01-26 2022-02-25 京セラ株式会社 電磁波検出装置および情報取得システム
WO2019146461A1 (ja) * 2018-01-26 2019-08-01 京セラ株式会社 電磁波検出装置および情報取得システム
US11573316B2 (en) 2018-01-26 2023-02-07 Kyocera Corporation Electromagnetic wave detection apparatus and information acquisition system
JP2019129510A (ja) * 2018-01-26 2019-08-01 京セラ株式会社 電磁波検出装置および情報取得システム
JP2019184483A (ja) * 2018-04-13 2019-10-24 京セラ株式会社 電磁波検出装置および情報取得システム
WO2019198568A1 (ja) * 2018-04-13 2019-10-17 京セラ株式会社 電磁波検出装置および情報取得システム
JP7068904B2 (ja) 2018-04-13 2022-05-17 京セラ株式会社 電磁波検出装置および情報取得システム
WO2020022150A1 (ja) * 2018-07-27 2020-01-30 京セラ株式会社 電磁波検出装置および情報取得システム

Also Published As

Publication number Publication date
JPWO2009133849A1 (ja) 2011-09-01
TW200951428A (en) 2009-12-16

Similar Documents

Publication Publication Date Title
JPWO2009072484A1 (ja) 検査装置および検査方法
TWI443327B (zh) Defect detection device and defect detection method
US8040512B2 (en) Inspection device, inspection method, and program
JP3610837B2 (ja) 試料表面の観察方法及びその装置並びに欠陥検査方法及びその装置
WO2009133849A1 (ja) 検査装置
JP4802481B2 (ja) 表面検査装置および表面検査方法および露光システム
US8705840B2 (en) Defect inspection device and defect inspection method
WO2015159641A1 (ja) 欠陥観察方法及びその装置
US20080243412A1 (en) Apparatus for Inspecting Defect and Method of Inspecting Defect
EP1174707A1 (en) Defect inspection method and defect inspection apparatus
KR20130109365A (ko) 표면결함 검사장치 및 그 제어 방법
WO2009125839A1 (ja) 検査装置
US7767982B2 (en) Optical auto focusing system and method for electron beam inspection tool
JP3956942B2 (ja) 欠陥検査方法及びその装置
EP0977029A1 (en) Pattern inspecting apparatus
JP3918840B2 (ja) 欠陥検査方法及びその装置
JP2009265026A (ja) 検査装置
JP5250395B2 (ja) 検査装置
WO2012073422A1 (ja) 検査装置、及び検査システム
JPH0783844A (ja) 欠陥検査装置
JP2010271186A (ja) 欠陥検査装置
JP2012068321A (ja) マスク欠陥検査装置およびマスク欠陥検査方法
JP5299764B2 (ja) 評価装置および評価方法
JP3572545B2 (ja) 基板の良否判定方法
JP2002333406A (ja) 外観検査装置および外観検査方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09738786

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010510118

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09738786

Country of ref document: EP

Kind code of ref document: A1