WO2009125839A1 - 検査装置 - Google Patents

検査装置 Download PDF

Info

Publication number
WO2009125839A1
WO2009125839A1 PCT/JP2009/057355 JP2009057355W WO2009125839A1 WO 2009125839 A1 WO2009125839 A1 WO 2009125839A1 JP 2009057355 W JP2009057355 W JP 2009057355W WO 2009125839 A1 WO2009125839 A1 WO 2009125839A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
wafer
light
luminance
optical system
Prior art date
Application number
PCT/JP2009/057355
Other languages
English (en)
French (fr)
Inventor
透 吉川
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2010507281A priority Critical patent/JPWO2009125839A1/ja
Publication of WO2009125839A1 publication Critical patent/WO2009125839A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N2021/9513Liquid crystal panels

Definitions

  • the present invention relates to an inspection apparatus that detects a state of a pattern formed on a surface of a substrate to be tested in a manufacturing process of a semiconductor element, a liquid crystal display element, or the like.
  • the measurement accuracy is high, but the measurement magnification is high and sampling is performed by sampling several points. It will take. Therefore, the light of a predetermined wavelength emitted from the light source is irradiated onto the surface of the test substrate by epi-illumination through the polarizer and the objective lens, and the reflected light from the test substrate by the illumination is applied to the objective lens and the polarizer. And an evaluation method using an image obtained through an analyzer that satisfies the condition of crossed Nicols has been proposed.
  • the present invention has been made in view of such problems, and an object thereof is to provide an inspection apparatus capable of performing high-speed inspection with high sensitivity.
  • an inspection apparatus is an illumination unit that irradiates illumination light on the surface of a test substrate, and for magnifying and observing the surface of the test substrate irradiated with the illumination light.
  • An observation optical system, a detection unit for detecting luminance at a pupil plane of reflected light from the test substrate in the observation optical system, and a surface of the test substrate based on the luminance detected by the detection unit An inspection unit that inspects and a scanning unit that scans the range of the test substrate corresponding to the pupil plane from which the luminance is detected are configured.
  • the scanning unit includes a plate-like member having an optical opening that is a field stop, and a driving unit that drives the optical opening, and the driving unit is used to Preferably, the optical aperture is configured to scan in the range.
  • the plate-like member is formed in a disk shape, and a plurality of holes which are the optical openings are formed in the plate-like member at different radial and circumferential positions, respectively.
  • the drive unit is configured to rotationally drive the plate member about the rotation target axis of the plate member, and the plurality of holes formed in the plate member using the drive unit. It is preferable to scan the range in order by any one of the plurality of holes by rotating and moving the respective parts.
  • the drive unit linearly moves the plate-like member, and the plurality of holes that are the optical openings are arranged obliquely with respect to the linear movement direction in the plate-like member.
  • Each of the plurality of holes formed in the plate-like member is linearly moved using the driving unit, so that the range is sequentially changed by any one of the plurality of holes. You may make it scan.
  • the detection unit detects a luminance of a portion of the pupil plane where the luminance greatly changes according to a change in a surface state of the test substrate.
  • the illumination light is linearly polarized light irradiated on the surface of the test substrate having a repetitive pattern
  • the detection unit is configured to detect the linearly polarized light and polarized light out of the light from the test substrate. It is preferable to detect polarized light components whose directions are substantially orthogonal.
  • the illumination unit irradiates the surface of the substrate to be examined with epi-illumination.
  • the inspection apparatus 1 of the present embodiment includes a wafer stage 5, an objective lens 6, a half mirror 7, an illumination optical system 10, a detection optical system 20, a scanning unit 60, and an imaging unit. 30 and the control unit 40.
  • a semiconductor wafer W (hereinafter referred to as a wafer W), which is a substrate to be tested, is placed with the pattern (repetitive pattern) formation surface facing upward.
  • the wafer stage 5 is configured to be movable in three directions of x, y, and z axes orthogonal to each other (note that the vertical direction in FIG. 1 is the z axis direction). Thereby, the wafer stage 5 can support the wafer W so as to be movable in the x-, y-, and z-axis directions.
  • the wafer stage 5 is configured to be rotatable about the z axis.
  • the illumination optical system 10 includes a light source 11 (for example, a white LED or a halogen lamp), a condenser lens 12, an illuminance uniformizing unit 13, an aperture stop 14 in order of arrangement from the left side to the right side in FIG.
  • a field stop 15, a collimator lens 16, and a detachable polarizer 17 (polarization filter) are included.
  • the light emitted from the light source 11 of the illumination optical system 10 is guided to the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13.
  • the illuminance uniformizing unit 13 scatters illumination light and uniformizes the light quantity distribution.
  • An interference filter can also be included.
  • the aperture stop 14 and the field stop 15 are configured such that the size and position of the opening can be changed with respect to the optical axis of the illumination optical system 10. Therefore, in the illumination optical system 10, by operating the aperture stop 14 and the field stop 15, the size and position of the illumination area can be changed and the aperture angle of the illumination can be adjusted.
  • the light that has passed through the aperture stop 14 and the field stop 15 is collimated by the collimator lens 16, passes through the polarizer 17, and enters the half mirror 7.
  • the half mirror 7 reflects light from the illumination optical system 10 downward and guides it to the objective lens 6. Thereby, the wafer W is incidentally illuminated by the light from the illumination optical system 10 that has passed through the objective lens 6. On the other hand, the light incident on the wafer W can be reflected by the wafer W, return to the objective lens 6 again, pass through the half mirror 7, and enter the detection optical system 20.
  • the detection optical system 20 functions as a detachable analyzer 21 (polarization filter), a lens 22, a half prism 23, a belt run lens 24, and a field stop in order of arrangement from the lower side to the upper side in FIG. And a disk member 63 having the structure.
  • the analyzer 21 is arranged so as to be in a crossed Nicols state (a state in which the polarization directions are orthogonal) with respect to the polarizer 17 of the illumination optical system 10. Since the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 satisfy the condition of crossed Nicols, the amount of light detected by the detection optical system 20 is zero unless the polarization main axis rotates in the pattern of the wafer W. Close to.
  • Half prism 23 splits the incident light beam in two directions.
  • One light beam passing through the half prism 23 forms an image of the wafer W on the disc member 63 having a function as a field stop through the belt-run lens 24 and an image (luminance distribution) of the pupil surface of the objective lens 6.
  • the Bertrand lens generally refers to a converging lens that connects an image of the rear focal plane of the objective lens to the focal plane of the eyepiece, but an optical system such as a microscope is generally telecentric on the image side. Since the rear focal plane of the objective lens is the pupil plane, in this embodiment, the lens 24 that forms an image of the pupil plane of the objective lens 6 on the imaging plane of the two-dimensional imaging device 33 is referred to as a belt run lens 24. .
  • the other light beam passing through the half prism 23 is guided to the second image pickup unit 50 for picking up an image of a normal wafer W that has not been Fourier-transformed.
  • the second image pickup unit 50 By displaying the image of the wafer W picked up by the second image pickup unit 50 on the monitor 44, the operator can visually observe and enlarge the surface of the wafer W.
  • the Fourier image (that is, the image of the pupil plane of the objective lens 6) is picked up by the defect inspection of the present embodiment for the following reason. If an image obtained by directly imaging the pattern of the wafer W is used in the defect inspection, the pattern defect cannot be optically detected when the pattern pitch is less than the resolution of the inspection apparatus. On the other hand, in the Fourier image, if there is a defect in the pattern of the wafer W, the symmetry of the reflected light is lost, and the luminance, color, etc. of portions orthogonal to the optical axis of the Fourier image change due to structural birefringence. Therefore, even when the pattern pitch is less than or equal to the resolution of the inspection apparatus, it is possible to detect a defect (change) in the pattern by detecting the change in the Fourier image.
  • the relationship between the incident angle of the illumination light on the wafer W and the imaging position in the pupil plane will be described with reference to FIG.
  • the imaging position on the pupil is the pupil center.
  • the imaging position on the pupil is the outer edge of the pupil. That is, the incident angle of the illumination light on the wafer W corresponds to the radial position in the pupil on the pupil.
  • the light that forms an image at a position within the same radius from the optical axis in the pupil is light that is incident on the wafer W at the same angle.
  • the scanning unit 60 includes the disk member 63 described above, a motor 61 that rotationally drives the disk member 63, and a rotary encoder 62 that detects the rotation angle of the disk member 63. Composed.
  • the motor 61 rotationally drives the disc member 63 in a plane perpendicular to the optical axis of the detection optical system 20 with the rotational symmetry axis of the disc member 63 as a central axis.
  • the disc member 63 is formed in a disc shape having 17 pin holes 63a1 to 63a17.
  • the pinholes 63a1 to 63a17 are respectively arranged at different radial and circumferential positions in the disk member 63, and any one of the first to seventeenth pinholes 63a1 to 63a17 is used as a detection optical system. It is located within the 20 optical field of view. Thereby, the detection range (field of view) on the surface of the wafer W is determined.
  • the pinholes 63a1 to 63a17 are arranged at equal pitch intervals in the circumferential direction of the disc member 63, and the seventeenth pinhole is located at the other end from the first pinhole 63a1 located at one end. As it goes to the pinhole 63a17, its radial position shifts toward the center (rotation symmetry axis) of the disk member 63 at equal pitch intervals.
  • each pinhole 63a1 to 63a17 has a diameter of ⁇ 1 mm, and when the objective lens 6 having a magnification of 100 times is used, the detection range (field of view) on the surface of the wafer W has a diameter of ⁇ 10 ⁇ m.
  • the shape of each pinhole 63a1 to 63a17 is preferably circular (or rectangular).
  • An optical field of view D shown in FIG. 4 shows an optical field of view of the detection optical system 20 on the surface of the wafer W, and has a diameter of 250 ⁇ m in this embodiment.
  • a scanning area C located inside the optical field of view D is a square area for acquiring inspection data, and one side is about 170 ⁇ m.
  • the first pinhole 63a1 When the disk member 63 is rotated by the motor 61, the first pinhole 63a1 is positioned at the data acquisition position A (1,1), A (2,1),. 17,1) is scanned.
  • the first to seventeenth pinholes 63a1 to 63a17 are shifted in the radial direction on the disk member 63 so that the positions shifted by one scan in the scanning area C are sequentially scanned. Therefore, when the scanning by the first pinhole 63a1 is finished, the second pinhole 63a2 has a data acquisition position A (1,2), a position shifted by one scan from the position scanned by the first pinhole 63a1.
  • a (2, 2),... A (17, 2) is scanned.
  • the seventeenth pinhole 63a17 has the data acquisition positions A (1, 17), A in the lowermost row in the scanning area C. Scan (2, 17),... A (17, 17).
  • the scanning area C is scanned while sequentially scanning the scanning area C of the wafer W by any one pinhole. Can be detected by each of the detection elements 36a, 36b, 36c of the imaging unit 30.
  • the SEM SEM (SEM) It becomes possible to measure a change in pattern with the same sensitivity as a scanning electron microscope.
  • the pinholes 63a1 to 63a17 rotate with the rotation of the disk member 63.
  • the scanning area C is small with respect to the radius of the disk member 63, the trajectory of scanning by the pinholes 63a1 to 63a17 is a straight line. Close to.
  • the imaging unit 30 includes a DMD (Digital Micromirror Device) element 31, a lens 32, a two-dimensional imaging element 33, a lens 34 provided on the opposite side, a spectral prism 35, and three It has detection elements 36a, 36b, and 36c.
  • the DMD element 31 has a plurality of movable micromirrors (not shown) arranged on a plane.
  • the micromirror of the DMD element 31 is electrically driven to tilt so that the light from the detection optical system 20 is reflected toward the two-dimensional imaging element 33 when in the ON state, and from the detection optical system 20 when in the OFF state. Is inclined such that the reflected light is reflected toward the detection elements 36a, 36b, and 36c (spectral prism 35).
  • the light from the detection optical system 20 reflected by the micromirror in the ON state is guided to the imaging surface of the two-dimensional image sensor 33 through the lens 32 (tilt optical system).
  • the light from the detection optical system 20 reflected by the micromirror in the OFF state passes through the lens 34 (tilt optical system), and is R (red), G (green), and B (blue) light by the spectral prism 35. And then guided to the three detection elements 36a, 36b, and 36c, respectively.
  • the photoelectric signals obtained by the detection elements 36a, 36b, and 36c are sent to the CPU 43 through a wiring (not shown).
  • the two-dimensional image pickup device 33 is a CCD or CMOS having a Bayer array color filter array and picks up the Fourier image described above.
  • the three detection elements 36a, 36b, and 36c are high-sensitivity light detection elements such as photodiodes and avalanche elements, and R (red), G (green), and B (blue) dispersed by the spectral prism 35. , Respectively.
  • the control unit 40 includes a recording unit 41 that records Fourier image data, an input interface 42, a CPU 43 that executes various arithmetic processes, a monitor 44, and an operation unit 45. Perform overall control.
  • the recording unit 41, the input interface 42, the monitor 44, and the operation unit 45 are electrically connected to the CPU 43, respectively.
  • the CPU 43 analyzes the Fourier image by executing the program, and obtains a region that is highly sensitive to the pattern change in the Fourier image captured by the two-dimensional image sensor 33.
  • the input interface 42 has a connector for connecting a recording medium (not shown) and a connection terminal for connecting to an external computer (not shown), and reads data from the recording medium or the computer. Do.
  • step S101 the pixel correspondence table is created by removing the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 from the optical axis.
  • step S102 the disk member 63 is positioned so that the inspection point (any one of the pinholes 63a1 to 63a17) is at the center of the visual field.
  • step S ⁇ b> 103 the wafer W having no pattern is moved below the objective lens 6 (observation position) by the wafer stage 5.
  • the light source 11 of the illumination optical system 10 is turned on.
  • the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance equalizing unit 13, and is converted into parallel light by the collimator lens 16 to be half mirror 7.
  • the wafer W is irradiated through the objective lens 6.
  • the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the lens 22, the half prism 23, the belt run lens 24, Then, a Fourier image is projected on the DMD element 31 of the imaging unit 30 through the disk member 63.
  • step S105 only one pixel (micromirror) of the DMD element 31 is turned on, and the other pixels (micromirror) are turned off. Then, the light from the detection optical system 20 reflected by the pixels in the ON state is guided to the imaging surface of the two-dimensional imaging element 33 through the lens 32.
  • the image is picked up by the two-dimensional image pickup device 33, the light reflected by the ON-state pixel (micromirror) is detected, and the light reflected by the CPU 43 on the ON-state pixel on the imaging surface (two-dimensional)
  • the pixel position at the image sensor 33) is calculated and obtained.
  • the CPU 43 determines the relationship between the pixel position of the two-dimensional imaging element 33 obtained in step S105 and the pixel position (micromirror position) of the DMD element 31 at that time, corresponding to the pixel of the recording unit 41. Register in the table.
  • step S108 the CPU 43 determines whether all the pixels of the DMD element 31 have been measured. If the determination is Yes, the creation of the pixel correspondence table is terminated, and if the determination is No, the process proceeds to step S109.
  • step S109 the pixel (micromirror) for turning on the DMD element 31 is changed to a pixel that has not been measured, and the process returns to step S106.
  • the relationship between the pixel of the two-dimensional image sensor 33 and the pixel of the DMD element 31 can be registered in the pixel correspondence table.
  • step S201 the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis so as to be in a crossed Nicols state.
  • step S202 the disk member 63 is positioned so that the inspection point (any one of the pinholes 63a1 to 63a17) is at the center of the visual field.
  • next step S203 all the pixels (micromirrors) of the DMD element 31 are turned on so that all the light from the wafer W is reflected toward the two-dimensional image sensor 33.
  • the next step S204 the light source 11 of the illumination optical system 10 is turned on.
  • the wafer W on which the repeated pattern is formed is placed on the wafer stage 5, and the pattern to be measured (a part of one shot) on the wafer W is moved below the objective lens 6 by the wafer stage 5. .
  • a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are used is used.
  • the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13, and is converted into parallel light by the collimator lens 16 and then the polarizer 17.
  • the wafer W After being reflected by the half mirror 7, the wafer W is irradiated through the objective lens 6.
  • the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the analyzer 21, the lens 22, the half prism 23,
  • a Fourier image is projected on the DMD element 31 of the imaging unit 30 through the Bertrand lens 24 and the disk member 63.
  • the light reflected by the DMD element 31 passes through the lens 32 and a Fourier image is projected on the imaging surface of the two-dimensional imaging element 33.
  • a Fourier image is captured by the two-dimensional image sensor 33, and the captured Fourier image is recorded in the recording unit 41.
  • step S207 the CPU 43 determines whether all necessary patterns on the wafer W have been measured. If the determination is yes, the process proceeds to step S208. If the determination is no, the process returns to step S205, and a pattern (another shot) that has not been measured yet is moved below the objective lens 6 to perform imaging in step S206. . As a result, the recording unit 41 records color data of a plurality of Fourier images having different exposure conditions for the same shape pattern.
  • step S208 the CPU 43 generates brightness data (average value) of R (red), G (green), and B (blue) for each position of the Fourier image for each Fourier image.
  • the luminance data is obtained by dividing a Fourier image (for example, the Fourier image FI 1 in the first frame) into a plurality of divided regions P in a square lattice pattern at equal intervals in the horizontal and vertical directions. For each divided region P, an average of RGB luminance values is obtained for each color. This process is performed for each Fourier image. Thereby, for the Fourier images FI 1 to FI n from the first frame to the nth frame, luminance data indicating the gradation for each color component of R, G, B is generated for each divided region P of each Fourier image. Will be.
  • the CPU 43 converts the gradation difference data indicating the gradation difference between the Fourier images FI 1 to FI n in the same divided area into R, G , B for each color component.
  • an arbitrary divided region on the Fourier image FI is P m
  • luminance data of each color component in the divided region P m obtained in step S208.
  • the difference among the gradation values of luminance data corresponding to the divided area P m, R, G, and maximum and minimum values extracts the maximum and minimum values of each color component, extracted in B Calculate the value.
  • step S210 the CPU 43 determines the maximum value and the minimum value of the gradations among the divided areas of the Fourier image based on the gradation difference data (the difference value between the maximum value and the minimum value) obtained in step S209.
  • a color and a divided region having a maximum difference value from the value are obtained, the divided region is determined as a region having high sensitivity, and this is determined as a detection condition.
  • FIG. 13 to FIG. 15 are diagrams showing the distribution state of the gradation difference in each divided region of the Fourier image for each color component.
  • the upper left area of the gradation difference B shown in FIG. 15 is the area of maximum sensitivity. In this way, in order to detect a change in the line width and profile of the pattern with high sensitivity, it is determined which color of R, G, and B should be used and which divided region should be used in the Fourier image. Can do.
  • an unknown pattern change can be detected from an image captured by the two-dimensional image sensor 33.
  • the reflected light from the wafer W is weak, and the exposure time of the two-dimensional image sensor 33 becomes long, and the throughput may not increase.
  • step S301 the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis.
  • step S302 the CPU 43 determines a pixel (micromirror) of the DMD element 31 to be turned on / off in order to guide the reflected light from the wafer W toward the detection elements 36a, 36b, 36c. Specifically, referring to the pixel correspondence table of the two-dimensional image sensor 33 and the DMD element 31 obtained in steps S101 to S109, a pixel region having high sensitivity on the two-dimensional image sensor 33 obtained in steps S201 to S210. The pixel of the DMD element 31 corresponding to (divided region) is obtained.
  • the CPU 43 turns off the pixels of the DMD element 31 corresponding to the high-sensitivity pixel area (divided area) obtained in step S302 and guides it toward the detection elements 36a, 36b, and 36c. In addition to setting, other pixels are turned on and set to be guided toward the two-dimensional image sensor 33.
  • step S304 the light source 11 of the illumination optical system 10 is turned on.
  • step S305 the disk member 63 is rotated at a constant speed by the motor 61.
  • step S 306 the wafer W to be inspected is placed on the wafer stage 5, and the pattern to be inspected (for one shot) on the wafer W is moved below the objective lens 6 by the wafer stage 5.
  • the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13, and is converted into parallel light by the collimator lens 16 and then the polarizer 17.
  • the wafer W After being reflected by the half mirror 7, the wafer W is irradiated through the objective lens 6.
  • the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the analyzer 21, the lens 22, the half prism 23, It passes through the Bertrand lens 24 and the disk member 63 and reaches the DMD element 31 of the imaging unit 30.
  • the reflected light in the region sensitive to the pattern change of the wafer W is reflected by the OFF pixel (micromirror) in the DMD element 31 and passes through the lens 34, and the red light is reflected by the spectroscopic prism 35.
  • the first detection element 36a, the green light is guided to the second detection element 36b, and the blue light is guided to the third detection element 36c.
  • the scanning area C of the wafer W is sequentially scanned by any one of the first to seventeenth pinholes 63a1 to 63a17. Data relating to the two-dimensional scanning area C can be detected by the detection elements 36a, 36b, 36c at high speed.
  • the CPU 43 creates a data acquisition table and records it in the recording unit 41.
  • the data acquisition table is a table showing a correspondence relationship between the data acquisition position A (1, 1)... And the count value of the rotary encoder 62 (that is, the rotation angle of the disk member 63).
  • the data acquisition table is created by first counting the rotary encoder 62 when the disk member 63 rotates and the first pinhole 63a1 (see also FIG. 4) reaches the data acquisition position A (1, 1). Register the value in the data acquisition table. Next, the count value of the rotary encoder 62 when the first pinhole 63a1 reaches the data acquisition position A (2, 1) is registered in the data acquisition table. In this way, the count value of the rotary encoder 62 when the first pinhole 63a1 reaches the data acquisition positions A (1, 1) to A (17, 1) is registered in the data acquisition table. This completes registration of the data acquisition table for one scan.
  • the count value of the rotary encoder 62 when the second pinhole 63a2 reaches the data acquisition position A (1, 2) is registered in the data acquisition table.
  • the count value of the rotary encoder 62 when the second pinhole 63a2 reaches the data acquisition position A (2, 2) is registered in the data acquisition table. In this way, the count value of the rotary encoder 62 when the second pinhole 63a2 reaches the data acquisition positions A (1,2) to A (17,2) is registered in the data acquisition table.
  • FIG. 5 shows an example of a data acquisition table when an encoder having one round of 20000 pulses is used as the rotary encoder 62. Note that the interval between the data acquisition positions may be changed according to the resolution.
  • step S308 the CPU 43 uses the data acquisition table created in step S307 to determine whether data relating to the scanning area C has been acquired by each of the detection elements 36a, 36b, and 36c at all the data acquisition positions. To do. If the data has not been acquired, the process proceeds to step S309. If the data has been acquired, the process proceeds to step S311. Note that the order of data acquisition is as follows: data acquisition positions A (1,1) to A (17,1), A (1,2) to A (17,2),... A (1,17) to A ( 17 and 17) or may be performed randomly.
  • step S309 using the data acquisition table created in step S307, the CPU 43 determines whether or not the pinhole has reached a data acquisition position where data acquisition has not been completed by the rotation of the disk member 63. If not reached, the process returns to step S309, and if reached, the process proceeds to step S310.
  • step S310 the CPU 43 detects the reflected light with high sensitivity guided from the DMD element 31 by each of the detection elements 36a, 36b, and 36c at any of the data acquisition positions, and the brightness (level) of the reflected light from the detection signal. Measure).
  • a photodiode, an avalanche element, or the like for each of the detection elements 36a, 36b, 36c, a weak signal corresponding to the reflected light from the wafer W can be converted into an electrical signal (detection signal) at high speed.
  • the avalanche element has a sampling frequency of several kHz, and one sampling time is several ms.
  • the state (change) of the pattern on the wafer W can be detected at high speed. can do.
  • the blue light detected by the third detection element 36c is used.
  • the pixels (micromirrors) of the DMD element 31 are set so as to be guided toward the detection elements 36a, 36b, and 36c in the OFF state even though the positional accuracy is higher in the ON state.
  • the lens 34 a reduction lens, even if a deviation occurs in the reflection direction in the OFF state, it can be within the allowable range.
  • step S310 the process returns to step S308. As described above, if all the data has been acquired in step S308, the process proceeds to step S311.
  • step S311 the CPU 43 creates a two-dimensional luminance distribution (gradation distribution) as shown in FIG. 16 from the luminance data measured in step S310 and the data acquisition table.
  • FIG. 16 shows an example of the measurement result, and one piece of luminance data (in the case of this embodiment, a measured value of an area of ⁇ 10 ⁇ m on the surface of the wafer W) is described in one square.
  • the positional relationship between the squares in FIG. 16 is the data acquisition positions A (1,1) to A (17,1), A (1,2) to A (17,2),... A (1,17) in FIG. ) To A (17, 17).
  • the two-dimensional luminance distribution is displayed on the monitor 44, and the operator can visually check the measurement result (inspection result) to detect a change in the pattern on the wafer W (that is, a defect in the pattern). become.
  • the two-dimensional luminance distribution as a three-dimensional graph as shown in FIG.
  • the CPU 43 calculates an average value of luminance (gradation) from the measurement result of FIG. 16, and compares the calculated average value with a preset good product range. If the calculated average value is within the non-defective range, it is determined to be non-defective, and if it is outside the non-defective range, it is determined to be defective. Thereby, the quality of the pattern can be automatically determined. Note that, by changing the range of the data to be averaged, it is possible to obtain the effect of changing the visual field size on the wafer W.
  • a local defect can be found by calculating the maximum value or the minimum value instead of the average value of luminance and comparing it with a predetermined good product range.
  • pattern variations can be inspected.
  • the measured luminance data is used as it is, but the line width of the pattern is calculated from the measured luminance data by correlating with the measurement result of the pattern shape by SEM (scanning electron microscope). A similar pass / fail judgment can also be made using the calculated line width of the pattern (refer to equation (1) described later).
  • the scanning unit 60 that scans the range of the wafer W (that is, the scanning area C) corresponding to the pupil plane whose luminance is detected by the detection elements 36a, 36b, and 36c.
  • the pattern formed on the surface of the wafer W is inspected at high speed without moving the wafer stage 5 in the two-dimensional inspection area at the same high sensitivity as a SEM (scanning electron microscope). It becomes possible to do.
  • the scanning unit 60 is configured to scan the scanning area C by using a motor 61 to move a pinhole (hole) formed in the disc member 63 that is a field stop. In this way, it is possible to perform inspection at high speed with a simple configuration including the motor 61 and the disk member 63.
  • the motor 61 is used to rotate and move the plurality of pinholes 63a1 to 63a17 formed in the disk member 63, respectively, so that any one of the plurality of pinholes 63a1 to 63a17 is sequentially operated.
  • the scanning area C is scanned. In this way, since the scanning area C is scanned using the rotational movement by the disk member 63, the size of the scanning unit 60 can be reduced.
  • each of the detection elements 36a, 36b, and 36c detects the luminance of the portion of the pupil surface (Fourier image) where the luminance greatly changes in accordance with the change in the surface state of the wafer W (pattern change).
  • a highly sensitive inspection can be performed.
  • the two-dimensional image sensor 33 and the detection elements 36a, 36b, and 36c detect so-called polarization components of light from the wafer W that are substantially orthogonal to the polarization direction of illumination light that is linearly polarized light. It becomes a crossed Nicol state, and a highly sensitive inspection using structural birefringence becomes possible.
  • the polarization directions of the polarizer 17 and the analyzer 21 are not limited to 90 ° (in a crossed Nicol state), but may be finely adjusted according to the rotation of elliptically polarized light due to structural birefringence generated in the pattern to be inspected. Good.
  • the size of the apparatus can be reduced by illuminating the surface of the wafer W with epi-illumination.
  • each of the pinholes 63a1 to 63a17 is a diameter of 1 mm.
  • the present invention is not limited to this, and the size may be a diameter of 0.5 mm.
  • 34 pin holes 63b1 to 63b34 are formed in the disc member 63 '.
  • the pinholes 63b1 to 63b34 are arranged at different radial positions and circumferential positions on the disk member 63 ′, respectively, as in the above-described embodiment, and the first to 34th pinholes 63a1 to 63a1 are arranged. Any one pinhole of 63a34 is located within the optical field of view of the detection optical system 20.
  • the detection range (field of view) on the surface of the wafer W becomes a diameter ⁇ 5 ⁇ m, and the resolution can be changed.
  • the disk member 63 ' is rotated by the motor 61, the first to thirty-fourth pinholes 63a1 to 63a34 are respectively in the scanning area C, as shown in FIG. ) To B (34,1), B (1,2) to B (34,2),... B (1,34) to B (34,34).
  • the scanning unit 60 includes the motor 61 and the disk member 63, but is not limited thereto.
  • a modification of the scanning unit will be described with reference to FIGS.
  • the scanning unit 160 according to the modification includes a rectangular plate-shaped field stop plate 163, a linear drive unit 161 that linearly moves the field stop plate 163, and a linear that detects the position of the field stop plate 163. And an encoder 162.
  • the linear drive part 161 is comprised from the fixed part 161a and the movable part 161b.
  • the fixed part 161a is fixed to the apparatus (detection optical system 20), and drives the movable part 161b on a straight line.
  • a field stop plate 163 is attached to the movable portion 161b, and the field stop plate 163 is driven in a direction perpendicular to the optical axis of the detection optical system 20 by the linear drive unit 161.
  • the field stop plate 163 is formed in a rectangular plate shape having 17 pinholes 163a1 to 163a17 as shown in FIG.
  • the pinholes 163a1 to 163a17 are arranged on the field stop plate 163 so as to be obliquely arranged with respect to the linear movement direction of the field stop plate 163, and any one of the first to seventeenth pinholes 163a1 to 163a17 is arranged. Is positioned within the optical field of view of the detection optical system 20. Thereby, the detection range (field of view) on the surface of the wafer W is determined.
  • each pinhole 163a1 to 163a17 has a diameter of 1 mm, and when the objective lens 6 having a magnification of 100 times is used, the detection range (field of view) on the surface of the wafer W becomes a diameter of 10 ⁇ m.
  • the field stop plate 163 is linearly moved by the linear drive unit 161, the first pinhole 163a1 is positioned at the data acquisition position A (1, 1) in the uppermost row in the scanning area C, as in the above-described embodiment. 1), A (2,1),... A (17,1) are scanned (see FIG. 4).
  • the positions of the first to seventeenth pinholes 163a1 to 163a17 are shifted in the direction perpendicular to the linear movement direction of the field stop plate 163 so that the positions shifted by one scan in the scanning area C are sequentially scanned. Therefore, when the scanning by the first pinhole 163a1 is finished, the second pinhole 163a2 is shifted from the position scanned by the first pinhole 163a1 to the data acquisition position A (1,2), A (2, 2),... A (17, 2) is scanned. Thereafter, the data acquisition position shifted by one scan is similarly scanned, and the seventeenth pinhole 163a17 is the data acquisition position A (1, 17), A of the bottom row in the scanning area C. Scan (2, 17),... A (17, 17).
  • the field stop plate 163 is arranged at a conjugate position with the wafer W in the same manner as the disc member 63.
  • the field stop plate 163 is linearly moved by the linear drive unit 161
  • the wafers are sequentially turned by any one pinhole.
  • the two-dimensional data related to the scanning area C can be detected by the detection elements 36a, 36b, and 36c of the imaging unit 30.
  • a pattern with a sensitivity equivalent to that of an SEM (scanning electron microscope) can be obtained at high speed without moving the wafer stage 5 over a wide range of about 170 ⁇ m on one side. It is possible to measure changes in
  • the position of the field stop plate 163 (movable part 161b) is detected by the linear encoder 162, and if the count value of the linear encoder 162 is used, the above-described data acquisition table can be similarly created.
  • the setting is made so that the pixels of the DMD element 31 corresponding to the highly sensitive pixel area (divided area) obtained in step S302 are turned off and guided to the detection elements 36a, 36b, and 36c.
  • other pixels are turned on and set to be guided toward the two-dimensional image sensor 33, but the present invention is not limited to this.
  • a half prism 38 is arranged between the DMD element 31 and the lens 32, and a part of the light traveling from the DMD element 31 to the two-dimensional imaging element 33 is partly transmitted from the half prism 38 to the lens 34 and the spectral line. You may make it guide
  • step S303 the CPU 43 turns on the pixels of the DMD element 31 corresponding to the high-sensitivity pixel area (divided area) obtained in step S302, and turns on the two-dimensional imaging element 33 and the detection elements 36a, 36b, It is set so as to lead toward 36c, and other pixels are set in an OFF state so as not to be led toward each detection element 36a, 36b, 36c.
  • the pixel of the DMD element 31 can be turned on with higher positional accuracy, and the light from the wafer W can be guided to the detection elements 36a, 36b, and 36c.
  • the inspection apparatus 1 that performs defect inspection of the wafer W has been described as an example.
  • the substrate to be tested is not limited to the wafer W, and may be a liquid crystal glass substrate, for example.
  • a region having high sensitivity to a change in pattern is determined based on the gradation difference data (difference value between the maximum value and the minimum value of the gradation). It is not something that can be done. Therefore, a modified example of the method for determining a highly sensitive region will be described with reference to the flowchart shown in FIG. As in the case of the above-described embodiment, this method uses a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are formed, and a Fourier image of each pattern and a line for each pattern. Based on the width data, a region having high sensitivity to the pattern change is determined.
  • the line width data corresponding to the above pattern is obtained by using a line width measuring instrument such as a scatterometer or a scanning electron microscope (SEM), and these line width data groups are input in advance. It is assumed that the data is input from the interface 42 and recorded in the recording unit 41. Further, the scanning unit 60 having the above-described disk member 63 is used as the scanning unit.
  • a line width measuring instrument such as a scatterometer or a scanning electron microscope (SEM)
  • SEM scanning electron microscope
  • step S251 the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis.
  • step S252 the disk member 63 is positioned so that the inspection point (any one of the pinholes 63a1 to 63a17) is at the center of the visual field.
  • step S253 all the pixels (micromirrors) of the DMD element 31 are turned on so that all the light from the wafer W is reflected toward the two-dimensional imaging element 33.
  • step S254 the light source 11 of the illumination optical system 10 is turned on.
  • next step S255 a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are formed is placed on the wafer stage 5, and a pattern to be measured on the wafer W (a part of one shot). Is moved below the objective lens 6 by the wafer stage 5.
  • next step S256 a Fourier image is captured by the two-dimensional image sensor 33, and the captured Fourier image is recorded in the recording unit 41.
  • step S257 the CPU 43 determines whether or not all the patterns on the wafer W have been measured. If the determination is yes, the process proceeds to step S258, and if the determination is no, the process returns to step S255, and a pattern (another shot) that has not been measured yet is moved below the objective lens 6 to perform imaging in step S256. .
  • step S258 as in the case of the above-described embodiment, the CPU 43, for each Fourier image, luminance data (average value) of R (red), G (green), and B (blue) for each divided region of the Fourier image. Are generated respectively.
  • step S259 attention is paid to the same divided area, and the CPU 43 calculates an approximate expression indicating the rate of change between the gradation value and the line width of the pattern in the same divided area of each of the Fourier images FI 1 to FI n. , G, and B for each color component.
  • an arbitrary divided region on the Fourier image FI is P m
  • line width data of a pattern corresponding to each Fourier image FI 1 to FI n is read from the recording unit 41.
  • luminance data of each color component in the divided region P m (obtained in step S258) is extracted.
  • the correspondence between the line width of the pattern and the gradation value of the luminance data in the divided area P m is obtained.
  • the line width of the pattern corresponding to each of the Fourier images FI 1 to FI n is set to y
  • the gradation value of B (or R or G) in the divided region P m is set to x
  • the inclination is set to a
  • y the approximate expression is expressed by the following expression (1).
  • the absolute value of the coefficient a corresponds to the reciprocal of the gradation change with respect to the change in the line width of the pattern (that is, the reciprocal of the detection sensitivity with respect to the change in the pattern). That is, when the absolute value of the coefficient a is small, the gradation change of the Fourier image is large even if the difference in line width is the same, so that the detection sensitivity to the change of the pattern is higher.
  • step S260 the CPU 43 obtains a correlation error between the approximate expression obtained in step S259 and the line width of the pattern for each color component of R, G, and B in each divided region on the Fourier image. Specifically, deviation data between the line width of the pattern corresponding to each of the Fourier images FI 1 to FI n and the line width of the pattern calculated using the approximate expression are used as R, G, and B color components. The standard deviation is calculated for each color component of each divided region from the calculated deviation data, and the value is used as the correlation error.
  • step S261 based on the coefficient a obtained in step S259 and the correlation error obtained in step S260, the CPU 43 has a small absolute value of the coefficient a in the Fourier image divided region and a sufficient correlation error.
  • a small divided area is obtained, the divided area is determined as a highly sensitive area, and this is determined as a detection condition. Specifically, for example, each divided region is scored according to the small absolute value of the coefficient a and the small correlation error, and a highly sensitive divided region is selected based on the scoring result. decide. Even in this case, in order to detect a change in the line width or profile of the pattern with high sensitivity, it is necessary to determine which color of R, G, and B should be used and which divided region should be used in the Fourier image. Can do.
  • the DMD element 31 is used to switch the reflection angle between the ON state and the OFF state.
  • an optical spatial modulator such as an SLM (Space Light Modulator) is used.
  • sample light for R (red), G (green), and B (blue) can be extracted separately.
  • an optimum detection position is obtained, and by sampling with the micromirror placed at the optimum detection position, information equivalent to that using the DMD element 31 or the like can be obtained. It can also be obtained.

Landscapes

  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 本発明に係る検査装置(1)は、ウェハ(W)の表面に照明光を照射する照明光学系(10)と、照明光が照射されたウェハ(W)の表面を拡大観察するための検出光学系(20)と、検出光学系(20)におけるウェハ(W)からの反射光の瞳面での輝度を検出する検出素子(36a,36b,36c)と、検出素子(36a,36b,36c)により検出された輝度に基づいてウェハ(W)の表面を検査するCPU(43)と、輝度が検出される瞳面に対応したウェハ(W)の範囲を走査する走査部(60)とを備えて構成される。

Description

検査装置
 本発明は、半導体素子や液晶表示素子等の製造過程において、被検基板の表面に形成されたパターンの状態を検出する検査装置に関する。
 従来、半導体ウェハや液晶ガラス基板等の被検基板の表面に形成されたパターンから発生する反射光を利用して、基板表面のムラや傷等の欠陥を検査する装置が種々提案されている(例えば、特許文献1を参照)。特に、近年では半導体プロセスの微細化に伴って、被検基板の欠陥管理にもより高い精度が求められている。
 例えば、被検基板のパターン幅の測定をSEM(走査型電子顕微鏡)で行った場合、測定精度は高いが、観察倍率が高く何点かをサンプリングして測定を行うため、測定に膨大な時間がかかってしまう。そこで、光源から射出された所定波長の光を偏光子および対物レンズを介して落射照明により被検基板の表面に照射し、当該照明による被検基板からの反射光を、対物レンズおよび、偏光子とクロスニコルの条件を満足する検光子を介して得た画像を用いて評価する方法が提案されている。
特開2000-155099号公報
 しかしながら、このような方法を用いた場合でも、観察倍率が比較的高いため、被検基板の全体を検査するために観察範囲を移動させる必要がある。このような場合、被検基板を保持するステージを動かして観察範囲を移動させるのが一般的であるが、ステージを動かすのに比較的時間がかかるため、検査時間が増えてしまう。
 本発明は、このような問題に鑑みてなされたものであり、高い感度で高速に検査を行うことが可能な検査装置を提供することを目的とする。
 このような目的達成のため、本発明に係る検査装置は、被検基板の表面に照明光を照射する照明部と、前記照明光が照射された前記被検基板の表面を拡大観察するための観察光学系と、前記観察光学系における前記被検基板からの反射光の瞳面での輝度を検出する検出部と、前記検出部により検出された前記輝度に基づいて前記被検基板の表面を検査する検査部と、前記輝度が検出される前記瞳面に対応した前記被検基板の範囲を走査する走査部とを備えて構成される。
 なお、上述の発明において、前記走査部は、視野絞りである光学的開口部を有した板状部材と、前記光学的開口部を駆動する駆動部とを有し、前記駆動部を用いて前記光学的開口部を前記範囲で走査するように構成されることが好ましい。
 さらに、上述の発明において、前記板状部材が円板状に形成されるとともに、前記光学的開口部である複数の孔部が前記板状部材において互いに異なる径方向および周方向位置にそれぞれ形成され、前記駆動部が前記板状部材の回転対象軸を中心軸として前記板状部材を回転駆動するように構成されており、前記駆動部を用いて前記板状部材に形成された前記複数の孔部をそれぞれ回転移動させることで、前記複数の孔部のうちいずれか1つの孔部により順番に、前記範囲を走査することが好ましい。
 さらに、上述の発明において、前記駆動部が前記板状部材を直線移動させるとともに、前記光学的開口部である複数の孔部がそれぞれ前記板状部材において前記直線移動方向に対し斜めに並ぶように形成され、前記駆動部を用いて前記板状部材に形成された前記複数の孔部をそれぞれ直線移動させることで、前記複数の孔部のうちいずれか1つの孔部により順番に、前記範囲を走査するようにしてもよい。
 また、上述の発明において、前記検出部は、前記瞳面において、前記被検基板の表面状態の変化に応じ輝度が大きく変化する部分の輝度を検出することが好ましい。
 また、上述の発明において、前記照明光は、繰り返しパターンを有する前記被検基板の表面に照射される直線偏光であり、前記検出部は、前記被検基板からの光のうち前記直線偏光と偏光方向が略直交する偏光成分を検出することが好ましい。
 また、上述の発明において、前記照明部は、落射照明により前記照明光を前記被検基板の表面に照射することが好ましい。
 本発明によれば、高い感度で高速に検査を行うことが可能になる。
本発明に係る検査装置の概要図である。 ウェハへの照明光の入射角度と瞳内での結像位置との関係を示す説明図である。 円板部材の平面図である。 走査エリアとデータ取得位置を示す図である。 データ取得テーブルを示す図である。 円板部材の変形例を示す平面図である。 走査エリアとデータ取得位置の変形例を示す図である。 2次元撮像素子とDMD素子との画素対応テーブルの作成方法を示すフローチャートである。 パターンの変化に対して感度の高い領域の決定方法を示すフローチャートである。 高い感度で高速にパターンの変化を検出する方法を示すフローチャートである。 フーリエ画像を領域分割した状態の一例を示す図である。 輝度データの抽出状態を示す模式図である。 フーリエ画像におけるRの階調差の分布状態を示す図である。 フーリエ画像におけるGの階調差の分布状態を示す図である。 フーリエ画像におけるBの階調差の分布状態を示す図である。 検査結果の表示例を示す図である。 検査結果の他の表示例を示す図である。 検査装置の変形例を示す概要図である。 視野絞り部材の平面図である。 検査装置の第2の変形例を示す概要図である。 感度の高い領域の決定方法の変形例を示すフローチャートである。
 以下、図面を参照して本発明の好ましい実施形態について説明する。本発明に係る検査装置を図1に示している。本実施形態の検査装置1は、図1に示すように、ウェハステージ5と、対物レンズ6と、ハーフミラー7と、照明光学系10と、検出光学系20と、走査部60と、撮像部30と、制御ユニット40とを主体に構成される。
 ウェハステージ5には、パターン(繰り返しパターン)の形成面を上にした状態で被検基板である半導体ウェハW(以下、ウェハWと称する)が載置される。このウェハステージ5は、互いに直交するx,y,z軸の3方向へ移動可能に構成されている(なお、図1の上下方向をz軸方向とする)。これにより、ウェハステージ5は、ウェハWをx,y,z軸方向へ移動可能に支持することができる。また、ウェハステージ5は、z軸を中心に回転できるように構成されている。
 照明光学系10は、図1の左側から右側へ向けて配置順に、光源11(例えば、白色LEDやハロゲンランプ等)と、集光レンズ12と、照度均一化ユニット13と、開口絞り14と、視野絞り15と、コリメータレンズ16と、着脱可能な偏光子17(偏光フィルタ)とを有して構成される。
 ここで、照明光学系10の光源11から放出された光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15に導かれる。照度均一化ユニット13は、照明光を散乱し、光量分布を均一化する。また、干渉フィルタを含めることもできる。開口絞り14および視野絞り15は、照明光学系10の光軸に対して開口部の大きさおよび位置が変更可能に構成されている。したがって、照明光学系10では、開口絞り14および視野絞り15を操作することによって、照明領域の大きさおよび位置の変更と、照明の開口角の調整とを行うことができる。そして、開口絞り14および視野絞り15を通過した光は、コリメータレンズ16によって平行光にされた後に偏光子17を通過してハーフミラー7に入射する。
 ハーフミラー7は、照明光学系10からの光を下方に反射して対物レンズ6に導く。これにより、対物レンズ6を通過した照明光学系10からの光でウェハWが落射照明される。一方、ウェハWに落射照明された光は、ウェハWで反射して再び対物レンズ6に戻り、ハーフミラー7を透過して検出光学系20に入射することができる。
 検出光学系20は、図1の下側から上側に向けて配置順に、着脱可能な検光子21(偏光フィルタ)と、レンズ22と、ハーフプリズム23と、ベルトランレンズ24と、視野絞りとしての機能を有する円板部材63とを有して構成される。検光子21は、照明光学系10の偏光子17に対してクロスニコルの状態(偏光方向が直交する状態)となるように配置されている。照明光学系10の偏光子17と検出光学系20の検光子21とはクロスニコルの条件を満たすので、ウェハWのパターンで偏光主軸が回転しない限り、検出光学系20で検出される光量は零に近くなる。
 ハーフプリズム23は入射光束を二方向に分岐させる。ハーフプリズム23を通過する一方の光束は、ベルトランレンズ24を介して視野絞りとしての機能を有する円板部材63にウェハWの像を結像させるとともに、対物レンズ6の瞳面の像(輝度分布)を撮像部30のDMD(デジタル・マイクロミラー・デバイス)素子31に投影させる。撮像部30の2次元撮像素子33はDMD素子31と共役であるため、2次元撮像素子33の撮像面に対物レンズ6の瞳面上の輝度分布が再現されて、2次元撮像素子33によりフーリエ変換されたウェハWの画像(以下、フーリエ画像と称する)を撮像することが可能である。なお、ベルトランレンズ(Bertrand lens)は、一般に、対物レンズの後部焦点面の像を接眼レンズの焦点面に結ばせる収束レンズをいうが、顕微鏡等の光学系は一般に像側がテレセントリックな状態であり、対物レンズの後部焦点面が瞳面となるため、本実施形態において、2次元撮像素子33の撮像面に対物レンズ6の瞳面の像を結像させるレンズ24をベルトランレンズ24と称することにする。
 また、ハーフプリズム23を通過する他方の光束は、フーリエ変換されていない通常のウェハWの画像を撮像するための第2の撮像部50に導かれる。第2の撮像部50に撮像されたウェハWの画像をモニタ44に表示することで、オペレータがウェハWの表面を目視で拡大観察することが可能になる。
 ここで、本実施形態の欠陥検査でフーリエ画像(すなわち、対物レンズ6の瞳面の像)を撮像するのは以下の理由による。欠陥検査においてウェハWのパターンをそのまま撮像した画像を用いると、パターンのピッチが検査装置の分解能以下のときには、パターンの欠陥を光学的に検出できなくなる。一方、フーリエ画像では、ウェハWのパターンに欠陥があると反射光の対称性が崩れ、構造性複屈折によりフーリエ画像の光軸に対して直交する部分同士の輝度や色などに変化が生じる。そのため、パターンのピッチが検査装置の分解能以下のときでも、フーリエ画像における上記の変化を検出することでパターンの欠陥(変化)検出が可能になる。
 さらに、図2を参照しつつ、ウェハWへの照明光の入射角度と瞳面内での結像位置との関係を説明する。図2の破線で示すように、ウェハWへの照明光の入射角度が0°のときには、瞳上の結像位置は瞳中心となる。一方、図2の実線で示すように、入射角度が64°(NA=0.9相当)のときには、瞳上の結像位置は瞳の外縁部となる。すなわち、ウェハWへの照明光の入射角度は、瞳上では瞳内の半径方向の位置に対応する。また、瞳内の光軸から同一半径内の位置に結像する光は、ウェハWに同一角度で入射した光である。
 走査部60は、図1に示すように、前述の円板部材63と、円板部材63を回転駆動するモータ61と、円板部材63の回転角を検出するロータリーエンコーダ62とを有して構成される。モータ61は、円板部材63の回転対称軸を中心軸として、円板部材63を検出光学系20の光軸に対して垂直方向の面内で回転駆動する。
 円板部材63は、図3に示すように、17個のピンホール63a1~63a17を有する円板状に形成される。各ピンホール63a1~63a17は、円板部材63において互いに異なる径方向位置および周方向位置にそれぞれ配置され、第1~第17のピンホール63a1~63a17のうちいずれか1つのピンホールが検出光学系20の光学視野範囲内に位置するようになっている。これにより、ウェハWの表面上における検出範囲(視野)が決定される。なお、本実施形態において、各ピンホール63a1~63a17は、円板部材63の周方向に等ピッチ間隔で配置されるとともに、一端に位置する第1のピンホール63a1から他端に位置する第17のピンホール63a17へ向かうにつれて、その径方向位置が等ピッチ間隔で円板部材63の中心(回転対称軸)の方へずれるようになっている。
 また、各ピンホール63a1~63a17は直径φ1mmであり、倍率が100倍の対物レンズ6を使用した場合、ウェハWの表面における検出範囲(視野)は直径φ10μmとなる。このように、各ピンホール63a1~63a17の形状は円形(もしくは矩形)が好ましい。図4に示す光学視野Dは、ウェハWの表面上における検出光学系20の光学的な視野を示しており、本実施形態においては直径φ250μmである。また、光学視野Dの内側に位置する走査エリアCは、検査データを取得するための正方形のエリアであり、1辺は約170μmである。
 モータ61により円板部材63を回転させると、第1のピンホール63a1は、走査エリアCにおける一番上の列のデータ取得位置A(1,1)、A(2,1)、…A(17,1)を走査する。第1~第17のピンホール63a1~63a17はそれぞれ、走査エリアCにおいて1走査分ずれた位置を順に走査するように、円板部材63において径方向位置をずらしてある。そのため、第1のピンホール63a1による走査が終わると、第2のピンホール63a2は、第1のピンホール63a1が走査した位置から1走査分ずれた位置のデータ取得位置A(1,2)、A(2,2)、…A(17,2)を走査する。そのため、複数のピンホールが同時に走査エリアC内に入ることはない。以下、同様にして1走査分ずれた位置のデータ取得位置を走査していき、第17のピンホール63a17は、走査エリアCにおける一番下の列のデータ取得位置A(1,17)、A(2,17)、…A(17,17)を走査する。
 円板部材63はウェハWと共役の位置にあるので、モータ61により円板部材63を回転させると、いずれか1つのピンホールにより順番にウェハWの走査エリアCを走査しながら、走査エリアCに関するデータを撮像部30の各検出素子36a,36b,36cで検出することができる。このように、視野絞りであるピンホール63a1~63a17を用いて走査することにより、本実施形態の場合は1辺が約170μmの広い範囲を、ウェハステージ5を移動させることなく高速に、SEM(走査型電子顕微鏡)と同等の感度でパターンの変化を測定することが可能になる。なお、円板部材63の回転に伴って各ピンホール63a1~63a17は回転するが、円板部材63の半径に対して走査エリアCは小さいため、各ピンホール63a1~63a17による走査の軌跡は直線に近くなる。
 撮像部30は、図1に示すように、DMD(Digital Micromirror Device)素子31と、レンズ32と、2次元撮像素子33と、反対側に設けられたレンズ34と、分光プリズム35と、3つの検出素子36a,36b,36cとを有して構成される。DMD素子31は、平面上に並ぶ複数の可動式マイクロミラー(図示せず)を有して構成される。DMD素子31のマイクロミラーは、電気駆動することにより、ON状態のときには検出光学系20からの光が2次元撮像素子33の方へ反射するように傾斜し、OFF状態のときには検出光学系20からの光が検出素子36a,36b,36c(分光プリズム35)の方へ反射するように傾斜する。
 そのため、ON状態のマイクロミラーで反射した検出光学系20からの光は、レンズ32(アオリ光学系)を通って2次元撮像素子33の撮像面に導かれる。一方、OFF状態のマイクロミラーで反射した検出光学系20からの光は、レンズ34(アオリ光学系)を通って、分光プリズム35でR(赤色)、G(緑色)、B(青色)の光に分光された後、それぞれ3つの検出素子36a,36b,36cに導かれる。なお、各検出素子36a,36b,36cで得られた光電信号は、不図示の配線によりCPU43へ送られる。
 2次元撮像素子33は、ベイヤ配列のカラーフィルタアレイを有するCCDやCMOS等であり、前述のフーリエ画像を撮像する。また、3つの検出素子36a,36b,36cは、フォトダイオードやアバランシェ素子等の高感度な光検出素子であり、分光プリズム35によって分光されたR(赤色)、G(緑色)、B(青色)の光をそれぞれ検出する。
 制御ユニット40は、フーリエ画像のデータを記録する記録部41と、入力インターフェース42と、各種の演算処理を実行するCPU43と、モニタ44および操作部45とを有して構成され、検査装置1の統括的な制御を実行する。また、記録部41、入力インターフェース42、モニタ44および操作部45は、それぞれCPU43と電気的に接続されている。CPU43は、プログラムの実行によってフーリエ画像を解析し、2次元撮像素子33で撮像されるフーリエ画像の中でパターンの変化に対して感度の高い領域を求める。また、入力インターフェース42は、記録媒体(図示せず)を接続するコネクタや、外部のコンピュータ(図示せず)と接続するための接続端子を有しており、記録媒体またはコンピュータからデータの読み込みを行う。
 以上のように構成される検査装置1を用いてウェハWを検査する方法について、図8~図10に示すフローチャートを参照しながら説明する。まず、図8に示すフローチャートを用いて、2次元撮像素子33とDMD素子31との画素対応テーブルを作成する方法について説明する。画素対応テーブルの作成方法は、まず、ステップS101において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸から外す。次に、ステップS102において、検査点(いずれかのピンホール63a1~63a17)が視野の中心になるように円板部材63を位置決めする。次のステップS103において、パターンのないウェハWをウェハステージ5により対物レンズ6の下方(観察位置)に移動させる。
 次のステップS104において、照明光学系10の光源11を点灯させる。このとき、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされてハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、レンズ22、ハーフプリズム23、ベルトランレンズ24、および円板部材63を通過し、撮像部30のDMD素子31にフーリエ像が投影される。
 次のステップS105において、DMD素子31の1画素(マイクロミラー)だけON状態にし、それ以外の画素(マイクロミラー)はOFF状態にする。そうすると、ON状態の画素で反射した検出光学系20からの光は、レンズ32を通って2次元撮像素子33の撮像面に導かれる。
 次のステップS106において、2次元撮像素子33で撮像を行って、ON状態の画素(マイクロミラー)で反射した光を検出し、CPU43がON状態の画素で反射した光の撮像面上(2次元撮像素子33)での画素位置を計算して求める。
 次のステップS107において、CPU43は、ステップS105で求めた2次元撮像素子33の画素位置と、そのときのDMD素子31の画素位置(マイクロミラーの位置)との関係を、記録部41の画素対応テーブルに登録する。
 次のステップS108において、CPU43は、DMD素子31の全ての画素について測定が済んだか否かを判定する。判定がYesであれば、画素対応テーブルの作成を終了し、判定がNoであればステップS109へ進む。
 ステップS109では、DMD素子31のON状態にする画素(マイクロミラー)を未だ測定が済んでいない画素に変更し、ステップS106へ戻る。このようなシーケンスにより、2次元撮像素子33の画素とDMD素子31の画素との関係を画素対応テーブルに登録することができる。
 次に、図9に示すフローチャートを用いて、2次元撮像素子33で撮像されるフーリエ画像の中で、パターンの変化に対して感度の高い領域を決定する方法について説明する。感度の高い領域の決定方法は、まず、ステップS201において、照明光学系10の偏光子17と検出光学系20の検光子21をクロスニコルの状態となるように光軸上に挿入する。次に、ステップS202において、検査点(いずれかのピンホール63a1~63a17)が視野の中心になるように円板部材63を位置決めする。次のステップS203において、DMD素子31の全ての画素(マイクロミラー)をON状態にして、ウェハWからの光が全て2次元撮像素子33の方へ反射するようにする。次のステップS204において、照明光学系10の光源11を点灯させる。
 次のステップS205において、繰り返しパターンが形成されたウェハWをウェハステージ5上に載置し、ウェハW上の測定するパターン(1ショットの一部分)をウェハステージ5により対物レンズ6の下方に移動させる。このとき、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWを使用する。
 そうすると、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされた後に偏光子17を通過してハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、検光子21、レンズ22、ハーフプリズム23、ベルトランレンズ24、および円板部材63を通過し、撮像部30のDMD素子31にフーリエ像が投影される。このとき、DMD素子31の全ての画素(マイクロミラー)がON状態であるので、DMD素子31で反射した光はレンズ32を通り、2次元撮像素子33の撮像面にフーリエ像が投影される。
 そこで、次のステップS206において、2次元撮像素子33でフーリエ像を撮像し、撮像したフーリエ画像を記録部41に記録する。
 次のステップS207において、CPU43は、ウェハW上の必要な全てのパターンについて測定が済んだか否かを判定する。判定がYesであればステップS208へ進み、判定がNoであればステップS205へ戻り、未だ測定が済んでいないパターン(別のショット)を対物レンズ6の下方に移動させてステップS206の撮像を行う。これにより、記録部41には、同一形状のパターンについて露光条件が異なる複数のフーリエ画像のカラーデータが記録されることになる。
 ステップS208では、CPU43は、各フーリエ画像について、フーリエ画像の各位置ごとにR(赤色)、G(緑色)、B(青色)の輝度データ(平均値)をそれぞれ生成する。輝度データの求め方は、まず、図11に示すように、フーリエ画像(例えば1フレーム目のフーリエ画像FI1)を縦横等間隔に正方格子状の複数の分割領域Pに分割し、フーリエ画像の分割領域Pごとに、RGBの輝度値の平均をそれぞれの色別に求める。そして、この工程を各々のフーリエ画像について行う。これにより、1フレーム目からnフレーム目までのフーリエ画像FI1~FInについて、各フーリエ画像の分割領域Pごとに、R、G、Bの各色成分ごとの階調を示す輝度データがそれぞれ生成されることになる。
 次のステップS209において、図12に示すように同じ分割領域に注目し、CPU43は、同じ分割領域におけるフーリエ画像FI1~FIn間での階調差を示す階調差データを、R、G、Bの各色成分ごとに生成する。具体的には、フーリエ画像FI上の任意の分割領域をPとすると、まず、各々のフーリエ画像FI1~FInについて、分割領域Pでの各色成分の輝度データ(ステップS208で求めたもの)をそれぞれ抽出する。次に、分割領域Pに対応する輝度データの階調値のうちで、R、G、Bの各色成分ごとの最大値と最小値とを抽出し、抽出した最大値と最小値との差分値を算出する。そして、これらの工程を全ての分割領域について行う。これにより、フーリエ画像の全ての分割領域について、分割領域Pにおけるフーリエ画像間での階調差を示す階調差データ(階調の最大値と最小値との差分値)が、R、G、Bの各色成分ごとに生成されることになる。
 そして、ステップS210において、CPU43は、ステップS209で求めた階調差データ(階調の最大値と最小値との差分値)に基づいて、フーリエ画像の分割領域うち、階調の最大値と最小値との差分値が最大となる色と分割領域を求め、当該分割領域を感度の高い領域と決定し、そこを検出条件に決める。図13~図15は、フーリエ画像の各分割領域における階調差の分布状態を色成分ごとに示した図である。図13~図15の例において、図15に示すBの階調差の左上の領域が最大感度の領域となる。このようにすれば、パターンの線幅やプロファイルの変化を感度よく検出するために、R、G、Bのどの色を使い、フーリエ画像の中でどの分割領域を使用すればよいか決定することができる。
 上述のようにして、未知のパターンの変化を2次元撮像素子33で撮像した画像より検出することが可能になる。ところが、ウェハWからの反射光は微弱であり、2次元撮像素子33の露光時間が長くなってしまいスループットが上がらない場合がある。
 そこで、図10に示すフローチャートを用いて、高い感度で高速にパターンの変化を検出する方法について説明する。このパターンの検出方法は、まず、ステップS301において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。
 次に、ステップS302において、CPU43は、ウェハWからの反射光を各検出素子36a,36b,36cの方へ導くためにON/OFFさせるDMD素子31の画素(マイクロミラー)を決定する。具体的には、ステップS101~S109で求めた2次元撮像素子33とDMD素子31との画素対応テーブルを参照して、ステップS201~S210で求めた2次元撮像素子33上で感度の高い画素領域(分割領域)に対応するDMD素子31の画素を求める。
 次のステップS303において、CPU43は、ステップS302で求めた感度の高い画素領域(分割領域)に対応するDMD素子31の画素をOFF状態にして各検出素子36a,36b,36cの方へ導くように設定するとともに、他の画素をON状態にして2次元撮像素子33の方へ導くように設定する。
 次のステップS304では、照明光学系10の光源11を点灯させる。次に、ステップS305において、モータ61により円板部材63を一定速度で回転させる。次のステップS306において、検査するウェハWをウェハステージ5上に載置し、ウェハW上の検査するパターン(1ショット分)をウェハステージ5により対物レンズ6の下方に移動させる。
 そうすると、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされた後に偏光子17を通過してハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、検光子21、レンズ22、ハーフプリズム23、ベルトランレンズ24、および円板部材63を通過し、撮像部30のDMD素子31に達する。
 このとき、ウェハWのパターン変化に対して感度の高い領域の反射光は、DMD素子31におけるOFF状態の画素(マイクロミラー)で反射してレンズ34を通り、分光プリズム35により、赤色の光は第1の検出素子36a、緑色の光は第2の検出素子36b、青色の光は第3の検出素子36cへ導かれる。またこのとき、走査部60の円板部材63を回転させることにより、第1~第17のピンホール63a1~63a17のうちいずれか1つのピンホールにより順番にウェハWの走査エリアCを走査しながら、2次元の走査エリアCに関するデータを高速に各検出素子36a,36b,36cで検出することができる。
 そこで、次のステップS307において、CPU43は、データ取得テーブルを作成して記録部41に記録する。データ取得テーブルとは、前述のデータ取得位置A(1,1)…とロータリーエンコーダ62のカウント値(すなわち、円板部材63の回転角)との対応関係を示す表である。
 データ取得テーブルの作成方法は、まず、円板部材63が回転し、第1のピンホール63a1(図4も参照)がデータ取得位置A(1,1)に到達したときのロータリーエンコーダ62のカウント値をデータ取得テーブルに登録する。次に、第1のピンホール63a1がデータ取得位置A(2,1)に到達したときのロータリーエンコーダ62のカウント値をデータ取得テーブルに登録する。このようにして、第1のピンホール63a1がデータ取得位置A(1,1)~A(17,1)にそれぞれ到達したときのロータリーエンコーダ62のカウント値をデータ取得テーブルに登録する。これにより1走査分のデータ取得テーブルの登録が済んだことになる。
 続いて、第2のピンホール63a2がデータ取得位置A(1,2)に到達したときのロータリーエンコーダ62のカウント値をデータ取得テーブルに登録する。次に、第2のピンホール63a2がデータ取得位置A(2,2)に到達したときのロータリーエンコーダ62のカウント値をデータ取得テーブルに登録する。このようにして、第2のピンホール63a2がデータ取得位置A(1,2)~A(17,2)にそれぞれ到達したときのロータリーエンコーダ62のカウント値をデータ取得テーブルに登録する。
 以下同様にして、全てのピンホール63a1~63a17についてそれぞれ、データ取得位置に到達したときのロータリーエンコーダ62のカウント値をデータ取得テーブルに登録する。これにより、データ取得テーブルが完成する。図5に、ロータリーエンコーダ62として1周20000パルスのエンコーダを使用したときのデータ取得テーブルの例を示す。なお、データ取得位置の間隔は、分解能により変えてもよい。
 次のステップS308において、CPU43は、ステップS307で作成したデータ取得テーブルを利用して、全てのデータ取得位置で走査エリアCに関するデータを各検出素子36a,36b,36cにより取得したか否かを判定する。データの取得が済んでいない場合にはステップS309へ進み、データの取得が済んでいる場合にはステップS311へ進む。なお、データを取得する順番は、データ取得位置A(1,1)~A(17,1)、A(1,2)~A(17,2)、…A(1,17)~A(17,17)の順番で行ってもよく、ランダムに行ってもよい。
 ステップS309では、CPU43が、ステップS307で作成したデータ取得テーブルを利用して、円板部材63の回転により、ピンホールがデータ取得の済んでいないデータ取得位置に到達したか否かを判定する。到達していなければステップS309へ戻り、到達したらステップS310へ進む。
 ステップS310において、CPU43は、いずれかのデータ取得位置において、各検出素子36a,36b,36cによりDMD素子31から導かれた感度の高い反射光を検出し、その検出信号から反射光の輝度(階調)を測定する。このとき、前述したように、各検出素子36a,36b,36cにフォトダイオードやアバランシェ素子等を使用することで、ウェハWからの反射光に応じた微弱信号を高速に電気信号(検出信号)に変換することができ(例えば、CCDで100ms程度なのに対し、アバランシェ素子では、サンプリング周波数が数kHzであり、1サンプリング時間は数ms程度)、ウェハW上のパターンの状態(変化)を高速に検出することができる。なお、図13~図15の例では、第3の検出素子36cで検出した青色の光を用いることになる。また、DMD素子31の画素(マイクロミラー)は、ON状態の方が位置精度が高いのにもかかわらず、OFF状態のときに各検出素子36a,36b,36cの方へ導くように設定しているが、レンズ34を縮小レンズにすることで、OFF状態のときの反射方向にズレが生じても許容範囲内とすることができる。
 なお、検出した反射光の輝度データは記録部41に記録され、記録部41のデータ取得テーブルに、当該検出を行ったデータ取得位置においてデータ取得済みであることが登録される。そして、ステップS310の処理が終わるとステップS308へ戻る。前述したように、ステップS308において全てのデータの取得が済んでいる場合にはステップS311へ進む。
 そして、ステップS311において、CPU43は、ステップS310で測定した輝度データおよびデータ取得テーブルから、図16に示すような2次元の輝度分布(階調の分布)を作成する。図16は測定結果の一例であり、1つのマスに1つの輝度データ(本実施形態の場合、ウェハWの表面におけるφ10μmのエリアの測定値)が記載される。図16における各マスの位置関係は、図4のデータ取得位置A(1,1)~A(17,1)、A(1,2)~A(17,2)、…A(1,17)~A(17,17)に対応する。
 また、2次元の輝度分布はモニタ44に表示され、測定結果(検査結果)をオペレータが目視で確認することにより、ウェハW上のパターンの変化(すなわち、パターンの欠陥)を検出することが可能になる。また、2次元の輝度分布を図17に示すような3次元のグラフとして表示することにより、パターンの変化を認識しやすくすることもできる。
 またこのとき、測定した輝度データからパターンの良否を自動的に判定することも可能である。パターンの自動判定方法について説明すると、CPU43は、まず、図16の測定結果から輝度(階調)の平均値を算出し、算出した平均値と予め設定しておいた良品範囲とを比較する。そして、算出した平均値が良品範囲内であれば良品であると判定し、良品範囲外であれば不良であると判定する。これにより、パターンの良否を自動的に判定することができる。なお、平均するデータの範囲を変えることにより、あたかもウェハW上での視野サイズを変更した効果を得ることができる。また、輝度の平均値ではなく、最大値や最小値を算出して所定の良品範囲と比較することにより、局所的な欠陥を見つけることができる。さらに、標準偏差を算出するようにすれば、パターンのばらつきを検査することができる。また、上記自動判定方法において、測定した輝度データをそのまま使用したが、SEM(走査型電子顕微鏡)によるパターン形状の測定結果と相関をとることにより、測定した輝度データからパターンの線幅を算出し、算出したパターンの線幅を使用して同様の良否判定を行うこともできる(後述の(1)式を参照)。
 このように、本実施形態の検査装置によれば、各検出素子36a,36b,36cにより輝度が検出される瞳面に対応したウェハWの範囲(すなわち、走査エリアC)を走査する走査部60を備えて構成されるため、2次元の検査エリアについてウェハステージ5を移動させることなく高速に、SEM(走査型電子顕微鏡)と同等の高感度で、ウェハWの表面に形成されたパターンを検査することが可能になる。
 なお、走査部60は、モータ61を用いて、視野絞りである円板部材63に形成されたピンホール(孔部)を移動させることで、走査エリアCを走査するように構成されている。このようにすれば、モータ61および円板部材63からなる簡便な構成で、高速に検査を行うことができる。
 またこのとき、モータ61を用いて、円板部材63に形成された複数のピンホール63a1~63a17をそれぞれ回転移動させることで、複数のピンホール63a1~63a17のうちいずれか1つのピンホールにより順番に、走査エリアCを走査している。このようにすれば、円板部材63による回転移動を利用して走査エリアCの走査を行うため、走査部60の大きさを小さくすることができる。
 また、前述のように、各検出素子36a,36b,36cは、瞳面(フーリエ画像)において、ウェハWの表面状態の変化(パターンの変化)に応じ輝度が大きく変化する部分の輝度を検出することにより、感度の高い検査を行うことができる。
 また、2次元撮像素子33および各検出素子36a,36b,36cが、ウェハWからの光のうち直線偏光である照明光と偏光方向が略直交する偏光成分を検出するようにすることで、いわゆるクロスニコルの状態となって構造性複屈折を利用した感度の高い検査が可能になる。なお、偏光子17と検光子21の偏光方向は、90°(クロスニコルの状態)に限らず、検査対象のパターンで発生する構造性複屈折による楕円偏光の回転に合わせて微調整してもよい。
 またこのとき、落射照明によりウェハWの表面を照明することで、装置の大きさを小型にすることができる。
 なお、上述の実施形態において、各ピンホール63a1~63a17の大きさを直径φ1mmとしたが、これに限られるものではなく、大きさを直径φ0.5mmとしてもよい。この場合、図6に示すように、円板部材63′には、34個のピンホール63b1~63b34が形成される。そして、各ピンホール63b1~63b34は、上述の実施形態の場合と同様に、円板部材63′において互いに異なる径方向位置および周方向位置にそれぞれ配置され、第1~第34のピンホール63a1~63a34のうちいずれか1つのピンホールが検出光学系20の光学視野範囲内に位置するようになっている。このようにすれば、倍率が100倍の対物レンズ6を使用した場合、ウェハWの表面における検出範囲(視野)は直径φ5μmとなり、分解能を変更することができる。なおこのとき、モータ61により円板部材63′を回転させると、図7に示すように、第1~第34のピンホール63a1~63a34はそれぞれ、走査エリアCにおいてデータ取得位置B(1,1)~B(34,1)、B(1,2)~B(34,2)、…B(1,34)~B(34,34)の順番で走査を行う。
 また、上述の実施形態において、走査部60は、モータ61および円板部材63を有して構成されているが、これに限られるものではない。そこで、走査部の変形例について図18および図19を参照しながら説明する。変形例に係る走査部160は、図18に示すように、矩形板状の視野絞り板163と、視野絞り板163を直線移動させるリニア駆動部161と、視野絞り板163の位置を検出するリニアエンコーダ162とを有して構成される。
 リニア駆動部161は、固定部161aと、可動部161bとから構成される。固定部161aは装置(検出光学系20)に固定され、可動部161bを直線上で駆動する。可動部161bに視野絞り板163が取り付けられ、視野絞り板163は、リニア駆動部161により検出光学系20の光軸に対して垂直方向に駆動される。
 視野絞り板163は、図19に示すように、17個のピンホール163a1~163a17を有する矩形板状に形成される。各ピンホール163a1~163a17は、視野絞り板163において視野絞り板163の直線移動方向に対し斜めに並ぶように配置され、第1~第17のピンホール163a1~163a17のうちいずれか1つのピンホールが検出光学系20の光学視野範囲内に位置するようになっている。これにより、ウェハWの表面上における検出範囲(視野)が決定される。
 また、各ピンホール163a1~163a17は直径φ1mmであり、倍率が100倍の対物レンズ6を使用した場合、ウェハWの表面における検出範囲(視野)は直径φ10μmとなる。リニア駆動部161により視野絞り板163を直線移動させると、上述の実施形態の場合と同様に、第1のピンホール163a1は、走査エリアCにおける一番上の列のデータ取得位置A(1,1)、A(2,1)、…A(17,1)を走査する(図4を参照)。第1~第17のピンホール163a1~163a17はそれぞれ、走査エリアCにおいて1走査分ずれた位置を順に走査するように、視野絞り板163の直線移動方向と垂直な方向の位置をずらしてある。そのため、第1のピンホール163a1による走査が終わると、第2のピンホール163a2は、第1のピンホール163a1が走査した位置から1走査分ずれた位置のデータ取得位置A(1,2)、A(2,2)、…A(17,2)を走査する。以下、同様にして1走査分ずれた位置のデータ取得位置を走査していき、第17のピンホール163a17は、走査エリアCにおける一番下の列のデータ取得位置A(1,17)、A(2,17)、…A(17,17)を走査する。
 そして、視野絞り板163は、円板部材63と同様にウェハWと共役の位置に配置され、リニア駆動部161により視野絞り板163を直線移動させると、いずれか1つのピンホールにより順番にウェハWの走査エリアCを走査しながら、走査エリアCに関する2次元のデータを撮像部30の各検出素子36a,36b,36cで検出することができる。このようにしても、上述の実施形態の場合と同様に、1辺が約170μmの広い範囲を、ウェハステージ5を移動させることなく高速に、SEM(走査型電子顕微鏡)と同等の感度でパターンの変化を測定することが可能になる。なお、視野絞り板163(可動部161b)の位置はリニアエンコーダ162に検出され、リニアエンコーダ162のカウント値を用いれば、前述のデータ取得テーブルを同様に作成することが可能である。
 また、上述の実施形態において、ステップS302で求めた感度の高い画素領域(分割領域)に対応するDMD素子31の画素をOFF状態にして各検出素子36a,36b,36cの方へ導くように設定するとともに、他の画素をON状態にして2次元撮像素子33の方へ導くように設定しているが、これに限られるものではない。例えば、図20に示すように、DMD素子31とレンズ32との間にハーフプリズム38を配置し、DMD素子31から2次元撮像素子33へ向かう光の一部をハーフプリズム38からレンズ34および分光プリズム35を介して各検出素子36a,36b,36cへ導くようにしてもよい。この場合、ステップS303において、CPU43は、ステップS302で求めた感度の高い画素領域(分割領域)に対応するDMD素子31の画素をON状態にして2次元撮像素子33および各検出素子36a,36b,36cの方へ導くように設定するとともに、他の画素をOFF状態にして各検出素子36a,36b,36cの方へ導かないように設定する。これにより、DMD素子31の画素をより位置精度の高いON状態にしてウェハWからの光を各検出素子36a,36b,36cの方へ導くことができる。
 また、上述の実施形態において、ウェハWの欠陥検査を行う検査装置1を例に説明を行ったが、被検基板はウェハWに限られず、例えば液晶ガラス基板であっても構わない。
 また、上述の実施形態において、階調差データ(階調の最大値と最小値との差分値)に基づいて、パターンの変化に対して感度の高い領域を決定しているが、これに限られるものではない。そこで、図21に示すフローチャートを用いて、感度の高い領域の決定方法の変形例について説明する。この方法は、上述の実施形態の場合と同様に、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWを用いて、各々のパターンのフーリエ画像とパターン毎の線幅のデータとに基づいて、パターンの変化に対して感度の高い領域を決定するものである。なお、上記のパターンに対応する線幅のデータは、例えば、スキャトロメータや走査型電子顕微鏡(SEM)等の線幅測定器で測定したものを利用し、これら線幅のデータ群は予め入力インターフェース42より入力して記録部41に記録されているものとする。また、走査部として上述の円板部材63を有した走査部60を用いることにする。
 まず、前述の実施形態の場合と同様に、ステップS251において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。次に、ステップS252において、検査点(いずれかのピンホール63a1~63a17)が視野の中心になるように円板部材63を位置決めする。次のステップS253において、DMD素子31の全ての画素(マイクロミラー)をON状態にして、ウェハWからの光が全て2次元撮像素子33の方へ反射するようにする。次のステップS254において、照明光学系10の光源11を点灯させる。
 次のステップS255において、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWをウェハステージ5上に載置し、ウェハW上の測定するパターン(1ショットの一部分)をウェハステージ5により対物レンズ6の下方に移動させる。次のステップS256において、2次元撮像素子33でフーリエ像を撮像し、撮像したフーリエ画像を記録部41に記録する。
 次のステップS257において、CPU43は、ウェハW上の全てのパターンについて測定が済んだか否かを判定する。判定がYesであればステップS258へ進み、判定がNoであればステップS255へ戻り、未だ測定が済んでいないパターン(別のショット)を対物レンズ6の下方に移動させてステップS256の撮像を行う。
 ステップS258において、CPU43は、上述の実施形態の場合と同様に、各フーリエ画像について、フーリエ画像の分割領域ごとにR(赤色)、G(緑色)、B(青色)の輝度データ(平均値)をそれぞれ生成する。
 さて、次のステップS259では、同じ分割領域に注目し、CPU43は、各フーリエ画像FI1~FInの同じ分割領域における階調値とパターンの線幅との変化率を示す近似式を、R、G、Bの各色成分ごとに求める。具体的には、フーリエ画像FI上の任意の分割領域をPとすると、まず、各々のフーリエ画像FI1~FInに対応するパターンの線幅のデータを記録部41から読み出す。またこのとき、各々のフーリエ画像FI1~FInについて、分割領域Pでの各色成分の輝度データ(ステップS258で求めたもの)をそれぞれ抽出する。次に、各々のフーリエ画像FI1~FInごとに、パターンの線幅と分割領域Pでの輝度データの階調値との対応関係を求める。
 続いて、パターンの線幅と分割領域Pでの階調値との対応関係に基づいて、最小二乗法により分割領域Pでの階調値とパターンの線幅との変化率を示す近似式を求める。ここで、各々のフーリエ画像FI1~FInに対応するパターンの線幅をyとし、分割領域PでのB(あるいはRもしくはG)の階調値をxとし、傾きをaとし、y切片をbとすると、近似式は次の(1)式で表わされる。
 y=ax+b   …(1)
 なお、係数aの絶対値は、パターンの線幅の変化に対する階調変化の逆数(すなわち、パターンの変化に対する検出感度の逆数)に相当する。すなわち、上記の係数aの絶対値が小さくなると、線幅の差が同じでもフーリエ画像の階調変化が大きくなるので、パターンの変化に対する検出感度がより高くなる。そして、これらの工程を全ての分割領域について、R、G、Bの各色成分ごとに行う。
 次に、ステップS260において、CPU43は、フーリエ画像上の各分割領域において、ステップS259で得た近似式とパターンの線幅との相関誤差をR、G、Bの各色成分ごとに求める。具体的には、各々のフーリエ画像FI1~FInに対応するパターンの線幅と、近似式を用いて算出されるパターンの線幅との偏差のデータを、R、G、Bの各色成分ごとに算出し、算出した偏差のデータから各分割領域の色成分ごとに標準偏差を算出し、その値を相関誤差とする。
 そして、ステップS261において、CPU43は、ステップS259で求めた係数aと、ステップS260で求めた相関誤差とに基づいて、フーリエ画像の分割領域うち、係数aの絶対値が小さく、かつ相関誤差が十分に小さい分割領域を求め、当該分割領域を感度の高い領域と決定し、そこを検出条件に決める。具体的には、例えば、係数aの絶対値の小ささと、相関誤差の小ささとに応じて各々の分割領域のスコアリングを行い、このスコアリングの結果に基づいて感度の高い分割領域を決定する。このようにしても、パターンの線幅やプロファイルの変化を感度よく検出するために、R、G、Bのどの色を使い、フーリエ画像の中でどの分割領域を使用すればよいか決定することができる。
 なお、上述の実施形態において、DMD素子31を用いて反射角度をON状態とOFF状態とで切り替えたが、これに限られるものではなく、SLM(Space Light Modulator)等の光空間変調器を用いれば、R(赤色)、G(緑色)、B(青色)用のサンプル光をそれぞれ別々に取り出すことができる。また、固定的なマイクロミラーを走査することで最適な検出位置を求め、その最適な検出位置にマイクロミラーを配置した状態でサンプリングすることで、DMD素子31等を用いたのと同等の情報を得ることもできる。
  W ウェハ(被検基板)
  1 検査装置
 10 照明光学系(照明部)       17 偏光子
 20 検出光学系(観察光学系)     21 検光子
 30 撮像部
 36a 第1の検出素子(検出部)
 36b 第2の検出素子(検出部)
 36c 第3の検出素子(検出部)
 40 制御ユニット           43 CPU(検査部)
 60 走査部
 61 モータ(駆動部)
 63 円板部材(板状部材)       63 円板部材(変形例)
 63a1~63a17 ピンホール(孔部)
 63b1~63b34 ピンホール(変形例)
160 走査部(変形例)
161 リニア駆動部(161a 固定部,161b 可動部)
163 視野絞り部材(板状部材)

Claims (7)

  1.  被検基板の表面に照明光を照射する照明部と、
     前記照明光が照射された前記被検基板の表面を拡大観察するための観察光学系と、
     前記観察光学系における前記被検基板からの反射光の瞳面での輝度を検出する検出部と、
     前記検出部により検出された前記輝度に基づいて前記被検基板の表面を検査する検査部と、
     前記輝度が検出される前記瞳面に対応した前記被検基板の範囲を走査する走査部とを備えて構成されることを特徴とする検査装置。
  2.  前記走査部は、視野絞りである光学的開口部を有した板状部材と、前記光学的開口部を駆動する駆動部とを有し、
     前記駆動部を用いて前記光学的開口部を前記範囲で走査するように構成されることを特徴とする請求項1に記載の検査装置。
  3.  前記板状部材が円板状に形成されるとともに、前記光学的開口部である複数の孔部が前記板状部材において互いに異なる径方向および周方向位置にそれぞれ形成され、
     前記駆動部が前記板状部材の回転対象軸を中心軸として前記板状部材を回転駆動するように構成されており、
     前記駆動部を用いて前記板状部材に形成された前記複数の孔部をそれぞれ回転移動させることで、前記複数の孔部のうちいずれか1つの孔部により順番に、前記範囲を走査することを特徴とする請求項2に記載の検査装置。
  4.  前記駆動部が前記板状部材を直線移動させるとともに、
     前記光学的開口部である複数の孔部がそれぞれ前記板状部材において前記直線移動方向に対し斜めに並ぶように形成され、
     前記駆動部を用いて前記板状部材に形成された前記複数の孔部をそれぞれ直線移動させることで、前記複数の孔部のうちいずれか1つの孔部により順番に、前記範囲を走査することを特徴とする請求項2に記載の検査装置。
  5.  前記検出部は、前記瞳面において、前記被検基板の表面状態の変化に応じ輝度が大きく変化する部分の輝度を検出することを特徴とする請求項1から4のうちいずれかに記載の検査装置。
  6.  前記照明光は、繰り返しパターンを有する前記被検基板の表面に照射される直線偏光であり、
     前記検出部は、前記被検基板からの光のうち前記直線偏光と偏光方向が略直交する偏光成分を検出することを特徴とする請求項1から5のうちいずれかに記載の検査装置。
  7.  前記照明部は、落射照明により前記照明光を前記被検基板の表面に照射することを特徴とする請求項6に記載の検査装置。
PCT/JP2009/057355 2008-04-11 2009-04-10 検査装置 WO2009125839A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010507281A JPWO2009125839A1 (ja) 2008-04-11 2009-04-10 検査装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-103622 2008-04-11
JP2008103622 2008-04-11

Publications (1)

Publication Number Publication Date
WO2009125839A1 true WO2009125839A1 (ja) 2009-10-15

Family

ID=41161970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/057355 WO2009125839A1 (ja) 2008-04-11 2009-04-10 検査装置

Country Status (4)

Country Link
JP (1) JPWO2009125839A1 (ja)
KR (1) KR20110000577A (ja)
TW (1) TW200952103A (ja)
WO (1) WO2009125839A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109044260A (zh) * 2018-07-18 2018-12-21 苏州精观医疗科技有限公司 一种基于光纤的暗场显微成像装置
CN116602629A (zh) * 2023-07-20 2023-08-18 广州华飞迪通医疗科技有限公司 可调式牙齿扫描仪及其使用方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5993691B2 (ja) * 2012-09-28 2016-09-14 株式会社日立ハイテクノロジーズ 欠陥検査装置及び欠陥検査方法
JP6348289B2 (ja) * 2014-01-31 2018-06-27 株式会社Screenホールディングス 検査装置および検査方法
KR102260734B1 (ko) * 2020-02-11 2021-06-07 주식회사 와이앤와이 제품 검사 장치 및 이를 이용한 제품 검사 방법
CN116077031A (zh) * 2023-04-11 2023-05-09 广州华飞迪通医疗科技有限公司 基于dlp的激光口腔扫描仪及其成像方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172547A (ja) * 1991-12-24 1993-07-09 Nikon Corp 欠陥検査装置及び欠陥検査方法
JPH07333164A (ja) * 1994-06-14 1995-12-22 Hitachi Ltd 検査方法および検査装置
JPH08162511A (ja) * 1994-10-07 1996-06-21 Hitachi Ltd 半導体基板の製造方法並びに被検査対象物上のパターンの欠陥検査方法及びその装置
JP2000155099A (ja) * 1998-09-18 2000-06-06 Hitachi Ltd 試料表面の観察方法及びその装置並びに欠陥検査方法及びその装置
JP2004317190A (ja) * 2003-04-14 2004-11-11 Neomax Co Ltd 高速凹凸判定可能な表面検査方法及び表面検査システム
JP2006227016A (ja) * 1994-10-07 2006-08-31 Renesas Technology Corp パターンの欠陥検査方法およびその装置
JP2006308513A (ja) * 2005-05-02 2006-11-09 Nec Electronics Corp 検査装置及び方法
WO2008015973A1 (fr) * 2006-08-02 2008-02-07 Nikon Corporation Appareil de détection de défauts et procédé de détection de défauts
WO2008152801A1 (ja) * 2007-06-13 2008-12-18 Nikon Corporation 検査装置、検査方法およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172547A (ja) * 1991-12-24 1993-07-09 Nikon Corp 欠陥検査装置及び欠陥検査方法
JPH07333164A (ja) * 1994-06-14 1995-12-22 Hitachi Ltd 検査方法および検査装置
JPH08162511A (ja) * 1994-10-07 1996-06-21 Hitachi Ltd 半導体基板の製造方法並びに被検査対象物上のパターンの欠陥検査方法及びその装置
JP2006227016A (ja) * 1994-10-07 2006-08-31 Renesas Technology Corp パターンの欠陥検査方法およびその装置
JP2000155099A (ja) * 1998-09-18 2000-06-06 Hitachi Ltd 試料表面の観察方法及びその装置並びに欠陥検査方法及びその装置
JP2004317190A (ja) * 2003-04-14 2004-11-11 Neomax Co Ltd 高速凹凸判定可能な表面検査方法及び表面検査システム
JP2006308513A (ja) * 2005-05-02 2006-11-09 Nec Electronics Corp 検査装置及び方法
WO2008015973A1 (fr) * 2006-08-02 2008-02-07 Nikon Corporation Appareil de détection de défauts et procédé de détection de défauts
WO2008152801A1 (ja) * 2007-06-13 2008-12-18 Nikon Corporation 検査装置、検査方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109044260A (zh) * 2018-07-18 2018-12-21 苏州精观医疗科技有限公司 一种基于光纤的暗场显微成像装置
CN116602629A (zh) * 2023-07-20 2023-08-18 广州华飞迪通医疗科技有限公司 可调式牙齿扫描仪及其使用方法
CN116602629B (zh) * 2023-07-20 2023-09-12 广州华飞迪通医疗科技有限公司 可调式牙齿扫描仪及其使用方法

Also Published As

Publication number Publication date
TW200952103A (en) 2009-12-16
JPWO2009125839A1 (ja) 2011-08-04
KR20110000577A (ko) 2011-01-03

Similar Documents

Publication Publication Date Title
JPWO2009072484A1 (ja) 検査装置および検査方法
US8040512B2 (en) Inspection device, inspection method, and program
KR101735403B1 (ko) 검사 방법, 템플릿 기판 및 포커스 오프셋 방법
US7127098B2 (en) Image detection method and its apparatus and defect detection method and its apparatus
JP5182090B2 (ja) 欠陥検出装置及び欠陥検出方法
US8411264B2 (en) Method and apparatus for inspecting defects
WO2009133849A1 (ja) 検査装置
KR101547649B1 (ko) 검사 장치
US20080243412A1 (en) Apparatus for Inspecting Defect and Method of Inspecting Defect
WO2009125839A1 (ja) 検査装置
KR20110086696A (ko) 결함 검사 장치 및 결함 검사 방법
US20080031509A1 (en) Apparatus and method for measuring the height profile of a structured substrate
JP5099704B2 (ja) 高さを測定する方法及び高さ測定装置
WO2022189250A1 (en) Measuring apparatus and method for roughness and/or defect measurement on a surface
JP2009025003A (ja) 表面状態検査装置
US6735333B1 (en) Pattern inspection apparatus
JP2009265026A (ja) 検査装置
JP2000002514A (ja) 膜厚測定装置及びアライメントセンサ並びにアライメント装置
JP2005274156A (ja) 欠陥検査装置
TWI608227B (zh) 光學表面掃描系統及方法
KR20120017314A (ko) 웨이퍼 검사용 광학 검출모듈
JP3572545B2 (ja) 基板の良否判定方法
JP2005533260A (ja) ウェハ検査装置
JP2002333406A (ja) 外観検査装置および外観検査方法
JP2010133841A (ja) 周部検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09730827

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010507281

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20107025255

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 09730827

Country of ref document: EP

Kind code of ref document: A1