WO2005116577A1 - 結像光学系の調整方法、結像装置、位置ずれ検出装置、マ-ク識別装置及びエッジ位置検出装置 - Google Patents

結像光学系の調整方法、結像装置、位置ずれ検出装置、マ-ク識別装置及びエッジ位置検出装置 Download PDF

Info

Publication number
WO2005116577A1
WO2005116577A1 PCT/JP2005/009749 JP2005009749W WO2005116577A1 WO 2005116577 A1 WO2005116577 A1 WO 2005116577A1 JP 2005009749 W JP2005009749 W JP 2005009749W WO 2005116577 A1 WO2005116577 A1 WO 2005116577A1
Authority
WO
WIPO (PCT)
Prior art keywords
mark
image
linear pattern
light
imaging
Prior art date
Application number
PCT/JP2005/009749
Other languages
English (en)
French (fr)
Inventor
Makoto Takagi
Yuwa Ishii
Tatsuo Fukui
Koichi Kudo
Tooru Yokota
Hiroyuki Abe
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004158874A external-priority patent/JP4389668B2/ja
Priority claimed from JP2004161611A external-priority patent/JP4599893B2/ja
Priority claimed from JP2004169520A external-priority patent/JP2005352543A/ja
Priority claimed from JP2004206888A external-priority patent/JP2006032521A/ja
Priority claimed from JP2004206887A external-priority patent/JP4484041B2/ja
Priority claimed from JP2004222331A external-priority patent/JP4691922B2/ja
Priority claimed from JP2004232369A external-priority patent/JP2006047922A/ja
Application filed by Nikon Corporation filed Critical Nikon Corporation
Publication of WO2005116577A1 publication Critical patent/WO2005116577A1/ja
Priority to US11/604,354 priority Critical patent/US7528954B2/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70058Mask illumination systems
    • G03F7/70191Optical correction elements, filters or phase plates for controlling intensity, wavelength, polarisation, phase or the like
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70058Mask illumination systems
    • G03F7/70141Illumination system adjustment, e.g. adjustments during exposure or alignment during assembly of illumination system

Definitions

  • the present invention relates to a method for adjusting an imaging optical system that forms an image of an object.
  • the present invention relates to an imaging device having an autofocus device for automatically adjusting the focus of a substrate.
  • the present invention relates to a mark for detecting a position shift and a method for detecting a position shift used for detecting a position shift of a pattern in a manufacturing process of a semiconductor element or a liquid crystal display element.
  • the present invention also relates to a position detection method and a position detection device for detecting a position of a pattern on a substrate.
  • the present invention also relates to a template matching device that performs template matching on an input image.
  • the present invention relates to a mark identification device.
  • the present invention also relates to an edge position detecting device.
  • a circuit pattern is transferred to a resist layer through a well-known lithographic process, and processing such as etching is performed through the resist pattern to form a circuit on a predetermined material film.
  • the pattern is transferred (pattern formation step). By repeating this pattern forming process many times, circuit patterns of various material films are laminated on a substrate (semiconductor wafer or liquid crystal substrate), and a circuit of a semiconductor element or a liquid crystal display element is formed. .
  • the substrate is formed before the Lisodara Fie process.
  • the alignment of the resist pattern on the substrate is inspected after the lithographic process and before the processing step. Note that the board error For the alignment, the alignment mark formed on the underlying layer in the immediately preceding pattern forming step is used.
  • the overlay mark formed on the resist layer in the current pattern forming step and the overlay mark formed on the base layer in the immediately preceding pattern forming step are used.
  • the position of the above-mentioned alignment mark or overlay mark (generally, simply referred to as "mark") is used.
  • a detection device is incorporated.
  • the position detection device irradiates the mark to be detected with illumination light, captures an image based on light from the mark (for example, reflected light) with an image sensor such as a CCD camera, and performs predetermined image processing on the image. Is performed to detect the position of the mark.
  • the wavelength band of the illumination light is often in a wide band from the visible light band to the near infrared light band.
  • Patent Document 1 a method disclosed in Patent Document 1 is used to open an aperture of an imaging optical system (an optical system that forms an image of a mark).
  • the aperture and the arrangement of the objective lens are finely adjusted in the shift direction to reduce the error component (TIS value: Tool Induced Shift) caused by the device.
  • TIS value Tool Induced Shift
  • Focus adjustment corresponds to adjustment of the relative position between the objective lens of the imaging optical system for position detection and the substrate. After focus adjustment, the relative position is set to the focus position
  • an autofocus device for such a position detection device for example, a pupil division method has been proposed (for example, see Patent Document 2).
  • a conventional autofocus device one sensor collectively receives the entire wavelength band of the reflected light generated from the substrate when illuminating the substrate, and moves to the relative position based on the output signal from the sensor. A corresponding focus signal is generated to adjust the focus of the substrate.
  • FIG. 23 is a plan view of the double mark 80.
  • the outer side of the double mark 80 is the base mark 81
  • the inner side is the registration mark 82.
  • the size D1 of the base mark 81 is, for example, about 30 ⁇ m
  • the size D2 of the resist mark 82 is, for example, about 15 ⁇ m.
  • a measurement point including two marks (81, 82) is positioned in the field of view of the apparatus, and an image of the measurement point is captured by a CCD camera.
  • the image is captured using an image sensor such as Further, an image of an edge portion is cut out from the captured image for each side of the base mark 81 and the registration mark 82, and predetermined image processing is performed on the obtained partial image, so that the center of the base mark 81 and the registration mark are obtained.
  • the amount of displacement from the center of 82 is calculated.
  • the displacement amount of the calculation result indicates the displacement state of the resist pattern with respect to the base pattern.
  • Devices that perform substrate alignment and devices that perform overlay inspection of resist patterns on the substrate include devices that detect the positions of the above-mentioned alignment marks and overlay marks (generally referred to simply as “marks”). It has been incorporated.
  • a position detection device illuminates a substrate using white light, captures an image of a mark using an image sensor such as a CCD camera, and performs predetermined image processing on the image to obtain the position of the mark. Detection is performed (for example, see Patent Document 4).
  • Template matching is a process of searching for a partial image (target) that matches a known template image of the input image and specifying the position of the target (match position).
  • a rectangular template image is generally used, and a rectangular partial image of the input image is extracted for a matching operation, and while the extraction position of the partial image is gradually moved, The matching operation between the partial image and the template image is repeated. Then, the result of the matching operation at each position in the input image By comparing the magnitudes, the matching position is specified.
  • a mark serving as a reference for identification is taken in advance, and the image is used as a recipe. Register in. Thereafter, the mark to be measured is compared with the mark registered in the recipe to identify the mark (for example, see Patent Document 6).
  • Semiconductor elements and the like are manufactured by accurately overlaying circuit patterns of various material films on a substrate. In order to superimpose circuit patterns with accuracy, an inspection of the superimposed state is performed during production using a superimposition mark.
  • the detection of the position of the superimposed mark is performed by positioning the mark within the visual field of the apparatus, imaging the mark using a CCD camera, and based on an edge signal in which the luminance value rapidly changes among the obtained image signals. (See, for example, Patent Document 7).
  • Patent Document 1 JP-A-2000-77295
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2002-40322
  • Patent Document 3 JP-A-7-151514
  • Patent Document 4 JP-A-7-151514
  • Patent Document 5 JP-A-5-81433
  • Patent Document 6 JP-A-9-89528
  • Patent Document 7 Japanese Patent Application Laid-Open No. 2004-79970
  • each light of the imaging optical system is If the imaging position of the pupil image on the aperture stop surface of the imaging optical system differs depending on the wavelength band due to manufacturing errors (eccentricity errors of the optical components) when the The error component (TIS value) cannot be reduced well.
  • the present inventor has proposed a method in which an optical element for adjustment is newly arranged between the pupil plane and the aperture stop plane of the imaging optical system, and the arrangement of this optical element is disclosed in Patent Document 1 described above. It was proposed to make fine adjustments by using this to correct the imaging position shift in the aperture stop plane according to the wavelength band of the pupil image (Japanese Patent Application No. 2003-54058).
  • Patent Document 1 Japanese Patent Application No. 2003-54058.
  • the error component (TIS value) caused by the device cannot always be reduced sufficiently, and there is a limit in improving the detection accuracy.
  • a first object of the present invention is to provide a method of adjusting an imaging optical system that can finely adjust the arrangement of an optical element for adjustment with high sensitivity.
  • chromatic aberration may occur in the imaging optical system for AF. Chromatic aberration can be reduced to some extent in the design value calculation. Further, chromatic aberration larger than the result of the design value calculation may occur due to an error in the refractive index dispersion of the glass, an error in the radius of curvature of the lens, and an error in the center thickness of the lens.
  • a second object of the present invention is to provide an autofocus device capable of reliably reducing a focus error corresponding to a wavelength characteristic of light generated from a substrate even when an AF imaging optical system has chromatic aberration.
  • An object of the present invention is to provide an imaging device.
  • a third object of the present invention is to provide a misregistration detection mark and a misregistration detection method that can reduce the influence of distortion of the imaging optical system when detecting misregistration.
  • one or more intermediate layers are formed between the underlayer and the resist layer of the substrate. .
  • the mark on the underlayer of the substrate may not be accurately detected due to the influence of the intermediate layer.
  • position detection errors due to the influence of the intermediate layer could not be ignored with the miniaturization of power circuit patterns, which were very small and negligible compared to the process rules.
  • a fourth object of the present invention is to provide a position detection method and a position detection device capable of reducing the influence of an intermediate layer formed between an underlayer and a resist layer and accurately detecting the position of a pattern of the underlayer. Is to do.
  • a fifth object of the present invention is to accurately specify a matching position even if there is a rotation change in an input image.
  • Another object of the present invention is to provide a template matching apparatus that can be used.
  • a substrate having a mark is necessary in order to register a mark image in a recipe in advance.
  • a sixth object of the present invention is to provide a mark identification device capable of identifying a mark to be measured from an image acquired without using a substrate having the mark.
  • an edge signal is selected from an image density profile waveform obtained by acquiring an image signal composed of a plurality of sample points.
  • edge of the mark corresponds to the bottom or peak of the image density profile waveform or the position of a pixel (image signal) determined by a predetermined threshold.
  • FIG. 49 is a diagram showing an example of an image density profile waveform in which the influence of noise and disturbance does not appear.
  • the ordinate and the abscissa indicate luminance and distance, respectively.
  • the line width of the mark can be measured by measuring the distance 13 between the bottoms 11 and 12, or measuring the distance 14 between the pixels 14a and 14b determined by a predetermined threshold.
  • the influence of noise and disturbance is large, there are the following problems.
  • FIG. 50 is a diagram showing an example of an image density profile waveform in which the influence of noise and disturbance has appeared.
  • the vertical and horizontal axes indicate luminance and distance, respectively.
  • a bottom 23 occurs at a position other than the symmetric position due to noise and disturbance. Since this waveform has three bottoms 21, 22, and 23, the distance between the bottoms is measured as the distance 24 between the bottom 21 and the bottom 23, and the distance 25 between the bottoms 23 and 22. . Therefore, there arises a problem that the line width of the mark cannot be measured accurately.
  • a seventh object of the present invention is to provide an edge position detecting device capable of accurately measuring the line width of a mark.
  • ⁇ 1st-order diffracted light beams due to incident illumination light in a predetermined wavelength band are applied to an object plane of an imaging optical system in a pupil region of the imaging optical system.
  • the first mark arranged at a first pitch equal to or greater than the pitch that is inscribed and the second mark arranged at a second pitch smaller than the first pitch are each connected to each other.
  • the image forming apparatus is disposed symmetrically with respect to the center of the visual field of the image optical system, and forms the image based on a relative position between the image of the first mark and the image of the second mark formed by the image forming optical system. The position of the optical element disposed between the pupil plane of the optical system and the aperture stop plane is adjusted.
  • the present invention includes a stage on which a substrate is mounted, an illuminating unit for illuminating the substrate, and an imaging unit for forming an image of the substrate.
  • the image forming apparatus the light incident on the image forming unit from the substrate is branched and received, and the substrate and the image forming optical system are connected to each other among a plurality of predetermined wavelength bands.
  • Signal generating means for generating a focus signal corresponding to the relative position, and at least a focus obtained by the focus signal generated for each of the plurality of wavelength bands with respect to a focus position with a predetermined reference light
  • a storage unit for storing position offset information in advance, and a relative position between the substrate and the imaging unit based on the focus signal and the offset information in at least one of the plurality of wavelength bands.
  • Adjust position And an auto-focusing device having an adjusting means for performing the adjustment.
  • the present invention provides a mark used for detecting a positional shift between two patterns, the first mark indicating a reference position of one of the two patterns. And a second mark indicating a reference position of the other of the two patterns, wherein the first mark includes a first linear pattern and a second linear pattern perpendicular to the linear pattern.
  • the second mark is arranged in a cross shape, and the second mark has a third linear pattern and a fourth linear pattern perpendicular to the third linear pattern arranged in a cross shape.
  • the second mark is such that when there is no misalignment between the two patterns, the linear directions of the first linear pattern and the third linear pattern match, and the second mark is aligned with the second linear pattern.
  • the linear directions of the fourth linear pattern coincide with each other, and the first linear pattern
  • the third linear pattern has different lengths between both ends in the longitudinal direction, and the longer linear one of the first linear pattern and the third linear pattern.
  • the pattern is long
  • the second linear pattern and the fourth linear pattern are composed of two partial patterns divided into one end and the other end in the linear direction so as not to overlap the shorter linear pattern.
  • the longer linear pattern has the same length as that of the second linear pattern and the fourth linear pattern. It is composed of two partial patterns divided into one end and the other end in the linear direction so as not to overlap with the shorter linear pattern.
  • a substrate having at least one intermediate layer formed between a base layer including a pattern to be detected and a resist layer is illuminated with illumination light.
  • An illumination step a capturing step of capturing an image of the pattern based on light generated from each layer force of the substrate when illuminated by the illumination light, and a position of the pattern based on the image.
  • Calculating step wherein in the illumination step, among light generated from each layer of the substrate, an intensity ratio of “light from the underlayer” to “light from the intermediate layer” is increased.
  • the spectral characteristic of the illumination light is adjusted, and the substrate is illuminated with the illumination light having the adjusted spectral characteristic.
  • the present invention provides a first creating means for creating a density histogram of a circular known template image, and a plurality of different positions in the input image.
  • Extracting means for extracting a partial image for calculation of a circular shape from the image
  • second creating means for creating a histogram of the density of the partial image extracted by the extracting means, the histogram of the template image and the histogram Calculating means for calculating a similarity between the template image and the partial image based on the histogram of the partial image; and comparing the similarity determined at each position of the input image by comparing the magnitudes of the input image.
  • Specifying means for specifying a matching position with the template image in the image.
  • the present invention provides a registration means for registering the shape and design size of a mark in a recipe, and an image of a substrate to be measured and an image obtained from the acquired image. And detecting means for detecting a mark that matches the shape and design size registered in the image.
  • the present invention captures an optical image of a mark formed on a substrate and having at least one pair of edges, and forms an image composed of a plurality of sample points.
  • Imaging means for acquiring an image signal; detection means for detecting a center position of a waveform based on the image signal; extraction means for extracting a rapidly changing portion of a luminance value in the image signal as an edge signal; Non-edge detecting means for extracting an edge signal not corresponding to the edge from the edge signal based on a position; removing an edge signal not corresponding to the edge from the edge signal; Edge position detecting means for detecting the position of the edge based on the edge position.
  • the force S for finely adjusting the arrangement of the adjustment optical elements with high sensitivity can be obtained.
  • the imaging device having the autofocus device of the present invention even if the imaging optical system for AF has chromatic aberration, the focus error corresponding to the wavelength characteristic of the light generated from the substrate is reliably reduced. be able to.
  • the position shift detection mark and the position shift detection method of the present invention it is possible to reduce the influence of distortion of the imaging optical system at the time of position shift detection.
  • the influence of the intermediate layer formed between the underlayer and the resist layer is reduced to accurately detect the position of the pattern of the underlayer. it can.
  • the template matching apparatus of the present invention it is possible to accurately specify a matching position even if the input image has a rotation change.
  • the mark identification device of the present invention it is possible to identify a mark to be measured from an image obtained without using a substrate having the mark.
  • the line width of the mark can be accurately measured.
  • FIG. 1 is a diagram showing an overall configuration of an overlay measurement apparatus 10 according to a first embodiment.
  • FIG. 2 is a view showing a configuration of an adjustment mark 30 A of an adjustment substrate 30.
  • FIG. 3 is a view for explaining fine adjustment of the arrangement of a parallel plane plate 22.
  • Plant 5 is a diagram for explaining an imaging position shift on the aperture stop surface 23A due to an eccentric error (tilt error) of the beam splitter 18.
  • Garden 8 is a diagram for explaining the case where vignetting is asymmetric (only the first-order diffraction component decreases in light amount).
  • Garden 9 The positional relationship between the imaging aperture stop 23 and the pupil image H of the outer mark 31 (a).
  • FIG. 6 is a diagram showing a positional relationship (b) of an inner mark 32 with a pupil image H.
  • Garden 10 is a flowchart showing the adjustment procedure of the imaging optical system (19 to 24) of the first embodiment.
  • Garden 11 shows the configuration of the autofocus device of the second embodiment incorporated in the overlay measurement device 10.
  • FIG. 12 is a diagram illustrating the operation principle of the autofocus device.
  • Garden 13 is a diagram showing a configuration of an autofocus device of a third embodiment incorporated in an overlay measurement device 50.
  • FIG. 14 is a diagram illustrating a wavelength band switching unit 51 of the autofocus device according to the third embodiment.
  • Garden 15 is a view for explaining the configuration of a misregistration detection mark 10 according to a fourth embodiment.
  • FIG. 16 is a configuration diagram of an overlay measurement device 20.
  • FIG. 17 is a view for explaining partial images 36 (1), 36 (2), 37 (1), and 37 (2) for detecting positional deviation and waveform signals after the projection processing.
  • FIG. 18 is a diagram illustrating a configuration of a misregistration detection mark according to a fifth embodiment.
  • Garden 20 is a diagram illustrating the configuration of a misregistration detection mark according to the seventh embodiment.
  • FIG. 22 is a diagram illustrating the configuration of a misregistration detection mark according to a ninth embodiment.
  • FIG. 23 is a configuration diagram of a double mark 80 according to a third conventional technique.
  • FIG. 24 is a diagram showing a configuration of an overlay inspection apparatus 10 of a tenth embodiment.
  • FIG. 25 is a view for explaining a base mark 31 and a registration mark 32.
  • FIG. 26 is a view for explaining intermediate layers 43 and 44.
  • FIG. 27 is a diagram illustrating an image of a mark and a waveform signal.
  • FIG. 28 is a diagram illustrating light L3 ′ to L6 ′ generated by each layer force of the substrate 11.
  • Garden 30 is a diagram illustrating an input image 21, a template image 22, a target 23, a partial image 25 for calculation, and the like.
  • FIG. 31 is a flowchart showing a template matching processing procedure according to the eleventh embodiment.
  • FIG. 32 is a diagram illustrating a density histogram H of RGB components of a template image 22 and a density histogram H of RGB components of a partial image 25.
  • FIG. 33 is a diagram illustrating the relationship between density information in a circular calculation partial image 25 and rotation change of the input image 21.
  • FIG. 34 is a diagram illustrating a matching calculation based on an overlapping portion of density histograms H and ⁇ of RGB components.
  • FIG. 35 is a diagram illustrating a matching calculation based on a difference between density histograms RGB and ⁇ of RGB components.
  • 36 is a flowchart showing a part of the processing procedure in the template matching of the twelfth embodiment.
  • FIG. 37 is a view for explaining the concentration of the R component and the one-permeability moment ⁇ .
  • FIG. 38 is a view for explaining regions for calculating region density differences D 1 and D 2 in the thirteenth embodiment.
  • FIG. 39 is a diagram illustrating an example of the R component of template image 22.
  • FIG. 40 is a diagram illustrating a relationship between density information in a rectangular calculation partial image and a rotation change of an input image.
  • FIG. 41 is a block diagram illustrating a configuration of a semiconductor measurement device including a mark identification device according to a fourteenth embodiment.
  • FIG. 43 is a plan view of a wafer.
  • FIG. 44 is a diagram showing an example of a photographed mark.
  • FIG. 45 is a diagram showing an example of a photographed mark.
  • FIG. 46 is a conceptual diagram showing an edge position detection device according to a fifteenth embodiment.
  • FIG. 47 is a flowchart illustrating a procedure for measuring the line width of a mark.
  • FIG. 48 is a diagram showing an example of an image density profile waveform.
  • FIG. 49 is a diagram showing an example of an image density profile waveform due to the influence of noise and disturbance.
  • FIG. 50 is a diagram showing an example of an image density profile waveform in which the influence of noise and disturbance has appeared.
  • the overlay measurement apparatus 10 is an apparatus that performs overlay detection of a resist pattern (not shown) on the substrate 11 in a manufacturing process of a semiconductor element, a liquid crystal display element, and the like.
  • a displacement amount of a resist pattern with respect to a circuit pattern hereinafter, referred to as an “underlying pattern” formed on an underlayer of the substrate 11 is measured.
  • the overlay measurement device 10 includes a stage 12 for supporting a substrate 11 or an adjustment substrate 30 (Fig. 2) to be described later, and an illumination optical system (13 to 19). , An imaging optical system (19 to 24), a CCD imaging device 25, an image processing unit 26, a focus detection unit (41 to 48), and a stage control unit 27.
  • the stage 12 includes a holder for supporting the substrate 11 or a later-described adjustment substrate 30 (FIG. 2) in a horizontal state, and an XY drive unit for driving the holder in the horizontal direction (XY direction). And a Z drive unit that drives the holder in the vertical direction (Z direction).
  • the XY drive unit and the Z drive unit are connected to the stage control unit 27.
  • the substrate 11 is a general product substrate such as a semiconductor wafer or a liquid crystal substrate. It is in a state after exposure and development of the strike layer and before processing of a predetermined material film. Many measurement points are prepared on the product substrate for overlay inspection. The measurement points are located at the four corners of each shot area. At each measurement point, a resist mark indicating the reference position of the resist pattern and a base mark indicating the reference position of the base pattern are formed. In the following description, the registration mark and the base mark are collectively referred to as “overlay mark 11A”.
  • the adjustment substrate 30 (FIG. 2) is designed to obtain an index for adjusting the imaging optical system (19 to 24).
  • the adjustment substrate 30 is provided with an adjustment mark 30A including an outer mark 31 and an inner mark 32.
  • the adjustment mark 30A is a double mark of a BAR in BAR type, and is created by etching a silicon wafer or the like.
  • the step h of the adjustment mark 30A is, for example, 83 nm.
  • FIG. 2A is a plan view
  • FIG. 2B is a cross-sectional view.
  • the outer mark 31 is composed of four bar marks 1A that are elongated in the X direction and four bar marks 1B that are elongated in the Y direction. Are arranged in the shape of a quadrilateral.
  • the four bar marks 1A are arranged at a pitch P1 for each set.
  • the four bar marks 1B are also arranged at a pitch P1 for each set.
  • the pitch P1 is, for example, 3.8 / m, and corresponds to the “first pitch” in the claims.
  • the inner mark 32 is composed of four elongated bar marks 2A in the X direction and four elongated bar marks 2B in the Y direction. It is arranged inside the mark 31 in a quadrilateral shape.
  • the four bar marks 2A are arranged in a pitch P2 different from the pitch P1 for each set.
  • the four bar marks 2B are also arranged at a pitch P2 for each set.
  • the pitch P2 is, for example, 1 ⁇ m, and corresponds to the “second pitch” in the claims.
  • the stage control unit 27 controls the XY driving unit of the stage 12 to move the holder in the XY direction. Then, the overlay mark 11A on the substrate 11 (or the adjustment mark 30A on the adjustment substrate 30) is positioned in the field of view. Also, based on a later-described focus signal output from the focus detection unit (41 to 48), the Z drive unit of the stage 12 is controlled to move the holder in the Z direction. To move up and down. By this focus adjustment, the substrate 11 (or the adjustment substrate 30) can be focused on the imaging surface of the CCD imaging device 25. At this time, the overlay mark 11A on the substrate 11 and the adjustment mark 30A on the adjustment substrate 30 are arranged on the object plane of the imaging optical system (19 to 24).
  • the illumination optical system (13 to 19) includes a light source unit 13, an illumination aperture stop 14, a condenser lens 15, a field stop 16, an illumination relay lens 17, and a beam splitter 18 arranged in order along the optical axis Ol. And a first objective lens 19 arranged on the optical axis 02.
  • the beam splitter 18 has a reflection / transmission surface inclined at approximately 45 ° with respect to the optical axis Ol, and is also arranged on the optical axis ⁇ 2.
  • the optical axis Ol of the illumination optical system (13 to 19) is perpendicular to the optical axis ⁇ 2 of the imaging optical system (19 to 24).
  • the light source unit 13 includes a light source 3A, a collector lens 3B, an optical relay lens 3C, a wavelength switching mechanism 3D, and a light guide fiber 3E.
  • the light source 3A emits light having a wide wavelength band (for example, white light).
  • the wavelength switching mechanism 3D is provided with a plurality of optical filters having different transmission characteristics. By switching the optical filter and inserting it into the illumination optical path, of the wavelength band of the light emitted from the light source 3A, a wide band (for example, the wavelength width is about 270 ⁇ m in the present embodiment), a long wavelength band, and a short wavelength band. Either can be selected.
  • the light of the broadband wavelength emitted from the light source 3A enters the optical filter of the wavelength switching mechanism 3D via the collector lens 3B, and has a wavelength band corresponding to the transmission characteristic thereof (that is, the broadband wavelength). Or a long wavelength band or a short wavelength band).
  • the illumination aperture stop 14 is guided to the illumination aperture stop 14 via the optical relay lens 3C and the light guide fiber 3E, the center of which is located on the optical axis Ol, and the diameter of the light emitted from the light source unit 13 To a specific diameter.
  • the condenser lens 15 collects light from the illumination aperture stop 14.
  • the field stop 16 is an optical element that limits the field of view of the overlay measurement device 10, and has one slit 16a that is a rectangular opening as shown in FIG. 1 (b).
  • the illumination relay lens 17 collimates the light from the slit 16a of the field stop 16.
  • the beam splitter 18 reflects light from the illumination relay lens 17 downward.
  • the light emitted from the light source unit 13 passes through the illumination aperture stop 14 and the condenser.
  • the field stop 16 is uniformly illuminated through the sur lens 15.
  • the light passing through the slit 16a of the field stop 16 is guided to the beam splitter 18 via the illumination relay lens 17, and is reflected by the reflection / transmission surface (illumination light L1). 1 Guided to objective lens 19.
  • the first objective lens 19 receives and condenses the illumination light L 1 from the beam splitter 18.
  • the substrate 11 (or the adjustment substrate 30) on the stage 12 is vertically illuminated by the illumination light L1 of a predetermined wavelength band transmitted through the first objective lens 19 (epi-illumination).
  • the incident angle of the illumination light L1 when the substrate 11 is incident on the adjustment substrate 30) is determined by the positional relationship between the center of the illumination aperture stop 14 and the optical axis Ol.
  • the incident angle range of the illumination light L1 at each point on the substrate 11 (or the adjustment substrate 30) is determined by the diameter of the illumination aperture stop. This is because the illumination aperture stop 14 has a common positional relationship with the virtual pupil plane 19A of the first objective lens 19.
  • the slit 16a of the field stop 16 on the surface of the substrate 11 (or the adjustment substrate 30) The corresponding area is illuminated by the illumination light L1. That is, the image of the slit 16a is projected on the surface of the substrate 11 or the adjustment substrate 30) by the action of the illumination relay lens 17 and the first objective lens 19.
  • diffracted light L2 is generated from the region of the substrate 11 (or the adjustment substrate 30) irradiated with the above-described illumination light L1 in the predetermined wavelength band.
  • the diffracted light L2 includes zero-order diffracted light (that is, reflected light), ⁇ first-order diffracted light, and the like.
  • the wavelength characteristic of the diffracted light L2 is substantially equal to the wavelength characteristic of the illumination light L1 which is equal to the outer mark 31 and the inner mark 32 of the adjustment mark 30A.
  • the substrate 11 generally product substrate
  • it differs depending on the structure and physical properties of the registration mark and the base mark of the overlay mark 11A. This is because the reflection characteristics of the mark change according to the structure and physical properties of the mark.
  • the diffracted light L2 from the substrate 11 or the adjustment substrate 30) is guided to an imaging optical system (19 to 24) described later.
  • the imaging optical system (19 to 24) forms a first objective lens 19, a second objective lens 20, a first imaging relay lens 21, a parallel plane plate 22, and a first objective lens 19, a second objective lens 20, which are sequentially arranged along the optical axis 02. It is composed of an image aperture stop 23 and a second imaging relay lens 24.
  • the optical axis 02 of the imaging optics (19-24) Parallel.
  • a beam splitter 18 of the illumination optical system (13 to 19) is disposed between the first objective lens 19 and the second objective lens 20, and the second objective lens 20 and the first imaging relay lens 21 are arranged. Between them, the beam splitter 41 of the focus detection unit (41 to 48) is arranged.
  • the beam splitters 18 and 41 are half prisms for separating the amplitude of light.
  • the first objective lens 19 collimates the diffracted light L2 from the substrate 11 (or the adjustment substrate 30).
  • the diffracted light L2 collimated by the first objective lens 19 passes through the beam splitter 18 and enters the second objective lens 20.
  • the second objective lens 20 focuses the diffracted light L2 from the beam splitter 18 on the primary imaging plane 10a.
  • the beam splitter 41 of the focus detection unit (41 to 48) disposed downstream of the primary imaging plane 10a is provided with the optical axis ⁇ 3 of the focus detection unit (41 to 48) and the imaging optical system (18 to 24).
  • the reflection / transmission surface is inclined at approximately 45 ° with respect to the optical axis ⁇ 2.
  • the beam splitter 41 transmits a part (L3) of the diffracted light L2 of the second objective lens 20 and reflects the remaining part (L4).
  • Part of the light L3 transmitted through the beam splitter 41 is guided to the first imaging relay lens 21 of the imaging optical system (18 to 24).
  • the first imaging relay lens 21 collimates the light L3 from the beam splitter 41.
  • the plane-parallel plate 22 can be tilted within a range of about several degrees around two axes perpendicular to the optical axis ⁇ 2 (parallel to the X axis and the Y axis, respectively). That is, the arrangement of the parallel plane plate 22 can be finely adjusted in the tilt direction.
  • Figure 3 shows the fine adjustment in the tilt direction about the axis parallel to the X axis. As shown in FIG. 3, the direction in which the optical axis 22a (the axis parallel to the thickness direction) of the parallel plane plate 22 is inclined with respect to the optical axis 02 corresponds to the “tilt direction”.
  • the fine adjustment of the arrangement of the parallel flat plate 22 in the tilt direction corresponds to the fine adjustment of the tilt angle ⁇ of the parallel flat plate 22.
  • the arrangement of the parallel plane plate 22 can be finely adjusted in the tilt direction (details will be described later), and transmits the light from the first imaging relay lens 21.
  • the imaging aperture stop 23 is arranged on a plane conjugate with the virtual pupil plane 19A of the first objective lens 19, and limits the diameter of light from the plane-parallel plate 22 to a specific diameter.
  • the second imaging relay lens 24 re-images the light from the imaging aperture stop 23 on the imaging surface (secondary imaging surface) of the CCD imaging device 25.
  • the parallel plane plate 22 corresponds to an “optical element for adjustment” in the claims.
  • the CCD image sensor 25 is arranged so that its image plane coincides with the image plane of the imaging optical system (18 to 24).
  • the CCD image sensor 25 is an area sensor in which a plurality of pixels are two-dimensionally arranged, and picks up an image of an overlay mark 11A on the substrate 11 or an image of the adjustment mark 30A on the adjustment substrate 30. Then, the image signal is output to the image processing unit 26.
  • the image signal represents a distribution (luminance distribution) relating to a luminance value for each pixel on the imaging surface of the CCD imaging device 25.
  • the image processing unit 26 captures an image of the registration mark 11A on the substrate 11 or the adjustment mark 30A on the adjustment substrate 30 based on the image signal from the CCD image sensor 25. Then, predetermined image processing is performed on the image. Incidentally, the image of the overlay mark 11A is subjected to image processing for overlay inspection. The image of the adjustment mark 30A is subjected to predetermined image processing (described later) in order to obtain an index for finely adjusting the arrangement of the parallel plane plate 22 in the tilt direction. Note that visual observation using a television monitor (not shown) is also possible via the image processing unit 26.
  • the focus detection units (41 to 48) detect whether or not the substrate 11 on the stage 12 or the adjustment substrate 30) is in focus with respect to the imaging surface of the CCD imaging device 25. .
  • the focus detectors (41 to 48) are composed of a beam splitter 41, an AF first relay lens 42, a parallel plane plate 43, a pupil split mirror 44, an AF second relay lens 45, and a cylinder arranged in order along the optical axis 03.
  • the optical system includes an optical system including a lithographic lens 46, an AF sensor 47, and a signal processing unit 48.
  • the AF sensor 47 is a line sensor, and a plurality of pixels are one-dimensionally arranged on an imaging surface 47a.
  • the cylindrical lens 46 has a refractive power in a direction perpendicular to the pixel arrangement direction (direction A in the figure) on the imaging surface 47a of the AF sensor 47.
  • part of the light L4 (hereinafter referred to as “AF light”) reflected by the beam splitter 41 is collimated by the AF first relay lens 42 and transmitted through the parallel plane plate 43. And enters the pupil splitting mirror 44.
  • An image of the illumination aperture stop 14 of the illumination optical system (13 to 19) is formed on the pupil division mirror 44.
  • the parallel plane plate 43 is an optical element for adjusting the position of the image of the illumination aperture stop 14 at the center of the pupil division mirror 44, and has a mechanism capable of tilt adjustment.
  • AF light that has entered the pupil splitting mirror 44 is amplitude-separated into light in two directions, and then passes through the AF second relay lens 45 and the cylindrical lens 46 to the vicinity of the imaging surface 47a of the AF sensor 47. It is collected. At this time, two images of the field stop 16 are formed on the imaging surface 47a at positions separated along the pixel arrangement direction (direction A in the drawing) in the measurement direction.
  • the AF sensor 47 outputs, to the signal processing unit 48, a light reception signal relating to the image formation center of the two images formed on the imaging surface 47a.
  • the signal processing unit 48 calculates the distance between the image forming centers of the images of the two field stops 16 in the measurement direction based on the output from the AF sensor 47, and compares the distance with the previously stored distance in the focused state. The difference is obtained, and a focus signal is output to the stage controller 27.
  • the details of such a pupil division AF operation are described in, for example, JP-A-2002-40322.
  • each optical component is made of metal. Fix the block and arrange it in parallel with the optical axis ⁇ 2 while adjusting the block with a device such as a collimator.
  • each optical component may have an eccentric error due to a block processing accuracy, an adjustment error, and the like.
  • FIG. 4 schematically shows the positional relationship of the pupil images in such a case.
  • FIG. 4 shows the positions of the pupil image H corresponding to the center wavelength band of the illumination light L1, the pupil image H corresponding to the short wavelength band, and the pupil image H corresponding to the long wavelength band.
  • the pupil images H, ⁇ , and ⁇ in FIG. 4 correspond to the diffracted light L3 incident on the imaging aperture stop 23 ⁇ .
  • the components have the same diffraction order (for example, the 0th-order diffraction component).
  • the pupil image H, ⁇ , ⁇ on the aperture stop surface 23A causes an image position shift (FIG. 4).
  • an eccentric error (tilt error) of the beam splitter 18 as shown in FIG. 5 can be considered.
  • the diffracted light L3 the optical path of the diffracted light L in the short wavelength band and the optical path of the diffracted light L in the long wavelength band are separated.
  • the image forming positions of the pupil images H, ⁇ , ⁇ ⁇ ⁇ ⁇ on the aperture stop surface 23A depend on the wavelength band.
  • the symmetrical / asymmetry of vignetting differs for each wavelength band. For example, if the vignetting in the central wavelength band is symmetric, vignetting in the short wavelength band and vignetting in the long wavelength band will be asymmetric.
  • vignetting is asymmetric means that the center C of the image forming aperture stop 23 is located with respect to the center C as shown in FIG.
  • the folding component and the ⁇ 1st-order diffraction component are exemplified.
  • a part (point hatched portion) of the + 1st-order diffraction component of the pupil image H is blocked by the imaging aperture stop 23 and is vignetting.
  • the components are not restricted by the imaging aperture stop 23. Therefore, vignetting is asymmetric with respect to the center C of the pupil image H.
  • the case where the vignetting is symmetric means that the position of the center C of the pupil image H is as shown in FIG.
  • the diffraction component and the ⁇ 1st-order diffraction components are exemplified.
  • the + 1st-order diffraction component and a part of the ⁇ 1st-order diffraction component (hatched portion) are blocked by the imaging aperture stop 23 by the same amount. Vignetting. For this reason, vignetting occurs at the center C of the pupil image H. It will be called.
  • the intensity profiles of the images of the edges E1 and E2 formed on the imaging surface of the CCD imaging device 25 via the imaging optical system (18 to 24) have the distortion (left and right unbalance) shown in FIG. ).
  • the detection result shows an error component (TIS) corresponding to the unbalance between the left and right edge images.
  • the appearance of the two edges E1 and E2 of the mark shown in FIG. 7B becomes the same. That is, one edge E1 can be seen well by securing the light amount of the _ 1st-order diffraction component, and the other edge E2 can be seen well by securing the light amount of the + 1st-order diffraction component. Therefore, the intensity profiles of the images of the edges E1 and E2 formed on the imaging surface of the CCD imaging device 25 via the imaging optical systems (18 to 24) are equal on the left and right as shown in FIG. Balance). In this case, when the position of the mark shown in FIG. 7B is detected based on the image signal from the CCD image sensor 25, a highly accurate detection result including an error component (TIS value) can be obtained.
  • TIS value error component
  • the arrangement differs according to the wavelength band (Fig. 4), the symmetric / asymmetry of vignetting differs for each wavelength band.
  • the intensity profiles (Fig. 6 (B) and Fig. 7 (B)) of the edges E1 and E2 of the same mark (Fig. 6 (B) and Fig. 7 (B))
  • the left / right balance / unbalance differs for each wavelength band.
  • the intensity profile of the former edge image is as shown in Fig. 7 (c)
  • the intensity profile of the latter edge image Is as shown in Fig. 6 (c).
  • the asymmetry of vignetting in the long wavelength band has the directional characteristics as shown in Fig. 6 (a)
  • the asymmetry of vignetting in the short wavelength band has the inverted directional characteristics as in Fig. 8 (a). Will have.
  • the light amounts of the respective components of the diffracted light L2 generated from the mark and the intensity profiles of the images of the edges E1 and E2 are as shown in FIGS. 8 (b) and ((these are the mark positions in the short wavelength band.
  • the error component (TIS value) of the detection result of has a directional characteristic that is inverted from the error component (TIS value) of the detection result of the mark position in the long wavelength band.
  • the adjustment of the imaging optics (18 to 24) depends on the wavelength band of the pupil image H, ⁇ , ⁇ on the aperture stop surface 23A.
  • the adjustment substrate 30 and the plane-parallel plate 22 arranged between the virtual pupil plane 19A of the imaging optical system (18 to 24) and the aperture stop plane 23A are used.
  • the adjustment mark 30A provided on the adjustment substrate 30 is composed of the outer mark 31 and the inner mark 32, and the pitch P1 of the outer mark 31 is, for example, 3.8 ⁇ m.
  • the pitch ⁇ 2 of the inner mark 32 is, for example, lxm.
  • the pitches P1 and P2 are such that the numerical aperture of the illumination optical system (13 to 19) is NAill, the numerical aperture of the imaging optical system (19 to 24) is NAima, and the center wavelength of the illumination light L1 is ⁇ ( ⁇ m). Then, the following conditional expressions (1) to (3) are satisfied.
  • NAima + ⁇ 1 / 2 ⁇ / ⁇ 2
  • conditional expression (2) relates to the outer mark 31 of the adjustment mark 30A.
  • conditional expression (2) is satisfied, the pupil image H of the wavelength ⁇ of the outer mark 31 on the aperture stop surface 23A is, as shown in FIG.
  • conditional expression (3) relates to the inner mark 32 of the adjustment mark 30A.
  • conditional expression (3) is satisfied, the pupil image H of the inner mark 32 on the aperture stop surface 23A is shown in FIG. 9 (b).
  • the 0th-order diffraction component enters the inside of the imaging aperture stop 23, and the ⁇ 1st-order diffraction components enter the outside of the imaging aperture stop 23.
  • Fig. 9 (b) the position of the center C of the pupil image H is
  • the center C of the pupil image H is shifted to the center C of the imaging aperture stop 23 in the long wavelength band.
  • the imaging optical system (18 to 24) is added in consideration of the symmetric / asymmetry of vignetting for each wavelength band in the inner mark 32 as described above.
  • An index for adjusting 19 to 24) is obtained, and the arrangement of the parallel flat plate 22 is finely adjusted in the tilt direction based on the index (see FIG. 3).
  • the adjustment of the imaging optical system (18 to 24) is performed according to the procedure of the flowchart of FIG. In step SI, the adjustment substrate 30 is placed on the holder of the stage 12, and the adjustment mark 30 A is positioned within the field of view of the overlay measurement device 10.
  • the AF operation is performed based on the focus signals from the focus detection units (41 to 48), and the adjustment mark 30A is focused on the imaging surface of the CCD imaging device 25. That is, the adjustment mark 30A is arranged on the object plane of the imaging optical system (19 to 24).
  • step S2 the broadband illumination light L1 (for example, when the wavelength width is a
  • a mark image is captured based on the broadband diffracted light L2 generated from the adjustment mark 30A.
  • the capture of the mark image is performed before and after the adjustment mark 30A is rotated by 180 degrees.
  • the displacement amount between the outer mark 31 and the inner mark 32 is calculated.
  • a wide-band pupil image on the stop surface 23A (the pupil image H with the center wavelength shown in FIG.
  • TIS (L + L) / 2-(4)
  • step S3 the TIS value calculated in step S2 (that is, the displacement of the center C of the center wavelength ⁇ of the pupil image) is compared with a predetermined threshold.
  • the threshold value is a sufficiently small standard value.
  • step S4 When the TIS value is larger than the threshold value (No in S3), the arrangement of the imaging aperture stop 23 is finely adjusted in the shift direction using the TIS value as an index (step S4). Then, the process returns to step S2.
  • the processes in steps S2 to S4 described above are repeated until the TIS value (that is, the displacement of the center C of the center wavelength ⁇ of the pupil image) becomes smaller than the threshold (S3 becomes Yes).
  • the center C of the center wavelength ⁇ of the pupil image and the center C of the imaging aperture stop 23 are as shown in FIGS. 9 (a) and 9 (b). As shown, they almost matched each other
  • the vignetting at the center wavelength ⁇ is symmetric for both the outer mark 3 and the inner mark 32 of the adjustment mark 30 °.
  • the vignetting symmetry of the outer mark 31 is determined by the ⁇ 1st-order diffraction pattern of the pupil image ⁇ .
  • the vignetting symmetry of the inner mark 32 is such that all of the first-order diffraction components of the soil of the pupil image ⁇ are incident on the outside of the imaging aperture stop 23. It depends.
  • the wavelength band of the illumination light L1 is changed, and the adjustment mark 30A is irradiated with the illumination light L1 in the short wavelength band.
  • a mark image is captured based on the diffracted light L2.
  • the diffracted light L2 in the short wavelength band includes light generated at a spread angle corresponding to the pitch P1 of the outer mark 31 and light generated at a spread angle corresponding to the pitch P2 of the inner mark 32.
  • a mark image is captured based on the light of the diffracted light L2 that has passed through the imaging aperture stop 23 and reached the image plane of the imaging optical system (19 to 24).
  • the pupil image of the outer mark 31 due to the diffracted light L2 in the region is different from the pupil image H of the center wavelength shown in FIG.
  • the outer mark 31 also shifts to the right in the figure, but because the above-mentioned conditional expression (2) is satisfied, the first-order diffraction component cannot protrude outside the imaging aperture stop 23. Therefore, the outer mark 31 can maintain the vignetting symmetry even in a short wavelength band. In this case, the brightness information of the outer mark 31 of the mark image has the same intensity profile on the left and right (see FIG. 7 (c)).
  • the pupil image formed by the diffraction light L2 in the short wavelength band becomes the pupil image H having the center wavelength shown in FIG. 9B. Shift to the right in the figure
  • the vignetting amount of the + 1st-order diffraction component decreases, and the vignetting amount of the _1st-order diffraction component does not change. Therefore, in the inner mark 32, vignetting becomes asymmetric in the short wavelength band.
  • the luminance information of the inner mark 32 of the mark image has a distortion (left and right imbalance) in its intensity profile (see FIG. 6 (c)).
  • the capture of the mark image using the illumination light L1 in the short wavelength band is also performed before and after the adjustment mark 30A is rotated by 180 degrees. Then, based on the luminance information of the two mark images, the symmetric / asymmetry of the luminance information relating to the outer mark 31 is adjusted, and the symmetric / asymmetry of the luminance information relating to the inner mark 32 is adjusted. Then, the amount of displacement between the outer mark 31 and the inner mark 32 is calculated. Further, the average value of the displacement L in the 0-degree direction and the displacement L in the 180-degree direction is calculated as the TIS value according to the above equation (4).
  • This TIS value is determined by comparing the center C of the pupil image in the short wavelength band on the aperture stop surface 23A with the imaging aperture stop. This shows the displacement of the center 23 of the beam 23 from the center C.
  • step S6 the wavelength band of the illumination light L1 is changed, and the adjustment mark 30A is irradiated with the illumination light L1 in the long wavelength band.
  • the mark image is captured based on the diffracted light L2.
  • the diffracted light L2 in the long wavelength band includes light generated at a spread angle corresponding to the pitch P1 of the outer mark 31 and light generated at a spread angle corresponding to the pitch P2 of the inner mark 32.
  • a mark image is captured based on the light of the diffracted light L2 that has passed through the imaging aperture stop 23 and reached the image plane of the imaging optical system (19 to 24).
  • the pupil image of the outer mark 31 due to the diffracted light L2 in the region is different from the pupil image H of the center wavelength shown in FIG.
  • the brightness information of the outer mark 31 of the mark image has the same intensity profile on the left and right (see FIG. 7 (c)).
  • the pupil image formed by the diffraction light L2 in the long wavelength band becomes the pupil image H having the center wavelength shown in FIG. Shift to the left in the figure
  • the luminance information of the inner mark 32 of the mark image has a distortion (left and right imbalance) in its intensity profile (see FIG. 8 (c)).
  • the capture of the mark image using the illumination light L1 in the long wavelength band is also performed before and after the adjustment mark 30A is rotated by 180 degrees. Then, based on the luminance information of the two mark images, the symmetric / asymmetry of the luminance information relating to the outer mark 31 is adjusted, and the symmetric / asymmetry of the luminance information relating to the inner mark 32 is adjusted. Then, the displacement amount between the outer mark 31 and the inner mark 32 is calculated. Further, the average value of the displacement L in the 0-degree direction and the displacement L in the 180-degree direction is calculated as the TIS value according to the above equation (4).
  • This TIS value is determined by comparing the center C of the pupil image in the long wavelength band on the aperture stop surface 23A with the imaging aperture stop. This shows the displacement of the center 23 of the beam 23 from the center C.
  • the TIS values calculated in step S6 are also opposite to each other.
  • step S7 the TIS value calculated in step S5 (the displacement of the center C of the pupil image in the short wavelength band) and the TIS value calculated in step S6 (the center C of the pupil image in the long wavelength band) Rank
  • the “difference in TIS value” indicates a positional shift between the center C of the pupil image in the short wavelength band and the center C of the pupil image in the long wavelength band on the aperture stop surface 23A.
  • step S8 the “difference in TIS value” calculated in step S7 is compared with a predetermined threshold value (a sufficiently small standard value). If the “difference in TIS value” is larger than the threshold value (No in S8), the arrangement of the plane-parallel plate 22 is finely adjusted in the tilt direction using the “difference in TIS value” as an index (step S4). Then, the process returns to step S5.
  • the processes in steps S5 to S9 described above are repeatedly performed until the “difference in TIS value” becomes smaller than the threshold (S8 becomes Yes).
  • the displacement between the outer mark 31 and the inner mark 32 of the adjustment mark 30A (the displacement L in the 0-degree direction and the displacement L in the 180-degree direction) is determined by the imaging aperture stop 23.
  • the pupil image H is determined by the imaging aperture stop 23.
  • the center C of the pupil image H at the center wavelength ⁇ is also
  • steps S2 to S9 are repeatedly performed, and the drive is performed so that the TIS value in step S2 and the "difference in TIS value" in step S7 are smaller than the respective thresholds.
  • Step S2 When both the TIS value and the “difference in TIS value” in step S7 are within the standard values (No in step S10), the adjustment processing of the imaging optical system (19 to 24) of the present embodiment ends. .
  • the pupil image on the aperture stop surface 23A has no image formation position corresponding to the wavelength band.
  • the pupil images H, ⁇ , ⁇ can be formed at the same imaging position (for example, the position in Fig. 7) regardless of the wavelength band. Also, regardless of the wavelength band, the aperture stop surface 23
  • the vignetting at A can be kept symmetric (Fig. 7).
  • an index (difference in TIS value) is obtained from the image of the adjustment mark 30A of the adjustment substrate 30, and based on the index, Since the arrangement of the parallel plane plates 22 is finely adjusted in the tilt direction, the arrangement of the parallel plane plates 22 can be finely adjusted with high sensitivity. Therefore, the adjustment error (error of the tilt angle ⁇ ) of the parallel plane plate 22 can be reliably reduced, and the error component (TIS value) caused by the device can be reduced favorably.
  • the setting of the illumination wavelength in step S5 is set to the shortest wavelength side of the light source 3A
  • the setting of the illumination wavelength in step S6 is set to the longest wavelength side of the light source 3B.
  • the error component (TIS value) caused by the device can be reduced satisfactorily in a wide range (for example, a wavelength width of about 270 nm).
  • the wavelength characteristic of the diffracted light L2 is changed according to the structure and physical properties of the registration mark and the underlying mark of the overlay mark 11A. Even if they differ, an accurate value that does not include an error component (TIS value) can be obtained as a detection result of each mark position, and the detection accuracy is improved. Further, the amount of misalignment between the registration mark and the base mark can also be accurately obtained, and a highly accurate overlay inspection can be performed.
  • TIS value error component
  • the pitch ⁇ 2 of the inner mark 32 of the adjustment mark 30 ⁇ is conditioned.
  • the present invention is not limited to this. The present invention can be applied even when the following conditional expression (6) is satisfied.
  • the force at which the pitch P1 of the outer mark 31 is larger than the pitch ⁇ 2 of the inner mark 32 is not limited to this. If the pitches Pl and # 2 of the outer mark 31 and the inner mark 32 are different, the present invention can be applied even if the magnitude relation between the pitches # 1 and # 2 is reversed.
  • conditional expressions (2) and (3) and conditional expressions (5) and (6) ⁇ 1st-order diffraction components of the pupil image ⁇ on the aperture stop surface 23 ⁇ are combined.
  • the force S that determines the pitches ⁇ 1 and ⁇ 2 of the adjustment mark 30 ⁇ based on the positional relationship with the image aperture stop 23.
  • the present invention is not limited to this.
  • the pitches P1 and P2 may be determined using the positional relationship between the ⁇ 2nd-order diffraction components or higher order components and the imaging aperture stop 23.
  • the present invention is not limited to this.
  • the present invention can be applied to a case where the adjustment mark 30A is composed of three or more types of marks having different pitches.
  • the force S in which a plurality of marks (for example, the outer mark 31 and the inner mark 32) configuring the adjustment mark 30A are configured by bar marks is not limited to this.
  • the present invention can be applied to other shapes (for example, dot shapes).
  • the adjustment mark 30A is not limited to a double mark (a mark having a positional deviation of 0 in design) in which a plurality of marks are overlapped so that their centers coincide with each other. They can also be arranged side by side with a design misregistration amount ⁇ 0).
  • the arrangement of the plane-parallel plate 22 is finely adjusted using the difference in the error component (TIS value) when the wavelength band of the illumination light L1 is different as an index.
  • TIS value error component
  • the present invention can also be applied to a case where the arrangement of the parallel plane plate 22 is finely adjusted based on the amount of displacement when the wavelength band of the illumination light L1 is different. At this time, for example, the difference in the amount of displacement is used as an index.
  • the imaging optical system (19 to 24) is adjusted using the parallel plane plate 22.
  • the adjustment example has been described, the present invention is not limited to this.
  • two wedge prisms having different refractive indices may be used as the optical element for adjustment.
  • the slopes of the two wedge-shaped prisms are opposed to each other, and the position of the slide that slides along the direction perpendicular to the optical axis) 2 is changed.
  • the adjusting method has been described by taking the imaging optical system (19 to 24) incorporated in the overlay measuring apparatus 10 as an example, but the present invention is not limited to this.
  • the present invention can also be applied to the case where the imaging optical system of an optical device for observing an object (for example, an optical microscope or a visual inspection device) is adjusted.
  • the overlay measuring apparatus 10 is an apparatus for performing an overlay inspection of a resist pattern (not shown) on the substrate 11 in a manufacturing process of a semiconductor element, a liquid crystal display element, or the like.
  • a displacement amount of a resist pattern with respect to a circuit pattern (hereinafter, referred to as “base pattern”) formed on a base layer of the substrate 11 is measured.
  • the substrate 11 is a semiconductor wafer, a liquid crystal substrate, or the like, and is in a state after exposure and development on the resist layer and before processing on a predetermined material film.
  • a large number of measurement points are prepared on the substrate 11 for overlay inspection.
  • the positions of the measurement points are the four corners of each shot area of the substrate 11 and the like.
  • a resist mark indicating the reference position of the resist pattern and a base mark indicating the reference position of the base pattern are formed.
  • the registration mark and the base mark are collectively referred to as “overlap mark 30”.
  • a standard substrate having a substantially uniform wavelength characteristic of the reflectance over the entire range of the wavelength used by the overlay measurement device 10 (the wavelength of the light source 13 described later), or a general substrate Product substrates are used as the substrate 11.
  • the wavelength characteristics of reflectance differ for each shot area (for each overlay mark 30), depending on the thickness unevenness of the resist layer and the underlying layer (deposited film). There are many.
  • the overlay measurement device 10 includes a detection stage 12 that supports a substrate 11, an illumination optical system (13 to 19), an imaging optical system (19 to 23), and a CCD. It comprises an imaging element 25, an image processing section 26, a focus detection section (4 :! to 49), and a stage control section 27.
  • the detection stage 12, the illumination optical system (13 to 19), the focus detection units (41 to 49), and the stage control unit 27 function as the autofocus device of the second embodiment.
  • the detection stage 12 holds a holder that holds the substrate 11 in a horizontal state, an XY drive unit that drives the holder in the horizontal direction (XY direction), and a vertical (Z Direction), and a Z drive unit that drives in the direction.
  • the XY drive unit and the Z drive unit are connected to the stage control unit 27.
  • the stage control unit 27 controls the XY drive unit of the inspection stage 12, moves the holder in the XY direction, and positions the overlay mark 30 on the substrate 11 in the visual field. Further, based on a later-described focus signal output from the focus detection unit (41 to 49), the Z drive unit of the inspection stage 12 is controlled to move the holder up and down in the Z direction. By this focus adjustment, the substrate 11 can be focused on the imaging surface of the CCD imaging device 25 (details will be described later).
  • the illumination optical system (13 to 19) includes a light source 13, an illumination aperture stop 14, a condenser lens 15, a field stop 16, an illumination relay lens 17, a beam splitter 18, a light source 13 arranged in order along the optical axis Ol.
  • the first objective lens 19 is arranged on the axis ⁇ 2.
  • the beam splitter 18 has a reflection / transmission surface inclined at approximately 45 ° with respect to the optical axis ⁇ 1, and is also arranged on the optical axis 02.
  • the optical axis Ol of the illumination optical system (13 to 19) is perpendicular to the optical axis ⁇ 2 of the imaging optical system (19 to 23).
  • the light source 13 emits light having a wide wavelength band (for example, white light).
  • the center of the illumination aperture stop 14 is located on the optical axis Ol, and limits the diameter of light of a broadband wavelength emitted from the light source 13 to a specific diameter.
  • the condenser lens 15 collects light from the illumination aperture stop 14.
  • the field stop 16 is an optical element that limits the field of view of the overlay measurement device 10, and has one slit 16a that is a rectangular opening as shown in FIG. 11 (b).
  • the illumination relay lens 17 collimates the light from the slit 16 a of the field stop 16. Beam splitter 18 The light from the illumination relay lens 17 is reflected downward.
  • the light of the broadband wavelength emitted from the light source 13 uniformly illuminates the field stop 16 via the illumination aperture stop 14 and the condenser lens 15.
  • the light that has passed through the slit 16a of the field stop 16 is guided to the beam splitter 18 via the illumination relay lens 17, and is reflected by the reflection / transmission surface (illumination light L1).
  • the objective lens 19 can be used.
  • the first objective lens 19 receives and condenses the illumination light L1 from the beam splitter 18.
  • the substrate 11 on the inspection stage 12 is vertically illuminated by the illumination light L1 having a broadband wavelength transmitted through the first objective lens 19 (epi-illumination).
  • the first objective lens 19 corresponds to an “objective lens” in the claims.
  • the angle of incidence of the illumination light L1 when entering the substrate 11 is determined by the positional relationship between the center of the illumination aperture stop 14 and the optical axis ⁇ 1.
  • the incident angle range of the illumination light L1 at each point on the substrate 11 is determined by the aperture diameter of the illumination aperture stop 14. This is because the illumination aperture stop 14 is arranged on a plane conjugate with the pupil of the first objective lens 19.
  • the field stop 16 and the substrate 11 have a conjugate positional relationship, an area of the surface of the substrate 11 corresponding to the slit 16a of the field stop 16 is illuminated by the illumination light L1. That is, the image of the slit 16a is projected on the surface of the substrate 11 by the action of the illumination relay lens 17 and the first objective lens 19.
  • the reflected light L2 is generated from the region of the substrate 11 irradiated with the above-mentioned broadband wavelength illumination light L1.
  • the wavelength characteristic of the reflected light L2 is substantially equal to the wavelength characteristic of the illumination light L1.
  • the wavelength characteristic of the reflected light L2 changes according to the wavelength characteristic of the reflectance of the substrate 11. The reflected light L2 from the substrate 11 is guided to an imaging optical system (19 to 23) described later.
  • the imaging optical system (19 to 23) includes a first objective lens 19, a second objective lens 20, a first imaging relay lens 21, a first imaging relay lens 21, and an imaging aperture stop 22, which are sequentially arranged along the optical axis 02. And a second imaging relay lens 23.
  • the optical axis 02 of the imaging optical system (19 to 23) is parallel to the Z direction.
  • an illumination optical system (13 to 19) is provided between the first objective lens 19 and the second objective lens 20.
  • a beam splitter 18 is disposed, and a beam splitter 41 of a focus detection unit (41 to 49) described later is disposed between the second objective lens 20 and the first imaging relay lens 21.
  • the beam splitters 18 and 41 are half prisms for separating the amplitude of light.
  • the first objective lens 19 collimates the reflected light L2 from the substrate 11.
  • the reflected light L2 collimated by the first objective lens 19 passes through the beam splitter 18 and enters the second objective lens 20.
  • the second objective lens 20 focuses the reflected light L2 from the beam splitter 18 on the primary imaging surface 10a.
  • the beam splitter 41 of the focus detection unit (41 to 49) arranged downstream of the primary imaging surface 10a is provided with the optical axis ⁇ 3 of the focus detection unit (41 to 49) and the imaging optical system (19 to 23).
  • the reflection / transmission surface is inclined at approximately 45 ° with respect to the optical axis ⁇ 2. Then, the beam splitter 41 transmits a part (L3) of the reflected light L2 of the second objective lens 20 and reflects the remaining part (L4). Part of the light L3 transmitted through the beam splitter 41 is guided to the first imaging relay lens 21 of the imaging optical system (19 to 23).
  • the first imaging relay lens 21 collimates the light L3 from the beam splitter 41.
  • the imaging aperture stop 22 is arranged on a plane conjugate with the pupil of the first objective lens 19, and limits the diameter of light from the first imaging relay lens 21 to a specific diameter.
  • the second imaging relay lens 23 re-images the light from the imaging aperture stop 22 on the imaging surface (secondary imaging surface) of the CCD imaging device 25.
  • the CCD image sensor 25 is an area sensor in which a plurality of pixels are two-dimensionally arranged, captures an image (reflection image) based on the reflected light L2 of the substrate 11, and outputs an image signal to the image processing unit.
  • the image signal represents the distribution (luminance distribution) of the luminance value for each pixel on the imaging surface of the CCD imaging device 25.
  • the image processing unit 26 obtains the image data from the CCD imaging device 25. Based on the luminance distribution of the image signal to be obtained, the overlay detection of the product substrate (detection of the overlay state of the resist pattern with respect to the underlying pattern) is performed. In this case, visual observation using a television monitor (not shown) is also possible.
  • the image processing unit 26 performs CCD imaging.
  • the image signal from the image element 25 is output to a television monitor (not shown). In this case, it is possible to visually observe the overlay mark 30 on the standard substrate.
  • the focus detection units (41 to 49) detect whether the substrate 11 on the detection stage 12 is in focus with respect to the imaging surface of the CCD imaging device 25.
  • the focus detection units (41 to 49) include a beam splitter 41, an AF first relay lens 42, a parallel plane plate 43, a pupil division mirror 44, and an AF second relay lens 45 arranged in order along the optical axis 03.
  • Imaging optical system (41 to 46) composed of a lens and a cylindrical lens 46, a wavelength separation element 47, an AF sensor 48 (1) to (3), and a signal processing unit 49 (1) to (3). It is composed of
  • the AF sensors 48 (1) to (3) are line sensors, and a plurality of pixels are one-dimensionally arrayed on an imaging surface 48a.
  • the cylindrical lens 46 has a refractive power in a direction perpendicular to the pixel arrangement direction (A direction in the drawing) on each imaging surface 48a of the AF sensors 48 (1) to (3).
  • AF light a part of the light L4 (hereinafter, referred to as "AF light") reflected by the beam splitter 41 is collimated by the AF first relay lens 42 and transmitted through the parallel plane plate 43. And enters the pupil splitting mirror 44.
  • An image of the illumination aperture stop 14 of the illumination optical system (13 to 19) is formed on the pupil division mirror 44.
  • the parallel plane plate 43 is an optical element for adjusting the position of the image of the illumination aperture stop 14 at the center of the pupil division mirror 44, and has a mechanism capable of tilt adjustment.
  • the AF light that has entered the pupil splitting mirror 44 is amplitude-separated there into light in two directions, and then enters the wavelength separation element 47 via the AF second relay lens 45 and the cylindrical lens 46.
  • the AF light from the cylindrical lens 46 is wavelength-separated into light L5 to L7 in three directions via a wavelength separation element 47, and then the vicinity of each imaging surface 48a of the AF sensor 48 (:! To (3). It is focused on At this time, two light source images are formed on each imaging surface 48a at positions separated along the pixel arrangement direction (A direction in the figure).
  • the wavelength separation element 47 is a dichroic prism (optical element) having two reflection / transmission surfaces.
  • the two reflection / transmission surfaces are orthogonal to each other and are inclined at approximately 45 ° with respect to the optical axis ⁇ 3.
  • the first reflection / transmission surface along the traveling direction of the AF light reflects a wavelength band (light L7) longer than the predetermined wavelength and a wavelength band shorter than the wavelength a. (Light L6, L5).
  • the second reflection / transmission surface along the traveling direction of the AF light reflects a wavelength band (L6) longer than the predetermined wavelength / 3 ( ⁇ H) and a wavelength shorter than the wavelength. Transmits band (L5).
  • the AF light from the cylindrical lens 46 is divided into three wavelength bands, namely, a short wavelength band (short wave side than the wavelength) and a center wavelength band by the two reflection transmitting surfaces of the wavelength separation element 47. (Longer wavelength side than wavelength ⁇ and shorter wavelength side than wavelength a) and a longer wavelength band (longer wavelength side than wavelength a).
  • the light L5 in the short wavelength band enters the AF sensor 48 (1)
  • the light L6 in the central wavelength band enters the AF sensor 48 (2)
  • the light L7 in the long wavelength band enters the AF sensor 48 (3).
  • the AF light is separated into three wavelength bands by the wavelength separation element 47, and the lights L5 to L7 of the separated wavelength bands are independent of each other. It is led to the AF sensors 48 (1) to (3).
  • the three AF sensors 48 (1) to 48 (3) receive the light L5 to L7 of each wavelength band from the wavelength separation element 47, respectively.
  • the AF sensors 48 (1) to (3) correspond to the "light receiving element” in the claims.
  • the wavelength separating element 47 corresponds to a “spectroscopic element”.
  • Output signals from AF sensors 48 (1) to (3) are output to signal processing units 49 (1) to (3), respectively, and individually processed.
  • the signal processing unit 49 (1) based on the output signal from the AF sensor 48 (1), the image forming centers P 1 and P 2 of the two light source images formed on the imaging surface 48a of the AF sensor 48 (1).
  • the distance of P2 (FIGS. 12 (a) to 12 (c)) is obtained, and a focus signal corresponding to this distance is generated.
  • the signal processing units 49 (2) and (3) determine the image center of the two light source images formed on each imaging surface 48a based on the output signals from the AF sensors 48 (2) and (3).
  • the distance between P1 and P2 is obtained, and a focus signal is generated according to this distance.
  • the AF light is separated into three wavelength bands by the wavelength separation element 47 (light L5 to L7), and a focus signal is generated for each wavelength band.
  • the focus detecting section (41 to 49) corresponds to a "signal generating means" in the claims.
  • the focus signals for each wavelength band generated by the focus detection units (41 to 49) are output from the signal processing units 49 (:!) To (3) to the subsequent stage control unit 27.
  • FIGS. 12 (a), (b) and (c) show that one of the three wavelength bands (L5 to L7) corresponds to a relative position between the substrate 11 and the first objective lens 19 with respect to a certain wavelength band. This shows how the distance between the image forming centers P1 and P2 of the two light source images changes.
  • FIGS. 12 (a), (b), and (c) show the state when the substrate 11 is in the front focus state (below the in-focus state), the focus state, and the back focus state (above the focus position), respectively. Respond to the situation.
  • the imaging centers P1 and P2 of the two light source images approach each other as the front focus state (a) approaches, and the rear focus state (c ) Apart from each other.
  • the image forming centers P1 and P2 of the two light source images are adjusted to the pixels on the imaging surface 48a. Approach or move away along the array direction (A direction in the figure).
  • the focus signal according to the distance between the image forming centers P1 and P2 described above can be considered as a focus signal according to the relative position between the substrate 11 and the first objective lens 19.
  • the focus detection section (41 to 49) outputs a focus signal corresponding to the relative position between the substrate 11 and the first objective lens 19 for each of the three wavelength bands (L5 to L7). It is generated and output to the subsequent stage control unit 27.
  • the imaging optical system for AF (41 to 46) has chromatic aberration, even if the relative position between the substrate 11 and the first objective lens 19 is the same, the AF sensor 48 (:!) Since the distance between the image forming centers P1 and P2 of the two light source images on each imaging surface 48a of (3) to (3) is different, each wavelength band is determined based on the output signal from the AF sensor 48 (:!) To (3). Comparing the focus signals generated for each of them includes offset components with each other.
  • the offset amount between the focus signals in each wavelength band is measured in advance as described below and stored as offset information in the memory (storage means) of the stage control unit 27.
  • the measurement of the offset amount will be described.
  • a standard substrate having a substantially uniform wavelength characteristic of the reflectance is used as the substrate 11.
  • the procedure for measuring the offset amount is as follows (I) to (IV).
  • Procedure (I) The standard substrate is transported onto the detection stage 12 of the overlay measuring apparatus 10, the overlay mark 30 is positioned in the visual field, and the illumination light L1 is irradiated. At this time, the wavelength characteristic of the reflected light L2 generated from the overlay mark 30 on the standard substrate is substantially equal to the wavelength characteristic of the illumination light L1.
  • Procedure (III) The reflected light L2 from the superimposition mark 30 on the standard substrate was passed through the first objective lens 19 ⁇ the second objective lens 20 ⁇ the AF imaging optical system (41 to 46) in this order. Thereafter, the light is separated into three wavelength bands (L5 to L7) by the wavelength separation element 47, and light is received by the three AF sensors 48 (1) to (3) for each wavelength band. Then, the signal processing units 49 (1) to (3) perform focusing based on the output signals (distance between the image forming centers P1 and P2 of the two light source images) from the AF sensors 48 (1) to (3). A focus signal for each wavelength band at the position is generated and output to the stage control unit 27 at the subsequent stage.
  • the stage control section 27 compares the magnitude of the focus signal for each wavelength band at the in-focus position and measures the offset amount between the focus signals. Specifically, of the three wavelength bands (L5 to L7), for example, the center wavelength band (L6) is used as a reference. Then, a difference between the focus signal in the central wavelength band (L6) and the focus signal in the short wavelength band (L5) is obtained, and a difference value including a large and small code is set as an offset amount O. In addition, a difference between the focus signal in the center wavelength band (L6) and the focus signal in the long wavelength band (L7) is obtained, and a difference value including a large and small code is set as the offset amount O.
  • the stage control unit 27 stores the offset amounts ⁇ , 0 in the memory. Also, when the offset amounts ⁇ , ⁇ between the focus signals in each wavelength band have been measured, the stage control unit 27 stores the offset amounts ⁇ , 0 in the memory. Also,
  • the focus signal (that is, the value at the in-focus position) of the center wavelength band (L6), which is a reference for the offset amounts ⁇ , ⁇ , is also stored in the memory. This information is used for general product boards. Used for auto focus control.
  • Procedure (0) The product substrate is conveyed onto the detection stage 12 of the overlay measuring device 10, the overlay mark 30 is positioned within the visual field, and the illumination light L1 is irradiated.
  • the wavelength characteristic of the reflectance often differs for each shot area (for each overlay mark 30).
  • the wavelength characteristic of the reflected light L2 generated from the mark 30 changes according to the wavelength characteristic of the reflectance at that location.
  • the wavelength characteristic of the reflected light L2 changes according to the wavelength characteristic of the reflectance of the overlay mark 30 of the product substrate.
  • the intensity ratio of the light L5 to L7 separated into three wavelength bands by the wavelength separation element 47 changes, and the amount of light received by the AF sensor 48 (1) to (3) changes. Relatively increases and decreases, and the strength of the output signal from the AF sensor 48 (:!) To (3) also changes. For example, if the ratio of the long wavelength band (L7) is higher than the other wavelength bands (L5, L6), the output signal from the AF sensor 48 (3) corresponding to the long wavelength band (L7) will be stronger. .
  • the stage control unit 27 refers to the information on the strength of the output signals of the AF sensors 48 (:!) to (3) and determines whether the output signal of the AF sensors 48 (:!) to (3) is Note the strongest AF sensor. Furthermore, of the focus signals for each wavelength band at the current Z position on the product substrate, the focus signal corresponding to the sensor of interest, the offset amounts O and o in the memory, and the memo. The detection stage 12 is driven in the Z direction so as to cancel the offset amounts ⁇ and ⁇ based on the focus signal of the center wavelength band (L6) at the in-focus position in the laser beam, and the substrate 11 and the first Adjust the relative position with the objective lens 19 (focus adjustment).
  • the force is adjusted so as to cancel the offset amount O.
  • the ⁇ focus signal corresponding to the AF sensor 48 (2) '' is set to ⁇ the center wavelength band (L6) at the focus position in the memory.
  • the detection stage 12 can be stopped at the Z position that coincides with the “focus signal”.
  • the relative position between the substrate 11 and the first objective lens 19 is set to a predetermined focus position. This completes the AF control for one overlay mark 30.
  • the offset amounts ⁇ ⁇ ⁇ and ⁇ in the memory are used.
  • the detection should be performed at the Z position such that the “focus signal corresponding to the AF sensor 48 (2)” matches the “focus signal of the center wavelength band (L6) at the focus position in the memory”.
  • ⁇ Stage 12 can be stopped.
  • the autofocus device of the second embodiment even if the AF imaging optical system (41 to 46) has chromatic aberration, the reflected light L2 generated from the substrate 11 (product substrate) Focus errors corresponding to wavelength characteristics can be reliably reduced. As a result, the force S can be set to substantially the same focus state for all the overlay marks 30 on the same substrate 11 (product substrate).
  • the overlay measurement apparatus 10 it is possible to perform the overlay inspection of the product substrate (inspection of the overlay state of the resist pattern on the base pattern) in almost the same focus state.
  • the overlay inspection was performed after detecting the position of each of the registration mark and the base mark from the image of the overlay mark 30 and calculating the relative positional shift amount (overlay shift amount ⁇ ). This is performed by correcting the overlay deviation amount ⁇ with an error component (TIS value: Tool Induced Shift) caused by the device.
  • TIS value Tool Induced Shift
  • the overlay measurement apparatus 10 since the overlay inspection of the product substrate can be performed in almost the same focus state, the variation of the TIS value in one product substrate is extremely small. Therefore, when correcting the overlay deviation amount ⁇ by the TIS value, it is possible to reuse the common TIS value for all the overlay marks 30 on the same product substrate. In this case, the measurement in a state where the substrate 11 is oriented in the opposite direction (180 degree direction) may be omitted, and only the measurement in a state in which the substrate 11 is oriented in the forward direction (0 degree direction) may be performed. Therefore, the overlay inspection throughput is improved.
  • the prism-shaped wavelength separating element 47 is incorporated on the optical path of the imaging optical system (41 to 46) for AF.
  • the present invention is not limited to this. Limited.
  • an optical element having a wavelength separation function such as a dichroic mirror may be configured in a two-stage configuration.
  • the present invention is not limited to the configuration in which the two reflection / transmission surfaces are sequentially arranged along the traveling direction of the AF light as in the wavelength separation element 47, but may use a cross dichroic prism.
  • the overlay measurement device 50 shown in FIG. 13 will be described as an example.
  • the imaging device having the autofocus device according to the third embodiment is the same as the wavelength separation element 47, the AF sensors 48 (:! to (3), and the signal processing unit 49 (:) of the autoforce device according to the second embodiment.
  • a wavelength band switching unit 51, one AF sensor 52, and a signal processing unit 53 shown in FIG. 13 are provided.
  • the other configuration is the same as that of the second embodiment, and the description is omitted.
  • the detection stage 12 the illumination optical system (13 to 19), the focus detection unit (41 to 46, 5:! To 53), and the stage control unit 27 are included in the third embodiment. Function as an auto-focus device.
  • the focus detection units (41 to 46, 51 to 53) include an imaging optical system for AF (41 to 46), a wavelength band switching unit 51, an AF sensor 52, and a signal processing unit 53. Be composed.
  • the wavelength band switching unit 51 is arranged between the second relay lens 45 and the cylindrical lens 46 of the imaging optical system (41 to 46). Therefore, the AF light passes through the second relay lens 45 ⁇ the wavelength band switching unit 51 ⁇ the cylindrical lens 46 in this order, and then enters the AF sensor 47.
  • the wavelength band switching unit 51 is provided with three types of filters 54 (1) to (3) having different transmission wavelength bands.
  • the transmission wavelength bands of the filters 54 (1) to (3) correspond to the short wavelength band, the center wavelength band, and the long wavelength band described in the third embodiment, respectively.
  • the wavelength band switching unit 51 corresponds to a “selection unit” in the claims.
  • the AF sensor 52 receives light of one wavelength band selected by the filters 54 (:!) To (3) of the wavelength band switching unit 51 in order (that is, in a time series).
  • the output signal of the AF sensor 52 is output to the signal processing unit 53 for each wavelength band.
  • the signal processing unit 53 generates a focus signal for each wavelength band based on the output signal from the AF sensor 52, and outputs the focus signal to the subsequent stage control unit 27.
  • the three types of filters 54 (:!) To (3) are switched, other wavelength bands are selected in order, and the light is received by the AF sensor 52. Then, the signal processing unit 53 generates a focus signal for each wavelength band at the focus position based on the output signal from the AF sensor 52 (the distance between the image forming centers P1 and P2 of the two light source images), Output to the subsequent stage control section 27.
  • the offset amounts O and ⁇ of the focus signals in each wavelength band are measured through the procedure (1) ⁇ the procedure (11) ⁇ the procedure ( ⁇ ′) ⁇ the procedure (IV). The result is the stage controller
  • the focus signal of the wavelength band (L6) (that is, the value at the focus position) is also stored in the memory. These pieces of information are used for autofocus control on a general product substrate.
  • the stage control unit 27 refers to the information on the strength of the output signal of the AF sensor 52 for each wavelength band, and determines the wavelength of the strongest output signal among the three wavelength bands (L5 to L7).
  • the focus signal corresponding to the wavelength band of interest among the focus signals for each wavelength band at the current Z position on the product substrate and the offset in the memory are focused on.
  • the detection stage 12 is driven in the Z direction so as to cancel the offset amounts ⁇ and ⁇ based on the offset amounts ⁇ and ⁇ and the focus signal of the center wavelength band (L6) at the focus position in the memory. Then, the relative position between the substrate 11 and the first objective lens 19 is adjusted (focus adjustment).
  • the focus signals corresponding to any of the three wavelength bands (L5 to L7) are determined in order to adjust the offset amounts ⁇ and ⁇ in the memory during the focus adjustment. Even when used, at the Z position where the “focus signal corresponding to when the center wavelength band (L6) is selected” matches the “focus signal of the center wavelength band (L6) at the focus position in the memory”, The inspection stage 12 can be stopped. After the focus adjustment, the relative position between the substrate 11 and the first objective lens 19 is set to a predetermined focus position. This completes the AF control for one overlay mark 30.
  • the autofocus device of the third embodiment even if the imaging optical system for AF (41 to 46) has chromatic aberration, the reflected light L2 generated from the substrate 11 (product substrate) Focus errors corresponding to wavelength characteristics can be reliably reduced. As a result, the force S can be set to substantially the same focus state for all the overlay marks 30 on the same substrate 11 (product substrate).
  • the overlay inspection of the product substrate can be performed in substantially the same focus state. Therefore, the variation of the TIS value on one product board is very small, and when correcting the overlay deviation ⁇ by the TIS value, the common TIS value is used repeatedly for all the overlay marks 30 on the same product board. It becomes possible. In this case, the measurement in a state where the substrate 11 is oriented in the opposite direction (180 degree direction) may be omitted, and only the measurement in a state in which the substrate 11 is oriented in the positive direction (0 degree direction) may be performed. Therefore, the overlay inspection throughput is improved.
  • the wavelength band switching unit 51 is provided on the optical path of the AF imaging optical system (41 to 46), but the present invention is not limited to this.
  • a similar wavelength band switching unit may be provided on the optical path of the illumination optical system (13 to 19) to select the wavelength band of the illumination light L1.
  • the wavelength of the AF optical system The band is set to be substantially the same as the wavelength band of the illumination light L1.
  • the number of wavelength band separations is three.
  • the number of separations may be two or four or more. As the number of separations increases, the focus error corresponding to the wavelength characteristic of the reflected light L2 generated from the substrate 11 can be greatly reduced.
  • the wavelength separation element is formed of a grating or the like, the spectrum of the incident light is received, and the offset amount is calculated based on the spectrum information.
  • the reference wavelength or offset information for the reference wavelength is obtained in advance as a wavelength offset data table or a wavelength offset curve.
  • the light incident on the auto-focus optical system is divided into light incident on the grating side and light incident on the focus signal generation unit, and each is guided to the light receiving surface.
  • the spectrum of the light from the substrate is obtained based on the information received on the light receiving surface arranged on the grating side, and the offset amount is determined based on this spectrum and the offset information (wavelength offset data table or wavelength offset curve). Calculate.
  • the offset amount is determined based on the center wavelength band among the wavelength bands separated by the wavelength separation element 47 or the wavelength band switching unit 51.
  • the reference wavelength band is not limited to this. Not done.
  • the offset amount may be calculated based on the focus position in a band other than the center wavelength band, or the focus position when white light is incident on a stage where a total reflection mirror or the like is placed on the stage. It may be an offset amount with respect to the focus signal in each wavelength band based on.
  • a focus position of light of a predetermined narrow-band wavelength may be used as a reference.
  • the present invention when measuring the offset amount between the focus signals in each wavelength band, a standard substrate having substantially uniform wavelength characteristics of the reflectance was used, but the present invention is not limited to this. Any known reflection characteristic that can ensure a sufficiently high intensity of the separated light (L5 to L7) in each wavelength band can be adopted as the reflection characteristic of the standard substrate. Further, in the above-described embodiment, an example in which the focus state is confirmed while visually observing the image of the overlay mark 30 in the procedure ( ⁇ ) when measuring the offset amount has been described, but the present invention is not limited to this. What? The image processing unit 26 performs image processing of the mark image, and performs contrast type AF control.
  • the autofocus device incorporated in the overlay measurement devices 10 and 50 has been described as an example.
  • the present invention is not limited to this.
  • the present invention is also applicable to an autofocus device incorporated in a device that performs detection or a device that performs alignment of the substrate 11 before an exposure process on the substrate 11 (that is, an alignment system of an exposure device). In the alignment system, the position of the alignment mark formed on the underlayer is detected, and the positional relationship between the detection result and the stage coordinate system (such as an interferometer) is obtained.
  • the substrate (semiconductor wafer or liquid crystal substrate) to be subjected to the overlay inspection is in the process of forming another circuit pattern on the underlying pattern formed in the previous pattern formation process (that is, exposure to the resist film). After development and before processing on the material film immediately below the resist film).
  • the overlay detection of a plurality of patterns formed on different layers of the substrate is performed by detecting the displacement between the underlying pattern and the resist pattern.
  • the misregistration detection mark 10 of the fourth embodiment is a mark used for the above-described overlay inspection, and as shown in FIGS. 15A to 15C, a base mark 10A and a registration mark 10B. It is composed of
  • the base mark 1OA is a mark of a base layer formed simultaneously with a base pattern, and has a size D of, for example, about 30 zm.
  • the registration mark 10B is
  • the base mark 10A is arranged in a linear pattern 11 and a linear pattern 12 perpendicular to the linear pattern 11 in a cross shape.
  • the center C of the base mark 10A is It corresponds to the intersection of the linear direction S of the linear pattern 11 and the linear direction S of the linear pattern 12.
  • the registration marks 10B are arranged in a cross shape with a linear pattern 13 parallel to the linear pattern 11 and a linear pattern 14 parallel to the linear pattern 12.
  • the center C of the resist mark 10B corresponds to the intersection of the linear pattern 13 and the linear pattern 14, and the linear pattern
  • the linear patterns 11 and 12 are drawn thicker than the linear patterns 13 and 14. The relationship between the thicknesses may be different from the figure.
  • the base mark 10A and the resist mark 10B coincide with each other in the linear directions S of the linear patterns 11 and 13 when there is no displacement between the base pattern and the resist pattern.
  • the center C of the mark 10A coincides with the center C of the registration mark 10B.
  • the direction parallel to the straight line directions S 1 and S 2 is defined as the Y direction.
  • the linear pattern 11 of the base mark 10A and the linear pattern 13 of the registration mark 10B have a length between both ends (the size of FIG. 15 (a)). D, D) are different from each other. Then, the linear pattern with the longer length between both ends 11
  • the linear pattern 12 of the base mark 10A and the linear pattern 14 of the resist mark 10B have different lengths between both ends.
  • the linear pattern 12 having the longer length between both ends is divided into one end and the other end in the linear direction S so as not to overlap the linear pattern 14 having the shorter length between both ends. 2
  • the space between the two partial patterns 12 (1) and 12 (2) is wider than the space between both ends of the linear pattern 14.
  • the partial patterns 11 (1) and 11 (2) of the linear pattern 11 is configured by a single pattern (a pattern having two edges in the width direction).
  • the overlay measurement device 20 includes a stage 22 for supporting the substrate 21, an illumination system (23 to 26) for irradiating the substrate 21 with illumination light L1, and an optical system for the substrate 21.
  • the misregistration detection marks 10 of the fourth embodiment are formed at a large number of locations specified in advance on the surface of the substrate 21 (the surface to be inspected).
  • the stage 22 holds the substrate 21 in a horizontal state and supports it, and moves the holder in the horizontal direction (XY direction) and the vertical direction (Z direction) according to an instruction from the stage control unit 34. And a drive unit.
  • any four measurement points (the position shift detection mark 10 shown in FIG. 15) on the surface to be inspected of the substrate 21 can be focused on the imaging system (25 to 28).
  • focus adjustment of the measurement point of the substrate 21 is performed.
  • the Z direction corresponds to a direction parallel to the optical axis 6A of the objective lens 26 of the imaging system (25 to 28).
  • the illumination system (23 to 26) includes a light source 23, an illumination lens 24, a half prism 25, and an objective lens 26.
  • the light from the light source 23 passes through the illumination lens 24, the half prism 25, and the objective lens 26 (illumination light L1), and then enters the inspection target surface of the substrate 21 on the stage 22 (epi-illumination light). Akira).
  • the measurement point (the displacement detection mark 10 in FIG. 15) positioned in the field of view is illuminated almost vertically by the illumination light L1.
  • reflected light L2 is generated from the misalignment detection mark 10 illuminated by the illumination light L1.
  • the reflected light L2 is guided to an imaging system (25 to 28) and a light receiving system for autofocus (28 to 30).
  • the image forming system (25 to 28) includes an objective lens 26, an image forming lens 27, and half prisms 25 and 28 (optical microscope unit).
  • the imaging lens 27 functions as a second objective lens.
  • the reflected light L2 from the substrate 21 passes through the objective lens 26, the half prisms 25 and 28, and the imaging lens 27, and then enters the imaging surface of the imaging element 31.
  • an enlarged image based on the reflected light L2 (that is, an enlarged optical image of the misalignment detection mark 10) is formed on the imaging surface of the imaging element 31.
  • the image sensor 31 is a monochrome area sensor (for example, a CCD camera) in which a plurality of pixels are two-dimensionally arranged.
  • the image sensor 31 captures an optical image of the position shift detection mark 10 on the image capturing surface and converts the image signal. Output to the image processing unit 32 at the subsequent stage.
  • the image signal output from the image sensor 31 is composed of a plurality of sample points, and represents a distribution of luminance values for each pixel on the image plane.
  • the luminance value is proportional to the intensity of the reflected light L2.
  • the luminance value of the image of the misalignment detection mark 10 is low at the edge of the misalignment detection mark 10.
  • the light receiving system for autofocus (28 to 30) includes a half prism 28, an imaging lens 29, and a detector 30.
  • the reflected light L2 from the substrate 21 enters the detector 30 after passing through the objective lens 26, the half prisms 25 and 28, and the imaging lens 29. Then, the focus signal corresponding to the in-focus state of the surface to be inspected of the substrate 21 (in particular, the measurement point in the visual field region) is output from the detector 30 to the stage control unit 34.
  • the stage control unit 34 controls the stage 22 in the X and Y directions to position one measurement point (the misregistration detection mark 10 shown in FIG. 15) on the inspection surface of the substrate 21 in the visual field area. Thereafter, the stage 22 is controlled in the Z direction based on the focus signal from the detector 30 of the light receiving system (28 to 30), and the focus of the measurement point on the substrate 21 is adjusted. After the focus adjustment, the system control unit 33, which performs overall control of the entire apparatus, controls the image processing unit 32 to use the measurement points (the misregistration detection marks 10 shown in FIG. 15) on the substrate 21. Execute the misalignment detection.
  • the stage control unit 34 controls the stage 22 to position the misregistration detection mark 10 on the substrate 21 in the viewing area, the center of the misregistration detection mark 10 (that is, the base mark) The center C of 10A and the center C of the registration mark 10B)
  • Positioning control is performed so as to stop near the heart.
  • the center of the field of view corresponds to a point on the optical axis 6A of the objective lens 26 of the imaging system (25 to 28).
  • the linear directions S of the pattern 13 are both in the two axes of a rectangular coordinate system with the origin at the optical axis 6A (Fig. 1
  • the linear direction S of the linear pattern 14 of the mark 10B is set to the other axis (hereinafter, “Y axis”).
  • the field of view shown in FIG. 16B is defined by the size of the imaging surface of the imaging element 31 and the magnification of the imaging system (25 to 28).
  • the enlarged optical image of the misregistration detection mark 10 of Fig. 15 positioned as described above is formed on the imaging surface of the imaging element 31 via the imaging system (25 to 28).
  • the influence of the distortion of the imaging system (25 to 28) becomes larger as the distance from the center of the field of view (the optical axis of the objective lens 6 ⁇ ) to the periphery decreases, and the effect increases in the radial direction. .
  • the present inventor has noticed that distortion is unlikely to occur in the circumferential direction.
  • the circumferential direction corresponds to the direction parallel to the ⁇ axis on the X axis and the direction parallel to the X axis on the ⁇ axis in a rectangular coordinate system with the optical axis 6 (as the origin (see Fig. 16 (b)).
  • the image processing unit 32 In a state where an enlarged optical image of the misregistration detection mark 10 (that is, an enlarged optical image of the linear patterns 11 to 14) is formed on the imaging surface of the imaging element 31, the image processing unit 32 The magnified optical image is captured as an image from the image sensor 31 and subjected to predetermined image processing to detect the displacement of the base mark 10A and the registration mark 10B in the X-axis direction and the displacement of the ⁇ ⁇ ⁇ -axis direction. Perform each detection. In the image of the misalignment detection mark 10, luminance information corresponding to the edge portions of the linear patterns 11 to 14 independently appears.
  • the edge portions of the linear patterns 11 to 14 are used for the detection of the displacement in the X-axis direction. . Since these linear patterns 12 and 14 are located near the ⁇ axis and are hardly affected by distortion in the X axis direction, by using the edge portions of the linear patterns 12 and 14, Position shift can be detected accurately.
  • the edge portions of the linear patterns 11 to 14 are used for detecting the positional shift in the ⁇ -axis direction. Used. Since these linear patterns 11 and 13 are located near the X-axis and are hardly affected by distortion in the ⁇ -axis direction, by using the edge portions of the linear patterns 11 and 13, Position shift detection can be accurately performed.
  • the image processing unit 32 converts the image 35 of the displacement detection mark 10 (Fig. 17 (a), (b)) to the Y-axis. Parallel The two partial images 36 (1) and 36 (2) related to the linear pattern 12 (part of the base mark 10A shown in FIG. 15 (b)) are cut out, and the linear pattern 14 (FIG. Two partial images 37 (1) and 37 (2) related to the registration mark 10B shown in 15 (c) are cut out.
  • the partial images 36 (1) and 36 (2) in Fig. 17 (a) are individually cut out for each of the partial patterns 12 (1) and 12 (2) of the linear pattern 12. is there.
  • the partial images 37 (1) and 37 (2) in FIG. 17 (b) are cut out so as not to include the intersection of the linear pattern 14 and the linear pattern 13.
  • the image processing unit 32 When the extraction of the partial images 36 (1), 36 (2), 37 (1), and 37 (2) is completed in this way, the image processing unit 32 outputs the partial image 36 (1) shown in FIG. , 36 (2), the luminance value of each pixel is integrated in the Y-axis direction (E direction) to generate a waveform signal as shown in FIG. 17 (c) (projection processing).
  • the horizontal axis of FIG. 17C represents the position of a pixel, and the vertical axis represents the signal level (brightness).
  • the partial images 36 (1) and 36 (2) in FIG. 17 (a) are in a state of being hollowed out and separated, the projection processing is performed as a continuous partial image.
  • the integration direction of the projection processing corresponds to a direction perpendicular to the direction of the displacement detection (here, the X-axis direction). Similar projection processing is performed on the partial images 37 (1) and 37 (2) in FIG. 17 (b).
  • a well-known correlation method e.g., a folded correlation method
  • the autocorrelation operation of the waveform signal generated from 2) is performed to calculate the center position C of the linear pattern 14 in the X-axis direction (corresponding to the position in the X-axis direction of the linear direction S shown in FIG. 15 (c)). .
  • the difference between the center positions C 1 and C 2 is defined as the linear direction S of the linear pattern 12 and the linear pattern S.
  • the detection of the displacement in the ⁇ -axis direction is performed in the same manner as the detection of the displacement in the X-axis direction described above.
  • the image processing unit 32 extracts the partial patterns 11 (1) and 11 (2) of the linear pattern 11 (part of the base mark 10A) parallel to the X-axis from the image of the misregistration detection mark 10. (See Fig. 17 (a), partial images 36 (1) and 36 (2)), and within the linear pattern 13 (part of the registration mark 10B) parallel to the X-axis.
  • a partial image is cut out so as not to include the intersection with the linear pattern 14 (see the partial images 37 (1) and 37 (2) in FIG. 17 (b)).
  • the same projection processing is performed on the two partial images related to the linear pattern 13, and the autocorrelation calculation of the obtained waveform signal is used to calculate the center position C of the linear pattern 13 in the Y-axis direction (see FIG. 15 (c)). (Corresponding to the position in the Y-axis direction of the linear direction S shown in Fig. 7).
  • the cross-shaped base mark 108 composed of the linear patterns 11 and 12 of FIG. 15B and the linear mark of FIG. Since the pattern 13 and 14 include the cross-shaped resist mark 10B that also generates a force, the center (that is, the center C of the base mark 10A and the center C of the resist mark 10B) is detected at the time of position shift detection.
  • the linear patterns 12 and 14 (both parallel to the Y axis) for detecting the displacement in the X axis direction are located near the Y axis of the orthogonal coordinate system having the optical axis 6A as the origin, The influence of distortion in the X-axis direction of the imaging system (25 to 28) can be reduced.
  • the linear patterns 11 and 13 for detecting the displacement in the Y-axis direction (both are parallel to the X-axis), and are located near the X-axis of the orthogonal coordinate system having the optical axis 6A as the origin, so that the imaging system (25-28)
  • the force S can reduce the influence of distortion in the Y-axis direction.
  • the position of the image of the position shift detection mark 10 taken in at the time of position shift detection That is, by using the edge portions of the linear patterns 12 and 14 located in the vicinity of the Y-axis, the amount of positional deviation in the X-axis direction of the linear patterns S and S of the linear patterns 12 and 14 (that is, the base mark 10A and the
  • the displacement amount of the registration mark 10B in the X-axis direction can be accurately calculated. Also, by using the edge portions of the linear patterns 11 and 13 located in the vicinity of the X-axis, the amount of misalignment of the linear patterns 11 and 13 in the linear directions S and S in the Y-axis direction (that is, with respect to the base mark 10A). cash register
  • the amount of displacement of the strike 10B in the Y-axis direction can be accurately calculated.
  • the edge portions of the linear patterns 12 and 14 extend along the Y-axis in the vicinity of the Y-axis in the image of the position-shift detection mark 10, the position shift detection in the X-axis direction As a result, a large amount of significant image information can be secured, and the S / N ratio of the waveform signal for detecting the positional deviation is improved. For this reason, it is possible to detect positional deviation in the X-axis direction with good reproducibility.
  • the edge portions of the linear patterns 11 and 13 extend along the X axis in the vicinity of the X axis, a lot of significant image information can be secured when detecting the displacement in the Y axis direction. As a result, the S / N ratio of the waveform signal for detecting the displacement is improved. For this reason, the displacement detection in the Y-axis direction can be performed with good reproducibility.
  • the displacement between the base mark 10A and the registration mark 10B in the X-axis direction and the Y-axis direction can be detected accurately and with good reproducibility.
  • High precision overlay inspection is possible. Specifically, overlay inspection with an accuracy of about 3 nm is possible. Therefore, it can meet future process rules in the manufacturing process of semiconductor devices (minimum line width of circuit pattern: less than 100 nm, overlay accuracy: about 30 nm or less).
  • a partial image for detecting a positional shift related to the linear patterns 13 and 14 from the image of the positional deviation detection mark 10 see partial images 37 (1) and 37 (2) in Fig. 17 (b)).
  • a partial image is cut out so as not to include the intersection with the linear pattern 14 in the linear pattern 13
  • the partial image is cut out so as not to include the intersection with the linear pattern 13 in the linear pattern 14.
  • the displacement can be detected satisfactorily without being affected by the edge portions of other linear patterns.
  • the center of the position detection mark 10 ie, the center C of the base mark 10A and the center C of the registration mark 10B
  • the center of the visual field optical axis 6A
  • the linear patterns 11 to 14 can be positioned near the X and Y axes of the orthogonal coordinate system with the optical axis 6A as the origin, and the imaging system (25 to 28) Can reduce the influence of distortion. Therefore, it is not necessary to use a very expensive stage 22 (for example, one having a positioning accuracy of about 1 ⁇ m or less), so that the stage 22 can be configured relatively inexpensively.
  • a well-known correlation method (such as an aliasing correlation method) is used to perform an autocorrelation operation using the entire waveform signal after the projection processing, so that it is affected by signal noise. It is difficult to calculate the positional deviation between the base mark 1 OA and the registration mark 1 OB with good reproducibility. However, the amount of displacement may be calculated based on the bottom position of the waveform signal that is not correlated.
  • the misregistration detection mark of the fifth embodiment is formed by dividing the linear patterns 11 and 13 into “an aggregate of a plurality of fine linear patterns 38 and 39 divided in the width direction ( Sub-mark group), and the linear patterns 12 and 14 are constituted by similar sub-mark groups.
  • the configuration using the submark group is not limited to all the linear patterns 11 to 14, and may be applied to at least one linear pattern.
  • At least one of the linear patterns 11 to 14 is composed of a submark group, so that uniformity is improved during CMP polishing. Polishing becomes possible. There is also an advantage that the mark is hardly broken by CMP polishing.
  • the width of the fine linear patterns 38 and 39 of the sub mark group is set within the resolution of the objective lens 26, the width direction (position shift) of the linear patterns 13 and 11 which are an aggregate of the linear patterns 38 and 39 is determined. Many edges exist in the detection direction), and the reproducibility of position shift detection is improved by the averaging effect. Furthermore, by making the widths of the fine linear patterns 38 and 39 approximately the same as the line width of the circuit pattern, the accuracy of position shift detection is improved.
  • the misregistration detection mark of the sixth embodiment includes a base mark 1OA and a resist mark 10B (inside a rectangular area 40 circumscribing the linear patterns 11 and 12).
  • the base marks (41 to 44) indicating other reference positions of the base pattern and the resist marks indicating the other reference positions of the resist pattern (44-48) are arranged so as not to overlap.
  • the new base marks (41-44) and resist marks (44-48) consist of a pattern of line 'and' spaces (grating structure).
  • the actual misregistration detection is performed by using a cross-shaped mark (linear patterns 11 to 14) and a line and
  • the force in which the other base marks (41 to 44) and the resist marks (44 to 48) are arranged inside the rectangular area 40 and divided into four areas a to d It is not limited to this.
  • a mark indicating another reference position (at least one of a base mark and a registration mark) may be arranged in at least one of the four areas a to d.
  • the misregistration detection mark according to the seventh embodiment includes a base mark 1 OA and a resist mark 10 B (inside a rectangular area 50 circumscribing the linear patterns 11 and 12).
  • process information 51 relating to formation of a base pattern, dummy patterns 52, 53 formed simultaneously with the base pattern, and formation of a resist pattern are formed in four regions a to d separated by linear patterns 11 to 14).
  • Process information 54 related to the above and dummy patterns 55 and 56 formed simultaneously with the resist pattern.
  • the process information 51, 54 is a reticle number or the like.
  • the center C (FIG. 15 (b)) of the base mark 10A composed of the linear patterns 11 and 12 and the linear patterns 13 and Consists of 14
  • misregistration of the exposure reticle and the like can be recognized by detecting the positional deviation between the base mark 10A and the registration mark 10B and reading and collating the process information 51, 54.
  • CMP polishing can be performed under the same uniform conditions as those of other portions.
  • the process information 51 and 54 related to the formation of the base pattern and the resist pattern are arranged in the regions a and b.
  • Process information related to formation of one of the base pattern and the resist pattern may be arranged in at least one of the four regions a to d
  • the misregistration detection marks according to the eighth embodiment include a base mark 1 OA and a resist mark 10 B (inside a rectangular area 60 circumscribing the linear patterns 11 and 12).
  • the detection marks 61 to 64 for the exposure conditions related to the formation of at least one of the base pattern and the resist pattern are arranged in four regions a to d separated by the linear pattern:!:! It is.
  • the marks 61 to 64 are wedge-shaped SMP (Self Measurement Program) marks, the length of which changes according to exposure conditions (dose amount, defocus amount, etc.).
  • the center C (FIG. 15 (b)) of the base mark 10A composed of the linear patterns 11 and 12 and the linear patterns 13 and Consists of 14
  • the misalignment between the base mark 10A and the registration mark 10B can be detected, and the exposure condition (dose amount, defocus amount, etc.) is inspected according to the length change of the marks 61 to 64. You can also.
  • the marks 61 to 64 are arranged in the four areas a to d inside the rectangular area 60, but the present invention is not limited to this. Similar SMP marks may be arranged in at least one of the four areas a to d.
  • the misregistration detection mark 70 of the ninth embodiment is provided with a registration mark 70B instead of the registration mark 10B of the misalignment detection mark 10 of Fig. 15.
  • the registration mark 70B has a linear pattern 71 parallel to the linear pattern 11 and a linear pattern 72 parallel to the linear pattern 12 arranged in a cross shape.
  • the linear patterns 71, 72 are divided into one end and the other end in the linear directions S, S, respectively, so that the length between both ends is shorter than that of the linear patterns 11, 12, so that they do not cross each other.
  • the linear patterns 71, 72 of the registration mark 70B are obtained from the image of the misregistration detection mark 70 shown in FIG. Can be easily cut out.
  • one continuous partial image 73 may be cut out from the partial pattern 72 (1) to the partial pattern 72 (2).
  • one continuous partial image is cut out from the partial pattern 71 (1) to the partial pattern 71 (2).
  • the overlay inspection detection of misregistration
  • the present invention is not limited to this.
  • the present invention can also be applied to the case where the positional deviation of two patterns formed on the same layer of the substrate 21 is detected.
  • the overlay inspection apparatus 10 is an apparatus that performs an overlay inspection of a resist pattern (not shown) on the substrate 10A in a manufacturing process of a semiconductor element, a liquid crystal display element, or the like.
  • a displacement amount of a resist pattern with respect to a circuit pattern (hereinafter, referred to as an “underlying pattern”) formed on an underlying layer of the substrate 10A is measured.
  • the overlay inspection apparatus 10 of the present embodiment includes a stage 11 for supporting the substrate 10A, and an illumination system (12 to 16) for irradiating the substrate 10A with the illumination light L1. , An imaging system (16, 17) for forming an optical image of the substrate 10A, an imaging device 18, a TV monitor 19 for observation, a signal processing unit (20, 21), and a control unit (22 to 24). It is composed of
  • the substrate 10A is a semiconductor wafer, a liquid crystal substrate, or the like. After exposure and development of the resist layer, it is in a state before processing of a predetermined material film. The unprocessed material film is formed between the resist layer and the underlayer.
  • FIGS. 25 (a) and 25 (b) are a plan view and an AA sectional view. In FIG. 25 (b), the raw material film is not shown.
  • the double mark 30 includes two overlapping marks 31 and 32 having different sizes.
  • the outer superposition mark 31 is formed of four concave portions formed in the base layer 41, and indicates a reference position of the base pattern.
  • the inner superposition mark 32 includes four concave portions formed in the resist layer 42, and indicates a reference position of the resist pattern.
  • Each of the concave portions of the overlay marks 31 and 32 has a bar shape, and the double mark 30 constitutes a bar in bar mark.
  • the overlay mark 31 of the base layer 41 is referred to as “base mark 31”.
  • the registration mark 32 of the resist layer 42 is referred to as a “resist mark 32”.
  • the intermediate layers 43 and 44 are an unprocessed material film, a processed material film, an anti-reflection film, and the like, and are transparent or translucent in the wavelength region of general white light.
  • the material film is made of a conductive material for wiring or an insulating material such as glass.
  • the two intermediate layers 43 and 44 are affected by the recesses of the base mark 31, and have minute recesses on their upper surfaces 3A and 4A. Then, in the actual manufacturing process, even if the concave portion of the base mark 31 has a symmetrical shape, the shape of the concave portion of the upper surface 3A, 4A of the intermediate layer 43, 44 thereon is as shown in FIG. 26 (a). It may not be bilaterally symmetric and may be slightly asymmetrical as shown in Fig. 26 (b). The upper surface 2A of the resist layer 42 is flat regardless of the recesses of the upper surfaces 3A and 4A of the intermediate layers 43 and 44.
  • the overlay inspection apparatus 10 calculates the position of the center C1 of the base mark 31 and the position of the center C2 of the resist mark 32 during the overlay inspection of the resist pattern.
  • the intermediate layers 43 and 44 are formed on the base mark 31, and the shapes of the recesses on the upper surfaces 3A and 4A may be asymmetric (FIG. 26 (b)). According to the detection device 10, the influence of the intermediate layers 43 and 44 can be reduced to accurately detect the position of the base mark 31 (details will be described later).
  • the stage 11 includes a holder for supporting the substrate 10A in a horizontal state and supporting the same, and a drive unit for moving the holder in a horizontal direction (XY direction).
  • a drive unit for moving the holder in a horizontal direction (XY direction).
  • the illumination system (12 to 16) includes a light source 12, a wavelength selection unit 13, an illumination lens 14, a half mirror 15, and an objective lens 16.
  • the light source 12 emits white light.
  • the wavelength selection unit 13 includes four types of color filters 13A having different spectral characteristics, and a mechanism (a revolver 13B and a motor (not shown)) for switching the color filters 13A. Insert one color filter 13A into the illumination light path 10B.
  • the white light from the light source 12 passes through one color filter 13A of the wavelength selector 13, the illumination lens 14, the half mirror 15, and the objective lens 16 (illumination light L1), and then the white light of the substrate 10A on the stage 11 Light is incident on the surface to be inspected (epi-illumination).
  • the measurement point (the double mark 30 in FIG. 25) positioned in the field of view is illuminated substantially vertically by the illumination light L1.
  • reflected light L2 is generated from the double mark 30 illuminated by the illumination light L1.
  • the reflected light L2 is guided to an imaging system (16, 17) described later.
  • the spectral characteristics of the illumination light L1 are determined according to the spectral characteristics of the white light emitted from the light source 12 and the spectral characteristics of the color filter 13A inserted into the illumination optical path 10B. Further, by rotating the revolver 13B of the wavelength selector 13 around the axis 13C by a motor (not shown) and changing the type of the color filter 13A inserted into the illumination optical path 10B, the spectral characteristics of the illumination light L1 can be easily obtained. Can be adjusted. The adjustment of the spectral characteristics of the illumination light L1 is performed based on an instruction from a control unit (22 to 24) described later.
  • the imaging system (16, 17) includes an objective lens 16 and an imaging lens 17 (optical microscope unit).
  • the imaging lens 17 functions as a second objective lens.
  • the reflected light L2 from the substrate 11 is After passing through the objective lens 16, the half mirror 15, and the imaging lens 17, the light enters the imaging surface of the imaging element 18.
  • an enlarged image that is, an optical image of the double mark 30 based on the reflected light L2 is formed on the imaging surface of the imaging element 18.
  • the imaging element 18 is a monochrome area sensor (for example, a CCD camera) in which a plurality of pixels are two-dimensionally arranged.
  • the imaging element 18 captures an optical image of the double mark 30 on the imaging surface, and outputs an image signal to a subsequent stage.
  • the image signal output from the imaging element 18 is composed of a plurality of sampling points, and represents a distribution of luminance values for each pixel on the imaging surface.
  • the luminance value is proportional to the intensity of the reflected light L2.
  • the image of the double mark 30 (for example, the image displayed on the TV monitor 19) includes a portion 31A corresponding to each concave portion of the base mark 31 and each of the registration marks 32 as shown in FIG. At the portion 32A corresponding to the concave portion, the luminance value becomes low.
  • the signal processing unit (20, 21) includes a frame memory 20 and a CPU 21 for calculating a waveform signal, and stores an image signal (FIG. 27 (a)) from the image sensor 18 in the frame memory 20.
  • the CPU 21 defines a signal processing range 33 for the image signal (FIG. 27 (a)) in the frame memory 20, and integrates the luminance value of each pixel included in the signal processing range 33 in the vertical direction (E direction). Then, a waveform signal shown in FIG. 27 (b) or (c) is generated (projection processing).
  • 27 (b) and 27 (c) the horizontal axis represents the position of the pixel, and the vertical axis represents the signal level (brightness).
  • the F portion of the waveform signal corresponds to the base mark 31.
  • the CPU 21 calculates the position of the center C1 of the base mark 31 and the center of the registration mark 32 by performing a correlation operation of waveform signals as shown in FIGS. 27 (b) and 27 (c) using, for example, a well-known correlation method. Calculate the position of C2. Further, based on the results of these position detections, the amount of displacement between the base mark 31 and the resist mark 32 is obtained, and is output to the control unit (22 to 24) as the amount of displacement of the resist pattern with respect to the base pattern.
  • the control units (22 to 24) include an operation computer 22 for managing the entire apparatus, a CPU 23 for stage control, and a monitor 24.
  • the calculation result (that is, the displacement amount) by the CPU 21 is output to the operation computer 22 and displayed on the monitor 24 via the operation computer 22.
  • a series of operations for obtaining one measurement value (that is, the amount of displacement) is completed.
  • the operation computer 22 controls the stage 11 via the CPU 23, and positions the double marks 30 formed elsewhere on the substrate 10A in the visual field region of the imaging system (16, 17) in order.
  • the displacement between the base mark 31 and the registration mark 32 of the double mark 30 (that is, the displacement of the resist pattern with respect to the base pattern) is taken from the CPU 21 and displayed on the monitor 24.
  • the operation computer 22 uses, for example, the setting information of the illumination light L1 registered in advance in the detection recipe. Then, the wavelength selector 13 of the illumination system (12 to 16) is controlled, and the desired color filter 13A is inserted into the illumination optical path 10B by rotating the revolver 13B. The control of the wavelength selection unit 13 by the operation computer 22 may be performed based on the setting information of the illumination light L1 input from the outside.
  • the double mark 30 (FIG. 25) on the substrate 11 can be illuminated with the illumination light L1 having a desired spectral characteristic.
  • the desired spectral characteristic of the illumination light L1 is determined by reducing the influence of the intermediate layers 43 and 44 (FIG. 26) formed between the base layer 41 and the resist layer 42 of the substrate 11 to reduce the position of the base mark 31. Is a spectral characteristic that can be detected accurately (described below). Note that the position of the registration mark 32 can be accurately detected regardless of the spectral characteristics of the illumination light L1.
  • the illumination light L1 is irradiated from the side of the resist layer 42 of the substrate 11, and as shown in FIG. 28, a part of the light L3 is reflected by the upper surface 2A of the resist layer 42, and another part of the light L4 is The light L5 is reflected on the upper surface 3A of the intermediate layer 43, and the other light L6 is reflected on the upper surface 1A of the underlayer 41.
  • the upper surface 1A corresponds to a boundary between the resist layer 41 and the intermediate layer 43.
  • the upper surface 3A corresponds to the boundary between the intermediate layers 43 and 44.
  • Upper surface 4A corresponds to a boundary surface between intermediate layer 44 and resist layer 41.
  • the illumination light L1 is reflected by the upper surfaces 1A to 4A of the respective layers of the substrate 11, the light L3 ′ to L6 ′ generated by the respective layers of the substrate 11 are combined with the reflected light L2 (see FIG. 24). ), And guided to the image sensor 18 via the imaging system (16, 17).
  • the optical image based on the reflected light L2 is divided into an optical image based on the light L3 ′ (that is, an optical image of the upper surface 1A of the resist layer 42) and an optical image based on the light L4 ′.
  • the image ie, the optical image of the upper surface 4A of the intermediate layer 44
  • the optical image based on the light L5 ′ ie, the optical image of the upper surface 3A of the intermediate layer 43
  • the optical image based on the light L6 ′ ie, the upper surface of the underlayer 41 1A optical image
  • the intermediate layers 43 and 44 are affected by the concave portions (Fig. 26) of the base mark 31, and have minute concave portions on the upper surfaces 3A and 4A.
  • the shape of the concave portion of the upper surface 3A, 4A of the intermediate layer 43, 44 is symmetrical as shown in FIG.
  • the waveform signal obtained from the image 31 (the low-brightness portion 31A in FIG. 27A) is bilaterally symmetric, for example, as indicated by the F portion in FIG. 27B. Therefore, the accurate position of the base mark 31 can be detected.
  • the shape of the recesses on the upper surfaces 3A and 4A of the intermediate layers 43 and 44 is slightly asymmetric as shown in FIG. 26 (b) even when the recesses of the base mark 31 are symmetrical. Sometimes it becomes.
  • the color filter 13A of the wavelength selector 13 is retracted from the illumination optical path 10B, and the illumination light L1 having the same spectral characteristics as the white light is used for illumination.
  • the waveform signal obtained from the low-brightness spot 31A) is affected by the intermediate layers 43 and 44 (influenced by the concave shape of the upper surfaces 3A and 4A), and becomes asymmetric, for example, as indicated by the F portion in Fig. 27 (c). would. Therefore, the accurate position of the base mark 31 cannot be detected as it is.
  • the desired color filter 13A of the wavelength selection unit 13 is introduced into the illumination optical path 10B, and the spectral characteristic of the illumination light L1 is different from that of white light.
  • the influence of the intermediate layers 43 and 44 is reduced, and the position of the base mark 31 can be accurately detected.
  • the determination of the desired spectral characteristic is performed before the position detection as follows.
  • the optical path difference 2 nd according to the refractive index n and the film thickness d of the intermediate layer 44 is M times the wavelength range ⁇ 1 (M is an integer)
  • the light L5 of the wavelength range; L4s strengthen each other.
  • the optical path difference 2nd) is (M-1 / 2) times the wavelength range ⁇ 2
  • the light L5 and L4 in the wavelength range 12 mutually weaken each other.
  • the desired spectral characteristic of the illumination light L1 may be determined such that the intensity ratio of the “component of the wavelength range ⁇ 2 in which the lights L5 and L4 weaken each other” increases.
  • the wavelength range; 11 and ⁇ 2 can be obtained from design information on the refractive index ⁇ and the thickness d of the intermediate layer 44. As the film thickness d, an actual measurement value may be used in addition to the design information.
  • the intensity ratio of the “component of the destructive wavelength range 2” to the “component of the destructive wavelength range ⁇ 1” of the illumination light L1 can be increased.
  • the amount of misalignment between the underlying marks 31 and the resist marks 32 that is, the amount of misalignment of the resist pattern with respect to the underlying pattern
  • the influence of the intermediate layers 43 and 44 is reduced by using the interference of the light beams L5 and L4 reflected by the upper surfaces 3A and 4A of the intermediate layers 43 and 44. It is not limited to this.
  • the intensity ratio of “the component in the wavelength region where the absorption in the intermediate layers 43 and 44 is large” to the “component in the wavelength region where the absorption in the intermediate layers 43 and 44 is small” in the illumination light L1 increases.
  • the spectral characteristics of the illumination light LI may be adjusted as described above.
  • the illumination light L1 is set so that the intensity ratio of the "component in the wavelength range where the absorption in the underlayer 41 is small" to the “component in the wavelength range where the absorption in the base layer 41 is large” in the illumination light L1 is large. May be adjusted. Also in this case, since the intensity ratio of "light L6 'from underlayer 41" to "light L4' and light L5 'from intermediate layers 43 and 44" can be increased, the influence of intermediate layers 43 and 44 can be reduced. The accurate position of the base mark 31 can be detected.
  • the interference effect of light L5 and L4 reflected on the upper surfaces 3A and 4A of the intermediate layers 43 and 44, the absorption characteristics of the intermediate layers 43 and 44, and the absorption characteristics of the underlayer 41 are considered in combination. Then, the spectral characteristics of the illumination light L1 may be adjusted.
  • the present invention is not limited to this.
  • the present invention can be applied to a case where the number of intermediate layers is one or three or more.
  • the number of the intermediate layers is one, it is preferable to adjust the spectral characteristics of the illumination light L1 in consideration of the absorption in the intermediate layer and the absorption in the underlayer.
  • the illumination system (12 to 16) is provided with the light source 12 that emits white light and the wavelength selector 13, but the present invention is not limited to this.
  • the light source 12 and the wavelength selection unit 13 a plurality of laser light sources having different wavelength ranges may be provided, and these laser light sources may be selected according to a desired spectral characteristic of the illumination light L1.
  • the double mark 30 is a bar-in-bar mark
  • the type may be another type (for example, a frame-in-frame mark or a box-in-box mark). It is good to combine two types out of bar shape, box shape and frame shape. You can use a cross mark.
  • the position detection device incorporated in the overlay detection device 10 has been described as an example, but the present invention is not limited to this.
  • a device built into a device that measures the amount of displacement between two marks formed on the same layer of the substrate 11 or a device that performs alignment of the substrate 11 before the exposure process on the substrate 11 that is, an alignment system of the exposure device.
  • the present invention can be applied to a position detection device.
  • the position of an alignment mark formed on the underlayer is detected, and the positional relationship between the detection result and a stage coordinate system (eg, an interferometer) is obtained. Also in this case, a resist layer is formed on the alignment mark of the underlying layer via one or more intermediate layers.
  • a stage coordinate system eg, an interferometer
  • the present invention can be applied not only to the case of detecting the position of the overlay mark alignment mark described above but also to the case of detecting the position of a circuit pattern formed on a base layer of the substrate 10A. .
  • the present invention is not limited to the case where the CPU 21 of the overlay inspection apparatus 10 detects the position of the pattern of the underlying layer (alignment mark, overlay mark, circuit pattern, etc.). The same effect can be obtained even when used.
  • the observation device 10 includes a stage 11, an optical system 12, a camera 13, and an image processing unit 14. Stage 11 supports sample 10A.
  • the optical system 12 forms a light image of a local region of the sample 10A.
  • the camera 13 captures an optical image of the sample 1 OA by an image sensor (not shown), and outputs an image signal to the image processing unit 14.
  • the image processing unit 14 When the image processing unit 14 captures an image signal from the camera 13, it converts the image signal into a digital image of predetermined bits (for example, 8 bits) and stores the digital image as an input image 21 (FIG. 30) in a memory (not shown). Then, the later-described template matching is performed on the input image 21.
  • the image processing unit 14 corresponds to the template matching device according to the eleventh embodiment. Using the observation device 10, observation of the sample 10A, alignment of the detection position, and the like are performed.
  • the sample 10A is, for example, a semiconductor wafer, a liquid crystal substrate, a printed circuit board, a biological specimen (for example, cells), or the like. Next, template matching in the image processing unit 14 will be described.
  • This template matching is performed according to the procedure (steps S1 to S11) of the flowchart shown in FIG. 31 using the known circular template image 22 shown in FIG.
  • the input image 21 and the template image 22 each include three color components (that is, RGB components called three primary colors of addition or three primary colors of light).
  • Images (21, 22) containing RGB components are color images.
  • step S1 in FIG. 31 the image processing unit 14 creates a density histogram H of RGB components for each color component from the entire template image 22 (see FIG. 32 (a)).
  • the creation of the density histogram H is performed by checking the density values of all the pixels of the template image 22 and counting the number of pixels for each density value.
  • the pixel density value has 256 levels (0 to 255).
  • the density histogram H is a density histogram (frequency distribution) representing the frequency (number of pixels) in which the pixels of each density value appear in the template image 22, and is a feature amount that does not depend on the positions of the pixels.
  • the horizontal axis of the density histogram H is the density value
  • the vertical axis indicates the number of pixels.
  • step S2 the image processing unit 14 selects a circular partial image 25 from the input image 21.
  • Fig. 30 is extracted for the matching operation. This extraction process is performed in, for example, two steps. After extracting a rectangular partial image 24 from the input image 21, a mask is applied around the four corners of the partial image 24, and a circular portion inscribed in the partial image 24 is extracted. Image 25 is extracted for matching calculation.
  • the circular partial image 25 has the same size (number of pixels) as the template image 22. Both the partial image 25 and the template image 22 are smaller than the input image 21 (the number of pixels is small).
  • the calculation partial image 25 is also a color image including the same color components as the input image 21 (that is, RGB components).
  • step S3 the image processing unit 14 creates a density histogram H of the overall power RGB component of the partial image 25 for calculation extracted in step S2 for each color component (Fig. 32 (b) See).
  • the creation of the density histogram H is performed in the same manner as the density histogram H of the template image 22 described above.
  • the density histogram H is also a feature quantity independent of the pixel position, and the horizontal axis is the density value and the vertical axis is the number of pixels.
  • the density histogram H of the calculation partial image 25 and the rotation change of the input image 21 Will be described.
  • FIG. 33 if there is a rotation change in the input image 21, a similar rotation change appears in the rectangular partial image 24 extracted from the input image 21, and the density information near the four corners changes. I will. However, a rotation change does not appear in the circular partial image 25 extracted from the rectangular partial image 24, and the density information does not change. Therefore, the density histogram H (Fig. 32 (b)) created from the circular partial image 25 is
  • the image processing unit 14 performs the density histogram H of the template image 22 (FIG. 32 (a)) and the density histogram H of the partial image 25 (FIG. 32 (b)) through steps S1 to S3 in FIG. Is completed, the partial image 25 and the template are calculated based on the two density histograms H and ⁇ .
  • the matching calculation with the rate image 22 (S4 to S7) is performed.
  • the matching calculation (S4 to S7) is a calculation for calculating the similarity between the partial image 25 and the template image 22.
  • step S4 the image processing unit 14 compares the density histogram H of the R component of the partial image 25 with the density histogram H of the R component of the template image 22, and calculates the density histogram of the two R components. The number of pixels in the overlapping portion of H and ((the hatched portion in FIG. 34) is counted.
  • the total number of pixels ⁇ ⁇ in the overlapping portion is the density histogram of the R component ⁇ ,
  • the overlapping portion corresponds to the smaller number of pixels when comparing the number of pixels with the same density value of the density histograms ⁇ and ⁇ .
  • step S5 the density histogram ⁇ of the G component of the partial image 25 is compared with the density histogram ⁇ of the G component of the template image 22, and the density histograms 2, ⁇ of the two G components are compared. Count the number of pixels in the overlapped part of (total number of pixels ⁇ ). Furthermore, in step S6
  • the density histogram ⁇ of the ⁇ component of the partial image 25 is compared with the density histogram ⁇ of the ⁇ component of the template image 22, and the number of pixels in the overlapping portion of the density histograms 2 and ⁇ of the two ⁇ components is counted (total pixels Number ⁇ ).
  • the calculation partial image 25 has a circular shape, and the density histogram ⁇ ⁇ (FIG. 32 (b)) created from this partial image 25 indicates that the rotation of the input image 21 This feature is invariant to changes. Therefore, the counting result of step S4 (total number of pixels K in the overlapping portion of R component) and the counting result in step S5 (total number of pixels in the overlapping portion of G component K ) And the total result of step S6 (the total number of pixels K in the overlapping portion of the B component) are
  • the feature amount is invariant to the rotation change of the image 21.
  • step S7 the image processing unit 14 calculates the sum of the total results (the total number of pixels K, K, ⁇ ) of the overlapping portions of the RGB components in the above steps S4 to S6, and calculates the value.
  • the similarity between the partial image 25 and the template image 22 is high. Further, the high similarity with the template image 22 means that the extraction position (X, ⁇ ) of the partial image 25 shown in FIG.
  • match position (X, ⁇ ) indicates that the position is close to the position of the partial image (target 23) that matches the template image 22 (hereinafter referred to as “match position (X, ⁇ )”).
  • Step S9 is Yes
  • the process proceeds to Step S10.
  • step S10 is a process of moving the extraction position (X, ⁇ ) of the partial image 25 for calculation.
  • the image processing unit 14 sets the extraction position (X, ⁇ ) of the partial image 25 from the current position to the next position.
  • the image 25 is extracted in order, and every time the partial image 25 is extracted, the density histogram of the RGB component ⁇ ,
  • the matching calculation (S4 to S7) is repeatedly performed based on H.
  • the extraction position (X, ⁇ ) of the partial image 25 having the highest similarity to the template image 22 having the largest value is specified as the matching position (X, ⁇ ).
  • the similarity ( K + ⁇ + ⁇ ), which is the result of the matching operation (S4 to S7), is different from the input image 21 shown in FIG. Times
  • a matching operation (S4 to S7) is performed by comparing the color components. Therefore, a large amount of information can be secured, and the matching position (X, ⁇ ) can be specified more accurately.
  • steps S4 to S6 in FIG. 31 the number of pixels of the overlapping portion (shaded portion) of the density histograms H and ⁇ ⁇ ⁇ as shown in FIG.
  • the invention is not limited to this.
  • the absolute value of the difference between the density histograms ⁇ and ((Fig. 35 You can add up the number of pixels in the shaded area).
  • the sum of the total results of the RGB components in steps S4 to S6 (the total number of pixels of the absolute value of the difference between the density histograms H and H ⁇ ', ⁇ ', , ')
  • the image processing unit 14 calculates the density inertia moment M of the RGB component for each color component from the entire template image 22. For example, for the R component
  • the density moment of inertia M is calculated at the position (x, y) of the R component (Fig. 37) of the template image 22.
  • Is calculated by the following equation (1) using the density value A “I” of the density value A is a pixel number in the template image 22.
  • the density moment of inertia M in equation (1) is the moment of inertia of the density around the origin (center of the image).
  • the sex moment M is calculated from the total of the G and B components of the template image 22,
  • the image processing unit 14 calculates the density inertia of the RGB components from the entire partial image 25 at the timing of S3 in FIG. Calculate the moment M for each color component. For example, the concentration of the R component The calculation of one statement M is performed from the entire R component of the partial image 25 by the same formula as the above formula (1). The same applies to the G component and the ⁇ component.
  • the density moment of inertia RGB of the RGB component is a feature amount independent of the pixel position.
  • the density moment of inertia M of the calculation partial image 25 is considered to be a feature amount that is invariant to the rotation change of the input image 21.
  • the image processing unit 14 After calculating the density inertia moment M of the template image 22 and the density inertia moment M of the partial image 25 as described above, the image processing unit 14 outputs the two density inertia moments M and M. Based on the matching operation between the partial image 25 and the template image 22 based on the
  • the matching calculation is a calculation for calculating the similarity between the partial image 25 and the template image 22.
  • step S21 in FIG. 36 the image processing unit 14 compares the density inertia moment M of the R component of the partial image 25 with the density inertia moment M of the R component of the template image 22,
  • Step S2 Outputs the absolute value of the difference between the concentration moments of inertia M and M of the two R components.
  • the output value ⁇ in this case is an index related to the similarity of the concentration inertia moment M, ⁇ of the R component.
  • step S22 the density inertia G of the G component of the partial image 25 and the density inertia G of the G component of the template image 22 are compared, and the difference between the density inertia moments ⁇ ⁇ ⁇ ⁇ ⁇ , ⁇ of the two G components is calculated.
  • the absolute value of is output (output value ⁇ ).
  • step 3 the density moment of inertia ⁇ of the ⁇ component of the partial image 25 is compared with the density moment of inertia ⁇ of the ⁇ component of the template image 22, and the absolute value of the difference between the density moments of inertia 2 and ⁇ of the two ⁇ components is output. (Output value ⁇ ).
  • the calculation partial image 25 has a circular shape, and the density inertia moment ⁇ calculated from the partial image 25 shows that none of the RGB components is invariant to the rotation change of the input image 21. It is a feature quantity. Therefore, the output value O of the R component in step S21, the output value O of the G component in step S22, and the output value ⁇ of the B component in step S23 are input, respectively. It is considered that the feature amount does not change with respect to the rotation change of the force image 21.
  • step S24 the image processing unit 14 obtains the sum of the output values ⁇ , ⁇ , and 0 of the above-described steps S21 to S23, and calculates the sum as “the partial image 25 and the template image 22. Similarity of
  • the partial image 25 is sequentially extracted at each position while the extraction position (X, ⁇ ) of the partial image 25 for calculation is gradually moved, and the partial image 25 is extracted.
  • the mattin is calculated based on the density inertia moments ⁇ and ⁇ of the RGB components.
  • a matching operation (S21 to S24) is performed by comparing the same color components. Therefore, a large amount of information can be secured, and the matching position (X can be determined more accurately).
  • the image processing unit 14 calculates an area density difference D of RGB components for each color component from the entire template image 22.
  • the region density difference D of the R component is calculated from the difference between the average density of each of the predetermined central region 2A and the peripheral region 2B of the R component (FIG. 38) of the template image 22 (Equation (2)).
  • the central region 2A and the peripheral region 2B correspond to the "first range” and the "second range” in the claims.
  • the area density difference D in the equation (2) represents the average density difference of the central area 2A with respect to the peripheral area 2B. Therefore, for example, as shown in FIG. 39 (a), when a bright point (maximum density value) is included at the center of a dark background (minimum density value) of the R component of the template image 22, the density value is set to 256. In the case of steps (0 to 255), the central area 2A has a large average density (e.g., 205), the peripheral area 2B has a small average density (e.g., 21), and the area density difference D in Equation (2) is a large positive value (e.g., 184). Conversely, when the central area 2A is dark and the peripheral area 2B is bright, the area density difference D is a negative value.
  • the R component power of the template image 22 divided into the background (the density value is the minimum) and a large number of brightness levels and points (the density value is the maximum).
  • the central area 2A has an intermediate average density (for example, 123)
  • the peripheral area 2B also has an intermediate average density (for example, 108)
  • the area density difference D in equation (2) is a small value. (For example, 15).
  • the above-described area density difference D of the RGB component is a feature amount independent of the pixel position.
  • the image processing unit 14 extracts the circular partial image 25 from the input image 21 for the matching operation, the image processing unit 14 extracts the area density of the RGB component from the entire partial image 25 at the timing of S3 in FIG.
  • the difference D is calculated for each color component.
  • the calculation of the region density difference D of the R component is performed by using the same central region 2A and peripheral region 2B (FIG. 38) as the template image 22 from the entire R component of the partial image 25, and using the above equation ( This is performed by the same formula as in 2).
  • the area density difference D of the RGB component is a feature amount that does not depend on the pixel position.
  • the relationship between the area density difference D of the partial image 25 for calculation and the rotation change of the input image 21 is described.
  • the region density difference D calculated from the circular partial image 25 is considered to be a feature amount that is invariant with respect to the rotation change of the input image 21.
  • the image processing unit 14 calculates the area density difference D of the template image 22 and the
  • the image processing unit 14 determines the region density difference D of the R component of the partial image 25 and the region density difference D of the R component of the template image 22 (see FIG. 39 (a)). Place
  • This output value P is calculated based on the similarity between the area density differences D and D of the R component.
  • the region density difference D of the G component of the partial image 25 is compared with the region density difference D of the G component of the template image 22, and the two G components are compared.
  • the absolute value of the difference between the area density differences D 1 and D 2 is output (output value P).
  • tap the absolute value of the difference between the area density differences D 1 and D 2 is output (output value P).
  • the calculation partial image 25 has a circular shape, and the region density difference D calculated from the partial image 25 is such that none of the RGB components is invariant to the rotation change of the input image 21.
  • the output values P of the components are considered to be invariant features with respect to the rotation change of the input image 21.
  • the image processing unit 14 calculates the sum of the output values P, ⁇ , and ⁇ of the RGB components described above, and calculates the sum as “the similarity between the partial image 25 and the template image 22”.
  • the extraction position (X, Y) of the partial image 25 that has a high similarity to the template image 22 matches the matching position (X
  • the partial image 25 is sequentially extracted at each position while gradually moving the extraction position (X, ⁇ ) of the partial image 25 for calculation.
  • the extraction position (X, ⁇ ) of the partial image 25 having the highest similarity is specified as the matching position (X, ⁇ ).
  • the same color component is determined based on the region density differences D 1 and D 2 of all the color components (that is, RGB components) included in each image (21, 25, 22).
  • a matching operation (see S21 to S24) is performed by comparing the two. Therefore, a large amount of information can be secured, and the matching position (X, ⁇ ) can be specified more accurately.
  • the matching calculation based on the density histograms ⁇ and ⁇ is performed.
  • the present invention can be applied to a case where a matching operation is performed by combining any two types. Alternatively, a cross-correlation, a minimum residual, and a density histogram may be combined. Further, in the above-described embodiment, the power described in the example of the image (21, 25, 22) including three color components (that is, RGB components) is not limited to this. The present invention is applicable regardless of whether the number of color components is two or four or more. That is, the present invention can be applied to a case where a plurality of color components are included. Further, the present invention can be applied to a case where the image (21, 25, 22) does not include a plurality of color components, that is, a case where the image is a monochromatic gray-scale image.
  • a circular partial image 25 may be directly extracted from the input image 21 (one time).
  • the force S for explaining template matching using an optical microscope apparatus such as the observation apparatus 10 in FIG. 29 as an example
  • the present invention is not limited to this.
  • the present invention is also applicable to an electron microscope apparatus that scans a local region of a sample with an electron beam and captures an image.
  • the present invention can be applied not only to the image of the local region of the sample, but also to an apparatus that collectively captures the image of the entire surface of the sample. The same effect can be obtained even when an external computer connected to the observation device 10 or the like is used.
  • FIG. 41 is a block diagram illustrating a configuration of a semiconductor measurement device including a mark identification device according to a fourteenth embodiment of the present invention.
  • This mark identification device includes a stage 12 for supporting a wafer (substrate) 11, an illumination system LM for irradiating the wafer 11 with illumination light L1, an imaging system 1 ⁇ for forming an optical image of the wafer 11, and an image sensor 18 And a TV monitor 19 for observation, a signal processing unit SP, and a control unit CU.
  • the stage 12 includes a holder 12a for supporting the wafer 11 in a horizontal state, and a drive unit (not shown) for moving the holder 12a in a horizontal direction (XY direction).
  • a drive unit (not shown) for moving the holder 12a in a horizontal direction (XY direction).
  • the illumination system LM is composed of a light source 13, an illumination lens 14, a half mirror 15, and an objective lens 16. It is.
  • the light from the light source 13 enters the wafer 11 on the stage 12 as illumination light L1 via the illumination lens 14, the half mirror 15, and the objective lens 16.
  • the illumination light L1 is applied almost vertically to the portion positioned in the visual field area.
  • the reflected light L2 is guided to the imaging system 1 ⁇ .
  • the imaging system 1 ⁇ includes an objective lens 16 and an imaging lens 17.
  • the imaging lens 17 is
  • the reflected light L2 from the wafer 11 passes through the objective lens 16, the half mirror 15, and the imaging lens 17, and is incident on the imaging surface of the imaging device 18.
  • the imaging element 18 is an area sensor (for example, a CCD camera) in which a plurality of pixels are two-dimensionally arranged, captures an optical image of a mark on an imaging surface, and transmits an image signal to the TV monitor 19 and the signal processing unit SP. Output.
  • an image signal from the image sensor 18 is sent to the control unit.
  • the image signal output from the imaging element 18 is composed of a plurality of sample points, and represents a distribution of luminance values of each pixel on the imaging surface.
  • the luminance value is proportional to the intensity of the reflected light L2.
  • the luminance value of the mark image changes at the edge of the mark.
  • the signal processing unit SP includes a frame memory 20 and a CPU 21 for calculating a waveform signal.
  • the frame memory 20 stores the image signal from the imaging element 18.
  • the CPU 21 performs predetermined signal processing on the image signal in the frame memory 20.
  • the control unit CU includes a computer 22 that controls the entire apparatus, a monitor 24, and an input unit 25.
  • the computer 22 corresponds to the registration means and the detection means in claim 1.
  • FIG. 42 is a view for explaining marks registered in advance.
  • the shape of the mark Prior to measurement of the mark on the wafer 11 (for example, overlay measurement), the shape of the mark (rectangle), the design size (dimension XI in the X direction inside the mark, Create recipes related to the outer dimension X2 in the X direction, the inner dimension Yl in the mark, the outer dimension X in the ⁇ direction2), and the size tolerance.
  • the recipe refers to data of the shape and the like registered in the memory of the combi- ter 22.
  • FIG. 43 is a plan view of the wafer.
  • A indicates the design coordinates of the mark existing on the wafer 11. Note that in FIG. 43, only one central portion of the wafer 11 is shown as the design coordinates where the mark exists, but the mark actually exists at a plurality of design coordinates (not shown).
  • the design coordinates of the mark existing on the wafer 11 are registered in the recipe using the monitor 24 and the input unit 25.
  • the computer 22 detects a mark that matches the shape and design size registered in the recipe from the acquired mark image.
  • FIG. 44 and FIG. 45 are diagrams each showing an example of a captured mark.
  • the dimension in the X direction inside, the dimension in the outside X direction, the dimension in the inside Y direction, and the dimension in the outside Y direction of the mark in FIG. 44 are XI I, X12, Yll, and Y12, respectively.
  • XII is within the tolerance of XI
  • X12 is within the tolerance of X2
  • Y11 is within the tolerance of Y1
  • Y12 is within the tolerance of Y2.
  • the size in the X direction inside, the size in the outside X direction, the size in the inside Y direction, and the size in the outside Y direction of the mark in FIG. 45 are X21, X22, Y21, and Y22, respectively.
  • X21 is within the tolerance of XI and X22 is within the tolerance of X2.
  • the dimension X22 outside the mark in the X direction and the dimension Y22 outside the mark are within the allowable range.
  • the dimension X21 in the direction and the dimension Y21 in the inner Y direction are not within the allowable range.
  • the mark in FIG. 45 is determined to be a mark that does not match the size of the registered mark.
  • the dimension X in the X direction inside the mark, the dimension X12 in the outside X, the dimension Yl l in the inside Y, and the outside of the mark Y dimension on the side Y12 is the X dimension inside the registered mark in the X direction XI, X dimension on the outside of the mark X2, Y dimension on the inside of the mark Yl, ⁇ direction on the outside of the mark Dimensions are within the allowable range of ⁇ 2.
  • the mark in FIG. 44 is determined to be a mark that matches the size of the registered mark.
  • the mark shape, design size, and the like are registered in the recipe prior to the measurement of the mark on the wafer 11, so that the mark can be identified without using a substrate having the mark.
  • the operation rate of the semiconductor measuring apparatus can be improved as compared with the conventional example in which the mark is photographed before identification. S can.
  • FIG. 46 is a conceptual diagram showing an edge position detecting device according to a fifteenth embodiment of the present invention.
  • the edge position detecting device comprises: an XY stage 41 on which a wafer (substrate) 42 is placed; , An imaging optical system IO for forming an image, a CCD camera (imaging means) 45, and an image processing device 46.
  • an overlay mark (not shown) having at least one pair or more edges used for inspection of the overlay state is formed.
  • the XY stage 41 maintains the horizontal state of the wafer 42 and can be moved to an arbitrary position in a horizontal plane. By moving the XY stage 41, the observation area including the overlay mark on the wafer 42 is positioned within the field of view of the imaging optical system 1 ⁇ .
  • the imaging optical system 1 ⁇ is composed of an objective lens 43 and an optical head 44.
  • the optical head 44 has an imaging lens (not shown), a light source (not shown) for illuminating the wafer 42, and the like.
  • the observation area (the area including the overlay mark) of the wafer 42 is irradiated with illumination light, and the reflected light is passed through the objective lens 43 and the optical head 44, and the imaging device of the CCD camera 45 (not shown) Is imaged on the imaging surface of. At this time, a reflection image (optical image) based on the reflected light is formed on the imaging surface of the imaging device.
  • the image sensor is an area sensor in which a plurality of pixels are two-dimensionally arranged, captures a reflected image on an image capturing surface, and outputs an image signal to the image processing device 46.
  • Image signal consists of multiple samples Consists of points.
  • the image signal represents the distribution (luminance distribution) of the luminance value of each pixel on the imaging surface of the imaging device and is displayed (image density profile waveform).
  • the image processing device 46 acquires a reflection image of the observation area of the wafer 42 as image data based on an image signal from the imaging element.
  • the image processing device 46 performs image processing based on the image data.
  • the image processing device 46 corresponds to the detecting means, the extracting means, the non-edge detecting means and the edge position detecting means in claim 1.
  • the image processing device 46 includes a memory 46a.
  • the detecting means, extracting means, non-edge detecting means, and edge position detecting means can be realized by individual components or by controlling their functions by, for example, a stored program using a 4-bit one-chip microcomputer. Just fine.
  • FIG. 47 is a flowchart for explaining the procedure for measuring the line width of a mark
  • FIG. 48 is a diagram showing an example of an image density profile waveform.
  • S1 to S8 indicate each step of the processing.
  • the ordinate and the abscissa indicate luminance and distance, respectively.
  • An image density profile waveform (see FIG. 48) is acquired from the image signal acquired by the CCD camera 45 (S1).
  • a temporary center position 34 Prior to detection of the reference position (center position) 37 of the waveform, a temporary center position 34 is set (S3).
  • the temporary center position 34 is the center coordinates of the normal image.
  • the correlation function G (I) is calculated, and the position of I indicating the maximum correlation value G (I) max (the position where the correlation value is the highest) is set as the center position (S5). .
  • Bottom detection A sudden change in the luminance value (bottom) is extracted as an edge signal from the image density profile waveform by a bottom detection algorithm (for example, a differentiation method), and the pixel position is specified. Create a bottom position list in which the brightness values of the bottom pixel position are arranged in order of low level (S 6), this is stored in the memory 46a, for example.
  • a bottom detection algorithm for example, a differentiation method
  • the luminance of the predetermined distance range 39 and the predetermined luminance range 310 is measured with the position 38 as the center. Search whether there is a bottom near the position 38 symmetric to 33. If there is a bottom near the position symmetrical to the bottom 33, the bottom 33 is regarded as a measurement target. If not, the bottom 33 is deleted from the bottom position list as noise or external tongue.
  • the positions of the bottoms 31, 32 are detected based on the edge signal from which the noise component outside the measurement has been removed, and the line width of the mark (the distance between the bottom 31 and the bottom 32) is measured (S8).
  • step 7 instead of removing the bottom 33 extracted as an asymmetric bottom from the image density profile waveform, weighting may be performed such that the bottom 33 is processed as a low symmetry bottom.
  • the image processing device 46 corresponds to the error information generating means in the claims.
  • the threshold value is determined based on the bottoms 31 and 32 having a symmetrical relationship. If the threshold value is larger than the threshold value determined based on the bottom 33, it is determined that the measurement is not suitable, and error information is generated. Don't make measurements, you can do it.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 本発明は、調整用の光学素子の配置を感度良く微調整することが可能な結像光学系の調整方法の提供を第1の目的とする。そのため、第1ピッチで配列された複数の第1マークと、第1ピッチとは異なる第2ピッチで配列された複数の第2マークとを含む調整用マークに対し、所定の波長帯域の照明光を照射する(S5,S6)。調整用マークから発生する回折光のうち、開口絞りを通過して結像光学系の像面に到達した光に基づいて、画像を取り込む(S5,S6)。調整用マークの画像の輝度情報のうち、第1マークと第2マークに関わる輝度情報の対称/非対称性を加味し、第1マークと第2マークとの位置ずれ量を算出する(S5,S6)。照明光の波長帯域を変更する(S5,S6)。照明光の波長帯域が異なるときに算出した各々の位置ずれ量に基づいて、結像光学系の瞳面と開口絞り面との間に配置された調整用の光学素子を微調整し、開口絞り面における瞳像の結像位置ずれを補正する(S8,S9)。                                                                             

Description

明 細 書
結像光学系の調整方法、結像装置、位置ずれ検出装置、マーク識別装 置及びエッジ位置検出装置
技術分野
[0001] 本発明は、物体の像を形成する結像光学系の調整方法に関する。
また、本発明は、基板のフォーカス調整を自動的に行うオートフォーカス装置を有 する結像装置に関する。
また、本発明は、半導体素子や液晶表示素子の製造工程におけるパターンの位置 ずれ検出に用いられる位置ずれ検出用マークおよび位置ずれ検出方法に関する。
[0002] また、本発明は、基板上のパターンの位置を検出する位置検出方法および位置検 出装置に関する。
また、本発明は、入力画像に対してテンプレートマッチングを行うテンプレートマツ チング装置に関する。
また、本発明は、マーク識別装置に関する。
[0003] また、本発明は、エッジ位置検出装置に関する。
背景技術
[0004] (第 1従来技術)
半導体素子や液晶表示素子などの製造工程では、周知のリソグラフイエ程を経て レジスト層に回路パターンが転写され、このレジストパターンを介してエッチングなど の加工処理を行うことにより、所定の材料膜に回路パターンが転写される (パターン形 成工程)。そして、このパターン形成工程を何回も繰り返し実行することにより、様々な 材料膜の回路パターンが基板(半導体ウェハや液晶基板)の上に積層され、半導体 素子や液晶表示素子の回路が形成される。
[0005] さらに、上記の製造工程では、様々な材料膜の回路パターンを精度よく重ね合わ せるため(製品の歩留まり向上を図るため)、各々のパターン形成工程のうち、リソダラ フイエ程の前に、基板のァライメントを行レ、、リソグラフイエ程の後でかつ加工工程の 前に、基板上のレジストパターンの重ね合わせ検查を行っている。なお、基板のァラ ィメントには、 1つ前のパターン形成工程で下地層に形成されたァライメントマークが 用いられる。レジストパターンの重ね合わせ検査には、現在のパターン形成工程でレ ジスト層に形成された重ね合わせマークと、 1つ前のパターン形成工程で下地層に 形成された重ね合わせマークとが用いられる。
[0006] また、基板のァライメントを行う装置や、基板上のレジストパターンの重ね合わせ検 查を行う装置には、上記のァライメントマークや重ね合わせマーク(総じて単に「マー ク」という)の位置を検出する装置が組み込まれている。位置検出装置では、検出対 象のマークに対して照明光を照射し、マークからの光(例えば反射光)に基づく画像 を CCDカメラなどの撮像素子によって取り込み、その画像に対して所定の画像処理 を施すことにより、マークの位置検出を行う。照明光の波長帯域は、多種多様なマー クの構造に対して安定した反射強度を得るため、可視光帯域力ら赤外光近傍帯域ま での広帯域な範囲とすることが多い。
[0007] さらに、位置検出装置では、その検出精度を高めるために、例えば特許文献 1に開 示されている方法を利用して、結像光学系 (マークの像を形成する光学系)の開口絞 りや対物レンズの配置をシフト方向に微調整し、装置起因の誤差成分 (TIS値: Tool I nduced Shift)を低減するようにしている。
(第 2従来技術)
また、フォーカス調整は、位置検出用の結像光学系の対物レンズと基板との相対位 置の調整に相当する。フォーカス調整の後、その相対位置は合焦位置に設定される
[0008] このような位置検出装置のオートフォーカス装置としては、例えば瞳分割方式が提 案されている(例えば特許文献 2を参照)。従来のオートフォーカス装置では、基板を 照明したときに基板から発生する反射光の全波長帯域を 1つのセンサで一括して受 光し、そのセンサからの出力信号に基づいて、上記の相対位置に応じたフォーカス 信号を生成し、基板のフォーカス調整を行っている。
(第 3従来技術)
重ね合わせ検查 (位置ずれ検出)においては、通常、下地パターンの基準位置を 示す下地マークと、レジストパターンの基準位置を示すレジストマークが用いられる。 下地マーク,レジストマークは、各々、上記のパターン形成工程で下地パターン,レジ ストパターンと同時に形成され、図 23のような正方形状の 2重マーク 80を構成する( 例えば特許文献 3を参照)。図 23は 2重マーク 80の平面図である。一般的には、 2重 マーク 80のうち外側が下地マーク 81、内側がレジストマーク 82である。下地マーク 8 1のサイズ D1は例えば約 30 μ m、レジストマーク 82のサイズ D2は例えば約 15 μ m である。下地マーク 81とレジストマーク 82は、下地パターンとレジストパターンとの位 置ずれが無レ、とき、各々の中心が一致するようになってレ、る。
そして、下地マーク 81とレジストマーク 82を用いた重ね合わせ検査時、装置の視野 領域内には、 2つのマーク (81,82)を含む測定点が位置決めされ、この測定点の画 像が CCDカメラなどの撮像素子を用いて取り込まれる。さらに、取り込んだ画像から 下地マーク 81とレジストマーク 82の各辺ごとにエッジ部分の画像を切り出し、得られ た部分画像に対して所定の画像処理を施すことにより、下地マーク 81の中心とレジス トマーク 82の中心との位置ずれ量が算出される。算出結果の位置ずれ量は、下地パ ターンに対するレジストパターンの位置ずれ状態を表している。
(第 4従来技術)
基板のァライメントを行う装置や、基板上のレジストパターンの重ね合わせ検査を行 う装置には、上記のァライメントマークや重ね合わせマーク(総じて単に「マーク」とレヽ う)の位置を検出する装置が組み込まれている。位置検出装置では、一般に、白色 光を用いて基板を照明し、 CCDカメラなどの撮像素子を用いてマークの画像を取り 込み、この画像に対して所定の画像処理を施すことにより、マークの位置検出を行う( 例えば特許文献 4を参照)。
(第 5従来技術)
テンプレートマッチングは、入力画像の中力 既知のテンプレート画像に合致する 部分画像 (ターゲット)を探索して、ターゲットの位置 (合致位置)を特定する処理であ る。この処理では、矩形状のテンプレート画像を用いるのが一般的であり、入力画像 の中力 矩形状の部分画像をマッチング演算用に抽出すると共に、この部分画像の 抽出位置を少しずつ移動させながら、部分画像とテンプレート画像とのマッチング演 算を繰り返し行っている。そして、入力画像の中の各位置でのマッチング演算の結果 を大小比較することで、合致位置が特定される。
[0010] また、マッチング演算には、周知の相互相関法や残差逐次検定法などが用いられ る(例えば特許文献 5を参照)。これらの方法は、演算用の部分画像とテンプレート画 像との対応画素どうしで濃度の演算を行い、その結果を画像全体で集計するもので ある。
(第 6従来技術)
半導体測定装置でウェハ等の基板上のマーク(ァライメントマークや重ね合わせマ ーク等)から測定すべきマークを識別するには、まず識別の基準となるマークを予め 撮影し、その画像をレシピに登録しておく。その後、測定すべきマークとレシピに登録 されたマークとを比較することによってマークの識別が行われる(例えば特許文献 6を 参照)。
(第 7従来技術)
基板上に様々な材料膜の回路パターンを精度よく重ね合わせて半導体素子等が 製造される。回路パターンを精度よく重ね合わせるため、製造途中で重ね合わせマ ークを用いて重ね合わせ状態の検査が行われる。
[0011] この重ね合わせマークの位置検出はマークを装置の視野領域内に位置決めし、 C CDカメラを用いてマークを撮像し、得られた画像信号のうち輝度値の急変するエツ ジ信号に基づいて行われる(例えば特許文献 7を参照)。
特許文献 1 :特開 2000— 77295号公報
特許文献 2:特開 2002— 40322号公報
特許文献 3 :特開平 7— 151514号公報
特許文献 4 :特開平 7— 151514号公報
特許文献 5 :特開平 5— 81433号公報
特許文献 6:特開平 9— 89528号公報
特許文献 7:特開 2004— 79970号公報
発明の開示
発明が解決しょうとする課題
[0012] しかし、上記した第 1従来技術の結像光学系の調整方法では、結像光学系の各光 学部品を配置する際の製造誤差 (光学部品の偏心誤差)などに起因して、結像光学 系の開口絞り面における瞳像の結像位置が波長帯域に応じて異なった場合、装置 起因の誤差成分 (TIS値)を良好に低減することができない。
そこで、本発明者は、結像光学系の瞳面と開口絞り面との間に調整用の光学素子 を新たに配置して、この光学素子の配置を上記の特許文献 1に開示した方法を利用 して微調整し、開口絞り面における瞳像の波長帯域に応じた結像位置ずれを補正す ることを提案した(特願 2003— 54058号)。しかし、上記の特許文献 1に開示した方 法では、光学素子の配置を微調整する際の感度が低ぐその調整誤差を小さくする ことが難しかった。このため、装置起因の誤差成分 (TIS値)を十分に低減できるとは 限らず、検出精度の向上にも限界があった。
[0013] 本発明の第 1の目的は、調整用の光学素子の配置を感度良く微調整することが可 能な結像光学系の調整方法を提供することにある。
また、上記した第 2従来技術のオートフォーカス装置では、 AF用の結像光学系に 色収差が発生することがある。色収差は、設計値計算において、ある程度低減するこ とはできる力 2次分散に関しては限界がある。また、ガラスの屈折率分散の誤差ゃレ ンズ曲率半径の誤差やレンズ中心厚の誤差などにより、設計値計算の結果より大き な色収差が発生することもある。
[0014] そして、 AF用の結像光学系に色収差がある場合、上記の相対位置が同じであって も、基板から発生する反射光の波長特性に応じてセンサ上での結像位置が変化し、 センサからの出力信号に基づいて生成されるフォーカス信号も変化してしまう。この ため、フォーカス調整後の相対位置(つまり合焦位置)は、基板からの反射光の波長 特性に応じて変化することになり、フォーカス誤差が生じてしまう。ちなみに、基板か らの反射光の波長特性は、基板のレジスト層や下地層の膜厚などに依存することが 知られている。
[0015] 本発明の第 2の目的は、 AF用の結像光学系に色収差があっても、基板から発生す る光の波長特性に応じたフォーカス誤差を確実に低減できるオートフォーカス装置を 有する結像装置を提供することにある。
また、第 3従来技術の半導体素子などの高集積化に伴う回路パターンの微細化に 対応するため、上記した位置ずれ検出(重ね合わせ検査)の精度を向上させることが 望まれるようになつてきた。し力しながら、上記した正方形状の 2重マーク 80を用いて 位置ずれ検出を行う場合、撮像素子の撮像面に 2重マーク 80の像を形成する結像 光学系の歪曲収差(ディストーション)の影響を受けて、下地マーク 81とレジストマ一 ク 82との位置ずれ量を正確に検出できないことがあった。なお、このような問題は、基 板の異なる層に形成された 2つのマーク (81, 82)に限らず、基板の同じ層に形成され た 2つのマークにも同様に起こり得る。
[0016] 本発明の第 3の目的は、位置ずれ検出の際に結像光学系の歪曲収差の影響を低 減できる位置ずれ検出用マークおよび位置ずれ検出方法を提供することにある。 また、第 4従来技術の検出装置ではマークの位置を検出する際、基板の下地層とレ ジスト層との間には 1つ以上の中間層(未加工の材料膜など)が形成されている。この ため、第 4従来技術のように白色光を用いて基板を照明すると、基板の下地層のマー クについては、中間層の影響を受けて正確な位置を検出できないことがあった。中間 層の影響による位置検出の誤差は、従来、プロセスルールと比較して非常に小さく無 視できる程度であった力 回路パターンの微細化に伴って無視できなくなつてきた。
[0017] 上記のような問題は、基板上のマーク(ァライメントマークや重ね合わせマークなど) の位置を検出する場合に限らず、基板上の回路パターンの位置を検出する場合にも 起こり得る。本件では、マーク(ァライメントマークや重ね合わせマークなど)や回路パ ターンなどを総じて単に「パターン」とレ、う。
本発明の第 4の目的は、下地層とレジスト層との間に形成された中間層の影響を低 減して下地層のパターンの位置を正確に検出できる位置検出方法および位置検出 装置を提供することにある。
[0018] また、第 5従来技術のテンプレートマッチング装置では、矩形状のテンプレート画像 を用い、矩形状の部分画像との対応画素どうしで濃度の演算を行う場合、入力画像 に回転変化があると(図 40参照)、その入力画像から抽出される部分画像にも回転 変化が現れるため、合致位置の特定を正確に行えるとは限らず、疑似マッチングや マッチング不可能になることがあった。
[0019] 本発明の第 5の目的は、入力画像に回転変化があっても正確に合致位置を特定で きるテンプレートマッチング装置を提供することにある。
また、第 6従来技術の方法では、レシピにマークの画像を予め登録するため、マー クを有する基板が必要である。
本発明の第 6の目的は、マークを有する基板を用いることなく取得した画像から測 定すべきマークを識別することができるマーク識別装置を提供することにある。
[0020] また、第 7従来技術のエッジ位置検出装置では、エッジ信号は複数のサンプノレ点で 構成される画像信号を取得することによって得られた画像濃度プロファイル波形から 選別される。
マークの線幅を測定するためには波形の中心を対称軸として対称位置にあるエツ ジ信号を正確に選別して、エッジ間の距離を測定する必要がある。マークのエッジは 画像濃度プロファイル波形のボトム、ピーク又は予め指定された閾値で決定される画 素 (画像信号)の位置に対応する。
[0021] 図 49はノイズ、外乱の影響が現れていない画像濃度プロファイル波形の一例を示 す図である。図 49において、縦軸及び横軸はそれぞれ輝度及び距離を示す。図 49 に示すように波形の中心 Cを対称軸として対称位置にある 2つのボトム 11 , 12 (エツ ジ信号として特定された画素位置)が存在する。ボトム 11, 12間の距離 13を測定し たり、予め指定された閾値で決定される画素 14a, 14b間の距離 14を測定したりする ことで、マークの線幅を測定することができる。しかし、ノイズ、外乱の影響が大きい場 合には以下のような問題がある。
[0022] 図 50はノイズ、外乱の影響が現れた画像濃度プロファイル波形の一例を示す図で ある。図 50において、縦軸及び横軸はそれぞれ輝度及び距離を示す。図 50の画像 濃度プロファイル波形にはノイズ、外乱によって対称位置以外にボトム 23が発生して いる。この波形には 3つのボトム 21 , 22, 23が存在するため、ボトム間の距離としてボ トム 21とボトム 23との間の距離 24、ボトム 23とボトム 22との間の距離 25が測定される 。そのため、マークの線幅を正確に測定することができないという問題が起きる。
[0023] 本発明の第 7の目的は、マークの線幅を正確に測定することができるエッジ位置検 出装置を提供することにある。
課題を解決するための手段 [0024] 本発明は、第 1の目的を達成するために、結像光学系の物体面に、所定の波長帯 の落射照明光による ± 1次回折光束が前記結像光学系の瞳領域に内接するようなピ ツチ以上の第 1のピッチで配列された第 1のマークと、前記第 1のピッチより小さい第 2 のピッチを有して配列された第 2のマークとを、それぞれ前記結像光学系の視野中心 に対して対称に配設し、前記結像光学系で形成された前記第 1のマークの像と前記 第 2のマークの像との相対位置に基づいて、前記結像光学系の瞳面と開口絞り面と の間に配設された光学素子の位置を調整するものである。
[0025] また、本発明は、第 2の目的を達成するために、基板を戴置するステージと、前記 基板を照明する照明手段と、前記基板の像を形成する結像手段とを備えた結像装 置において、前記基板から前記結像手段に入射した光を分岐して受光し、予め定め られた複数の波長帯のうち各波長帯ごとに、前記基板と前記結像光学系との相対位 置に応じたフォーカス信号を生成する信号生成手段と、少なくとも、所定の基準光で の合焦位置に対する、前記複数の波長帯ごとに生成される前記フォーカス信号によ り求められた合焦位置のオフセット情報を予め記憶する記憶手段と、少なくとも前記 複数の波長帯のうちのいずれ力 1つの波長帯における前記フォーカス信号と前記ォ フセット情報とに基づいて前記基板と前記結像手段との相対位置を調整する調整手 段とを備えたオートフォーカス装置を有するものである。
[0026] また、本発明は、第 3の目的を達成するために、 2つのパターンの位置ずれ検出に 用いられるマークであって、前記 2つのパターンのうち一方の基準位置を示す第 1マ ークと、前記 2つのパターンのうち他方の基準位置を示す第 2マークとを含み、前記 第 1マークは、第 1の線状パターンと該線状パターンに垂直な第 2の線状パターンと が十字形状に配置され、前記第 2マークは、第 3の線状パターンと前記第 3の線状パ ターンに垂直な第 4の線状パターンとが十字形状に配置され、前記第 1マークと前記 第 2マークは、前記 2つのパターンの位置ずれが無いときに、前記第 1の線状パター ンと前記第 3の線状パターンの直線方向が一致し、かつ、前記第 2の線状パターンと 前記第 4の線状パターンの直線方向が一致し、前記第 1の線状パターンと前記第 3 の線状パターンは、長手方向の両端間の長さが互いに異なり、前記第 1の線状パタ ーンと前記第 3の線状パターンのうち、前記長さの長い方の線状パターンは、前記長 さの短い方の線状パターンと重ならないように、直線方向の一端側と他端側とに分割 された 2つの部分パターンからなり、前記第 2の線状パターンと前記第 4の線状パタ ーンは、長手方向の両端間の長さが互いに異なり、前記第 2の線状パターンと前記 第 4の線状パターンのうち、前記長さの長い方の線状パターンは、前記長さの短い方 の線状パターンと重ならないように、直線方向の一端側と他端側とに分割された 2つ の部分パターンからなるものである。
[0027] また、本発明は、第 4の目的を達成するために、検出対象のパターンを含む下地層 とレジスト層との間に 1つ以上の中間層が形成された基板を照明光によって照明する 照明工程と、前記照明光によって照明されたときに前記基板の各層力ら発生する光 に基づいて、前記パターンの画像を取り込む取込工程と、前記画像に基づいて、前 記パターンの位置を算出する算出工程とを備え、前記照明工程では、前記基板の各 層から発生する光のうち「前記中間層からの光」に対する「前記下地層からの光」の 強度比が大きくなるように、前記照明光の分光特性を調整し、調整後の分光特性の 照明光によって前記基板を照明するものである。
[0028] また、本発明は、第 5の目的を達成するために、円形状の既知のテンプレート画像 の濃度のヒストグラムを作成する第 1の作成手段と、入力画像の中の異なる複数の位 置から円形状の演算用の部分画像を抽出する抽出手段と、前記抽出手段により抽 出された前記部分画像の濃度のヒストグラムを作成する第 2の作成手段と、前記テン プレート画像の前記ヒストグラムと前記部分画像の前記ヒストグラムとに基づいて、前 記テンプレート画像と前記部分画像との類似度を求める演算手段と、前記入力画像 の各位置で求められた前記類似度を大小比較することにより、前記入力画像の中の 前記テンプレート画像との合致位置を特定する特定手段とを備えたものである。
[0029] また、本発明は、第 6の目的を達成するために、マークの形状及び設計サイズをレ シピに登録する登録手段と、測定すべき基板を撮像し、取得した画像から、前記レシ ピに登録された形状及び設計サイズと一致するマークを検出する検出手段とを備え ていることを特徴とする。
また、本発明は、第 7の目的を達成するために、基板上に形成された少なくとも 1対 以上のエッジを有するマークの光学像を撮像し、複数のサンプル点で構成される画 像信号を取得する撮像手段と、前記画像信号に基く波形の中心位置を検出する検 出手段と、前記画像信号のうち輝度値の急変部分をエッジ信号として抽出する抽出 手段と、前記波形の中心位置に基づいて前記エッジ信号の中から前記エッジに対応 しないエッジ信号を抽出する非エッジ検出手段と、前記エッジ信号の中から前記エツ ジに対応しないエッジ信号を除去し、この除去後のエッジ信号に基づいて前記エツ ジの位置を検出するエッジ位置検出手段とを備えていることを特徴とする。
発明の効果
[0030] 本発明の結像光学系の調整方法によれば、調整用の光学素子の配置を感度良く 微調整すること力 Sできる。
また、本発明のオートフォーカス装置を有する結像装置によれば、 AF用の結像光 学系に色収差があっても、基板から発生する光の波長特性に応じたフォーカス誤差 を確実に低減することができる。
[0031] また、本発明の位置ずれ検出用マークおよび位置ずれ検出方法によれば、位置ず れ検出の際に結像光学系の歪曲収差の影響を低減することができる。
また、本発明の位置検出方法および位置検出装置によれば、下地層とレジスト層と の間に形成された中間層の影響を低減して下地層のパターンの位置を正確に検出 すること力 Sできる。
[0032] また、本発明のテンプレートマッチング装置によれば、入力画像に回転変化があつ ても正確に合致位置を特定することができる。
また、本発明のマーク識別装置によれば、マークを有する基板を用いることなく取 得した画像から測定すべきマークを識別することができる。
また、本発明のエッジ位置検出装置によれば、マークの線幅を正確に測定すること ができる。
図面の簡単な説明
[0033] [図 1]第 1実施形態の重ね合わせ測定装置 10の全体構成を示す図である。
[図 2]調整用基板 30の調整用マーク 30Aの構成を示す図である。
[図 3]平行平面板 22の配置の微調整を説明する図である。
[図 4]開口絞り面 23Aにおける瞳像 H,H,Hの波長帯域に応じた結像位置ずれを 説明する図である。
園 5]ビームスプリッタ 18の偏心誤差 (チルト誤差)による開口絞り面 23Aでの結像位 置ずれを説明する図である。
園 6]ケラレが非対称な場合(+ 1次回折成分のみ光量低下)を説明する図である。 園 7]ケラレが対称な場合を説明する図である。
園 8]ケラレが非対称な場合(一 1次回折成分のみ光量低下)を説明する図である。 園 9]結像開口絞り 23と外マーク 31の瞳像 H との位置関係 (a)、結像開口絞り 23と
31
内マーク 32の瞳像 H との位置関係 (b)を示す図である。
32
園 10]第 1実施形態の結像光学系 (19〜24)の調整手順を示すフローチャートである 園 11]重ね合わせ測定装置 10に組み込まれた第 2実施形態のオートフォーカス装 置の構成を示す図である。
園 12]オートフォーカス装置の動作原理を説明する図である。
園 13]重ね合わせ測定装置 50に組み込まれた第 3実施形態のオートフォーカス装 置の構成を示す図である。
園 14]第 3実施形態のオートフォーカス装置の波長帯域切替部 51について説明する 図である。
園 15]第 4実施形態の位置ずれ検出用マーク 10の構成を説明する図である。
園 16]重ね合わせ測定装置 20の構成図である。
[図 17]位置ずれ検出用の部分画像 36(1),36(2),37(1),37(2)とプロジェクシヨン処理 後の波形信号について説明する図である。
園 18]第 5実施形態の位置ずれ検出用マークの構成を説明する図である。
園 19]第 6実施形態の位置ずれ検出用マークの構成を説明する図である。
園 20]第 7実施形態の位置ずれ検出用マークの構成を説明する図である。
園 21]第 8実施形態の位置ずれ検出用マークの構成を説明する図である。
園 22]第 9実施形態の位置ずれ検出用マークの構成を説明する図である。
[図 23]第 3従来技術の 2重マーク 80の構成図である。
[図 24]第 10実施形態の重ね合わせ検査装置 10の構成を示す図である。 [図 25]下地マーク 31とレジストマーク 32について説明する図である。
[図 26]中間層 43,44について説明する図である。
[図 27]マークの画像と波形信号について説明する図である。
園 28]基板 11の各層力 発生する光 L3'〜L6'について説明する図である。
園 29]第 11実施形態の観察装置 10の概略図である。
園 30]入力画像 21,テンプレート画像 22,ターゲット 23,演算用の部分画像 25などを 説明する図である。
[図 31]第 11実施形態のテンプレートマッチングの処理手順を示すフローチャートであ る。
[図 32]テンプレート画像 22の RGB成分の濃度ヒストグラム H と部分画像 25の RGB 成分の濃度ヒストグラム H とを説明する図である。
園 33]円形状の演算用の部分画像 25における濃度情報と、入力画像 21の回転変 化との関係を説明する図である。
園 34]RGB成分の濃度ヒストグラム H ,Η の重なり部分に基づくマッチング演算に ついて説明する図である。
園 35]RGB成分の濃度ヒストグラム Η ,Η の差分に基づくマッチング演算について 説明する図である。
園 36]第 12実施形態のテンプレートマッチングにおける処理手順の一部を示すフロ 一チャートである。
[図 37]R成分の濃度 1貫性モーメント Μ について説明する図である。
[図 38]第 13実施形態において領域濃度差 D ,D を算出するための領域について 説明する図である。
[図 39]テンプレート画像 22の R成分の一例について説明する図である。
園 40]矩形状の演算用の部分画像における濃度情報と、入力画像の回転変化との 関係を説明する図である。
園 41]第 14実施形態に係るマーク識別装置を備えた半導体測定装置の構成を説明 するブロック図である。
園 42]予め登録されるマークを説明する図である。 [図 43]ウェハの平面図である。
[図 44]撮影されたマークの一例を示す図である。
[図 45]撮影されたマークの一例を示す図である。
[図 46]第 15実施形態に係るエッジ位置検出装置を示す概念図である。
[図 47]マークの線幅の測定手順を説明するフローチャートである。
[図 48]画像濃度プロファイル波形の一例を示す図である。
[図 49]ノイズ、外乱の影響が現れてレ、なレ、画像濃度プロファイル波形の一例を示す 図である。
[図 50]ノイズ、外乱の影響が現れた画像濃度プロファイル波形の一例を示す図であ る。
発明を実施するための最良の形態
[0034] (第 1実施形態)
以下、図 1〜図 10を用いて本発明の第 1実施形態を詳細に説明する。 ここでは、本実施形態の結像光学系の調整方法について、図 1に示す重ね合わせ 測定装置 10を例に説明する。重ね合わせ測定装置 10は、半導体素子や液晶表示 素子などの製造工程において、基板 11のレジストパターン (不図示)の重ね合わせ検 查を行う装置である。重ね合わせ検查では、基板 11の下地層に形成された回路パタ ーン(以下「下地パターン」という)に対するレジストパターンの位置ずれ量の測定が 行われる。
[0035] 重ね合わせ測定装置 10には、図 1(a)に示す通り、基板 11または後述の調整用基 板 30 (図 2)を支持するステージ 12と、照明光学系 (13〜19)と、結像光学系 (19〜2 4)と、 CCD撮像素子 25と、画像処理部 26と、焦点検出部 (41〜48)と、ステージ制御 部 27とが設けられる。
ステージ 12は、図示省略したが、基板 11または後述の調整用基板 30 (図 2)を水 平状態に保って支持するホルダと、このホルダを水平方向 (XY方向)に駆動する XY 駆動部と、ホルダを鉛直方向 (Z方向)に駆動する Z駆動部とで構成されている。そして 、 XY駆動部と Z駆動部は、ステージ制御部 27に接続されている。
[0036] ここで、基板 11は、半導体ウェハや液晶基板などの一般的な製品基板であり、レジ スト層に対する露光 ·現像後で、所定の材料膜に対する加工前の状態にある。製品 基板には、重ね合わせ検查のために多数の測定点が用意されている。測定点の位 置は、各ショット領域の四隅などである。各測定点には、レジストパターンの基準位置 を示すレジストマークと下地パターンの基準位置を示す下地マークとが形成されてい る。以下の説明では、レジストマークと下地マークとを総じて「重ね合わせマーク 11A 」という。
[0037] また、調整用基板 30 (図 2)は、結像光学系 (19〜24)を調整する際の指標を求める ために設計されたものである。この調整用基板 30には、外マーク 31と内マーク 32と を含む調整用マーク 30Aが設けられている。調整用マーク 30Aは、 BAR in BARタイ プの 2重マークであり、シリコンウェハなどをエッチング処理することにより作成される 。調整用マーク 30Aの段差 hは、例えば 83nmである。図 2(a)は平面図、図 2(b)は断 面図である。
[0038] 外マーク 31は、 X方向に細長レ、 4本のバーマーク 1Aと、 Y方向に細長い 4本のバ 一マーク 1Bとで構成され、 2本ずつが 1組となって内マーク 32の周囲に四辺状に配 置されている。また、 4本のバーマーク 1Aは、各組ごとに、ピッチ P1で配列されてい る。同様に、 4本のバーマーク 1Bも、各組ごとに、ピッチ P1で配列されている。ピッチ P1は、例えば 3.8 / mであり、請求項の「第 1ピッチ」に対応する。
[0039] 内マーク 32は、 X方向に細長レ、 4本のバーマーク 2Aと、 Y方向に細長レ、 4本のバ 一マーク 2Bとで構成され、 2本ずつが 1組となって外マーク 31の内側に四辺状に配 置されている。また、 4本のバーマーク 2Aは、各組ごとに、上記ピッチ P1とは異なるピ ツチ P2で配列されている。同様に、 4本のバーマーク 2Bも、各組ごとに、ピッチ P2で 配列されている。ピッチ P2は、例えば 1 μ mであり、請求項の「第 2ピッチ」に対応する
[0040] 上記の基板 11 (または調整用基板 30)がステージ 12のホルダに支持された状態で 、ステージ制御部 27は、ステージ 12の XY駆動部を制御し、ホルダを XY方向に移動 させて、基板 11上の重ね合わせマーク 11A (または調整用基板 30上の調整用マー ク 30A)を視野領域内に位置決めする。また、焦点検出部 (41〜48)から出力される 後述のフォーカス信号に基づいて、ステージ 12の Z駆動部を制御し、ホルダを Z方向 に上下移動させる。このフォーカス調整により、基板 11 (または調整用基板 30)を CC D撮像素子 25の撮像面に対して合焦させることができる。このとき、基板 11上の重ね 合わせマーク 11Aほたは調整用基板 30上の調整用マーク 30A)は、結像光学系 (1 9〜24)の物体面に配置される。
[0041] 照明光学系 (13〜: 19)は、光源部 13と、光軸 Olに沿って順に配置された照明開口 絞り 14とコンデンサーレンズ 15と視野絞り 16と照明リレーレンズ 17とビームスプリッタ 18と、光軸 02上に配置された第 1対物レンズ 19とで構成されている。ビームスプリツ タ 18は、反射透過面が光軸 Olに対して略 45° 傾けられ、光軸〇2上にも配置され ている。照明光学系 (13〜19)の光軸 Olは、結像光学系 (19〜24)の光軸〇2に垂直 である。
[0042] また、光源部 13は、光源 3Aとコレクタレンズ 3Bと光学リレーレンズ 3Cと波長切替 機構 3Dとライトガイドファイバ 3Eとで構成される。光源 3Aは、波長帯域の広い光(例 えば白色光)を射出する。波長切替機構 3Dには、透過特性の異なる複数の光学フィ ルタが設けられる。光学フィルタを切り替えて照明光路に挿入することで、光源 3Aか ら射出された光の波長帯域のうち、広帯域 (例えば本実施形態では波長幅が 270η m程度)、長波長帯域、短波長帯域の何れかを選択することができる。
[0043] 上記の光源部 13において、光源 3A力 射出された広帯域波長の光は、コレクタレ ンズ 3Bを介して波長切替機構 3Dの光学フィルタに入射し、その透過特性に応じた 波長帯域 (つまり広帯域または長波長帯域または短波長帯域)の光となる。その後、 光学リレーレンズ 3Cとライトガイドファイバ 3Eとを介して、照明開口絞り 14に導かれる 照明開口絞り 14は、その中心が光軸 Ol上に位置し、光源部 13から射出された光 の径を特定の径に制限する。コンデンサーレンズ 15は、照明開口絞り 14からの光を 集光する。視野絞り 16は、重ね合わせ測定装置 10の視野領域を制限する光学素子 であり、図 1(b)に示すように、矩形状の開口である 1つのスリット 16aを有する。照明リ レーレンズ 17は、視野絞り 16のスリット 16aからの光をコリメートする。ビームスプリッタ 18は、照明リレーレンズ 17からの光を下向きに反射する。
[0044] 上記の構成において、光源部 13から射出された光は、照明開口絞り 14とコンデン サーレンズ 15とを介して、視野絞り 16を均一に照明する。そして、視野絞り 16のスリ ット 16aを通過した光は、照明リレーレンズ 17を介してビームスプリッタ 18に導かれ、 その反射透過面で反射した後(照明光 L1)、光軸 02上の第 1対物レンズ 19に導か れる。
[0045] 第 1対物レンズ 19は、ビームスプリッタ 18からの照明光 L1を入射して集光する。こ れにより、ステージ 12上の基板 11 (または調整用基板 30)は、第 1対物レンズ 19を 透過した所定の波長帯域の照明光 L1によって垂直に照明される(落射照明)。
なお、基板 11ほたは調整用基板 30)に入射するときの照明光 L1の入射角度は、 照明開口絞り 14の中心と光軸 Olとの位置関係によって決まる。また、基板 11 (また は調整用基板 30)の各点における照明光 L1の入射角度範囲は、照明開口絞り 14 の絞り径によって決まる。照明開口絞り 14が第 1対物レンズ 19の仮想瞳面 19Aと共 役な位置関係にあるからである。
[0046] さらに、視野絞り 16と基板 11 (または調整用基板 30)とは共役な位置関係にあるた め、基板 11 (または調整用基板 30)の表面のうち、視野絞り 16のスリット 16aに対応 する領域が照明光 L1によって照明される。つまり、基板 11ほたは調整用基板 30) の表面には、照明リレーレンズ 17と第 1対物レンズ 19の作用によって、スリット 16aの 像が投影される。
[0047] そして、上記した所定の波長帯域の照明光 L1が照射された基板 11 (または調整用 基板 30)の領域から、回折光 L2が発生する。回折光 L2には、 0次回折光(つまり反 射光)や、 ± 1次回折光などが含まれる。回折光 L2の波長特性は、調整用基板 30の 場合、調整用マーク 30Aの外マーク 31と内マーク 32とで等しぐ照明光 L1の波長特 性とも略等しい。また、基板 11 (一般的な製品基板)の場合、重ね合わせマーク 11A のレジストマークと下地マークの構造や物性に応じて異なる。これは、マークの反射 特性が、マークの構造や物性に応じて変化するからである。基板 11ほたは調整用 基板 30)からの回折光 L2は、後述の結像光学系 (19〜24)に導かれる。
[0048] 結像光学系 (19〜24)は、光軸 02に沿って順に配置された第 1対物レンズ 19と第 2 対物レンズ 20と第 1結像リレーレンズ 21と平行平面板 22と結像開口絞り 23と第 2結 像リレーレンズ 24とで構成されている。結像光学系 (19〜24)の光軸 02は、 Z方向に 平行である。なお、第 1対物レンズ 19と第 2対物レンズ 20との間には、照明光学系 (1 3〜19)のビームスプリッタ 18が配置され、第 2対物レンズ 20と第 1結像リレーレンズ 2 1との間には、焦点検出部 (41〜48)のビームスプリッタ 41が配置されている。ビーム スプリッタ 18,41は、光の振幅分離を行うハーフプリズムである。
[0049] そして、第 1対物レンズ 19は、基板 11 (または調整用基板 30)からの回折光 L2をコ リメートする。第 1対物レンズ 19でコリメートされた回折光 L2は、上記のビームスプリツ タ 18を透過して第 2対物レンズ 20に入射する。第 2対物レンズ 20は、ビームスプリツ タ 18からの回折光 L2を 1次結像面 10a上に集光する。
1次結像面 10aの後段に配置された焦点検出部 (41〜48)のビームスプリッタ 41は 、焦点検出部 (41〜48)の光軸〇3と結像光学系 (18〜24)の光軸〇2に対して、反射 透過面が略 45° 傾けられている。そして、ビームスプリッタ 41は、第 2対物レンズ 20 力もの回折光 L2の一部(L3)を透過すると共に、残りの一部(L4)を反射する。ビー ムスプリッタ 41を透過した一部の光 L3は、結像光学系 (18〜24)の第 1結像リレーレ ンズ 21に導力れる。第 1結像リレーレンズ 21は、ビームスプリッタ 41からの光 L3をコリ メートする。
[0050] 平行平面板 22は、光軸〇2に垂直な 2つの軸(それぞれ X軸と Y軸に平行)を中心 として、数度程度の範囲内でチルト可能である。つまり、平行平面板 22の配置は、チ ルト方向に微調整可能である。 X軸と平行な軸を中心としたチルト方向の微調整につ いて示すと図 3のようになる。図 3に示す通り、平行平面板 22の光軸 22a (厚さ方向に 平行な軸)を光軸 02に対して傾斜させる方向が「チルト方向」に対応する。平行平面 板 22の配置のチルト方向の微調整とは、平行平面板 22のチルト角 Θの微調整に対 応する。
[0051] 上記のように、平行平面板 22は、その配置をチルト方向に微調整可能であり(詳細 は後述)、第 1結像リレーレンズ 21からの光を透過する。結像開口絞り 23は、第 1対 物レンズ 19の仮想瞳面 19Aと共役な面に配置され、平行平面板 22からの光の径を 特定の径に制限する。第 2結像リレーレンズ 24は、結像開口絞り 23からの光を CCD 撮像素子 25の撮像面 (2次結像面)上に再結像する。
[0052] 上記の結像光学系 (18〜24)では、視野領域内に基板 11上の重ね合わせマーク 1 1A (または調整用基板 30上の調整用マーク 30A)が位置決めされているとき、その マークの像を CCD撮像素子 25の撮像面に形成する。さらに、第 1対物レンズ 19の仮 想瞳面 19Aと、結像開口絞り 23の配置面(以下「開口絞り面 23A」 )との間に配置さ れた平行平面板 22は、その配置をチルト方向に微調整可能であり、平行平面板 22 を用いて結像光学系 (18〜24)の調整が行われる(詳細は後述)。平行平面板 22は、 請求項の「調整用の光学素子」に対応する。
[0053] CCD撮像素子 25は、その撮像面が結像光学系 (18〜24)の像面と一致するように 配置される。 CCD撮像素子 25は、複数の画素が 2次元配列されたエリアセンサであ り、基板 11上の重ね合わせマーク 11Aほたは調整用基板 30上の調整用マーク 30 A)の像を撮像して、画像信号を画像処理部 26に出力する。画像信号は、 CCD撮像 素子 25の撮像面における各画素ごとの輝度値に関する分布 (輝度分布)を表してい る。
[0054] 画像処理部 26は、 CCD撮像素子 25からの画像信号に基づいて、基板 11上の重 ね合わせマーク 11Aほたは調整用基板 30上の調整用マーク 30A)の画像を取り込 み、その画像に対して所定の画像処理を施す。ちなみに、重ね合わせマーク 11Aの 画像に対しては、重ね合わせ検査用の画像処理を施す。調整用マーク 30Aの画像 に対しては、平行平面板 22の配置をチルト方向に微調整する際の指標を求めるた めに、所定の画像処理 (後述)を施す。なお、画像処理部 26を介して、不図示のテレ ビモニタよる目視観察も可能である。
[0055] 次に、焦点検出部 (41〜48)の説明を行う。焦点検出部 (41〜48)は、ステージ 12 上の基板 11ほたは調整用基板 30)が CCD撮像素子 25の撮像面に対して合焦状 態にあるか否力を検出するものである。
焦点検出部 (41〜48)は、光軸 03に沿って順に配置されたビームスプリッタ 41と A F第 1リレーレンズ 42と平行平面板 43と瞳分割ミラー 44と AF第 2リレーレンズ 45とシ リンドリカルレンズ 46とからなる光学系と、 AFセンサ 47と、信号処理部 48とで構成さ れている。 AFセンサ 47はラインセンサであり、その撮像面 47aには複数の画素が 1 次元配列されている。シリンドリカノレレンズ 46は、 AFセンサ 47の撮像面 47aにおける 画素の配列方向(図中 A方向)に対して垂直な方向の屈折力を持つ。 [0056] 焦点検出部 (41〜48)において、ビームスプリッタ 41で反射した一部の光 L4 (以下「 AF光」という)は、 AF第 1リレーレンズ 42によってコリメートされ、平行平面板 43を透 過して、瞳分割ミラー 44に入射する。瞳分割ミラー 44上には、照明光学系 (13〜19) の照明開口絞り 14の像が形成される。平行平面板 43は、照明開口絞り 14の像を瞳 分割ミラー 44の中心に位置調整するための光学素子であり、チルト調整が可能な機 構になっている。
[0057] 瞳分割ミラー 44に入射した AF光は、そこで 2方向の光に振幅分離された後、 AF 第 2リレーレンズ 45とシリンドリカルレンズ 46を介して、 AFセンサ 47の撮像面 47aの 近傍に集光される。このとき、撮像面 47aには、画素の配列方向(図中 A方向)に沿つ て離れた位置に、計測方向に対して 2つの視野絞り 16の像が形成される。
そして、 AFセンサ 47は、撮像面 47aに形成された 2つの像の結像中心に関する受 光信号を信号処理部 48に出力する。信号処理部 48は、 AFセンサ 47からの出力に 基づいて、計測方向について 2つの視野絞り 16の像の結像中心の距離を算出し、予 め記憶している合焦状態での距離との差を求め、フォーカス信号をステージ制御部 2 7に出力する。このような瞳分割方式の AF動作の詳細は、例えば特開 2002— 4032 2号公報に記載されている。
[0058] ところで、上記のように構成された重ね合わせ測定装置 10 (図 1)において、結像光 学系 (18〜24)の各光学部品を配置する際には、各光学部品を金物で固定し、その ブロックをコリメータなどの器具により調整しながら光軸〇2に対して平行に配置して いく。しかし、ブロックの加工精度や調整誤差などに起因して、各光学部品が偏心誤 差を持つことがある。
[0059] 光学部品の偏心誤差が、結像光学系 (18〜24)の仮想瞳面 19Aと開口絞り面 23A との間に発生した場合、その偏心誤差に起因して、開口絞り面 23Aにおける瞳像の 結像位置が波長帯域に応じて異なってしまう。このような場合の瞳像の位置関係を模 式的に示すと、図 4のようになる。図 4には、照明光 L1の中心波長帯域に相当する瞳 像 Hと、短波長帯域に相当する瞳像 Hと、長波長帯域に相当する瞳像 Hとの位置
G B R
関係を示す。図 4の瞳像 H ,Η,Ηは、結像開口絞り 23Αに入射する回折光 L3のう
R G B
ち、同じ回折次数の成分 (例えば 0次回折成分)である。 [0060] また、開口絞り面 23Aにおける瞳像 H,Η ,Ηの結像位置ずれ(図 4)を引き起こす
R G B
場合の一例として、図 5に示すようなビームスプリッタ 18の偏心誤差 (チルト誤差)が 考えられる。図 5では、光軸 02上の光学部品のうちビームスプリッタ 41の図示を省略 し、平行平面板 22のチルト角 Θ =0 (図 3(a)と同様)とした。また、図 5には、回折光 L 3のうち、短波長帯域の回折光 Lの光路と、長波長帯域の回折光 Lの光路とを分け
B R
て示した。
[0061] 図 5から分かるように、例えばビームスプリッタ 18が偏心誤差を持つ場合、平行平 面板 22の微調整を行わないと(つまりチルト角 Θ =0に設定すると)、短波長帯域の 回折光 Lと長波長帯域の回折光 Lとが位置ずれした状態のまま開口絞り面 23Aに
B R
入射し、開口絞り面 23Aにおける瞳像 H ,Η ,Ηの結像位置ずれ(図 4)が起きる。な
R G B
お、ビームスプリッタ 18に限らず、第 2対物レンズ 20やビームスプリッタ 41や第 1結像 リレーレンズ 21が偏心誤差を持つ場合も同様である。
[0062] そして、開口絞り面 23Aにおける瞳像 H ,Η ,Ηの結像位置が波長帯域に応じて
R G B
異なると(図 4)、そこに配置されている結像開口絞り 23を各波長帯域の回折光 L3が 通過する際、波長帯域ごとにケラレの対称/非対称性が異なることになる。例えば、中 心波長帯域のケラレが対称な場合には、短波長帯域のケラレも長波長帯域のケラレ も非対称となってしまう。
[0063] ケラレが非対称な場合とは、図 6(a)に示す通り、結像開口絞り 23の中心 C に対し
23 て、瞳像 Hの中心 C の位置がずれている場合である。図 6(a)では、瞳像 Hの 0次回
H
折成分と ± 1次回折成分とを例示した。図 6(a)の場合、瞳像 Hのうち、 + 1次回折成 分の一部(点ハッチング部)は、結像開口絞り 23により遮られてケラレとなっているが 、 _ 1次回折成分は、結像開口絞り 23による制限を受けなレ、。このため、瞳像 Hの中 心 C に関して、ケラレが非対称となる。
H
[0064] これに対し、ケラレが対称な場合とは、図 7(a)に示す通り、瞳像 Hの中心 C の位置
H
が結像開口絞り 23の中心 C に一致している場合である。図 7(a)でも、瞳像 Hの 0次
23
回折成分と ± 1次回折成分とを例示した。図 7(a)の場合には、瞳像 Hのうち、 + 1次 回折成分と— 1次回折成分の一部(点ハッチング部)が、同じ量だけ、結像開口絞り 2 3により遮られてケラレとなっている。このため、瞳像 Hの中心 C に関して、ケラレが対 称となる。
[0065] また、ケラレが非対称な場合(図 6(a))、結像開口絞り 23を通過した後の回折光 L3 を考えると、 0次回折成分と一 1次回折成分の光量は変化しないが、 + 1次回折成分 の光量は低下することになる。すなわち、 _ 1次回折成分と比べて + 1次回折成分の 光量が少なくなる。これは、そもそも、結像光学系 (19〜24)の物体面に配置された図 6(b)のような凹凸構造のマークから回折光 L2が発生するとき、 _ 1次回折成分よりも + 1次回折成分の光量が少なくなり、左右のエッジ像に関する結像状態に差が現れ る。
[0066] さらに、上記のような回折光 L2の非対称性が起きると、図 6(b)に示すマークの 2つ のエッジ E1,E2の見え方が異なってしまう。そのため、結像光学系 (18〜24)を介して CCD撮像素子 25の撮像面に形成されたエッジ E1,E2の像の強度プロファイルは、 図 6(c)のような歪み (左右のアンバランス)を含むことになる。この場合、 CCD撮像素 子 25からの画像信号に基づいて、図 6(b)に示すマークの位置を検出すると、検出結 果には、左右のエッジ像のアンバランスに応じた誤差成分 (TIS値)が含まれてしまう
[0067] 一方、ケラレが対称な場合(図 7(a))、結像開口絞り 23を通過した後の回折光 L3を 考えると、 0次回折成分の光量は変化しないが、 1次回折成分と + 1次回折成分の 光量は同じ量だけ低下する。
さらに、上記のような回折光 L2の対称性が保たれると、図 7(b)に示すマークの 2つ のエッジ E1,E2の見え方が同じになる。つまり、一方のエッジ E1は _ 1次回折成分の 光量確保によって良く見え、他方のエッジ E2は + 1次回折成分の光量確保によって 良く見えることになる。そのため、結像光学系 (18〜24)を介して CCD撮像素子 25の 撮像面に形成されたエッジ E1,E2の像の強度プロファイルは、図 7(c)のように、左右 で等しくなる(バランスする)ことになる。この場合、 CCD撮像素子 25からの画像信号 に基づいて、図 7(b)に示すマークの位置を検出すると、誤差成分 (TIS値)を含まな レヽ正確な検出結果を得ることができる。
[0068] したがって、既に説明した通り、開口絞り面 23Aにおける瞳像 H ,Η ,Ηの結像位
R G B
置が波長帯域に応じて異なると(図 4)、波長帯域ごとにケラレの対称/非対称性が異 なるため(図 6(a),図 7(a))、同じマーク(図 6(b),図 7(b))のエッジ E1,E2の像であって も、その強度プロファイル(図 6(c),図 7(c))は波長帯域ごとに左右のバランス/アンバ ランスが異なってしまう。例えば、中心波長帯域のケラレが対称で、長波長帯域や短 波長帯域のケラレが非対称な場合、前者のエッジ像の強度プロファイルは図 7(c)のよ うになり、後者のエッジ像の強度プロファイルは図 6(c)のようになる。
[0069] その結果、ケラレの対称な中心波長帯域では、マーク位置の正確な検出結果を得 ることができるのに対し、ケラレの非対称な長波長帯域や短波長帯域では、マーク位 置の検出結果が誤差成分 (TIS値)を含む不正確なものとなってしまう。
ちなみに、長波長帯域におけるケラレの非対称性が図 6(a)のような方向特性を持 つ場合、短波長帯域におけるケラレの非対称性は、図 8(a)のような反転した方向特 性を持つことになる。そして、マークから発生する回折光 L2の各成分の光量と、エツ ジ E1,E2の像の強度プロファイルは、図 8(b), ((このようになる。このため、短波長帯域 におけるマーク位置の検出結果の誤差成分 (TIS値)は、長波長帯域におけるマーク 位置の検出結果の誤差成分 (TIS値)とは反転した方向特性を持つことになる。
[0070] 次に、本実施形態の結像光学系 (18〜24)の調整方法について説明する。結像光 学系 (18〜24)の調整は、開口絞り面 23Aにおける瞳像 H ,Η ,Ηの波長帯域に応
R G B
じた結像位置ずれ (図 4)を補正し、波長帯域に拘わらず同一の結像位置 (例えば図 7の位置)に瞳像 H,Η ,Ηを形成するために行われる。この調整には、図 2に示す
R G B
調整用基板 30と、結像光学系 (18〜24)の仮想瞳面 19Aと開口絞り面 23Aとの間に 配置された平行平面板 22とが用いられる。
[0071] 調整用基板 30 (図 2)に設けられている調整用マーク 30Aは、既に説明した通り、 外マーク 31と内マーク 32とで構成され、外マーク 31のピッチ P1が例えば 3.8 x mで あり、内マーク 32のピッチ Ρ2が例えば l x mである。このようなピッチ P1,P2は、照明 光学系 (13〜19)の開口数を NAill、結像光学系 (19〜24)の開口数を NAima、照明 光 L1の中心波長を λ ( μ m)とするとき、次の条件式 (1)〜(3)を満足する。
[0072] NAima > NAill…ひ)
NAima- 1.2 X NAill = λ /Pl … )
NAima +ΝΑΠ1/2 = λ /Ρ2 · ' ·(3) 条件式 (1)を満足する場合、結像光学系 (19〜24)の開口絞り面 23Aにおける瞳像 H (図 6〜図 8参照)の大きさは、各成分ごとに結像開口絞り 23より小さくなる。
[0073] 条件式 (2)は、調整用マーク 30Aの外マーク 31に関する。条件式 (2)を満足する場 合、開口絞り面 23Aにおける外マーク 31の波長 λの瞳像 H は、図 9(a)に示す通り、
31
0次回折成分と ± 1次回折成分との全てが結像開口絞り 23の内側に余裕を持って入 射する。図 9(a)には、瞳像 Η の中心 C の位置が結像開口絞り 23の中心 C に一致
31 Η 23 してレ、るときの位置関係を示した。
[0074] また、条件式 (2)を満足する場合、図 4に示す波長帯域ごとの瞳像 Η ,Η ,Ηの結像
R G B
位置ずれがあっても、波長帯域に拘わらず 0次回折成分と ± 1次回折成分との全て を結像開口絞り 23の内側に入射させることができる。つまり、外マーク 31では、照明 光 L1の中心波長えだけでなぐ長波長帯域と短波長帯域との何れにおいても、ケラ レの対称性を保つことができる(図 7参照)。
[0075] 一方、条件式 (3)は、調整用マーク 30Aの内マーク 32に関する。条件式 (3)を満足 する場合、開口絞り面 23Aにおける内マーク 32の波長えの瞳像 H は、図 9(b)に示
32
す通り、 0次回折成分が結像開口絞り 23の内側に入射し、 ± 1次回折成分が結像開 口絞り 23の外側に入射する。図 9(b)には、瞳像 H の中心 C の位置が結像開口絞り
32 H
23の中心 C に一致しているときの位置関係を示した。この場合、ケラレの対称性が
23
保たれている。
[0076] また、条件式 (3)を満足する場合、図 4に示す波長帯域ごとの瞳像 H,H,Hの結像
R G B
位置ずれがあると、長波長帯域では瞳像 H の中心 Cが結像開口絞り 23の中心 C
32 H 23 よりも図中左方にシフトし(図 6参照)、短波長帯域では反対に瞳像 H の中心 C が結
32 H 像開口絞り 23の中心 C よりも図中右方にシフトする(図 8参照)ため、ケラレの対称
23
性が崩れて非対称となる。
[0077] 本実施形態の結像光学系 (18〜24)の調整方法では、上記のような内マーク 32に おける波長帯域ごとのケラレの対称/非対称性を加味して、結像光学系 (19〜24)を 調整する際の指標を求め、その指標に基づいて平行平面板 22の配置をチルト方向 に微調整する(図 3参照)。結像光学系 (18〜24)の調整は、図 10のフローチャートの 手順にしたがって行われる。 [0078] ステップ SIでは、ステージ 12のホルダに調整用基板 30を載置し、重ね合わせ測 定装置 10の視野領域内に調整用マーク 30Aを位置決めする。この位置決め後、焦 点検出部 (41〜48)からのフォーカス信号に基づいて AF動作を行レ、、調整用マーク 30Aを CCD撮像素子 25の撮像面に対して合焦させる。つまり、結像光学系 (19〜2 4)の物体面に調整用マーク 30Aを配置する。
[0079] ステップ S2では、調整用マーク 30Aに対して広帯域の照明光 L1 (例えば波長幅が
270nm程度)を照射し、このとき調整用マーク 30Aから発生する広帯域の回折光 L2 に基づいて、マーク画像を取り込む。マーク画像の取り込みは、調整用マーク 30Aを 180度回転させる前後の状態の各々で行う。そして、 2つのマーク画像の輝度情報に 基づいて、各々、外マーク 31と内マーク 32との位置ずれ量を算出する。
[0080] さらに、次の式 (4)にしたがって、 0度方向(初期状態)での位置ずれ量 Lと、 180度
0 方向での位置ずれ量 L との平均値を、 TIS値として算出する。この TIS値は、開口
180
絞り面 23Aにおける広帯域の瞳像(図 9に示す中心波長えの瞳像 H や瞳像 H の
31 32 他、長波長帯域や短波長帯域の瞳像を含む)の中心波長 λの中心 C と、結像開口
Η
絞り 23の中心 C との位置ずれを表している。
23
[0081] TIS = (L +L ) /2 〜(4)
0 180
ステップ S3では、ステップ S2で算出した TIS値(つまり瞳像の中心波長 λの中心 C の位置ずれ)を、予め定めた閾値と比較する。閾値は、十分に小さい規格値である。
Η
そして、 TIS値が閾値より大きい場合(S3が No)、この TIS値を指標として、結像開 口絞り 23の配置をシフト方向に微調整する(ステップ S4)。その後、ステップ S2の処 理に戻る。上記したステップ S2〜S4の処理は、 TIS値(つまり瞳像の中心波長 λの 中心 Cの位置ずれ)が閾値より小さくなる(S3が Yesとなる)まで繰り返し行われる。
H
[0082] ステップ S2で算出した TIS値が閾値より小さくなつたとき、瞳像の中心波長 λの中 心 Cと結像開口絞り 23の中心 C とは、図 9(a), (b)に示す通り、互いに略一致したこと
H 23
になる。この場合、中心波長 λにおけるケラレは、調整用マーク 30Αの外マーク 3も 内マーク 32も対称となる。外マーク 31のケラレの対称性は、瞳像 Η の ± 1次回折成
31
分の全てが結像開口絞り 23の内側に入射したことによる。また、内マーク 32のケラレ の対称性は、瞳像 Η の土 1次回折成分の全てが結像開口絞り 23の外側に入射した ことによる。
[0083] 次のステップ S5では、照明光 L1の波長帯域を変更し、調整用マーク 30Aに対して 短波長帯域の照明光 L1を照射し、このとき調整用マーク 30Aから発生する短波長 帯域の回折光 L2に基づいて、マーク画像を取り込む。短波長帯域の回折光 L2には 、外マーク 31のピッチ P1に応じた広がり角で発生した光と、内マーク 32のピッチ P2 に応じた広がり角で発生した光とが含まれる。そして、この回折光 L2のうち、結像開 口絞り 23を通過して結像光学系 (19〜24)の像面に到達した光に基づいて、マーク 画像の取り込みが行われる。
[0084] 図 4に示す波長帯域ごとの瞳像 H ,Η ,Ηの結像位置ずれがある場合、短波長帯
R G B
域の回折光 L2による外マーク 31の瞳像は、図 9(a)に示す中心波長えの瞳像 H より
31 も図中右方にシフトするが、上記の条件式 (2)を満足するため、—1次回折成分が結 像開口絞り 23の外側にはみ出すことはなレ、。したがって、外マーク 31では、短波長 帯域でもケラレの対称性を保つことができる。この場合、マーク画像の外マーク 31の 輝度情報は、その強度プロファイルが左右で等しくなる(図 7(c)参照)。
[0085] 一方、内マーク 32の場合には上記の条件式 (3)を満足するため、短波長帯域の回 折光 L2による瞳像は、図 9(b)に示す中心波長えの瞳像 H よりも図中右方にシフトし
32
て、 + 1次回折成分の一部が結像開口絞り 23の内側に入射する。つまり、 + 1次回 折成分のケラレ量が減少し、 _ 1次回折成分のケラレ量は変化しない。したがって、 内マーク 32では、短波長帯域においてケラレが非対称となってしまう。この場合、マ ーク画像の内マーク 32の輝度情報は、その強度プロファイルが歪み(左右のアンバ ランス)を含むことになる(図 6(c)参照)。
[0086] 短波長帯域の照明光 L1を用いたマーク画像の取り込みも、調整用マーク 30Aを 1 80度回転させる前後の状態の各々で行う。そして、 2つのマーク画像の輝度情報に 基づいて、外マーク 31に関わる輝度情報の対称/非対称性をカ卩味すると共に、内マ ーク 32に関わる輝度情報の対称/非対称性をカ卩味して、各々、外マーク 31と内マー ク 32との位置ずれ量を算出する。さらに、上記式 (4)にしたがって、 0度方向での位置 ずれ量 Lと、 180度方向での位置ずれ量 L との平均値を、 TIS値として算出する。
0 180
この TIS値は、開口絞り面 23Aにおける短波長帯域の瞳像の中心 C と、結像開口絞 り 23の中心 C との位置ずれを表している。
23
[0087] さらに、ステップ S6では、照明光 L1の波長帯域を変更し、調整用マーク 30Aに対 して長波長帯域の照明光 L1を照射し、このとき調整用マーク 30A力 発生する長波 長帯域の回折光 L2に基づいて、マーク画像を取り込む。長波長帯域の回折光 L2に は、外マーク 31のピッチ P1に応じた広がり角で発生した光と、内マーク 32のピッチ P 2に応じた広がり角で発生した光とが含まれる。そして、この回折光 L2のうち、結像開 口絞り 23を通過して結像光学系 (19〜24)の像面に到達した光に基づいて、マーク 画像の取り込みが行われる。
[0088] 図 4に示す波長帯域ごとの瞳像 H ,Η ,Ηの結像位置ずれがある場合、長波長帯
R G B
域の回折光 L2による外マーク 31の瞳像は、図 9(a)に示す中心波長えの瞳像 H より
31 も図中左方にシフトするが、上記の条件式 (2)を満足するため、 + 1次回折成分が結 像開口絞り 23の外側にはみ出すことはなレ、。したがって、外マーク 31では、長波長 帯域でもケラレの対称性を保つことができる。この場合、マーク画像の外マーク 31の 輝度情報は、その強度プロファイルが左右で等しくなる(図 7(c)参照)。
[0089] 一方、内マーク 32の場合には上記の条件式 (3)を満足するため、長波長帯域の回 折光 L2による瞳像は、図 9(b)に示す中心波長えの瞳像 H よりも図中左方にシフトし
32
て、—1次回折成分の一部が結像開口絞り 23の内側に入射する。つまり、— 1次回 折成分のケラレ量が減少し、 + 1次回折成分のケラレ量は変化しない。したがって、 内マーク 32では、長波長帯域においてケラレが非対称となってしまう。この場合、マ ーク画像の内マーク 32の輝度情報は、その強度プロファイルが歪み(左右のアンバ ランス)を含むことになる(図 8(c)参照)。
[0090] 長波長帯域の照明光 L1を用いたマーク画像の取り込みも、調整用マーク 30Aを 1 80度回転させる前後の状態の各々で行う。そして、 2つのマーク画像の輝度情報に 基づいて、外マーク 31に関わる輝度情報の対称/非対称性をカ卩味すると共に、内マ ーク 32に関わる輝度情報の対称/非対称性をカ卩味して、各々、外マーク 31と内マー ク 32との位置ずれ量を算出する。さらに、上記式 (4)にしたがって、 0度方向での位置 ずれ量 Lと、 180度方向での位置ずれ量 L との平均値を、 TIS値として算出する。
0 180
この TIS値は、開口絞り面 23Aにおける長波長帯域の瞳像の中心 C と、結像開口絞 り 23の中心 C との位置ずれを表している。
23
[0091] 上記したステップ S5,S6の説明から分かるように、短波長帯域におけるケラレの非 対称性と長波長帯域におけるケラレの非対称性とは反転した方向特性を持つ。この ため、ステップ S5で算出した TIS値(短波長帯域の瞳像の中心 Cの位置ずれ)と、ス
H
テツプ S6で算出した TIS値 (長波長帯域の瞳像の中心 Cの位置ずれ)も、互いに反
H
転した方向特性を持つことになる。
[0092] そして、ステップ S7では、ステップ S5で算出した TIS値(短波長帯域の瞳像の中心 Cの位置ずれ)と、ステップ S6で算出した TIS値 (長波長帯域の瞳像の中心 C の位
H H
置ずれ)との差を求める。 「TIS値の差」は、開口絞り面 23Aにおける短波長帯域の 瞳像の中心 C と長波長帯域の瞳像の中心 C と位置ずれを表している。
H H
ステップ S8では、ステップ S7で算出した「TIS値の差」を、予め定めた閾値(十分に 小さい規格値)と比較する。そして、「TIS値の差」が閾値より大きい場合(S8が No)、 「TIS値の差」を指標として、平行平面板 22の配置をチルト方向に微調整する (ステツ プ S4)。その後、ステップ S5の処理に戻る。上記したステップ S5〜S9の処理は、「TI S値の差」が閾値より小さくなる(S8が Yesとなる)まで繰り返し行われる。
[0093] なお、調整用マーク 30Aの外マーク 31と内マーク 32との位置ずれ量(0度方向で の位置ずれ量 Lと 180度方向での位置ずれ量 L )は、結像開口絞り 23と瞳像 Hと
0 180
の相対的な位置関係によって敏感に変化する。また、調整用マーク 30Aの TIS値を 測定した場合、波長帯域ごとに、内マーク 32の特性が反転するため、 TIS値の変化 が大きい。これは「TIS値の差」が波長帯域によって感度良く変化する指標となること を意味している。
[0094] ステップ S7で算出した「TIS値の差」が閾値より小さくなつたとき(S8が Yesのとき)、 開口絞り面 23Aにおける短波長帯域の瞳像の中心 Cと長波長帯域の瞳像の中心 C
H
とは、互いに略一致したことになる。この場合、中心波長 λの瞳像 H の中心 Cも、
Η 31 Η 短波長帯域や長波長帯域の中心 C と略一致する。ただし、この時点でステップ S2の
Η
TIS値を再び算出すると、閾値から外れている(S3が Noとなる)可能性がある。
[0095] したがって、ステップ S2〜S9の処理を繰り返し行レ、、ステップ S2の TIS値と、ステツ プ S7の「TIS値の差」と力 各々の閾値より小さくなるように追い込む。ステップ S2の TIS値とステップ S7の「TIS値の差」との双方が規格値以内(ステップ S10が No)とな つた時点で、本実施形態の結像光学系 (19〜24)の調整処理を終了する。
[0096] このとき、開口絞り面 23Aにおける瞳像 H 波長帯域に応じた結像位置ず
R,H
G,Hの
B
れ(図 4)が補正され、波長帯域に拘わらず同一の結像位置 (例えば図 7の位置)に 瞳像 H,Η ,Ηを形成すること力できる。また、波長帯域に拘わらず、開口絞り面 23
R G B
Aにおけるケラレを対称な状態(図 7)に保つことができる。
上記したように、本実施形態の結像光学系 (19〜24)の調整方法では、調整用基板 30の調整用マーク 30Aの画像から指標 (TIS値の差)を求め、この指標に基づいて 平行平面板 22の配置をチルト方向に微調整するため、平行平面板 22の配置を感度 良く微調整することができる。したがって、平行平面板 22の調整誤差 (チルト角 Θの 誤差)を確実に小さくすることができ、装置起因の誤差成分 (TIS値)を良好に低減で きる。
[0097] さらに、ステップ S5における照明波長の設定を光源 3Aの最も短波側とし、ステップ S6における照明波長の設定を光源 3Bの最も長波側とすることにより、可視光帯域か ら赤外光近傍帯域までの広帯域な範囲(例えば波長幅が 270nm程度の範囲)で、 装置起因の誤差成分 (TIS値)を良好に低減できる。
その結果、重ね合わせ測定装置 10における基板 11 (一般的な製品基板)の重ね 合わせ検査の際に、重ね合わせマーク 11Aのレジストマークと下地マークの構造や 物性に応じて回折光 L2の波長特性が異なる場合でも、それぞれのマーク位置の検 出結果として誤差成分 (TIS値)を含まない正確な値を求めることができ、検出精度が 向上する。さらに、レジストマークと下地マークとの位置ずれ量も正確に求めることが でき、高精度な重ね合わせ検査が可能となる。
(第 1実施形態の変形例)
なお、上記した実施形態では、調整用マーク 30Aの外マーク 31のピッチ P1が条件 式 (2)を満足する例で説明したが、本発明はこれに限定されない。次の条件式 (5)を 満足する場合にも、本発明を適用できる。
[0098] NAima-NAill > λ /Pl - - -(5)
さらに、上記した実施形態では、調整用マーク 30Αの内マーク 32のピッチ Ρ2が条 件式 (3)を満足する例で説明したが、本発明はこれに限定されない。次の条件式 (6) を満足する場合にも、本発明を適用できる。
[0099] NAima + NAill/2≤ λ /Ρ2 · ' ·(6)
また、上記した実施形態では、外マーク 31のピッチ P1を内マーク 32のピッチ Ρ2よ り大きくした力 本発明はこれに限定されなレ、。外マーク 31と内マーク 32のピッチ Pl, Ρ2が異なっていれば、ピッチ Ρ1,Ρ2の大小関係が逆であっても、本発明を適用でき る。
[0100] さらに、上記した実施形態では、条件式 (2),(3)や条件式 (5),(6)のように、開口絞り 面 23Αにおける瞳像 Ηの ± 1次回折成分と結像開口絞り 23との位置関係により、調 整用マーク 30Αのピッチ Ρ1,Ρ2を定めた力 S、本発明はこれに限定されなレ、。 ± 1次 回折成分に代えて、 ± 2次回折成分やそれ以上の高次成分と結像開口絞り 23との 位置関係を用い、ピッチ P1,P2を定めても構わない。
[0101] また、上記した実施形態では、 2種類のマーク(外マーク 31と内マーク 32)により構 成された調整用マーク 30Aの例を説明したが、本発明はこれに限定されない。調整 用マーク 30Aが、ピッチの異なる 3種類以上のマークからなる場合にも、本発明を適 用できる。
さらに、上記した実施形態では、調整用マーク 30Aを構成する複数のマーク (例え ば外マーク 31と内マーク 32)をバーマークにより構成した力 S、本発明はこれに限定さ れない。他の形状 (例えばドット状)とする場合にも、本発明を適用できる。また、調整 用マーク 30Aは、複数のマークを中心が一致するように重ねて配置した 2重マーク( 設計上の位置ずれ量が 0のマーク)に限らず、複数のマークを予め定めた間隔 (設計 上の位置ずれ量≠0)をあけて並べて配置することもできる。
[0102] また、上記した実施形態では、照明光 L1の波長帯域が異なるときの誤差成分 (TIS 値)の差を指標として平行平面板 22の配置を微調整する例を説明したが、本発明は これに限定されない。照明光 L1の波長帯域が異なるときの位置ずれ量に基づいて、 平行平面板 22の配置を微調整する場合にも、本発明を適用できる。このとき、例え ば位置ずれ量の差を指標とすればょレ、。
[0103] さらに、上記した実施形態では、平行平面板 22を用いて結像光学系 (19〜24)を調 整する例を説明したが、本発明はこれに限定されない。調整用の光学素子としては、 他に、屈折率の異なる 2個の楔形プリズムを用いることが考えられる。この場合、 2個 の楔形プリズムの斜面どうしを対向させ、光軸〇2に垂直な方向に沿ってスライドさせ る湘対位置を変更する)ことによって、平行平面板 22のチルト調整と同等の効果を 得ること力 Sできる。
[0104] また、上記した実施形態では、重ね合わせ測定装置 10に組み込まれた結像光学 系 (19〜24)を例にその調整方法を説明したが、本発明はこれに限定されない。物体 を観察するための光学装置 (例えば光学顕微鏡や外観検査装置など)の結像光学 系を調整する場合にも、本発明を適用できる。
(第 2実施形態)
以下、図 11,図 12を用いて本発明の第 2実施形態を詳細に説明する。
[0105] ここでは、第 2実施形態のオートフォーカス装置を有する結像装置について、図 11 に示す重ね合わせ測定装置 10を例に説明する。重ね合わせ測定装置 10は、半導 体素子や液晶表示素子などの製造工程において、基板 11のレジストパターン (不図 示)の重ね合わせ検査を行う装置である。重ね合わせ検査では、基板 11の下地層に 形成された回路パターン (以下「下地パターン」という)に対するレジストパターンの位 置ずれ量の測定が行われる。
[0106] 基板 11は、半導体ウェハや液晶基板などであり、レジスト層に対する露光'現像後 で、所定の材料膜に対する加工前の状態にある。基板 11には、重ね合わせ検査の ために多数の測定点が用意されている。測定点の位置は、基板 11の各ショット領域 の四隅などである。各測定点には、レジストパターンの基準位置を示すレジストマーク と下地パターンの基準位置を示す下地マークとが形成されている。以下の説明では 、レジストマークと下地マークとを総じて「重ね合わせマーク 30」とレ、う。
[0107] 第 2実施形態では、基板 11として、重ね合わせ測定装置 10の使用波長(後述の光 源 13の波長)の全域にわたって反射率の波長特性が略均一な標準基板、または、 一般的な製品基板が用レ、られる。製品基板の場合には、そのレジスト層や下地層( 蒸着膜)の膜厚ムラなどに依存して、各ショット領域ごとに (各重ね合わせマーク 30ご とに)反射率の波長特性が異なることが多い。 [0108] 次に、重ね合わせ測定装置 10の説明を行う。
重ね合わせ測定装置 10は、図 11(a)に示す通り、基板 11を支持する検查ステージ 12と、照明光学系 (13〜: 19)と、結像光学系 (19〜23)と、 CCD撮像素子 25と、画像 処理部 26と、焦点検出部 (4:!〜 49)と、ステージ制御部 27とで構成されている。このう ち、検查ステージ 12と照明光学系 (13〜: 19)と焦点検出部 (41〜49)とステージ制御 部 27が、第 2実施形態のオートフォーカス装置として機能する。
[0109] 検查ステージ 12は、図示省略したが、基板 11を水平状態に保って支持するホルダ と、このホルダを水平方向 (XY方向)に駆動する XY駆動部と、ホルダを鉛直方向 (Z 方向)に駆動する Z駆動部とで構成されている。そして、 XY駆動部と Z駆動部は、ステ ージ制御部 27に接続されている。
ステージ制御部 27は、検査ステージ 12の XY駆動部を制御し、ホルダを XY方向に 移動させて、基板 11上の重ね合わせマーク 30を視野領域内に位置決めする。また 、焦点検出部 (41〜49)から出力される後述のフォーカス信号などに基づいて、検査 ステージ 12の Z駆動部を制御し、ホルダを Z方向に上下移動させる。このフォーカス 調整により、基板 11を CCD撮像素子 25の撮像面に対して合焦させることができる( 詳細は後述する)。
[0110] 照明光学系 (13〜19)は、光軸 Olに沿って順に配置された光源 13と照明開口絞り 14とコンデンサーレンズ 15と視野絞り 16と照明リレーレンズ 17とビームスプリッタ 18 と、光軸〇2上に配置された第 1対物レンズ 19とで構成されている。ビームスプリッタ 1 8は、反射透過面が光軸〇1に対して略 45° 傾けられ、光軸 02上にも配置されてい る。照明光学系 (13〜19)の光軸 Olは、結像光学系 (19〜23)の光軸〇2に垂直であ る。
[0111] また、光源 13は、波長帯域の広い光 (例えば白色光)を射出する。照明開口絞り 14 は、その中心が光軸 Ol上に位置し、光源 13から射出された広帯域波長の光の径を 特定の径に制限する。コンデンサーレンズ 15は、照明開口絞り 14からの光を集光す る。視野絞り 16は、重ね合わせ測定装置 10の視野領域を制限する光学素子であり、 図 11(b)に示すように、矩形状の開口である 1つのスリット 16aを有する。照明リレーレ ンズ 17は、視野絞り 16のスリット 16aからの光をコリメートする。ビームスプリッタ 18は 、照明リレーレンズ 17からの光を下向きに反射する。
[0112] 上記の構成において、光源 13から射出された広帯域波長の光は、照明開口絞り 1 4とコンデンサーレンズ 15を介して、視野絞り 16を均一に照明する。そして、視野絞り 16のスリット 16aを通過した光は、照明リレーレンズ 17を介してビームスプリッタ 18に 導かれ、その反射透過面で反射した後(照明光 L1)、光軸〇2上の第 1対物レンズ 19 に尋力れる。
[0113] 第 1対物レンズ 19は、ビームスプリッタ 18からの照明光 L1を入射して集光する。こ れにより、検査ステージ 12上の基板 11は、第 1対物レンズ 19を透過した広帯域波長 の照明光 L1によって垂直に照明される(落射照明)。第 1対物レンズ 19は、請求項の 「対物レンズ」に対応する。
なお、基板 11に入射するときの照明光 L1の入射角度は、照明開口絞り 14の中心 と光軸〇1との位置関係によって決まる。また、基板 11の各点における照明光 L1の 入射角度範囲は、照明開口絞り 14の絞り径によって決まる。照明開口絞り 14が第 1 対物レンズ 19の瞳と共役な面に配置されているからである。
[0114] さらに、視野絞り 16と基板 11とは共役な位置関係にあるため、基板 11の表面のう ち、視野絞り 16のスリット 16aに対応する領域が照明光 L1によって照明される。つま り、基板 11の表面には、照明リレーレンズ 17と第 1対物レンズ 19の作用によって、ス リット 16aの像が投影される。
そして、上記した広帯域波長の照明光 L1が照射された基板 11の領域から、反射 光 L2が発生する。反射光 L2の波長特性は、基板 11が標準基板(つまり反射率の波 長特性が略均一)の場合、照明光 L1の波長特性と略等しくなる。また、基板 11がー 般的な製品基板の場合、反射光 L2の波長特性は、基板 11の反射率の波長特性に 応じて変化する。基板 11からの反射光 L2は、後述の結像光学系 (19〜23)に導かれ る。
[0115] 結像光学系 (19〜23)は、光軸 02に沿って順に配置された第 1対物レンズ 19と第 2 対物レンズ 20と第 1結像リレーレンズ 21と結像開口絞り 22と第 2結像リレーレンズ 23 とで構成されている。結像光学系 (19〜23)の光軸 02は、 Z方向に平行である。 なお、第 1対物レンズ 19と第 2対物レンズ 20との間には、照明光学系 (13〜19)の ビームスプリッタ 18が配置され、第 2対物レンズ 20と第 1結像リレーレンズ 21との間に は、後述する焦点検出部 (41〜49)のビームスプリッタ 41が配置されている。ビームス プリッタ 18,41は、光の振幅分離を行うハーフプリズムである。
[0116] そして、第 1対物レンズ 19は、基板 11からの反射光 L2をコリメートする。第 1対物レ ンズ 19でコリメートされた反射光 L2は、上記のビームスプリッタ 18を透過して第 2対 物レンズ 20に入射する。第 2対物レンズ 20は、ビームスプリッタ 18からの反射光 L2 を 1次結像面 10a上に集光する。
1次結像面 10aの後段に配置された焦点検出部 (41〜49)のビームスプリッタ 41は 、焦点検出部 (41〜49)の光軸〇3と結像光学系 (19〜23)の光軸〇2に対して、反射 透過面が略 45° 傾けられている。そして、ビームスプリッタ 41は、第 2対物レンズ 20 力もの反射光 L2の一部(L3)を透過すると共に、残りの一部(L4)を反射する。ビー ムスプリッタ 41を透過した一部の光 L3は、結像光学系 (19〜23)の第 1結像リレーレ ンズ 21に導かれる。
[0117] 第 1結像リレーレンズ 21は、ビームスプリッタ 41からの光 L3をコリメートする。結像 開口絞り 22は、第 1対物レンズ 19の瞳と共役な面に配置され、第 1結像リレーレンズ 21からの光の径を特定の径に制限する。第 2結像リレーレンズ 23は、結像開口絞り 2 2からの光を CCD撮像素子 25の撮像面(2次結像面)上に再結像する。
CCD撮像素子 25は、複数の画素が 2次元配列されたエリアセンサであり、基板 11 力もの反射光 L2に基づく像 (反射像)を撮像して、画像信号を画像処理部 26に出力 する。画像信号は、 CCD撮像素子 25の撮像面における各画素ごとの輝度値に関す る分布 (輝度分布)を表してレ、る。
[0118] 画像処理部 26は、基板 11として製品基板が検查ステージ 12上に載置され、製品 基板の重ね合わせマーク 30が視野領域内に位置決めされているとき、 CCD撮像素 子 25から得られる画像信号の輝度分布に基づいて、製品基板の重ね合わせ検查( 下地パターンに対するレジストパターンの重ね合わせ状態の検查)を行う。この場合 、不図示のテレビモニタよる目視観察も可能である。
[0119] また、画像処理部 26は、基板 11として標準基板が検查ステージ 12上に載置され、 標準基板の重ね合わせマーク 30が視野領域内に位置決めされているとき、 CCD撮 像素子 25からの画像信号を不図示のテレビモニタに出力する。この場合、標準基板 の重ね合わせマーク 30の目視観察が可能となる。
次に、焦点検出部 (41〜49)の説明を行う。焦点検出部 (41〜49)は、検查ステージ 12上の基板 11が CCD撮像素子 25の撮像面に対して合焦状態にあるか否かを検出 するものである。
[0120] 焦点検出部 (41〜49)は、光軸 03に沿って順に配置されたビームスプリッタ 41と A F第 1リレーレンズ 42と平行平面板 43と瞳分割ミラー 44と AF第 2リレーレンズ 45とシ リンドリカルレンズ 46とからなる結像光学系 (41〜46)と、波長分離素子 47と、 AFセン サ 48(1)〜(3)と、信号処理部 49(1)〜(3)とで構成されている。 AFセンサ 48(1)〜(3) はラインセンサであり、その撮像面 48aには複数の画素が 1次元配列されている。シリ ンドリカルレンズ 46は、 AFセンサ 48(1)〜(3)の各撮像面 48aにおける画素の配列方 向(図中 A方向)に対して垂直な方向の屈折力を持つ。
[0121] 焦点検出部 (41〜49)において、ビームスプリッタ 41で反射した一部の光 L4 (以下「 AF光」という)は、 AF第 1リレーレンズ 42によってコリメートされ、平行平面板 43を透 過して、瞳分割ミラー 44に入射する。瞳分割ミラー 44上には、照明光学系 (13〜: 19) の照明開口絞り 14の像が形成される。平行平面板 43は、照明開口絞り 14の像を瞳 分割ミラー 44の中心に位置調整するための光学素子であり、チルト調整が可能な機 構になっている。
[0122] 瞳分割ミラー 44に入射した AF光は、そこで 2方向の光に振幅分離された後、 AF 第 2リレーレンズ 45とシリンドリカルレンズ 46を介して、波長分離素子 47に入射する。 そして、シリンドリカルレンズ 46からの AF光は、波長分離素子 47を介して 3方向の光 L5〜L7に波長分離された後、 AFセンサ 48(:!)〜 (3)の各撮像面 48aの近傍に集光 される。このとき、各撮像面 48aには、画素の配列方向(図中 A方向)に沿って離れた 位置に、 2つの光源像が形成される。
[0123] ここで、波長分離素子 47は、 2つの反射透過面を有するダイクロイツクプリズム(光 学素子)である。 2つの反射透過面は、互いに直交し、光軸〇3に対して略 45° 傾い ている。また、 AF光の進行方向に沿って 1番目の反射透過面は、予め定めた波長ひ よりも長波側の波長帯域 (光 L7)を反射すると共に、波長 aよりも短波側の波長帯域 (光 L6,L5)を透過する。さらに、 AF光の進行方向に沿って 2番目の反射透過面は、 予め定めた波長 /3 ( <ひ)よりも長波側の波長帯域 (L6)を反射すると共に、波長 よりも短波側の波長帯域 (L5)を透過する。
[0124] このため、シリンドリカルレンズ 46からの AF光は、波長分離素子 47の 2つの反射透 過面により、 3つの波長帯域、つまり、短波長帯域 (波長 よりも短波側)と、中心波長 帯域 (波長 βよりも長波側で且つ波長 aよりも短波側)と、長波長帯域 (波長 aよりも 長波側)とに分離される。そして、短波長帯域の光 L5は AFセンサ 48(1)に入射し、中 心波長帯域の光 L6は AFセンサ 48(2)に入射し、長波長帯域の光 L7は AFセンサ 4 8(3)に入射する。
[0125] 上記のように、焦点検出部 (41〜49)では、波長分離素子 47によって AF光が 3つ の波長帯域に分離され、分離後の各波長帯域の光 L5〜L7がそれぞれ独立した AF センサ 48(1)〜(3)に導かれる。 3つの AFセンサ 48(1)〜(3)は、波長分離素子 47から の各波長帯域の光 L5〜L7をそれぞれ受光する。 AFセンサ 48(1)〜(3)は、請求項 の「受光素子」に対応する。波長分離素子 47は「分光素子」に対応する。
[0126] AFセンサ 48(1)〜(3)からの出力信号は、それぞれ信号処理部 49(1)〜(3)に出力 され、個別に信号処理される。例えば、信号処理部 49(1)では、 AFセンサ 48(1)から の出力信号に基づいて、 AFセンサ 48(1)の撮像面 48aに形成された 2つの光源像の 結像中心 P 1 ,P2 (図 12(a)〜(c))の距離を求め、この距離に応じたフォーカス信号を 生成する。また、信号処理部 49(2),(3)では、 AFセンサ 48(2),(3)からの出力信号に 基づいて、各々の撮像面 48aに形成された 2つの光源像の結像中心 P1,P2の距離 を求め、この距離に応じたフォーカス信号を生成する。
[0127] つまり、焦点検出部 (41〜49)では、波長分離素子 47によって AF光が 3つの波長 帯域に分離され (光 L5〜L7)、各波長帯域ごとにフォーカス信号が生成される。この 焦点検出部 (41〜49)は、請求項の「信号生成手段」に対応する。焦点検出部 (41〜 49)で生成された各波長帯域ごとのフォーカス信号は、信号処理部 49(:!)〜 (3)から 後段のステージ制御部 27に出力される。
[0128] ここで、 AFセンサ 48(:!)〜 (3)の各撮像面 48aに形成された 2つの光源像の結像中 心 P 1 ,P2の距離について説明する。 図 12(a),(b),(c)には、 3つの波長帯域(L5〜L7)のうち、ある 1つの波長帯域に関し 、基板 11と第 1対物レンズ 19との相対位置に応じて、 2つの光源像の結像中心 P1,P 2の距離が変化する様子を示した。図 12(a),(b),(c)は、各々、基板 11が前ピン状態( 合焦状態よりも下方),合焦状態,後ピン状態 (合焦位置よりも上方)のときの様子に対応 する。
[0129] 図 12(a),(b),(c)から分かるように、 2つの光源像の結像中心 P1,P2は、前ピン状態( a)ほど互いに接近し、後ピン状態 (c)ほど互いに離れる。つまり、検查ステージ 12を Z 方向に上下させ、基板 11と第 1対物レンズ 19との相対位置を変化させることで、 2つ の光源像の結像中心 P1 ,P2は、撮像面 48aの画素の配列方向(図中 A方向)に沿つ て、近づいたり離れたりする。
[0130] また、ある 1つの波長帯域 (例えば短波長帯域)に関し、 2つの光源像の結像中心 P 1,P2の距離の変化は、基板 11と第 1対物レンズ 19との相対位置の変化に 1対 1で対 応する。このため、既に説明した結像中心 P1,P2の距離に応じたフォーカス信号は、 基板 11と第 1対物レンズ 19との相対位置に応じたフォーカス信号と考えることができ る。上記した通り、焦点検出部 (41〜49)では、 3つの波長帯域 (L5〜L7)のうち各波 長帯域ごとに、基板 11と第 1対物レンズ 19との相対位置に応じたフォーカス信号を 生成して、後段のステージ制御部 27に出力する。
[0131] ところで、 AF用の結像光学系 (41〜46)に色収差がある場合、基板 11と第 1対物レ ンズ 19との相対位置が同じであっても、 AFセンサ 48(:!)〜 (3)の各撮像面 48aにおけ る 2つの光源像の結像中心 P1,P2の距離は異なるため、 AFセンサ 48(:!)〜 (3)からの 出力信号に基づいて各波長帯域ごとに生成されるフォーカス信号どうしを比較すると 、互いにオフセット成分を含むことになる。
[0132] このような各波長帯域のフォーカス信号どうしのオフセット量は、次のようにして予め 計測され、ステージ制御部 27のメモリ(記憶手段)に、オフセット情報として記憶され ている。
オフセット量の計測について説明する。オフセット量の計測には、反射率の波長特 性が略均一な標準基板が、基板 11として用いられる。オフセット量の計測手順は、次 の手順 (I)〜(IV)の通りである。 [0133] 手順 (I)標準基板を重ね合わせ測定装置 10の検查ステージ 12上に搬送し、その 重ね合わせマーク 30を視野領域内に位置決めし、照明光 L1を照射する。このとき、 標準基板の重ね合わせマーク 30から発生する反射光 L2の波長特性は、照明光 L1 の波長特性と略等しい。
手順 (Π) 標準基板の重ね合わせマーク 30からの反射光 L2を、結像光学系 (19〜 23)と CCD撮像素子 25と画像処理部 26を介して取り込み、不図示のテレビモニタで 目視観察しながら、検查ステージ 12を Z方向に駆動し、マーク像のフォーカス状態を 確認する。そして、フォーカス状態が最も良好な Z位置 (例えばマーク像のコントラスト が最も高い Z位置)で、検査ステージ 12を停止させる。このとき、基板 11と第 1対物レ ンズ 19との相対位置は、合焦位置に設定される。
[0134] 手順 (III)標準基板の重ね合わせマーク 30からの反射光 L2を、第 1対物レンズ 19 →第 2対物レンズ 20→AF用の結像光学系 (41〜46)の順に通過させた後、波長分 離素子 47によって 3つの波長帯域(L5〜L7)に分離し、 3つの AFセンサ 48(1)〜(3) で各波長帯域ごとに受光する。そして、信号処理部 49(1)〜(3)は、 AFセンサ 48(1) 〜(3)からの出力信号(2つの光源像の結像中心 P1,P2の距離)に基づいて、合焦位 置における各波長帯域ごとのフォーカス信号を生成し、後段のステージ制御部 27に 出力する。
[0135] 手順 (IV) ステージ制御部 27は、合焦位置における各波長帯域ごとのフォーカス信 号を大小比較して、フォーカス信号どうしのオフセット量を計測する。具体的には、 3 つの波長帯域 (L5〜L7)のうち、例えば中心波長帯域 (L6)を基準とする。そして、中 心波長帯域 (L6)のフォーカス信号と短波長帯域 (L5)のフォーカス信号との差分を求 め、大小の符号を含む差分値をオフセット量 O とする。また、中心波長帯域 (L6)の フォーカス信号と長波長帯域 (L7)のフォーカス信号との差分を求め、大小の符号を 含む差分値をオフセット量 O とする。
[0136] 上記のようにして、各波長帯域のフォーカス信号どうしのオフセット量〇 ,〇 を計測 し終えると、ステージ制御部 27は、そのオフセット量〇 ,0 をメモリに記憶する。また
、オフセット量〇 ,〇 の基準である中心波長帯域 (L6)のフォーカス信号 (つまり合焦 位置における値)もメモリに記憶する。これらの情報は、一般的な製品基板に対する オートフォーカス制御に使用される。
[0137] 次に、一般的な製品基板に対するオートフォーカス制御について説明する。このォ 一トフォーカス制御は、重ね合わせ検査の前に行われる。制御手順は、次の手順 (i)
〜(m)の通りである。
手順 (0製品基板を重ね合わせ測定装置 10の検查ステージ 12上に搬送し、その重 ね合わせマーク 30を視野領域内に位置決めし、照明光 L1を照射する。製品基板で は、レジスト層や下地層(蒸着膜)の膜厚ムラなどに依存して、各ショット領域ごとに( 各重ね合わせマーク 30ごとに)反射率の波長特性が異なることが多い。このため、製 品基板の重ね合わせマーク 30から発生する反射光 L2の波長特性は、その箇所での 反射率の波長特性に応じて変化する。
[0138] 手順 ) 製品基板の重ね合わせマーク 30からの反射光 L2を、第 1対物レンズ 19 →第 2対物レンズ 20→AF用の結像光学系 (41〜46)の順に通過させた後、波長分 離素子 47によって 3つの波長帯域(L5〜L7)に分離し、 3つの AFセンサ 48(1)〜(3) で各波長帯域ごとに受光する。そして、信号処理部 49(1)〜(3)は、 AFセンサ 48(1) 〜(3)からの出力信号(2つの光源像の結像中心 P1,P2の距離)に基づいて、製品基 板の現在の Z位置における各波長帯域ごとのフォーカス信号を生成し、後段のステ ージ制御部 27に出力する。このとき、 AFセンサ 48(1)〜(3)からの出力信号の強弱に 関する情報も、ステージ制御部 27に出力される。
[0139] ちなみに、製品基板の重ね合わせマーク 30の反射率の波長特性に応じて、反射 光 L2の波長特性が変化する。また、反射光 L2の波長特性に応じて、波長分離素子 47により 3つの波長帯域に分離された光 L5〜L7の強度比が変化し、 AFセンサ 48( 1)〜(3)での受光量が相対的に増減し、 AFセンサ 48(:!)〜 (3)からの出力信号の強弱 も変化する。例えば、長波長帯域 (L7)の割合が他の波長帯域 (L5,L6)に比べて高け れば、長波長帯域 (L7)に対応した AFセンサ 48(3)からの出力信号が強くなる。
[0140] 手順 )ステージ制御部 27は、 AFセンサ 48(:!)〜 (3)の出力信号の強弱に関する 情報を参照して、 AFセンサ 48(:!)〜 (3)のうち出力信号が最も強い AFセンサに注目 する。さらに、製品基板の現在の Z位置における各波長帯域ごとのフォーカス信号の うち、注目センサに対応するフォーカス信号と、メモリ内のオフセット量 O ,o と、メモ リ内の合焦位置における中心波長帯域 (L6)のフォーカス信号とに基づいて、オフセ ット量〇 ,〇 をキャンセルするように、検查ステージ 12を Z方向に駆動し、基板 11と 第 1対物レンズ 19との相対位置を調整する(フォーカス調整)。
[0141] 例えば、長波長帯域 (L7)に対応した AFセンサ 48(3)の出力信号が最も強い場合、 AFセンサ 48(3)に対応するフォーカス信号と、メモリ内のオフセット量 O と、メモリ内 の合焦位置における中心波長帯域 (L6)のフォーカス信号とに基づいて、オフセット 量〇 をキャンセルするようにフォーカス調整を行う。同様に、短波長帯域 (L5)に対応 した AFセンサ 48(1)の出力信号が最も強い場合、 AFセンサ 48(1)に対応するフォー カス信号と、メモリ内のオフセット量 O と、メモリ内の合焦位置における中心波長帯域
(L6)のフォーカス信号とに基づいて、オフセット量 O をキャンセルするようにフォー力 ス調整を行う。また、中心波長帯域 (L6)に対応した AFセンサ 48(2)の出力信号が最 も強い場合、 AFセンサ 48(2)に対応するフォーカス信号と、オフセット量 ( = 0)と、メモ リ内の合焦位置における中心波長帯域 (L6)のフォーカス信号とに基づいて、フォー カス調整を行う。
[0142] このように、フォーカス調整の際にメモリ内のオフセット量〇 ,0 を加味するため、 A
Fセンサ 48(1)〜(3)の何れに対応するフォーカス信号を用いても、「AFセンサ 48(2) に対応するフォーカス信号」が「メモリ内の合焦位置における中心波長帯域 (L6)のフ オーカス信号」に一致するような Z位置で、検查ステージ 12を停止させることができる 。フォーカス調整の後、基板 11と第 1対物レンズ 19との相対位置は、予め定めた合 焦位置に設定される。以上で 1つの重ね合わせマーク 30の AF制御が終了する。
[0143] その後、同じ製品基板の他の重ね合わせマーク 30を視野領域内に位置決めし、同 様の AF制御を行う際に、その箇所での反射率の波長特性が異なり、重ね合わせマ ーク 30から発生する反射光 L2の波長特性が異なると、 AFセンサ 48(:!)〜 (3)のうち 出力信号が最も強レ、AFセンサ(注目センサ)も変わる可能性がある。
しかし、第 2実施形態のオートフォーカス装置では、既に説明した通り、 AFセンサ 4 8(1)〜(3)の何れに対応するフォーカス信号を用いても、メモリ内のオフセット量〇 ,
〇 を加味するため、「AFセンサ 48(2)に対応するフォーカス信号」が「メモリ内の合 焦位置における中心波長帯域 (L6)のフォーカス信号」に一致するような Z位置で、検 查ステージ 12を停止させることができる。
[0144] したがって、第 2実施形態のオートフォーカス装置によれば、 AF用の結像光学系 (4 1〜46)に色収差があっても、基板 11 (製品基板)から発生する反射光 L2の波長特 性に応じたフォーカス誤差を確実に低減することができる。その結果、同じ基板 11 ( 製品基板)の全ての重ね合わせマーク 30において、ほぼ同一のフォーカス状態に設 定すること力 Sできる。
[0145] このため、重ね合わせ測定装置 10では、製品基板の重ね合わせ検查(下地パター ンに対するレジストパターンの重ね合わせ状態の検査)を、ほぼ同一のフォーカス状 態で行うことが可能となる。ちなみに、重ね合わせ検査は、重ね合わせマーク 30の画 像からレジストマークと下地マークの各々の位置を検出し、その相対的な位置ずれ量 (重ね合わせずれ量 Δ )を算出した後、得られた重ね合わせずれ量 Δを装置起因の 誤差成分(TIS値: Tool Induced Shift)によって補正することにより行われる。 TIS値 による補正後の重ね合わせずれ量が最終値となる。
[0146] また、重ね合わせ測定装置 10では、ほぼ同一のフォーカス状態で製品基板の重ね 合わせ検査を行えるため、 1つの製品基板における TIS値のバラツキが非常に小さく なる。したがって、重ね合わせずれ量 Δを TIS値によって補正する際、同じ製品基板 の全ての重ね合わせマーク 30において、共通の TIS値を使い回すことが可能となる 。この場合には、基板 11を反方向 (180度方向)に向けた状態での測定を省略し、基 板 11を正方向 (0度方向)に向けた状態での測定のみを実行すればよいので、重ね 合わせ検査のスループットが向上する。
[0147] なお、上記した第 2実施形態では、 AF用の結像光学系 (41〜46)の光路上にプリ ズム形状の波長分離素子 47を組み込む例で説明したが、本発明はこれに限定され なレ、。その他、ダイクロイツクミラーのような波長分離機能を有する光学素子を 2段構 成にしても構わない。また、波長分離素子 47のように 2つの反射透過面が AF光の進 行方向に沿って順に配置された構成に限らず、クロスダイクロイツクプリズムを用いて ちょい。
(第 3実施形態)
以下、図 13,図 14を用いて本発明の第 3実施形態を詳細に説明する。 [0148] 第 3実施形態では、図 13に示す重ね合わせ測定装置 50を例に説明する。第 3実 施形態のオートフォーカス装置を有する結像装置は、第 2実施形態のオートフォー力 ス装置の波長分離素子 47と AFセンサ 48(:!)〜 (3)と信号処理部 49(:!)〜 (3)に代えて 、図 13に示す波長帯域切替部 51と 1つの AFセンサ 52と信号処理部 53を設けたも のである。それ以外の構成は、第 2実施形態と同じであるため、その説明を省略する 。図 13に示す重ね合わせ測定装置 50うち、検查ステージ 12と照明光学系 (13〜19) と焦点検出部 (41〜46,5:!〜 53)とステージ制御部 27が、第 3実施形態のオートフォ 一カス装置として機能する。
[0149] 焦点検出部 (41〜46,51〜53)は、 AF用の結像光学系 (41〜46)と、波長帯域切 替部 51と、 AFセンサ 52と、信号処理部 53とで構成される。波長帯域切替部 51は、 結像光学系 (41〜46)の第 2リレーレンズ 45とシリンドリカルレンズ 46との間に配置さ れている。このため、 AF光は、第 2リレーレンズ 45→波長帯域切替部 51→シリンドリ カルレンズ 46の順に通過した後、 AFセンサ 47に入射する。
[0150] 波長帯域切替部 51には、図 14に示す通り、透過波長帯域が互いに異なる 3種類 のフィルタ 54(1)〜(3)が設けられる。フィルタ 54(1)〜(3)の透過波長帯域は、各々、 第 3実施形態で説明した短波長帯域,中心波長帯域,長波長帯域に対応する。 3種類 のフィルタ 54(1)〜(3)を軸 51Aまわりに回転させることで、フィルタ 54(1)〜(3)のうち 何れか 1つを順に切り替えて AF光の光路に揷入することができる。
[0151] したがって、フィルタ 54(:!)〜 (3)の切り替えにより、 3つの波長帯域の光(L5〜L7) を順に選択して(つまり時系列で取り出して) AFセンサ 52に導くことができる。波長帯 域切替部 51は、請求項の「選択部」に対応する。 AFセンサ 52は、波長帯域切替部 5 1のフィルタ 54(:!)〜 (3)によって選択された 1つの波長帯域の光を順に(つまり時系 列で)受光する。 AFセンサ 52の出力信号は、各波長帯域ごとに信号処理部 53に出 力される。信号処理部 53は、 AFセンサ 52からの出力信号に基づいて、各波長帯域 ごとにフォーカス信号を生成し、後段のステージ制御部 27に出力する。
[0152] 第 3実施形態のオートフォーカス装置でも、 AF用の結像光学系 (4:!〜 46)に色収差 力 Sある場合、各波長帯域ごとに生成されるフォーカス信号どうしを比較すると、互いに オフセット成分を含むことになる。フォーカス信号どうしのオフセット量の計測は、上記 した手順 (I)〜(IV)のうち、途中の手順 (m)を次の手順 (ιπ')に変更することで行われる。 手順 (Π ) 標準基板の重ね合わせマーク 30からの反射光 L2を、第 1対物レンズ 19 →第 2対物レンズ 20→AF用の結像光学系 (41〜46)の順に通過させた後、波長帯 域切替部 51によって 3つの波長帯域(L5〜L7)のうち 1つを選択し、 AFセンサ 52で 受光する。また、 3種類のフィルタ 54(:!)〜 (3)を切り替え、他の波長帯域も順に選択し 、 AFセンサ 52で受光する。そして、信号処理部 53は、 AFセンサ 52からの出力信号 (2つの光源像の結像中心 P1,P2の距離)に基づいて、合焦位置における各波長帯 域ごとのフォーカス信号を生成し、後段のステージ制御部 27に出力する。
[0153] 第 3実施形態では、手順 (1)→手順 (11)→手順 (ΙΠ')→手順 (IV)を経て、各波長帯域の フォーカス信号どうしのオフセット量 O ,Ο が計測され、その結果がステージ制御部
56 67
27のメモリに記憶される。また、上記と同様、オフセット量 Ο ,0 の基準である中心
56 67
波長帯域 (L6)のフォーカス信号 (つまり合焦位置における値)もメモリに記憶される。 これらの情報は、一般的な製品基板に対するオートフォーカス制御に使用される。
[0154] 製品基板に対する AF制御の手順は、上記した手順 (i)〜(iii)のうち、途中の手順 (ii) を次の手順 (π')に変更し、手順 (m)を次の手順 (m')に変更することで行われる。
手順 (ϋ')製品基板の重ね合わせマーク 30からの反射光 L2を、第 1対物レンズ 19 →第 2対物レンズ 20→AF用の結像光学系 (41〜46)の順に通過させた後、波長帯 域切替部 51によって 3つの波長帯域(L5〜L7)のうち 1つを選択し、 AFセンサ 52で 受光する。また、 3種類のフィルタ 54(:!)〜 (3)を切り替え、他の波長帯域も順に選択し 、 AFセンサ 52で受光する。そして、信号処理部 53は、 AFセンサ 52からの出力信号 (2つの光源像の結像中心 P1,P2の距離)に基づいて、製品基板の現在の Z位置に おける各波長帯域ごとのフォーカス信号を生成し、後段のステージ制御部 27に出力 する。このとき、各波長帯域ごとの AFセンサ 52の出力信号の強弱に関する情報も、 ステージ制御部 27に出力される。
[0155] 手順 (ΠΟ ステージ制御部 27は、各波長帯域ごとの AFセンサ 52の出力信号の強 弱に関する情報を参照して、 3つの波長帯域 (L5〜L7)のうち出力信号が最も強い 波長帯域に注目する。さらに、製品基板の現在の Z位置における各波長帯域ごとの フォーカス信号のうち、注目波長帯域に対応するフォーカス信号と、メモリ内のオフセ ット量〇 ,〇 と、メモリ内の合焦位置における中心波長帯域 (L6)のフォーカス信号と に基づいて、オフセット量〇 ,〇 をキャンセルするように、検查ステージ 12を Z方向 に駆動し、基板 11と第 1対物レンズ 19との相対位置を調整する(フォーカス調整)。
[0156] このように、第 3実施形態でも、フォーカス調整の際にメモリ内のオフセット量〇 ,〇 をカ卩味するため、 3つの波長帯域 (L5〜L7)の何れに対応するフォーカス信号を用い ても、「中心波長帯域 (L6)が選択されたときに対応するフォーカス信号」が「メモリ内 の合焦位置における中心波長帯域 (L6)のフォーカス信号」に一致するような Z位置で 、検査ステージ 12を停止させることができる。フォーカス調整の後、基板 11と第 1対 物レンズ 19との相対位置は、予め定めた合焦位置に設定される。以上で 1つの重ね 合わせマーク 30の AF制御が終了する。
[0157] したがって、第 3実施形態のオートフォーカス装置によれば、 AF用の結像光学系 (4 1〜46)に色収差があっても、基板 11 (製品基板)から発生する反射光 L2の波長特 性に応じたフォーカス誤差を確実に低減することができる。その結果、同じ基板 11 ( 製品基板)の全ての重ね合わせマーク 30において、ほぼ同一のフォーカス状態に設 定すること力 Sできる。
[0158] このため、重ね合わせ測定装置 50では、製品基板の重ね合わせ検査を、ほぼ同 一のフォーカス状態で行うことが可能となる。したがって、 1つの製品基板における TI S値のバラツキが非常に小さくなり、重ね合わせずれ量 Δを TIS値によって補正する 際、同じ製品基板の全ての重ね合わせマーク 30において、共通の TIS値を使い回 すことが可能となる。この場合には、基板 11を反方向 (180度方向)に向けた状態で の測定を省略し、基板 11を正方向 (0度方向)に向けた状態での測定のみを実行す ればよいので、重ね合わせ検査のスループットが向上する。
[0159] なお、上記した第 3実施形態では、 AF用の結像光学系 (41〜46)の光路上に波長 帯域切替部 51を設けたが、本発明はこれに限定されない。同様の波長帯域切替部 を照明光学系 (13〜: 19)の光路上に設け、照明光 L1の波長帯域を選択してもよい。 照明波長の切り替えにおいて、照明波長フィルタの透過特性が AF用の結像光学系 ( 41〜46)の波長切替部 51に含まれるフィルタのうち何れ力 1つと略同一の場合、 AF 光学系の波長帯域は、照明光 L1の波長帯域と略一致するものに設定する。 (第 2及び第 3実施形態の変形例)
なお、上記した第 2実施形態と第 3実施形態では、波長帯域の分離数を 3つとした 力 その分離数は 2つでも 4つ以上でもよい。分離数を多くするほど、基板 11から発 生する反射光 L2の波長特性に応じたフォーカス誤差を大きく低減させることができる
[0160] フォーカス精度を高める変形例として、例えば、波長分離素子をグレーティング等 で構成し、入射光のスペクトルを受光してこのスぺクトノレ情報に基づレ、てオフセット量 を算出する構成としてもよい。オフセット情報は基準波長、又は基準波長に対するォ フセット情報を波長 オフセットデータ表や波長 オフセット曲線として予め求めて おく。この場合には、オートフォーカス光学系に入射した光を分岐してグレーティング 側に入射させる光と、フォーカス信号生成部に入射させる光とに分け、各々を受光面 に導く構成とする。そして、グレーティング側に配置された受光面で受光された情報 に基づいて基板からの光のスペクトルを得、このスペクトルと、オフセット情報(波長 オフセットデータ表や波長 オフセット曲線)とに基づいてオフセット量を演算する。
[0161] また、上述した実施形態では、波長分離素子 47または波長帯切替部 51で分離し た波長帯域のうちの中心波長帯域を基準としてオフセット量を求めたが、基準波長帯 はこれに限定されない。中心波長帯域以外の帯域での合焦位置を基準としてオフセ ット量を算出してもよいし、また、ステージに全反射ミラー等を戴置して、白色光を入 射したときのフォーカス位置を基準として各波長帯域でのフォーカス信号とのオフセ ット量であってもよい。また、所定の狭帯域の波長光の合焦位置を基準としてもよい。
[0162] また、上記した実施形態では、各波長帯域のフォーカス信号どうしのオフセット量を 計測する際、反射率の波長特性が略均一な標準基板を用いたが、本発明はこれに 限定されない。分離された各波長帯域の光 (L5〜L7)の強度を十分に大きく確保で きるような既知の反射特性であれば、標準基板の反射特性として採用可能である。 さらに、上記した実施形態では、オフセット量の計測の際、手順 (Π)で、重ね合わせ マーク 30の画像を目視観察しながらフォーカス状態を確認する例で説明したが、本 発明はこれに限定されなレ、。画像処理部 26においてマーク像の画像処理を行レ、、コ ントラスト方式の AF制御を行ってもょレ、。 [0163] また、上記した実施形態では、重ね合わせ測定装置 10,50に組み込まれたオート フォーカス装置を例に説明したが、本発明はこれに限定されなレ、。基板 11の同じ層 に形成された 2つのマークの位置ずれ量を測定する装置や、単一のマークとカメラの 基準位置との光学的位置ずれを検出する装置や、単一のマークの位置を検出する 装置や、基板 11に対する露光工程の前に基板 11のァライメントを行う装置(つまり露 光装置のァライメント系)に組み込まれたオートフォーカス装置にも、本発明を適用で きる。ァライメント系では、下地層に形成されたァライメントマークの位置を検出し、そ の検出結果とステージ座標系(干渉計など)との位置関係を求める。
[0164] さらに、重ね合わせ測定装置 10,50のステージ制御部 27によりオフセット量の計測 を行う場合に限らず、重ね合わせ測定装置などに接続された外部のコンピュータを 用いた場合でも、同様の効果を得ることができる。
(第 4実施形態)
以下、図 15〜図 17を用いて本発明の第 4実施形態を詳細に説明する。
[0165] ここでは、半導体素子や液晶表示素子の製造工程における重ね合わせ検査を例 に説明する。重ね合わせ検査の対象となる基板(半導体ウェハや液晶基板)は、 1つ 前のパターン形成工程で形成された下地パターンの上に別の回路パターンを形成 する工程の途中(つまりレジスト膜に対する露光 ·現像後で且つレジスト膜の直下の 材料膜に対する加工前)の状態にある。基板の異なる層に形成された複数のパター ンの重ね合わせ検查(つまり下地パターンに対するレジストパターンの重ね合わせ検 查)は、下地パターンとレジストパターンとの位置ずれ検出により行われる。
[0166] 第 4実施形態の位置ずれ検出用マーク 10は、上記の重ね合わせ検査に用いられ るマークであり、図 15(a)〜(c)に示すように、下地マーク 10Aとレジストマーク 10Bとで 構成されている。下地マーク 1 OAは、下地パターンと同時に形成された下地層のマ ークであり、サイズ Dが例えば約 30 z mである。レジストマーク 10Bは、レジストパタ
A
ーンと同時に形成されたレジスト層のマークであり、サイズ Dが例えば約 15 x mであ
Β
る。
[0167] また、下地マーク 10Aは、線状パターン 11と、この線状パターン 11に垂直な線状 パターン 12と力 十字形状に配置されたものである。下地マーク 10Aの中心 Cは、 線状パターン 11の直線方向 S と線状パターン 12の直線方向 S との交点に相当す
11 12
る。レジストマーク 10Bは、線状パターン 11に平行な線状パターン 13と、線状パター ン 12に平行な線状パターン 14と力 十字形状に配置されたものである。レジストマ一 ク 10Bの中心 Cは、線状パターン 13と線状パターン 14との交点に相当し、線状パタ
B
ーン 13の直線方向 S と線状パターン 14の直線方向 S との交点に相当する。
13 14
[0168] 図において、線状パターン 11 , 12は、線状パターン 13, 14より太く描かれている力 太さの関係は図と異なってもよい。
これらの下地マーク 10Aとレジストマーク 10Bは、下地パターンとレジストパターン の位置ずれが無いときに、線状パターン 11,13の直線方向 S 互いに一致し、
11,S が
13
かつ、線状パターン 12, 14の直線方向 S ,S が互いに一致する。このとき、下地マー
1 14
ク 10Aの中心 Cとレジストマーク 10Bの中心 Cも一致する。以下の説明では、線状
A B
パターン 11, 13の直線方向 S
11,S に平行な方向を X方向とし、線状パターン 12,14 13
の直線方向 S ,S に平行な方向を Y方向とする。
12 14
[0169] さらに、位置ずれ検出用マーク 10の X方向に関して、下地マーク 10Aの線状パタ ーン 11とレジストマーク 10Bの線状パターン 13は、両端間の長さ(図 15(a)のサイズ D ,Dに相当)が互いに異なる。そして、両端間の長さの長い方の線状パターン 11
A B
は、両端間の長さの短い方の線状パターン 13と重ならないように、直線方向 S の一
11 端側と他端側とに分割された 2つの部分パターン 11(1), 11(2)からなる。 2つの部分パ ターン 11(1), 11(2)の内側の間隔 Dは、線状パターン 13の両端の間隔(サイズ D )よ
E B
り広い。
[0170] また同様に、位置ずれ検出用マーク 10の Y方向に関して、下地マーク 10Aの線状 パターン 12とレジストマーク 10Bの線状パターン 14は、両端間の長さが互いに異な る。そして、両端間の長さの長い方の線状パターン 12は、両端間の長さの短い方の 線状パターン 14と重ならないように、直線方向 S の一端側と他端側とに分割された 2
12
つの部分パターン 12(1), 12(2)からなる。 2つの部分パターン 12(1),12(2)の内側の間 隔は、線状パターン 14の両端の間隔より広い。
[0171] なお、上記した位置ずれ検出用マーク 10において、下地マーク 10Aの線状パター ン 11 (2っの部分パターン11(1),11(2))の内側の間隔!3、線状パターン 12 (2つの 部分パターン 12(1),12(2))の内側の間隔、レジストマーク 10Bの線状パターン 13の 両端の間隔(サイズ D )、線状パターン 14の両端の間隔は、下地パターンとレジスト
B
ノ ターンとの位置ずれ検出に適切なレンジを有するように最適化されている。
[0172] また、上記した位置ずれ検出用マーク 10において、線状パターン 11の部分パター ン 11(1),11(2)、線状パターン 12の部分パターン 12(1), 12(2)、線状パターン 13、およ び線状パターン 14は、各々、単独のパターン(幅方向に関してエッジの数が 2つであ るパターン)により構成されている。
次に、第 4実施形態の位置ずれ検出用マーク 10 (下地マーク 10Aとレジストマーク 10B)を用いて、下地パターンとレジストパターンの位置ずれ検出(重ね合わせ検査) を行う方法について説明する。また、その方法を説明する前に、図 16に示す重ね合 わせ測定装置 20の説明を行う。
[0173] 重ね合わせ測定装置 20は、図 16(a)に示す通り、基板 21を支持するステージ 22と 、基板 21に照明光 L1を照射する照明系 (23〜26)と、基板 21の光学像を形成する 結像系 (25〜28)と、オートフォーカス用の受光系 (28〜30)と、撮像素子 31と、画像 処理部 32と、システム制御部 33と、ステージ制御部 34とで構成されている。なお、第 4実施形態の位置ずれ検出用マーク 10は、基板 21の表面 (被検査面)の予め指定さ れた多数の箇所に形成されてレ、る。
[0174] ステージ 22は、基板 21を水平状態に保って支持するホルダと、このホルダをステー ジ制御部 34からの指示に応じて水平方向 (XY方向)および鉛直方向 (Z方向)に移動 させる駆動部とで構成される。ステージ 22のホルダを XY方向に移動させることで、基 板 21の被検查面のうち何れ力 4つの測定点(図 15に示す位置ずれ検出用マーク 10 )を、結像系 (25〜28)の対物レンズ 26の直下(視野領域内)に位置決めすることがで きる。また、ステージ 22のホルダを Z方向に移動させることで、基板 21の測定点のフ オーカス調整が行われる。 Z方向は、結像系 (25〜28)の対物レンズ 26の光軸 6Aと 平行な方向に相当する。
[0175] 照明系 (23〜26)は、光源、23と照明レンズ 24とハーフプリズム 25と対物レンズ 26と で構成される。光源 23からの光は、照明レンズ 24とハーフプリズム 25と対物レンズ 2 6を介した後(照明光 L1)、ステージ 22上の基板 21の被検査面に入射する(落射照 明)。このとき、視野領域内に位置決めされた測定点(図 15の位置ずれ検出用マーク 10)は、照明光 L1により略垂直に照明される。そして、照明光 L1によって照明された 位置ずれ検出用マーク 10から反射光 L2が発生する。反射光 L2は、結像系 (25〜2 8)とオートフォーカス用の受光系 (28〜30)に導かれる。
[0176] 結像系 (25〜28)は、対物レンズ 26と結像レンズ 27とハーフプリズム 25,28とで構 成されている(光学顕微鏡部)。結像レンズ 27は、第 2対物レンズとして機能する。基 板 21からの反射光 L2は、対物レンズ 26とハーフプリズム 25,28と結像レンズ 27とを 介した後、撮像素子 31の撮像面に入射する。このとき、撮像素子 31の撮像面上には 、反射光 L2に基づく拡大像(つまり位置ずれ検出用マーク 10の拡大光学像)が形成 される。
[0177] 撮像素子 31は、複数の画素が 2次元配列された白黒のエリアセンサ(例えば CCD カメラ)であり、撮像面上の位置ずれ検出用マーク 10の光学像を撮像して、画像信号 を後段の画像処理部 32に出力する。撮像素子 31から出力される画像信号は、複数 のサンプノレ点からなり、撮像面における各画素ごとの輝度値に関する分布を表す。 輝度値は反射光 L2の強弱に比例する。位置ずれ検出用マーク 10の画像は、位置 ずれ検出用マーク 10のエッジ部分において輝度値が低くなる。
[0178] また、オートフォーカス用の受光系 (28〜30)は、ハーフプリズム 28と結像レンズ 29 と検出器 30とで構成されている。基板 21からの反射光 L2は、対物レンズ 26とハーフ プリズム 25, 28と結像レンズ 29とを介した後、検出器 30に入射する。そして、検出器 30からステージ制御部 34には、基板 21の被検查面 (特に視野領域内の測定点)の 合焦状態に応じたフォーカス信号が出力される。
[0179] ステージ制御部 34は、ステージ 22を XY方向に制御して基板 21の被検查面の 1つ の測定点(図 15に示す位置ずれ検出用マーク 10)を視野領域内に位置決めした後 、受光系 (28〜30)の検出器 30からのフォーカス信号に基づレ、てステージ 22を Z方 向に制御し、基板 21の測定点のフォーカス調整を行う。そして、フォーカス調整後、 装置全体の統括制御を行うシステム制御部 33は、画像処理部 32を制御して、基板 2 1の測定点(図 15に示す位置ずれ検出用マーク 10)を用レ、た位置ずれ検出を実行 させる。 [0180] ここで、ステージ制御部 34がステージ 22を制御して基板 21上の位置ずれ検出用 マーク 10を視野領域内に位置決めする際、概ね、位置ずれ検出用マーク 10の中心 (つまり下地マーク 10Aの中心 Cやレジストマーク 10Bの中心 C )が、視野領域の中
A B
心付近で停止するように位置決め制御が行われる。視野領域の中心は、結像系 (25 〜28)の対物レンズ 26の光軸 6A上の点に相当する。
[0181] 位置ずれ検出用マーク 10の中心を視野領域の中心(対物レンズ 26の光軸 6A)に 略一致させることで、下地マーク 10Aの線状パターン 11, 12の直線方向 S ,S と、レ
11 12 ジストマーク 10Bの線状パターン 13, 14の直線方向 S ,S は、それぞれ視野領域の
13 14
中心付近で交差することになる。
また、下地マーク 10Aの線状パターン 11の直線方向 S と、レジストマーク 10Bの線
11
状パターン 13の直線方向 S は、共に、光軸 6Aを原点とする直交座標系の 2軸(図 1
13
6(b)に示す X軸と Y軸)のうち、一方の軸(以下「X軸」)に平行で、 X軸の近傍に位置 することになる。同様に、下地マーク 10Aの線状パターン 12の直線方向 S と、レジス
12 トマーク 10Bの線状パターン 14の直線方向 S は、共に、他方の軸(以下「Y軸」)に
14
平行で、 Υ軸の近傍に位置することになる。なお、図 16(b)に示す視野領域は、撮像 素子 31の撮像面の大きさと結像系 (25〜28)の倍率により規定される。
[0182] そして、上記のように位置決めされた図 15の位置ずれ検出用マーク 10の拡大光学 像は、結像系 (25〜28)を介して撮像素子 31の撮像面上に形成される。結像系 (25 〜28)の歪曲収差の影響は、一般に、視野領域の中心(対物レンズ 26の光軸 6Α)に 近いほど小さぐ周辺に離れるほど大きくなり、半径方向には回転対称に生じる。さら に、本発明者は、長年の研究の結果、歪曲収差が"円周方向には生じ難い"と言う事 実に気づいた。円周方向とは、光軸 6Αを原点とする直交座標系(図 16(b)参照)にお いて、 X軸上では Υ軸に平行な方向に相当し、 Υ軸上では X軸に平行な方向に相当 する。
[0183] さらに、歪曲収差が円周方向に生じ難いとは、光軸 6Αを原点とする直交座標系の X軸上において Υ軸方向の歪曲収差が無ぐ X軸から外れていても X軸の近傍では Υ 軸方向の歪曲収差が小さいことを意味する。したがって、 X軸の近傍に位置決めされ た下地マーク 10Aの線状パターン 11とレジストマーク 10Bの線状パターン 13 (何れ も X軸に平行)の拡大光学像には、 Y軸方向の歪曲収差の影響が殆ど現れないと言 える。これらの線状パターン 11,13の拡大光学像は、下地マーク 10Aとレジストマ一 ク 10Bの Υ軸方向の位置ずれ検出に用いられる。
[0184] 同様に、光軸 6Αを原点とする直交座標系の Υ軸上においては X軸方向の歪曲収 差が無ぐ Υ軸から外れていても Υ軸の近傍では X軸方向の歪曲収差が小さい。した がって、 Υ軸の近傍に位置決めされた下地マーク 10Aの線状パターン 12とレジストマ ーク 10Bの線状パターン 14 (何れも Υ軸に平行)の拡大光学像には、 X軸方向の歪 曲収差の影響が殆ど現れないと言える。これらの線状パターン 12, 14の拡大光学像 は、下地マーク 10Aとレジストマーク 10Bの X軸方向の位置ずれ検出に用いられる。
[0185] 撮像素子 31の撮像面上に位置ずれ検出用マーク 10の拡大光学像(つまり線状パ ターン 11〜: 14の拡大光学像)が形成された状態で、画像処理部 32は、その拡大光 学像を撮像素子 31から画像として取り込み、この画像に対して所定の画像処理を施 すことにより、下地マーク 10Aとレジストマーク 10Bの X軸方向の位置ずれ検出と Υ軸 方向の位置ずれ検出をそれぞれ行う。位置ずれ検出用マーク 10の画像には、線状 ノターン 11〜: 14のエッジ部分に応じた輝度情報が独立に現れる。
[0186] 線状パターン 11〜: 14のエッジ部分のうち、 X軸方向の位置ずれ検出には、 Υ軸に 平行で Υ軸の近傍に位置する線状パターン 12, 14のエッジ部分が用いられる。これら の線状パターン 12, 14は、 Υ軸の近傍に位置し、 X軸方向の歪曲収差の影響を殆ど 受けないため、線状パターン 12, 14のエッジ部分を用いることで、 X軸方向の位置ず れ検出を正確に行うことができる。
[0187] また、線状パターン 11〜: 14のエッジ部分のうち、 Υ軸方向の位置ずれ検出には、 X 軸に平行で X軸の近傍に位置する線状パターン 11,13のエッジ部分が用いられる。 これらの線状パターン 11,13は、 X軸の近傍に位置し、 Υ軸方向の歪曲収差の影響 を殆ど受けないため、線状パターン 11,13のエッジ部分を用いることで、 Υ軸方向の 位置ずれ検出を正確に行うことができる。
[0188] 次に、画像処理部 32における位置ずれ検出の処理について説明する。
下地マーク 10Aとレジストマーク 10Bの X軸方向の位置ずれ検出を行う場合、画像 処理部 32は、位置ずれ検出用マーク 10の画像 35 (図 17(a),(b))から、 Y軸に平行な 線状パターン 12 (図 15(b)に示す下地マーク 10Aの一部)に関わる 2つの部分画像 3 6(1),36(2)を切り出すと共に、 Y軸に平行な線状パターン 14 (図 15(c)に示すレジスト マーク 10Bの一部)に関わる 2つの部分画像 37(1),37(2)を切り出す。
[0189] 図 17(a)の部分画像 36(1), 36(2)は、線状パターン 12のそれぞれの部分パターン 1 2(1),12(2)ごとに個別に切り出されたものである。図 17(b)の部分画像 37(1),37(2)は 、線状パターン 14の中で線状パターン 13との交点部分を含まないように、切り出され たものである。
このようにして部分画像 36(1),36(2),37(1),37(2)の切り出しが終了すると、画像処 理部 32は、図 17(a)の部分画像 36(1),36(2)において、各画素の輝度値を Y軸方向( E方向)に積算し、図 17(c)に示すような波形信号を生成する(プロジェクシヨン処理) 。図 17(c)の横軸は画素の位置を表し、縦軸は信号レベル(明るさ)を表す。なお、図 17(a)の部分画像 36(1),36(2)は中抜きの分離した状態となっているが、一続きの部 分画像としてプロジヱクシヨン処理を行う。プロジェクシヨン処理の積算方向(図 17(a) の E方向)は、位置ずれ検出の方向(ここでは X軸方向)と垂直な方向に相当する。ま た、図 17(b)の部分画像 37(1),37(2)においても同様のプロジェクシヨン処理を行う。
[0190] その後、図 17(a)の部分画像 36(1),36(2)から生成した波形信号(図 17(c)参照)を 用いて、例えば周知の相関法 (折り返し相関法など)により、その波形信号の自己相 関演算を行い、線状パターン 12の X軸方向の中心位置 C (図 15(b)に示す直線方
12
向 S の X軸方向の位置に相当)を算出する。同様に、図 17(b)の部分画像 37(1),37(
12
2)から生成した波形信号の自己相関演算を行い、線状パターン 14の X軸方向の中 心位置 C (図 15(c)に示す直線方向 S の X軸方向の位置に相当)を算出する。
14 14
[0191] そして、中心位置 C ,C の差分を、線状パターン 12の直線方向 S と線状パターン
12 14 12
14の直線方向 S との X軸方向の位置ずれ量、つまり、下地マーク 10Aとレジストマ
14
ーク 10Bの X軸方向の位置ずれ量として算出する。これで X軸方向の位置ずれ検出 の処理は終了となる。
γ軸方向の位置ずれ検出も、上記した X軸方向の位置ずれ検出と同様の手順によ り行われる。この場合、画像処理部 32は、位置ずれ検出用マーク 10の画像から、 X 軸に平行な線状パターン 11 (下地マーク 10Aの一部)の部分パターン 11(1),11(2)ご とに個別に部分画像を切り出す(図 17(a)の部分画像 36(1),36(2)参照)と共に、 X軸 に平行な線状パターン 13 (レジストマーク 10Bの一部)の中で線状パターン 14との交 点部分を含まないように部分画像を切り出す(図 17(b)の部分画像 37(1),37(2)参照)
[0192] そして、線状パターン 11に関わる 2つの部分画像において、各画素の輝度値を X 軸方向に積算するプロジェクシヨン処理を行い、得られた波形信号の自己相関演算 により、線状パターン 11の Y軸方向の中心位置 C (図 15(b)に示す直線方向 S の Y
11 11 軸方向の位置に相当)を算出する。なお、この場合も 2つの部分画像が中抜きの分 離した状態となっているが、一続きの部分画像としてプロジェクシヨン処理を行う。また
、線状パターン 13に関わる 2つの部分画像においても同様のプロジェクシヨン処理を 行い、得られた波形信号の自己相関演算により、線状パターン 13の Y軸方向の中心 位置 C (図 15(c)に示す直線方向 S の Y軸方向の位置に相当)を算出する。
13 13
[0193] そして、中心位置 C
11,C の差分を、線状パターン 11の直線方向 S と線状パターン 13 11
13の直線方向 S との Y軸方向の位置ずれ量、つまり、下地マーク 10Aとレジストマ
13
ーク 10Bの Y軸方向の位置ずれ量として算出する。これで Y軸方向の位置ずれ検出 の処理も終了となる。
上記したように、第 4実施形態の位置ずれ検出用マーク 10では、図 15(b)の線状パ ターン 11,12からなる十字形状の下地マーク10八と、図 15(c)の線状パターン 13,14 力もなる十字形状のレジストマーク 10Bとを含むため、位置ずれ検出の際に、その中 心(つまり下地マーク 10Aの中心 Cやレジストマーク 10Bの中心 C )を、視野領域の
A B
中心(光軸 6A)に略一致させることで、次の効果を奏する。
[0194] つまり、 X軸方向の位置ずれ検出用の線状パターン 12,14 (何れも Y軸に平行)が、 光軸 6Aを原点とする直交座標系の Y軸の近傍に位置するため、結像系 (25〜28)の X軸方向の歪曲収差の影響を低減することができる。さらに、 Y軸方向の位置ずれ検 出用の線状パターン 11, 13 (何れも X軸に平行) 、光軸 6Aを原点とする直交座標 系の X軸の近傍に位置するため、結像系 (25〜28)の Y軸方向の歪曲収差の影響を 低減すること力 Sできる。
[0195] したがって、位置ずれ検出の際に取り込んだ位置ずれ検出用マーク 10の画像のう ち、 Y軸の近傍に位置する線状パターン 12, 14のエッジ部分を用いることで、線状パ ターン 12,14の直線方向 S ,S の X軸方向の位置ずれ量(つまり下地マーク 10Aと
11 13
レジストマーク 10Bの X軸方向の位置ずれ量)を正確に算出することができる。また、 X軸の近傍に位置する線状パターン 11 , 13のエッジ部分を用いることで、線状パター ン 11, 13の直線方向 S ,S の Y軸方向の位置ずれ量(つまり下地マーク 10Aとレジ
11 13
ストマーク 10Bの Y軸方向の位置ずれ量)を正確に算出することができる。
[0196] さらに、位置ずれ検出用マーク 10の画像のうち、線状パターン 12, 14のエッジ部分 が Y軸の近傍で Y軸に沿って延在するため、 X軸方向の位置ずれ検出の際に多くの 有意な画像情報を確保することができ、位置ずれ検出用の波形信号の SN比が向上 する。このため、 X軸方向の位置ずれ検出を再現性よく行える。同様に、線状パター ン 11, 13のエッジ部分が X軸の近傍で X軸に沿って延在するため、 Y軸方向の位置 ずれ検出の際に多くの有意な画像情報を確保することができ、位置ずれ検出用の波 形信号の SN比が向上する。このため、 Y軸方向の位置ずれ検出を再現性よく行える
[0197] また、第 4実施形態によれば、下地マーク 10Aとレジストマーク 10Bの X軸方向と Y 軸方向の位置ずれ検出を正確に再現性よく行えるため、基板 21の下地パターン対 するレジストパターンの高精度な重ね合わせ検査が可能となる。具体的には、 3nm 程度の精度での重ね合わせ検査が可能となる。したがって、半導体素子などの製造 工程における将来のプロセスルール(回路パターンの最小線幅: lOOnm以下,重ね 合わせ精度:約 30nm以下)にも対応できる。
[0198] さらに、位置ずれ検出用マーク 10の:!枚の画像から X軸方向と Y軸方向の位置ず れ検出用に多くの有意な画像情報を抽出できるため、撮像素子 31からの画像の取り 込み回数を増やす必要がな 位置ずれ検出のスループットが向上する。
また、位置ずれ検出用マーク 10の画像から線状パターン 11, 12に関わる位置ずれ 検出用の部分画像(図 17(a)の部分画像 36(1),36(2)参照)を切り出す際、線状パタ ーン 11では、それぞれの部分パターン 11(1),11(2)ごとに個別に部分画像を切り出し 、線状パターン 12では、それぞれの部分パターン 12(1), 12(2)ごとに個別に部分画 像を切り出すため、その他の線状パターンのエッジ部分に影響されることなく良好に 位置ずれ検出を行うことができる。
[0199] さらに、位置ずれ検出用マーク 10の画像から線状パターン 13, 14に関わる位置ず れ検出用の部分画像(図 17(b)の部分画像 37(1),37(2)参照)を切り出す際、線状パ ターン 13では、線状パターン 14との交点部分を含まないように部分画像を切り出し、 線状パターン 14では、線状パターン 13との交点部分を含まないように部分画像を切 り出すため、その他の線状パターンのエッジ部分に影響されることなく良好に位置ず れ検出を行うことができる。
[0200] また、第 4実施形態によれば、視野領域の中心(光軸 6A)に、位置ずれ検出用マ ーク 10の中心(つまり下地マーク 10Aの中心 Cやレジストマーク 10Bの中心 C )を厳
A B
密に一致させなくても、光軸 6Aを原点とする直交座標系の X軸と Y軸の近傍に線状 ノ ターン 11〜: 14を位置決めすることができ、結像系 (25〜28)の歪曲収差の影響を 低減できる。したがって、ステージ 22として非常に高価なもの(例えば位置決め精度 が約 1 μ m以下のもの)を用いる必要はなぐ比較的安価に構成できる。
[0201] さらに、第 4実施形態では、周知の相関法 (折り返し相関法など)を用い、プロジェク シヨン処理後の波形信号の全体を使って自己相関演算を行うため、信号ノイズの影 響を受け難く、下地マーク 1 OAとレジストマーク 1 OBの位置ずれ量を再現性よく算出 することができる。ただし、相関法ではなぐ波形信号のボトム位置に基づいて位置ず れ量を算出しても構わない。
(第 5実施形態)
以下、図 18を用いて本発明の第 5実施形態を詳細に説明する。
[0202] 第 5実施形態の位置ずれ検出用マークは、図 18に示す通り、線状パターン 11, 13 を「幅方向に分割された複数本の微細な線状パターン 38, 39の集合体 (サブマーク 群)」により構成し、線状パターン 12, 14を同様のサブマーク群により構成したもので ある。なお、サブマーク群による構成は、線状パターン 11〜: 14の全てに限らず、少な くとも 1つの線状パターンに適用してもよい。
[0203] 第 5実施形態の位置ずれ検出用マークのように、線状パターン 11〜: 14のうち少な くとも 1つをサブマーク群により構成することで、 CMP研磨の際に均一性のよい研磨 が可能となる。 CMP研磨によってマークが崩れ難い利点もある。 また、サブマーク群の微細な線状パターン 38,39の幅を対物レンズ 26の解像力内 にすると、線状パターン 38,39の集合体である線状パターン 13,11の幅方向(位置ず れ検出方向)に関して多数のエッジが存在することになり、平均化効果で位置ずれ検 出の再現性が向上する。さらに、微細な線状パターン 38,39の幅を回路パターンの 線幅と同程度にすることで、位置ずれ検出の精度が向上する。
(第 6実施形態)
以下、図 19を用いて本発明の第 6実施形態を詳細に説明する。
[0204] 第 6実施形態の位置ずれ検出用マークは、図 19に示す通り、線状パターン 11と線 状パターン 12に外接する矩形領域 40の内側で、下地マーク 1 OAとレジストマーク 10 B (つまり線状パターン 11〜14)により仕切られた 4つの領域 a〜dに、下地パターンの 他の基準位置を示す下地マーク (41〜44)と、レジストパターンの他の基準位置を示 すレジストマーク (44〜48)とを、重ならないように配置したものである。新たな下地マ ーク (41〜44)とレジストマーク (44〜48)は、ライン 'アンド'スペースのパターンからな る(グレーティング構造)。
[0205] 上記のように構成された第 6実施形態の位置ずれ検出用マークでは、矩形領域 40 の内側で 4つの領域 a〜(!に分けて効率よく他の下地マーク (41〜44)とレジストマ一 ク (44〜48)を配置するため、占有面積を大きくせずに 2種類のマークを含むことがで きる。
さらに、第 6実施形態の位置ずれ検出用マークによれば、線状パターン 11,12から なる下地マーク 10Aの中心 C (図 15(b))と線状パターン 13
A ,14からなるレジストマーク
10Bの中心 C (図 15(c))を視野領域の中心 (光軸 6A)に略一致させた状態で、下地
B
マーク 10Aとレジストマーク 10Bとの位置ずれ検出、および、下地マーク (41〜44)と レジストマーク (44〜48)との位置ずれ検出を行うことができる。
[0206] 実際の位置ずれ検出は、十字形状のマーク (線状パターン 11〜: 14)とライン'アンド
'スペースのマーク (41〜48)との両方で行っても良いし、 2種類のうち最適な方を検 查時に選択しても良い。十字形状のマークによる利点は、光軸付近を利用している ため、結像系 (25〜28)の歪曲収差の影響を殆ど受けることなく高精度に位置ずれ検 出を行えるという点にある。ライン ·アンド'スペースのマークによる利点は、平均的な 検出結果を得ることができるという点にある。 2種類のうち最適な方を選択することで、 位置ずれ検出の精度が向上する。
[0207] 上記した第 6実施形態では、矩形領域 40の内側で 4つの領域 a〜dに分けて他の 下地マーク (41〜44)とレジストマーク (44〜48)を配置した力 本発明はこれに限定さ れない。 4つの領域 a〜dのうち少なくとも 1つに、他の基準位置を示すマーク(下地マ ークとレジストマークのうち少なくとも一方)を配置してもよい。
(第 7実施形態)
以下、図 20を用いて本発明の第 7実施形態を詳細に説明する。
[0208] 第 7実施形態の位置ずれ検出用マークは、図 20に示す通り、線状パターン 11と線 状パターン 12に外接する矩形領域 50の内側で、下地マーク 1 OAとレジストマーク 10 B (つまり線状パターン 11〜14)により仕切られた 4つの領域 a〜dに、下地パターンの 形成に関わるプロセス情報 51と、下地パターンと同時に形成されたダミーパターン 5 2,53と、レジストパターンの形成に関わるプロセス情報 54と、レジストパターンと同時 に形成されたダミーパターン 55,56を配置したものである。プロセス情報 51, 54とは、 レチクルナンバーなどである。
[0209] 上記のように構成された第 7実施形態の位置ずれ検出用マークでは、線状パター ン 11 , 12からなる下地マーク 10Aの中心 C (図 15(b))と線状パターン 13, 14からなる
A
レジストマーク 10Bの中心 C (図 15(c))を視野領域の中心 (光軸 6A)に略一致させた
B
状態で、下地マーク 10Aとレジストマーク 10Bとの位置ずれ検出を行うことができる他 、プロセス情報 51, 54を読み取って照合することで、露光レチクルの間違いなどを認 識できる。また、ダミーパターン52,53,55,56を設けたことにょり、 CMP研磨を他の 部分と同様の均一な条件で行うことができる。
[0210] 上記した第 7実施形態では、矩形領域 50の内側の 4つの領域 a〜dのうち、領域 a,b に下地パターンとレジストパターンの形成に関わる各々のプロセス情報 51,54を配置 したが、本発明はこれに限定されなレ、。下地パターンとレジストパターンのうち一方の 形成に関わるプロセス情報を、 4つの領域 a〜dのうち少なくとも 1つに配置してもよい
(第 8実施形態) 以下、図 21を用いて本発明の第 8実施形態を詳細に説明する。
[0211] 第 8実施形態の位置ずれ検出用マークは、図 21に示す通り、線状パターン 11と線 状パターン 12に外接する矩形領域 60の内側で、下地マーク 1 OAとレジストマーク 10 B (つまり線状パターン:!:!〜 14)により仕切られた 4つの領域 a〜dに、下地パターンと レジストパターンのうち少なくとも一方の形成に関わる露光条件の検查用マーク 61〜 64を配置したものである。マーク 61〜64は、楔形の SMP (Self Measurement Progra m)マークであり、その長さが露光条件(ドーズ量やフォーカスずれ量など)に応じて変 化する。
[0212] 上記のように構成された第 8実施形態の位置ずれ検出用マークでは、線状パター ン 11 , 12からなる下地マーク 10Aの中心 C (図 15(b))と線状パターン 13, 14からなる
A
レジストマーク 10Bの中心 C (図 15(c))を視野領域の中心 (光軸 6A)に略一致させた
B
状態で、下地マーク 10Aとレジストマーク 10Bとの位置ずれ検出を行うことができる他 、マーク 61〜64の長さの変化量に応じて露光条件(ドーズ量やフォーカスずれ量な ど)を検査することもできる。
[0213] 上記した第 8実施形態では、矩形領域 60の内側の 4つの領域 a〜dにマーク 61〜6 4を配置したが、本発明はこれに限定されない。同様の SMPマークを 4つの領域 a〜 dのうち少なくとも 1つに配置してもよい。
(第 9実施形態)
以下、図 22を用いて本発明の第 9実施形態を詳細に説明する。
[0214] 第 9実施形態の位置ずれ検出用マーク 70は、図 22に示す通り、図 15の位置ずれ 検出用マーク 10のレジストマーク 10Bに代えて、レジストマーク 70Bを設けたもので ある。レジストマーク 70Bは、線状パターン 11に平行な線状パターン 71と、線状パタ ーン 12に平行な線状パターン 72とが、十字形状に配置されたものである。また、線 状パターン 71, 72は、線状パターン 11,12よりも両端間の長さが短ぐ互いに交差し ないように、それぞれ直線方向 S ,S の一端側と他端側とに分割された 2つの部分
71 72
パターン 71(1),71(2),72(1), 72(2)からなる。
[0215] 上記した位置ずれ検出用マーク 70によれば、位置ずれ検出の際に、図 22(c)に示 す位置ずれ検出用マーク 70の画像から、レジストマーク 70Bの線状パターン 71,72 の部分画像を簡単に切り出すことができる。例えば線状パターン 71の場合には、部 分パターン 72(1)から部分パターン 72(2)にわたつて連続した 1つの部分画像 73を切 り出せばよい。線状パターン 72の場合も同様であり、部分パターン 71(1)から部分パ ターン 71 (2)にわたつて連続した 1つの部分画像を切り出せばょレ、。
[0216] 線状パターン 71,72は互いに交差しないため、連続した 1つの部分画像を切り出し ても、他の線状パターンのエッジ部分に影響されることなく良好に位置ずれ検出を行 うことができる。
(第 4〜第 9実施形態の変形例)
なお、上記した実施形態では、基板 21の異なる層に形成された下地パターンに対 するレジストパターンの重ね合わせ検査 (位置ずれ検出)を例に説明したが、本発明 はこれに限定されなレ、。基板 21の同じ層に形成された 2つのパターンの位置ずれ検 出を行う場合にも、本発明を適用できる。
[0217] さらに、重ね合わせ測定装置 20の画像処理部 32により位置ずれ検出の処理を行う 例を説明したが、本発明はこれに限定されない。重ね合わせ測定装置に接続された 外部のコンピュータを用いた場合でも、同様の効果を得ることができる。
(第 10実施形態)
以下、図 24〜図 28を用いて本発明の第 10実施形態を詳細に説明する。
[0218] ここでは、本実施形態の位置検出方法および装置について、図 24に示す重ね合 わせ検查装置 10を例に説明する。重ね合わせ検查装置 10は、半導体素子や液晶 表示素子などの製造工程において、基板 10Aのレジストパターン (不図示)の重ね合 わせ検查を行う装置である。重ね合わせ検查では、基板 10Aの下地層に形成された 回路パターン(以下「下地パターン」という)に対するレジストパターンの位置ずれ量の 測定が行われる。
[0219] 本実施形態の重ね合わせ検查装置 10は、図 24(a)に示す通り、基板 10Aを支持 するステージ 11と、基板 10Aに照明光 L1を照射する照明系 (12〜16)と、基板 10A の光学像を形成する結像系 (16, 17)と、撮像素子 18と、観察用の TVモニタ 19と、信 号処理部 (20,21)と、制御部 (22〜24)とで構成されている。
まず、基板 10Aの説明を行う。基板 10Aは、半導体ウェハや液晶基板などであり、 レジスト層に対する露光 ·現像後で、所定の材料膜に対する加工前の状態にある。未 加工の材料膜は、レジスト層と下地層との間に形成されている。
[0220] 基板 10Aのレジストパターンの重ね合わせ検査には、例えば図 25に示すような 2重 マーク 30が用いられる。 2重マーク 30は、基板 10Aの表面(被検查面)の予め指定さ れた多数の箇所に形成されている。図 25(a), (b)は平面図, AA断面図である。図 25( b)では未力卩ェの材料膜を図示省略した。
2重マーク 30は、大きさが異なる 2つの重ね合わせマーク 31, 32からなる。また、外 側の重ね合わせマーク 31は、下地層 41に形成された 4つの凹部からなり、下地パタ ーンの基準位置を示す。内側の重ね合わせマーク 32は、レジスト層 42に形成された 4つの凹部からなり、レジストパターンの基準位置を示す。重ね合わせマーク 31,32 の凹部は何れもバー状であり、 2重マーク 30は、 bar in barマークを構成している。以 下、下地層 41の重ね合わせマーク 31を「下地マーク 31」という。レジスト層 42の重ね 合わせマーク 32を「レジストマーク 32」とレヽう。
[0221] また、図 25(b)の B部分を拡大した図(図 26)力 分かるように、下地層 41とレジスト 層 42との間には、例えば 2つの中間層 43,44が形成されている。中間層 43,44は、 未加工の材料膜や加工済の材料膜や反射防止膜などであり、一般的な白色光の波 長域において透明または半透明な材質である。なお、材料膜は、配線用の導電材料 や、ガラスなどの絶縁材料からなる。
[0222] さらに、 2つの中間層 43, 44は、下地マーク 31の凹部の影響を受けて、その上面 3 A,4Aに微小な凹みを生じている。そして、実際の製造工程では、下地マーク 31の 凹部が左右対称な形状であっても、その上の中間層 43,44の上面 3A,4Aの凹みの 形状が、図 26(a)のように左右対称にはならず、図 26(b)のように若干ではあるが非対 称になってしまうこともある。なお、レジスト層 42の上面 2Aは、中間層 43,44の上面 3 A,4Aの凹みに拘わらず平面状である。
[0223] また、下地マーク 31とレジストマーク 32とは、下地パターンに対するレジストパター ンの位置ずれ量がゼロのとき、各々の中心 C1 ,C2 (図 25)がー致するようになってい る。重ね合わせ検查装置 10では、レジストパターンの重ね合わせ検査の際に、下地 マーク 31の中心 C1の位置とレジストマーク 32の中心 C2の位置とをそれぞれ算出す る。このとき、下地マーク 31の上には中間層 43,44が形成され、その上面 3A,4Aの 凹みの形状が非対称になる(図 26(b))こともあるが、本実施形態の重ね合わせ検查 装置 10によれば、そのような中間層 43,44の影響を低減して下地マーク 31の位置を 正確に検出することができる(詳細は後述)。
[0224] 次に、重ね合わせ検查装置 10の構成説明を行う。
ステージ 11は、基板 10Aを水平状態に保って支持するホルダと、このホルダを水 平方向 (XY方向)に移動させる駆動部とで構成される。ステージ 11のホルダを XY方 向に移動させることで、基板 10Aの被検査面のうち何れか 1つの測定点(図 25に示 す 2重マーク 30)を、結像系 (16, 17)の視野領域内に位置決めすることができる。
[0225] 照明系 (12〜16)は、光源 12と波長選択部 13と照明レンズ 14とハーフミラー 15と対 物レンズ 16とで構成される。光源 12は白色光を射出する。波長選択部 13は、図 24( b)に示す通り、分光特性が異なる 4種類の色フィルタ 13Aと、これらの色フィルタ 13A を切り換える機構 (レボルバ 13Bと不図示のモータ)とで構成され、何れか 1つの色フィ ルタ 13 Aを照明光路 10Bに挿入する。
[0226] 光源 12からの白色光は、波長選択部 13の 1つの色フィルタ 13Aと照明レンズ 14と ハーフミラー 15と対物レンズ 16を介した後(照明光 L1)、ステージ 11上の基板 10A の被検査面に入射する(落射照明)。このとき、視野領域内に位置決めされた測定点 (図 25の 2重マーク 30)は、照明光 L1により略垂直に照明される。そして、照明光 L1 によって照明された 2重マーク 30から反射光 L2が発生する。反射光 L2は、後述の結 像系 (16, 17)に導かれる。
[0227] 照明光 L1の分光特性は、光源 12から射出される白色光の分光特性と、照明光路 1 0Bに揷入された色フィルタ 13Aの分光特性とに応じて決まる。また、波長選択部 13 のレボルバ 13Bを不図示のモータにより軸 13Cの周りで回転させ、照明光路 10Bに 揷入される色フィルタ 13Aの種類を変更することで、簡単に照明光 L1の分光特性を 調整することができる。なお、照明光 L1の分光特性の調整は、後述の制御部 (22〜2 4)からの指示に基づいて行われる。
[0228] 結像系 (16,17)は、対物レンズ 16と結像レンズ 17とで構成されている(光学顕微鏡 部)。結像レンズ 17は、第 2対物レンズとして機能する。基板 11からの反射光 L2は、 対物レンズ 16とハーフミラー 15と結像レンズ 17とを介した後、撮像素子 18の撮像面 に入射する。このとき、撮像素子 18の撮像面上には、反射光 L2に基づく拡大像 (つ まり 2重マーク 30の光学像)が形成される。
[0229] 撮像素子 18は、複数の画素が 2次元配列された白黒のエリアセンサ (例えば CCD カメラ)であり、撮像面上の 2重マーク 30の光学像を撮像して、画像信号を後段の TV モニタ 19と信号処理部 (20,21)に出力する。撮像素子 18から出力される画像信号は 、複数のサンプノレ点からなり、撮像面における各画素ごとの輝度値に関する分布を 表す。輝度値は反射光 L2の強弱に比例する。
[0230] 2重マーク 30の画像(例えば TVモニタ 19に表示されるイメージ)は、図 27(a)に示 す通り、下地マーク 31の各凹部に対応する箇所 31Aと、レジストマーク 32の各凹部 に対応する箇所 32Aにおいて、輝度値が低くなる。
信号処理部 (20,21)は、フレームメモリ 20と波形信号演算用の CPU21とで構成さ れ、フレームメモリ 20内に撮像素子 18からの画像信号(図 27(a))を記憶する。 CPU 21は、フレームメモリ 20内の画像信号(図 27(a))に対して信号処理範囲 33を定義し 、信号処理範囲 33に含まれる各画素の輝度値を縦方向 (E方向)に積算して、図 27( b)または (c)に示す波形信号を生成する(プロジェクシヨン処理)。図 27(b),(c)の横軸 は画素の位置を表し、縦軸は信号レベル(明るさ)を表す。波形信号の F部分は下地 マーク 31に対応する。
[0231] さらに、 CPU21は、例えば周知の相関法を用いて、図 27(b), (c)のような波形信号 の相関演算により、下地マーク 31の中心 C1の位置とレジストマーク 32の中心 C2の 位置とをそれぞれ算出する。また、これらの位置検出の結果に基づいて、下地マーク 31とレジストマーク 32との位置ずれ量を求め、下地パターンに対するレジストパター ンの位置ずれ量として制御部 (22〜24)に出力する。
[0232] 制御部 (22〜24)は、装置全体を管理する操作コンピュータ 22と、ステージ制御用 の CPU23と、モニタ 24とで構成される。上記した CPU21による演算結果(つまりの 位置ずれ量)は、操作コンピュータ 22に出力され、操作コンピュータ 22を介してモニ タ 24に表示される。以上で 1つの測定値(つまり位置ずれ量)を得るための一連の動 作が終了する。 [0233] また、操作コンピュータ 22は、 CPU23を介してステージ 11を制御し、基板 10Aの 他の場所に形成された 2重マーク 30を順に結像系 (16, 17)の視野領域内に位置決 めすると共に、その 2重マーク 30の下地マーク 31とレジストマーク 32との位置ずれ量 (つまり下地パターンに対するレジストパターンの位置ずれ量)を CPU21から取り込 み、モニタ 24に表示する。
[0234] さらに、上記のような下地マーク 31とレジストマーク 32の位置検出や位置ずれ量の 算出に先立ち、操作コンピュータ 22は、例えば検查レシピに予め登録された照明光 L1の設定情報に基づいて、照明系 (12〜16)の波長選択部 13を制御し、レボルバ 1 3Bを回転させることにより所望の色フィルタ 13Aを照明光路 10Bに挿入する。なお、 操作コンピュータ 22による波長選択部 13の制御は、外部から入力された照明光 L1 の設定情報に基づいて行ってもよい。
[0235] その結果、所望の分光特性の照明光 L1によって、基板 11の 2重マーク 30 (図 25) を照明することができる。照明光 L1の所望の分光特性とは、基板 11の下地層 41とレ ジスト層 42との間に形成された中間層 43,44 (図 26)の影響を低減して、下地マーク 31の位置を正確に検出できるような分光特性である(次に説明する)。なお、レジスト マーク 32の位置は照明光 L1の分光特性に拘わらず正確に検出可能である。
[0236] 次に、下地マーク 31の位置を検出する際の「中間層 43,44の影響」と「照明光 の 所望の分光特性」について説明する。
照明光 L1は、基板 11のレジスト層 42の側から照射され、図 28に示す通り、一部の 光 L3がレジスト層 42の上面 2Aで反射し、他の一部の光 L4が中間層 44の上面 4A で反射し、他の一部の光 L5が中間層 43の上面 3Aで反射し、残りの一部の光 L6が 下地層 41の上面 1Aで反射する。なお、上面 1Aは、レジスト層 41と中間層 43との境 界面に相当する。上面 3Aは、中間層 43,44の境界面に相当する。上面 4Aは、中間 層 44とレジスト層 41との境界面に相当する。
[0237] このように、照明光 L1が基板 11の各層の上面 1A〜4Aで反射するため、基板 11 の各層力 発生する光 L3'〜L6'の合成が上記の反射光 L2 (図 24参照)となり、結像 系 (16, 17)を介して撮像素子 18に導かれる。そして、反射光 L2に基づく光学像は、 光 L3'に基づく光学像(つまりレジスト層 42の上面 1Aの光学像)と、光 L4'に基く光学 像(つまり中間層 44の上面 4Aの光学像)と、光 L5'に基づく光学像(つまり中間層 43 の上面 3Aの光学像)と、光 L6'に基づく光学像(つまり下地層 41の上面 1Aの光学像 )との合成となる。
[0238] 既に説明した通り、中間層 43,44は、下地マーク 31の凹部(図 26)の影響を受け、 その上面 3A,4Aに微小な凹みを生じている。そして、下地マーク 31の凹部が左右対 称な形状であると同様に、中間層 43,44の上面 3A,4Aの凹みの形状も、図 26(a)の ように左右対称な場合、下地マーク 31の画像(図 27(a)の低輝度な箇所 31A)から求 めた波形信号は、例えば図 27(b)の F部分のように左右対称となる。したがって、下地 マーク 31の正確な位置を検出することができる。
[0239] 一方、中間層 43,44の上面 3A,4Aの凹みの形状は、下地マーク 31の凹部が左右 対称な形状であっても、図 26(b)のように若干ではあるが非対称になってしまうことも ある。この場合、波長選択部 13の色フィルタ 13Aを照明光路 10Bから退避させ、白 色光と同じ分光特性の照明光 L 1を用レ、て照明すると、下地マーク 31の画像(図 27( a)の低輝度な箇所 31 A)から求めた波形信号は、中間層 43,44の影響(上面 3A,4A の凹み形状の影響)を受け、例えば図 27(c)の F部分のように非対称となってしまう。 したがって、このままでは下地マーク 31の正確な位置を検出することはできない。
[0240] そこで、本実施形態の重ね合わせ検査装置 10では、波長選択部 13の所望の色フ ィルタ 13Aを照明光路 10Bに揷入し、照明光 L1の分光特性を白色光のものとは異 なる所望の分光特性に調整することで、中間層 43,44の影響(上面 3A,4Aの凹み形 状の影響)を低減して、下地マーク 31の位置を正確に検出できるようにする。所望の 分光特性の決定は、次のようにして位置検出の前までに行われる。
[0241] 中間層 43,44それぞれの上面3八,4八で反射する光し5山4どぅしは、上面 3A,4A に挟まれた中間層 44が薄膜状であるため、波長域の成分ごとに干渉によって強め合 つたり弱め合ったりする。つまり、中間層 44の屈折率 nと膜厚 dとに応じた光路差 2 nd)が波長域 λ 1の M倍 (Mは整数)となる条件では、その波長域; 1 1の光 L5,L4どう しが互いに強め合う。また、光路差 2nd)が波長域 λ 2の (M— 1/2)倍となる条件 では、その波長域 1 2の光 L5,L4どうしが互いに弱め合う。
[0242] このため、照明光 L1のうち「光 L5,L4どうしが強め合う波長域え 1の成分」に対する 「光 L5,L4どうしが弱め合う波長域 λ 2の成分」の強度比が大きくなるように、照明光 L 1の所望の分光特性を決定すればよい。波長域; 1 1, λ 2は、中間層 44の屈折率 ηと 膜厚 dに関する設計情報から求めることができる。膜厚 dは、設計情報の他、実測値 を用いてもよい。
[0243] 上記した所望の分光特性を実現するには、照明光 L1のうち「強め合う波長域; 1 1の 成分」の強度を部分的または全体的に低下させると共に「弱め合う波長域 I 2の成分 」の強度を制限しないような分光特性の色フィルタ 13Aを、照明光路 10Bに揷入する ことが好ましい。
このように、照明光 L1のうち「強め合う波長域 λ 1の成分」に対する「弱め合う波長 域え 2の成分」の強度比を大きくすることで、図 28に示す基板 11の各層から発生す る光 L3'〜L6'のうち「中間層 43,44力 の光 L4'と光 L5'」に対する「下地層 41からの 光 L6'」の強度比を大きくすることができる。
[0244] このため、下地マーク 31の画像(図 27(a)の低輝度な箇所 31A)力 求めた波形信 号において、中間層 43,44の影響(上面 3A,4Aの凹み形状の影響)を低減すること 力 Sできる。したがって、上面 3A,4Aの凹み形状が非対称であっても、波形信号の形 状を図 27(b)の F部分のような左右対称な形状に近づけることができ、下地マーク 31 の位置を中間層 43,44によって騙されることなく正確に検出することができる。
[0245] このように、本実施形態の重ね合わせ検查装置 10では、「中間層 43,44からの光 L 4'と光 L5'」に対する「下地層 41からの光 L6'」の強度比が大きくなるように照明光 L1 の分光特性を調整するため、中間層 43,44の影響(上面 3A,4Aの凹み形状の影響) を低減して下地マーク 31の正確な位置を検出することができる。したがって、下地マ ーク 31とレジストマーク 32との位置ずれ量(つまり下地パターンに対するレジストパタ ーンの位置ずれ量)を正確に求めることができ、重ね合わせ検査の精度が向上する。 (第 10実施形態の変形例)
なお、上記した実施形態では、中間層 43,44の上面 3A,4Aで反射する光 L5,L4の 干渉を利用して中間層 43,44の影響を低減する例を説明したが、本発明はこれに限 定されない。その他、照明光 L1のうち「中間層 43,44での吸収が小さい波長域の成 分」に対する「中間層 43,44での吸収が大きい波長域の成分」の強度比が大きくなる ように照明光 LIの分光特性を調整してもよい。この場合も、「中間層 43,44からの光 L4'と光 L5'」に対する「下地層 41からの光 L6'」の強度比を大きくできるため、中間層 43,44の影響(上面 3A,4Aの凹み形状の影響)を低減して下地マーク 31の正確な 位置を検出することができる。
[0246] さらに、照明光 L1のうち「下地層 41での吸収が大きい波長域の成分」に対する「下 地層 41での吸収が小さい波長域の成分」の強度比が大きくなるように照明光 L1の分 光特性を調整してもよい。この場合も、「中間層 43,44からの光 L4'と光 L5'」に対する 「下地層 41からの光 L6'」の強度比を大きくできるため、中間層 43,44の影響を低減 して下地マーク 31の正確な位置を検出することができる。
[0247] また、中間層 43,44の上面 3A,4Aで反射する光 L5,L4の干渉効果と、中間層 43, 44での吸収特性と、下地層 41での吸収特性とを組み合わせて考慮し、照明光 L1の 分光特性を調整してもよい。
さらに、上記した実施形態では、下地層 41とレジスト層 42との間に 2つの中間層 43 ,44が形成されている例を説明したが、本発明はこれに限定されない。中間層の数が 1つの場合でも 3つ以上の場合でも本発明を適用できる。ただし、中間層の数が 1つ の場合には、中間層での吸収と下地層での吸収とを考慮して照明光 L1の分光特性 を調整することが好ましい。
[0248] また、上記した実施形態では、照明系 (12〜16)に白色光を射出する光源 12と波長 選択部 13とを設けたが、本発明はこれに限定されない。光源 12と波長選択部 13に 代えて、波長域の異なる複数のレーザ光源を設け、これらのレーザ光源を照明光 L1 の所望の分光特性に応じて選択しても良い。
さらに、上記した実施形態では、 2重マーク 30が bar in barマークである例を説明し たが、その種類は他のもの(例えば frame in frameマークや box in boxマークなど)で も良い。バー状とボックス状とフレーム状のうち 2種類を組み合わせても良レ、。十字状 のマークを用いてもよレ、。
[0249] また、上記した実施形態では、下地層より上方に形成された中間層の影響を低減 する例を説明したが、下地層より下方に形成された他の層の影響を低減するように、 照明光 L1の分光特性を調整してもよい。 さらに、上記した実施形態では、重ね合わせ検查装置 10に組み込まれた位置検出 装置を例に説明したが、本発明はこれに限定されない。基板 11の同じ層に形成され た 2つのマークの位置ずれ量を測定する装置や、基板 11に対する露光工程の前に 基板 11のァライメントを行う装置(つまり露光装置のァライメント系)に組み込まれた位 置検出装置にも、本発明を適用できる。ァライメント系では、下地層に形成されたァラ ィメントマークの位置を検出し、その検出結果とステージ座標系(干渉計など)との位 置関係を求める。この場合にも、下地層のァライメントマークの上には 1つ以上の中間 層を介してレジスト層が形成されている。
[0250] また、上記した重ね合わせマークゃァライメントマークの位置を検出する場合に限ら ず、基板 10Aの下地層に形成された回路パターンの位置を検出する場合にも、本発 明を適用できる。
さらに、重ね合わせ検査装置 10の CPU21により下地層のパターン(ァライメントマ ークゃ重ね合わせマークや回路パターンなど)の位置を検出する場合に限らず、重 ね合わせ検査装置に接続された外部のコンピュータを用いた場合でも、同様の効果 を得ることができる。
(第 11実施形態)
以下、図 29〜図 35を用いて本発明の第 11実施形態を詳細に説明する。
[0251] ここでは、第 11実施形態のテンプレートマッチング装置について、図 29に示す観察 装置 10を例に説明する。観察装置 10には、ステージ 11と光学系 12とカメラ 13と画 像処理部 14とが設けられる。ステージ 11は、試料 10Aを支持する。光学系 12は、試 料 10Aの局所領域の光像を形成する。カメラ 13は、不図示の撮像素子により試料 1 OAの光像を撮像し、撮像信号を画像処理部 14に出力する。
[0252] 画像処理部 14は、カメラ 13から撮像信号を取り込むと、これを所定ビット(例えば 8 ビット)のディジタル画像に変換し、入力画像 21 (図 30)として不図示のメモリに記憶 させる。そして、入力画像 21に対して後述のテンプレートマッチングを行う。画像処理 部 14が第 11実施形態のテンプレートマッチング装置に対応する。観察装置 10を用 いて、試料 10Aの観察や検查ゃ位置合わせなどが行われる。試料 10Aは、例えば、 半導体ウェハや液晶基板、プリント基板、生物標本 (例えば細胞)などである。 [0253] 次に、画像処理部 14におけるテンプレートマッチングについて説明する。このテン プレートマッチングは、図 30に示す円形状の既知のテンプレート画像 22を用レ、、図 3 1に示すフローチャートの手順(ステップ S1〜S11)にしたがって行われる。図 31の 処理では、入力画像 21とテンプレート画像 22が、各々、 3つの色成分(つまり加色の 三原色または光の三原色と呼ばれる RGB成分)を含むとする。 RGB成分を含む画 像 (21, 22)はカラー画像である。
[0254] 図 31のステップ S1において、画像処理部 14は、テンプレート画像 22の全体から R GB成分の濃度ヒストグラム H を各色成分ごとに作成する(図 32(a)参照)。濃度ヒスト グラム H の作成は、テンプレート画像 22の全画素の濃度値を調べ、各濃度値ごとに 画素数を計数することにより行われる。テンプレート画像 22が 8ビットの場合、画素の 濃度値は 256段階 (0〜255)となる。濃度ヒストグラム H は、テンプレート画像 22の 中に各濃度値の画素が現れる頻度(画素数)を表した濃度のヒストグラム (度数分布) であり、画素の位置に依存しない特徴量である。濃度ヒストグラム H の横軸は濃度値
、縦軸は画素数である。
[0255] 次に (ステップ S2)、画像処理部 14は、入力画像 21の中から円形状の部分画像 25
(図 30)をマッチング演算用に抽出する。この抽出処理は、例えば 2段階で行われ、 入力画像 21の中から矩形状の部分画像 24を抽出した後、部分画像 24の四隅付近 にマスクを掛け、部分画像 24に内接する円形状の部分画像 25をマッチング演算用 として抽出するものである。円形状の部分画像 25は、テンプレート画像 22と同じ大き さ (画素数)である。部分画像 25とテンプレート画像 22は、共に、入力画像 21より小さ レ、(画素数が少ない)。また、演算用の部分画像 25も、入力画像 21と同じ色成分 (つ まり RGB成分)を含むカラー画像である。
[0256] 次に (ステップ S3)、画像処理部 14は、ステップ S2で抽出した演算用の部分画像 2 5の全体力 RGB成分の濃度ヒストグラム H を各色成分ごとに作成する(図 32(b)参 照)。この濃度ヒストグラム H の作成も、上記したテンプレート画像 22の濃度ヒストグ ラム H と同様にして行われる。濃度ヒストグラム H も、画素の位置に依存しない特徴 量であり、横軸は濃度値、縦軸は画素数である。
[0257] ここで、演算用の部分画像 25の濃度ヒストグラム H と、入力画像 21の回転変化と の関係について説明する。図 33から分かるように、入力画像 21に回転変化があると 、入力画像 21から抽出される矩形状の部分画像 24には同様の回転変化が現れ、そ の四隅付近の濃度情報が変化してしまう。しかし、矩形状の部分画像 24から抽出さ れる円形状の部分画像 25には回転変化が現れず、その濃度情報が変化することは ない。このため、円形状の部分画像 25から作成した濃度ヒストグラム H (図 32(b))は
、入力画像 21の回転変化に対して不変な特徴量と考えられる。
[0258] 画像処理部 14は、図 31のステップ S1〜S3を経て、テンプレート画像 22の濃度ヒ ストグラム H (図 32(a))と、部分画像 25の濃度ヒストグラム H (図 32(b))とを作成し 終えると、 2つの濃度ヒストグラム H ,Η に基づいて、部分画像 25とテンプ
レート画像 22とのマッチング演算(S4〜S7)を行う。マッチング演算(S4〜S7)は、 部分画像 25とテンプレート画像 22との類似度を求める演算である。
[0259] まず (ステップ S4)、画像処理部 14は、部分画像 25の R成分の濃度ヒストグラム H と、テンプレート画像 22の R成分の濃度ヒストグラム H とを比較し、 2つの R成分の濃 度ヒストグラム H ,Η の重なり部分(図 34の斜線部分)の画素数を集計する。
この重なり部分(図 34の斜線部分)の総画素数 Κは、 R成分の濃度ヒストグラム Η ,
Η の類似性に関する指標である。重なり部分(図 34の斜線部分)とは、濃度ヒストグ ラム Η ,Η の同じ濃度値どうしで画素数を比較したときの小さい方の画素数に相当 する。
[0260] 同様に、ステップ S5では、部分画像 25の G成分の濃度ヒストグラム Η と、テンプレ ート画像 22の G成分の濃度ヒストグラム Η とを比較し、 2つの G成分の濃度ヒストグラ ム Η ,Η の重なり部分の画素数を集計する(総画素数 Κ )。さらに、ステップ S6では
、部分画像 25の Β成分の濃度ヒストグラム Η と、テンプレート画像 22の Β成分の濃度 ヒストグラム Η とを比較し、 2つの Β成分の濃度ヒストグラム Η ,Η の重なり部分の画 素数を集計する (総画素数 κ )。
[0261] 上記した通り、演算用の部分画像 25は円形状であり、この部分画像 25から作成し た濃度ヒストグラム Η (図 32(b))は、 RGB成分の何れも、入力画像 21の回転変化に 対して不変な特徴量である。したがって、上記ステップ S4の集計結果 (R成分の重な り部分の総画素数 K )と、ステップ S5の集計結果 (G成分の重なり部分の総画素数 K )と、ステップ S6の集計結果 (B成分の重なり部分の総画素数 K )は、各々、入力画
G Β
像 21の回転変化に対して不変な特徴量と考えられる。
[0262] 次に (ステップ S7)、画像処理部 14は、上記ステップ S4〜S6の各々の集計結果( RGB成分の重なり部分の総画素数 K,K,Κ )の和を求め、その値を「部分画像 25と
G B
テンプレート画像 22との類似度」とする。この類似度(=K +Κ +Κ )は、部分画像
R G B
25とテンプレート画像 22との「類似性に関する指標」であり、入力画像 21の回転変 化に対して不変な特徴量と考えられる。
[0263] ステップ S7で求めた類似度(=K +Κ +Κ )は、傾向として、その値が大きいほど
R G B
、部分画像 25とテンプレート画像 22との類似性が高いことを表している。また、テン プレート画像 22との類似性が高いとは、図 30に示す部分画像 25の抽出位置 (X ,Υ )
2 2 がテンプレート画像 22に合致する部分画像 (ターゲット 23)の位置(以下「合致位置( X ,Υ )」とレ、う)に近レ、ことを表す。
1 1
[0264] 上記のマッチング演算(S4〜S7)が終了すると、画像処理部 14は、次のステップ S 8において、マッチング演算の結果である類似度(=K +Κ +Κ )を、部分画像 25
R G B
の抽出位置 (X
2,Y )と対応づけてメモリに保存する。これらのステップ S2
2 〜S8の処理 を経て、入力画像 21の中の 1つの抽出位置 (X,Y )に対する処理が終わる。そして、
2 2
演算用の部分画像 25の抽出位置 (X ,Υ )を次の位置へ移動させる場合には (ステツ
2 2
プ S9が Yes)、ステップ S 10の処理に進む。
[0265] ステップ S 10の処理は、演算用の部分画像 25の抽出位置 (X ,Υ )の移動処理であ
2 2
る。画像処理部 14は、部分画像 25の抽出位置 (X ,Υ )を現在の位置から次の位置
2 2
へ移動させる。その後、ステップ S2の処理に戻り、新たな抽出位置 (X ,Υ )において、
2 2 演算用の部分画像 25の抽出(S2)→RGB成分の濃度ヒストグラムの作成(S3)→マ ツチング演算(S4〜S7)→結果保存(S8)を繰り返す。
[0266] このようにして、ステップ S2→" -→S10→S2…の処理を,操り返すことにより、演算用 の部分画像 25の抽出位置 (X ,Υ )を少しずつ移動させながら、各々の位置で部分画
2 2
像 25を順に抽出し、部分画像 25を抽出する毎に、 RGB成分の濃度ヒストグラム Η ,
25
H に基づいてマッチング演算(S4〜S7)を繰り返し行うことになる。
22
そして、演算用の部分画像 25の抽出位置 (X,Y )が終点に到達し、そこでのステツ プ S2〜S8の処理が終了すると、画像処理部 14は、次の位置への移動を行わずに( S9力 No)、ステップ S 11の処理に進む。ステップ S 11では、入力画像 21の中の異な る複数の位置で求められた類似度(=Κ +Κ +Κ )を大小比較することにより、その
R G B
値が最も大きぐテンプレート画像 22との類似性が最も高い部分画像 25の抽出位置 (X ,Υ )を合致位置 (X ,Υ )と特定する。以上で入力画像 21に対するテンプレートマツ
2 2 1 1
チングの処理は終了となる。
[0267] 上記のように、第 11実施形態のテンプレートマッチングでは、マッチング演算(S4〜 S7)の結果である類似度(=K +Κ +Κ )が、図 33に示すような入力画像 21の回
R G B
転変化に対して不変な特徴量として求められ、この類似度(=Κ +Κ +Κ )を大小
R G B
比較する。このため、入力画像 21に回転変化があっても正確に合致位置 (X,Y )を
1 1 特定すること力 Sできる。
[0268] また、演算用の部分画像 25の濃度範囲とテンプレート画像 22の濃度範囲とを一致 させることにより(正規化処理)、入力画像 21のコントラストの変化やノイズにも対応で き、正確に合致位置 (X
1,Υ )を特定することができる。
1
さらに、第 11実施形態のテンプレートマッチングでは、各々の画像 (21 ,25, 22)に含 まれる全ての色成分 (つまり RGB成分)の濃度ヒストグラム Η ,Η に基づいて、同じ
25 22
色成分どうしを比較することにより、マッチング演算(S4〜S7)を行う。このため、多く の情報量を確保でき、より正確に合致位置 (X ,Υ )を特定できる。
1 1
[0269] なお、上記した第 11実施形態では、図 31のステップ S7において、ステップ S4〜S6 の集計結果の和(=K +Κ +Κ )を求め、その値を「部分画像 25とテンプレート画
R G B
像 22との類似度」としたが、本発明はこれに限定されない。ステップ S4〜S6の集計 結果の平均値( = [K +Κ +Κ ]/3)を求め、その値を「部分画像 25とテンプレート
R G B
画像 22との類似度」としてもよい。平均値( = [K +Κ +Κ ]/3)の場合でも、その値
R G B
が大きいほど、部分画像 25とテンプレート画像 22との類似性が高 部分画像 25の 抽出位置 (X ,Υ )が合致位置 (X
2 2 1,Υ )に近いことを表す。
1
[0270] また、上記した第 11実施形態では、図 31のステップ S4〜S6において、図 34に示 すような濃度ヒストグラム H ,Η の重なり部分 (斜線部分)の画素数を集計したが、本
25 22
発明はこれに限定されなレ、。その他、濃度ヒストグラム Η ,Η の差分の絶対値(図 35 の斜線部分)の画素数を集計してもよレ、。この場合、ステップ S4〜S6の RGB成分の 集計結果 (濃度ヒストグラム H ,H の差分の絶対値の総画素数 Κ ' ,Κ ' ,Κ ' )の和
25 22 R G B または平均値は、部分画像 25とテンプレート画像 22との類似度に相当し、その値が 小さレ、ほど、部分画像 25とテンプレート画像 22との類似性が高ぐ抽出位置 (X
2,Y ) 2 が合致位置 (X
1,Υ )に近いことを表す。
1
(第 12実施形態)
以下、図 36,図 37を用いて本発明の第 12実施形態を詳細に説明する。
[0271] ここでは、演算用の部分画像 25とテンプレート画像 22とのマッチング演算を、後述 の濃度慣性モーメントに基づいて行う場合を説明する。第 12実施形態のテンプレート マッチングは、図 31のステップ S1, S3において"濃度ヒストグラム"の代わりに"濃度慣 性モーメンドを算出し、図 31のステップ S4〜S7に代えて図 36のステップ S21〜S2 4の処理を実行するものである。第 12実施形態でも、 RGB成分を含む画像 (21, 25,2 2)を例に説明する。
[0272] まず(図 31の S1のタイミングで)、画像処理部 14は、テンプレート画像 22の全体か ら RGB成分の濃度慣性モーメント M を各色成分ごとに算出する。例えば、 R成分の
22
濃度慣性モーメント M は、テンプレート画像 22の R成分(図 37)の位置 (x,y)におけ
22
る濃度値 Aを用い、次の式 (1)により算出される。濃度値 Aの" i"は、テンプレート画像 22の中での画素番号である。
[0273] M = ∑(x + y )A …ひ)
22 i i i
式 (1)の濃度慣性モーメント M は、原点(画像中心)まわりの濃度の慣性モーメント
22
であり、 X軸まわりの濃度の慣性モーメント(M =∑x2A)と、 Y軸まわりの濃度の慣
X i i
性モーメント(M =∑y2A)との和に相当する。 R成分の他、 G成分, B成分の濃度慣
Y i i
性モーメント M は、各々、テンプレート画像 22の G成分, B成分の全体から、上記の
22
式 (1)と同様の式により算出される。 RGB成分の濃度慣性モーメント M は、画素の位
22
置に依存しない特徴量である。
[0274] また、画像処理部 14は、入力画像 21の中から円形状の部分画像 25をマッチング 演算用に抽出すると、図 31の S3のタイミングで、部分画像 25の全体から RGB成分 の濃度慣性モーメント M を各色成分ごとに算出する。例えば、 R成分の濃度慣性モ 一メント M の算出は、部分画像 25の R成分の全体から上記した式 (1)と同様の式に より行われる。 G成分 ,Β成分も同様である。 RGB成分の濃度慣性モーメント Μ は、 画素の位置に依存しない特徴量である。
[0275] ここで、演算用の部分画像 25の濃度慣性モーメント M と、入力画像 21の回転変 化との関係について説明する。既に説明した通り、入力画像 21に回転変化(図 33参 照)があると、矩形状の部分画像 24の濃度情報は四隅付近で変化するが、円形状の 部分画像 25の濃度情報は変化しない。このため、円形状の部分画像 25から算出し た濃度慣性モーメント M は、入力画像 21の回転変化に対して不変な特徴量と考え られる。
[0276] 画像処理部 14は、上記のようにして、テンプレート画像 22の濃度慣性モーメント M と、部分画像 25の濃度慣性モーメント M とを算出し終えると、 2つの濃度慣性モー メント M,M に基づいて、部分画像 25とテンプレート画像 22とのマッチング演算(図
36)を行う。マッチング演算(図 36)は、部分画像 25とテンプレート画像 22との類似 度を求める演算である。
[0277] まず(図 36のステップ S21)、画像処理部 14は、部分画像 25の R成分の濃度慣性 モーメント M と、テンプレート画像 22の R成分の濃度慣性モーメント M とを比較し、
2つの R成分の濃度慣性モーメント M,M の差分の絶対値を出力する。この場合の 出力値〇は、 R成分の濃度慣性モーメント M ,Μ の類似性に関する指標である。 同様に、ステップ S22では、部分画像 25の G成分の濃度慣性モーメント Μ と、テン プレート画像 22の G成分の濃度慣性モーメント Μ とを比較し、 2つの G成分の濃度 慣性モーメント Μ,Μ の差分の絶対値を出力する(出力値〇)。さらに、ステップ S2
3では、部分画像 25の Β成分の濃度慣性モーメント Μ と、テンプレート画像 22の Β 成分の濃度慣性モーメント Μ とを比較し、 2つの Β成分の濃度慣性モーメント Μ ,Μ の差分の絶対値を出力する(出力値 Ο )。
[0278] 上記した通り、演算用の部分画像 25は円形状であり、この部分画像 25から算出し た濃度慣性モーメント Μ は、 RGB成分の何れも、入力画像 21の回転変化に対して 不変な特徴量である。したがって、上記したステップ S21の R成分の出力値 Oと、ス テツプ S22の G成分の出力値 Oと、ステップ S23の B成分の出力値〇は、各々、入 力画像 21の回転変化に対して不変な特徴量と考えられる。
[0279] 次に(ステップ S24)、画像処理部 14は、上記したステップ S21〜S23の各々の出 力値〇,〇,0の和を求め、その値を「部分画像 25とテンプレート画像 22との類似度
R G B
」とする。この類似度(=〇 + 0 +0 )は、部分画像 25とテンプレート画像 22との「
R G B
類似性に関する指標」であり、入力画像 21の回転変化に対して不変な特徴量と考え られる。また、類似度(=〇 +〇 +〇)の傾向は、その値が小さいほど、部分画像 2
R G B
5とテンプレート画像 22との類似性が高ぐ部分画像 25の抽出位置 (X ,Υ )が合致位
2 2 置 (Χ ,Υ )に近いことを表す。
1 1
[0280] 第 12実施形態のテンプレートマッチングでは、演算用の部分画像 25の抽出位置( X ,Υ )を少しずつ移動させながら、各々の位置で部分画像 25を順に抽出し、部分画
2 2
像 25を抽出する毎に、 RGB成分の濃度慣性モーメント Μ ,Μ に基づいてマツチン
25 22
グ演算(S21〜S24)を繰り返し行う。そして、入力画像 21の中の異なる複数の位置 で求められた類似度(=o +o +0 )を大小比較することにより、その値が最も小さ
R G B
ぐテンプレート画像 22との類似性が最も高い部分画像 25の抽出位置 (X ,Υ )を合
2 2 致位置 (X ,Υ )と特定する。
1 1
[0281] 上記のように、第 12実施形態のテンプレートマッチングでは、マッチング演算(S21 〜S24)の結果である類似度(=0 +0 + 0 )が、図 33に示すような入力画像 21の
R G B
回転変化に対して不変な特徴量として求められ、この類似度(=〇 +〇 +0 )を大
R G B
小比較する。このため、入力画像 21に回転変化があっても正確に合致位置 (X,Y )
1 1 を特定することができる。
[0282] さらに、第 12実施形態のテンプレートマッチングでは、各々の画像 (21,25, 22)に含 まれる全ての色成分(つまり RGB成分)の濃度慣性モーメント Μ ,M に基づいて、
25 22
同じ色成分どうしを比較することにより、マッチング演算 (S21〜S24)を行う。このため 、多くの情報量を確保でき、より正確に合致位置 (X 定できる。
1,Y )を特
1
(第 13実施形態)
以下、図 38,図 39を用いて本発明の第 13実施形態を詳細に説明する。
[0283] ここでは、演算用の部分画像 25とテンプレート画像 22とのマッチング演算を、後述 の領域濃度差に基づいて行う場合を説明する。第 13実施形態のテンプレートマッチ ングは、図 31のステップ S1,S3において"濃度ヒストグラム"の代わりに"領域濃度差" を算出し、図 36のステップ S21〜S24において"濃度慣性モーメンド 'の代わりに"領 域濃度差"を用レ、るものである。第 13実施形態でも、 RGB成分を含む画像 (21,25,2 2)を例に説明する。
[0284] まず(図 31の S1のタイミングで)、画像処理部 14は、テンプレート画像 22の全体か ら RGB成分の領域濃度差 D を各色成分ごとに算出する。例えば、 R成分の領域濃 度差 D は、テンプレート画像 22の R成分(図 38)の予め定めた中央領域 2Aと周辺 領域 2Bとの各々における平均濃度の差により算出される(式 (2))。なお、中央領域 2 Aと周辺領域 2Bは、請求項の「第 1範囲」と「第 2範囲」に対応する。
[0285] D = (中央領域 2Aの平均濃度) (周辺領域 2Bの平均濃度)… )
式 (2)の領域濃度差 D は、周辺領域 2Bに対する中央領域 2Aの平均的な濃度差 を表している。このため、例えば図 39(a)に示すように、テンプレート画像 22の R成分 力 暗い背景 (濃度値が最小)の中央に明るい点 (濃度値が最大)を含むような場合、 濃度値を 256段階 (0〜255)とすると、中央領域 2Aは大きな平均濃度 (例えば 205) 、周辺領域 2Bは小さな平均濃度 (例えば 21)となり、式 (2)の領域濃度差 D は大きな プラスの値 (例えば 184)となる。逆に中央領域 2Aが暗く周辺領域 2Bが明るい場合、 領域濃度差 D はマイナスの値になる。
[0286] また、例えば図 39(b)に示すように、テンプレート画像 22の R成分力 喑ぃ背景 (濃 度値が最小)の中に分散して多数の明るレ、点 (濃度値が最大)を含むような場合、中 央領域 2Aは中間的な平均濃度 (例えば 123)、周辺領域 2Bも中間的な平均濃度 (例 えば 108)となり、式 (2)の領域濃度差 D は小さな値 (例えば 15)となる。上記した RGB 成分の領域濃度差 D は、画素の位置に依存しない特徴量である。
[0287] また、画像処理部 14は、入力画像 21の中から円形状の部分画像 25をマッチング 演算用に抽出すると、図 31の S3のタイミングで、部分画像 25の全体から RGB成分 の領域濃度差 D を各色成分ごとに算出する。例えば、 R成分の領域濃度差 D の算 出は、部分画像 25の R成分の全体から、テンプレート画像 22と同じ中央領域 2A,周 辺領域 2B (図 38)を用レ、、上記した式 (2)と同様の式により行われる。 G成分 ,Β成分も 同様である。 RGB成分の領域濃度差 D は、画素の位置に依存しない特徴量である [0288] ここで、演算用の部分画像 25の領域濃度差 D と、入力画像 21の回転変化との関
25
係について説明する。既に説明した通り、入力画像 21に回転変化(図 33参照)があ ると、矩形状の部分画像 24の濃度情報は四隅付近で変化するが、円形状の部分画 像 25の濃度情報は変化しない。このため、円形状の部分画像 25から算出した領域 濃度差 D は、入力画像 21の回転変化に対して不変な特徴量と考えられる。
25
[0289] 画像処理部 14は、上記のようにして、テンプレート画像 22の領域濃度差 D と、部
22 分画像 25の領域濃度差 D とを算出し終えると、 2つの領域濃度差 D ,D に基づい
25 22 25 て、部分画像 25とテンプレート画像 22とのマッチング演算を行う。
まず(図 36のステップ S21のタイミングで)、画像処理部 14は、部分画像 25の R成 分の領域濃度差 D と、テンプレート画像 22の R成分の領域濃度差 D (図 39(a)の場
25 22
合は 184) (図 39(b)の場合は 15)とを比較し、 2つの R成分の領域濃度差 D ,D の差
25 22 分の絶対値を出力する。この出力値 Pは、 R成分の領域濃度差 D ,D の類似性に
R 25 22
関する指標である。
[0290] 同様に(図 36のステップ S22のタイミングで)、部分画像 25の G成分の領域濃度差 D と、テンプレート画像 22の G成分の領域濃度差 D とを比較し、 2つの G成分の領
25 22
域濃度差 D ,D の差分の絶対値を出力する(出力値 P )。さらに (ステップ S23のタ
25 22 G
イミングで)、部分画像 25の B成分の領域濃度差 D と、テンプレート画像 22の B成分
25
の領域濃度差 D とを比較し、 2つの B成分の領域濃度差 D ,D の差分の絶対値を
22 25 22
出力する(出力値 P )。
B
[0291] 上記した通り、演算用の部分画像 25は円形状であり、この部分画像 25から算出し た領域濃度差 D は、 RGB成分の何れも、入力画像 21の回転変化に対して不変な
25
特徴量である。したがって、上記した R成分の出力値 Pと、 G成分の出力値 Pと、 B
R G
成分の出力値 Pは、各々、入力画像 21の回転変化に対して不変な特徴量と考えら
B
れる。
次に (ステップ S24のタイミングで)、画像処理部 14は、上記した RGB成分の出力 値 P,Ρ ,Ρの和を求め、その値を「部分画像 25とテンプレート画像 22との類似度」と
R G B
する。この類似度(=P +P +P )は、部分画像 25とテンプレート画像 22との「類似 性に関する指標」であり、入力画像 21の回転変化に対して不変な特徴量と考えられ る。また、類似度(=P +P +P )の傾向は、その値が大きいほど、部分画像 25とテ
R G B
ンプレート画像 22との類似性が高ぐ部分画像 25の抽出位置 (X,Y )が合致位置 (X
2 2 1
,Υ )に近いことを表す。
1
[0292] 第 13実施形態のテンプレートマッチングでは、演算用の部分画像 25の抽出位置( X ,Υ )を少しずつ移動させながら、各々の位置で部分画像 25を順に抽出し、部分画
2 2
像 25を抽出する毎に、 RGB成分の領域濃度差 D ,D に基づいてマッチング演算を
25 22
繰り返し行う。そして、入力画像 21の中の異なる複数の位置で求められた類似度(= P +P +P )を大小比較することにより、その値が最も大きぐテンプレート画像 22と
R G B
の類似性が最も高い部分画像 25の抽出位置 (X ,Υ )を合致位置 (X ,Υ )と特定する。
2 2 1 1
[0293] 上記のように、第 13実施形態のテンプレートマッチングでは、マッチング演算(S21 〜S24参照)の結果である類似度(=Ρ +Ρ +Ρ )が、図 33に示すような入力画像 2
R G B
1の回転変化に対して不変な特徴量として求められ、この類似度(=P +P +P )を
R G B
大小比較する。このため、入力画像 21に回転変化があっても正確に合致位置 (X ,Υ
1 1
)を特定することができる。
[0294] また、演算用の部分画像 25の濃度範囲とテンプレート画像 22の濃度範囲とを一致 させることにより(正規化処理)、入力画像 21のコントラストの変化やノイズにも対応で き、正確に合致位置 (X,Υ )を特定することができる。
1 1
さらに、第 13実施形態のテンプレートマッチングでは、各々の画像 (21,25, 22)に含 まれる全ての色成分 (つまり RGB成分)の領域濃度差 D ,D に基づいて、同じ色成
25 22
分どうしを比較することにより、マッチング演算 (S21〜S24参照)を行う。このため、多 くの情報量を確保でき、より正確に合致位置 (X ,Υ )を特定できる。
1 1
(第 11〜第 13実施形態の変形例)
なお、上記した実施形態では、濃度ヒストグラム Η ,Η に基づくマッチング演算の
25 22
例と、濃度慣性モーメント Μ ,Μ に基づくマッチング演算の例と、領域濃度差 D ,D
25 22 25 に基づくマッチング演算の例をそれぞれ説明したが、本発明はこれに限定されない
22
。任意の 2種類を組み合わせてマッチング演算を行う場合にも、本発明を適用できる 。あるいは相互相関や最小残差と濃度ヒストグラムなどを組み合わせてもよい。 [0295] また、上記した実施形態では、 3つの色成分(つまり RGB成分)を含む画像 (21,25, 22)の例で説明した力 本発明はこれに限定されなレ、。色成分の数が 2つであっても 4つ以上であっても本発明を適用できる。つまり複数の色成分を含む場合に本発明 を適用できる。さらに、画像 (21, 25, 22)が複数の色成分を含まない場合、つまり単色 の濃淡画像である場合にも、本発明を適用できる。
[0296] また、上記した実施形態では、入力画像 21の中から円形状の部分画像 25を抽出 する処理を 2段階で行う例(図 30参照)を説明したが、本発明はこれに限定されない 。入力画像 21の中から直接(1回の処理で)円形状の部分画像 25を抽出しても構わ なレ、。
さらに、上記した実施形態では、図 29の観察装置 10のような光学顕微鏡装置を例 にテンプレートマッチングの説明を行った力 S、本発明はこれに限定されない。その他
、試料の局所領域を電子線で走査して画像を取り込む電子顕微鏡装置にも、本発明 を適用できる。試料の局所領域の画像に限らず、試料の全面の画像を一括で取り込 む装置にも、本発明を適用できる。観察装置 10などに接続された外部のコンビユー タを用いた場合でも、同様の効果を得ることができる。
(第 14実施形態)
以下、図 41〜図 45を用いて本発明の第 14実施形態を詳細に説明する。
[0297] 図 41はこの発明の第 14実施形態に係るマーク識別装置を備えた半導体測定装置 の構成を説明するブロック図である。
このマーク識別装置は、ウェハ(基板) 11を支持するステージ 12と、ウェハ 11に照 明光 L1を照射する照明系 LMと、ウェハ 11の光学像を形成する結像系 1〇と、撮像 素子 18と、観察用の TVモニタ 19と、信号処理部 SPと、制御部 CUとで構成されてい る。
[0298] ステージ 12は、ウェハ 11を水平状態に支持するホルダ 12aと、このホルダ 12aを水 平方向(XY方向)に移動させる駆動部(図示せず)とで構成される。ステージ 12のホ ルダ 12aを XY方向へ移動させることで、ウェハ 11の一部分を結像系 16, 17の視野 領域内に位置決めすることができる。
照明系 LMは光源 13と照明レンズ 14とハーフミラー 15と対物レンズ 16とで構成さ れる。光源 13の光は、照明レンズ 14、ハーフミラー 15及び対物レンズ 16を介してス テージ 12上のウェハ 11に照明光 L1として入射する。
[0299] このとき、視野領域内に位置決めされた部分に照明光 L1がほぼ垂直に照射される
。反射光 L2は結像系 1〇に導かれる。
結像系 1〇は対物レンズ 16と結像レンズ 17とで構成されている。結像レンズ 17は第
2対物レンズとして機能する。ウェハ 11からの反射光 L2は、対物レンズ 16とハーフミ ラー 15と結像レンズ 17とを経由し、撮像素子 18の撮像面に入射する。
[0300] このとき、撮像素子 18の撮像面上には、反射光 L2に基づく拡大像が形成される。
撮像素子 18は、複数の画素が 2次元配列されたエリアセンサ(例えば CCDカメラ) であり、撮像面上のマークの光学像を撮像して、画像信号を TVモニタ 19と信号処理 部 SPとに出力する。また、レシピ作製時には、撮像素子 18からの画像信号が制御部
CUのモニタ 24に出力される。
[0301] 撮像素子 18から出力される画像信号は複数のサンプル点からなり、撮像面におけ る各画素毎の輝度値に関する分布を表す。輝度値は反射光 L2の強弱に比例する。 マークの画像の輝度値はマークのエッジ部分で変化する。
信号処理部 SPはフレームメモリ 20と波形信号演算用の CPU21とで構成される。ゥ ェハ 11のレジストパターン(図示せず)の重ね合わせ検査時、フレームメモリ 20は撮 像素子 18からの画像信号を記憶する。 CPU21はフレームメモリ 20内の画像信号に 対して所定の信号処理を行う。
[0302] 制御部 CUは、装置全体を制御するコンピュータ 22と、モニタ 24と、入力部 25とで 構成されている。コンピュータ 22は請求項 1の登録手段及び検出手段に対応する。 図 42は予め登録されるマークを説明する図である。
ウェハ 11のマークの測定 (例えば重ね合わせ測定)に先立ち、モニタ 24と入力部 2 5とを利用して、マークの形状 (矩形)、設計サイズ (マークの内側の X方向の寸法 XI 、マークの外側の X方向の寸法 X2、マークの内側の Y方向の寸法 Yl、マークの外側 の Υ方向の寸法 Υ2)及びサイズ許容誤差に関わるレシピを作製する。レシピはコンビ ユータ 22のメモリに登録される前記形状等のデータをいう。
[0303] 次に、ウェハ上のマークを識別する方法を説明する。 図 43はウェハの平面図である。
図 43において Aはウェハ 11上に存在するマークの設計座標を示す。なお、図 43 ではウェハ 11の中心部の 1箇所だけがマークの存在する設計座標として示されてい るが、実際には図示しない複数の設計座標にマークが存在する。
[0304] まず、測定に先立ち、ウェハ 11に存在するマークの設計座標をモニタ 24と入力部 25とを利用してレシピに登録する。
次に、設計座標にあるマークの近傍を撮影する。
コンピュータ 22は取得したマークの画像からレシピに登録された形状及び設計サイ ズと一致するマークを検出する。
[0305] 図 44、図 45はそれぞれ撮影されたマークの一例を示す図である。
図 44のマークの内側の X方向の寸法、外側の X方向の寸法、内側の Y方向の寸法 及び外側の Y方向の寸法はそれぞれ XI I, X12, Yl l, Y12である。 XI Iは XIの 許容範囲内にあり、 X12は X2の許容範囲内にあり、 Y11は Y1の許容範囲内にあり 、 Y12は Y2の許容範囲内にある。
[0306] また、図 45のマークの内側の X方向の寸法、外側の X方向の寸法、内側の Y方向 の寸法及び外側の Y方向の寸法はそれぞれ X21 , X22, Y21 , Y22である。 X21は XIの許容範囲内にあり、 X22は X2の許容範囲内にある。
図 45のマークのサイズと登録されたマークのサイズとを比較した場合、マークの外 側の X方向の寸法 X22と外側の Y方向の寸法 Y22とは許容範囲内にある力 マーク の内側の X方向の寸法 X21と内側の Y方向の寸法 Y21とは許容範囲内にない。図 4 5のマークは登録されたマークのサイズと一致しないマークであると判断される。
[0307] 図 44のマークのサイズと登録されたマークのサイズを比較した場合、マークの内側 の X方向の寸法 XI I、外側の X方向の寸法 X12、内側の Y方向の寸法 Yl l及び外 側の Y方向の寸法 Y12はそれぞれ登録されたマークの内側の X方向の寸法 XI、マ ークの外側の X方向の寸法 X2、マークの内側の Y方向の寸法 Yl、マークの外側の Υ方向の寸法 Υ2の許容範囲内にある。図 44のマークは登録されたマークのサイズと 一致するマークであると判断される。
[0308] 以上のように識別作業が終わった後、レシピのデータと一致すると判断されたマー クを用いてレジストパターン(図示せず)の重ね合わせ測定等が行われる。
この実施形態によれば、ウェハ 11のマークの測定に先立ち、マークの形状、設計 サイズ等をレシピに登録したので、マークを有する基板を用いることなくマークの識別 を行うことができる。
[0309] また、測定すべきマークと同じマークを撮影し、その画像をレシピに登録しないので 、識別の前にマークを撮影する従来例に比べ、半導体測定装置の稼動率を向上さ せること力 Sできる。
(第 15実施形態)
以下、図 46〜図 48を用いて本発明の第 15実施形態を詳細に説明する。
[0310] 図 46はこの発明の第 15実施形態に係るエッジ位置検出装置を示す概念図である このエッジ位置検出装置は、ウェハ(基板) 42を載置する XYステージ 41と、ウェハ 42の像を形成する結像光学系 IOと、 CCDカメラ(撮像手段) 45と、画像処理装置 46 とを備えている。
ウェハ 42の表面には、重ね合わせ状態の検査に用いられる少なくとも一対以上の エッジを有する重ね合わせマーク(図示せず)が形成されてレ、る。
[0311] XYステージ 41はウェハ 42を水平状態に維持するとともに、水平面内で任意の位 置に移動可能である。 XYステージ 41を移動させることにより、ウェハ 42の重ね合わ せマークを含む観察領域が結像光学系 1〇の視野内に位置決めされる。
結像光学系 1〇は対物レンズ 43とオプティカルヘッド 44とで構成されてレ、る。ォプテ ィカルヘッド 44は結像レンズ(図示せず)やウェハ 42を照明するための光源(図示せ ず)等を有する。
[0312] ウェハ 42の観察領域 (重ね合わせマークを含む領域)には照明光が照射され、そ の反射光は対物レンズ 43、オプティカルヘッド 44を介して CCDカメラ 45の撮像素子 (図示せず)の撮像面上に結像される。このとき、撮像素子の撮像面には反射光に基 づく反射像 (光学像)が形成される。
撮像素子は複数の画素が 2次元配列されたエリアセンサであり、撮像面上の反射 像を撮像し、画像信号を画像処理装置 46へ出力する。画像信号は複数のサンプル 点からなる。画像信号は撮像素子の撮像面における各画素毎の輝度値に関する分 布 (輝度分布)を表してレヽる(画像濃度プロファイル波形)。
[0313] 画像処理装置 46は撮像素子からの画像信号に基いて、ウェハ 42の観察領域の反 射像を画像データとして取得する。画像処理装置 46は画像データに基づレ、て画像 処理を行なう。画像処理装置 46は請求項 1の検出手段、抽出手段、非エッジ検出手 段及びエッジ位置検出手段に対応する。なお、画像処理装置 46はメモリ 46aを備え ている。また、検出手段、抽出手段、非エッジ検出手段及びエッジ位置検出手段は 個別部品で構成したり、それらの機能を例えば 4ビットの 1チップマイクロコンピュータ を用いたストアードプログラム制御したりすることで実現すればよい。
[0314] 次に、このエッジ位置検出装置によるマークの線幅の測定手順を図 47、図 48を用 いて説明する。
図 47はマークの線幅の測定手順を説明するフローチャート、図 48は画像濃度プロ ファイル波形の一例を示す図である。図 47において、 S1〜S8は処理の各ステップを 示す。また、図 48において、縦軸及び横軸はそれぞれ輝度及び距離を示す。
[ラインプロファイルの取得] CCDカメラ 45で取得された画像信号から画像濃度プロ ファイル波形(図 48参照)を取得する(S1)。
[スム一ジング処理]得られた前記波形から撮像素子の感度のバラツキ等に起因する ノイズ信号を除去する (S2)。
[仮の中心位置設定]前記波形の基準位置(中心位置) 37の検出に先立ち、仮の中 心位置 34を設定する(S3)。仮の中心位置 34は通常画像の中心座標である。
[対称性演算]仮の中心位置 34を基準にして左右方向に相互関数処理を行ない、 仮の中心位置 34を基準にして位置 35と位置 36との間で左右の関係を示す相関関 数 G (I)を求める。インデックス Iは画素位置に対応する(S4)。
[中心位置の決定]相関関数 G (I)の演算を行レ、、最大相関値 G (I) maxを示す Iの位 置 (相関値が最も高くなる位置)を中心位置とする(S5)。
[ボトムの検出]画像濃度プロファイル波形からボトム検出アルゴルズム(例えば微分 法)によって輝度値の急変部分 (ボトム)をエッジ信号として抽出し、その画素位置を 特定する。ボトムの画素位置の輝度値を低レ、順に並べたボトム位置リストを作成し(S 6)、これを例えばメモリ 46aに記憶させる。
[非対称ボトムの排除]画像濃度プロファイル波形の基準位置 37を対称軸として、ボ トム 33と対称な位置にボトムがあるか否かを確認し、ボトム 33と対称な位置にボトムが ない場合にはボトム 33を非対称ボトム(エッジに対応しないエッジ信号)として抽出す る(S7)。
[0315] 例えば、基準位置 37を対称軸としてボトム 33と位置 38とが対称であるとき、位置 38 を中心として所定の距離範囲 39及び所定の輝度範囲 310の輝度を測定することに よって、ボトム 33と対称な位置 38の近傍にボトムがあるか否かを検索する。ボトム 33 と対称な位置の近傍にボトムがあれば測定対象とし、なければボトム 33をノイズ、外 舌しとしてボトム位置リストから削除する。
[0316] 非対称ボトムとして抽出されたボトム 33を画像濃度プロファイル波形から除去する。
測定外舌しノイズ成分が除去された後のエッジ信号に基づいてボトム 31, 32の位置 を検出し、マークの線幅(ボトム 31とボトム 32との距離)を測定する(S8)。
なお、ステップ 7において、非対称ボトムとして抽出されたボトム 33を画像濃度プロ ファイル波形から除去する代わりに、対称性の低レ、ボトムとして処理されるような重み 付けをするようにしてもよい。
[0317] また、画像処理装置 46は請求項のエラー情報生成手段に対応する。対称の関係 にあるボトム 31、 32に基づいて閾値を決め、この閾値がボトム 33に基づいて決めら れた閾値より大きいとき、測定に適さないと判断してエラー情報を生成し、線幅の測 定を行わなレ、ようにしてもょレ、。
この実施形態によれば、対称位置にあるエッジ信号を正確に選別してマークの線 幅を正確に測定することができる。
[0318] また、測定対象の画像濃度プロファイル波形が測定に適さない(エラー)ときには以 後の測定を行わないので、生産性が向上する。

Claims

請求の範囲
結像光学系の物体面に、所定の波長帯の落射照明光による ± 1次回折光束が前 記結像光学系の瞳領域に内接するようなピッチ以上の第 1のピッチで配列された第 1 のマークと、前記第 1のピッチより小さい第 2のピッチを有して配列された第 2のマーク とを、それぞれ前記結像光学系の視野中心に対して対称に配設し、
前記結像光学系で形成された前記第 1のマークの像と前記第 2のマークの像との 相対位置に基づいて、前記結像光学系の瞳面と開口絞り面との間に配設された光 学素子の位置を調整する
ことを特徴とする結像光学系の調整方法。
請求項 1に記載の結像光学系の調整方法にぉレ、て、
前記第 1のピッチを Pl( z m)、前記第 2のピッチを P2( x m)、前記結像光学系の開 口数を NAima、前記照明光の照射に用いた光学系の開口数を NAill、前記照明光 の中心波長を λ ( μ m)とするとき、次の条件式を満足する
NAima > NAill
NAima-NAill > λ /Ρ1
NAima + ΝΑΠ1/2 ≤ λ /Ρ2
ことを特徴とする結像光学系の調整方法。
請求項 1または請求項 2に記載の結像光学系の調整方法において、
前記調整用マークを前記視野中心に対して 180° 回転させる前後の状態の各々 で前記結像光学系で形成された像における前記第 1のマークと前記第 2のマークと の距離を測定し、測定された 2つの距離力 装置起因の誤差成分量を算出して、前 記誤差成分量に基づレ、て前記光学素子の位置を調整する
ことを特徴とする結像光学系の調整方法。
請求項 1から請求項 3の何れ力 1項に記載の結像光学系の調整方法において、 前記照明光の波長帯域を変えて、波長ごとに前記第 1のマークと前記第 2のマーク との相対位置を求め、波長帯域ごとに求められた前記相対位置に基づいて、前記光 学素子の位置を調整する
ことを特徴とする結像光学系の調整方法。
[5] 請求項 4に記載の結像光学系の調整方法において、
前記照明光の波長帯域ごとに算出した前記第 1のマークと前記第 2のマークとの距 離同 1士の差分、または前記照明光の波長帯域ごとに算出した前記装置起因の誤 差成分量同士の差分を指標として、前記光学素子の位置を調整する
ことを特徴とする結像光学系の調整方法。
[6] 請求項 1から請求項 5の何れ力 1項に記載の結像光学系の調整方法において、 前記光学素子は平行平面板であり、
前記光学素子の配置の調整は、前記平行平面板の位置を傾ける方向に調整する ことを特徴とする結像光学系の調整方法。
[7] 基板を戴置するステージと、前記基板を照明する照明手段と、前記基板の像を形 成する結像手段とを備えた結像装置において、
前記基板から前記結像手段に入射した光を分岐して受光し、予め定められた複数 の波長帯のうち各波長帯ごとに、前記基板と前記結像光学系との相対位置に応じた フォーカス信号を生成する信号生成手段と、
少なくとも、所定の基準光での合焦位置に対する、前記複数の波長帯ごとに生成さ れる前記フォーカス信号により求められた合焦位置のオフセット情報を予め記憶する 記憶手段と、
少なくとも前記複数の波長帯のうちのいずれ力 1つの波長帯における前記フォー力 ス信号と前記オフセット情報とに基づいて前記基板と前記結像手段との相対位置を 調整する調整手段とを備えたオートフォーカス装置を有する
ことを特徴とする結像装置。
[8] 請求項 7に記載の結像装置において、
前記信号生成手段は、前記基板からの光を同時に前記複数の波長帯に分離する 分光素子と、前記分光素子によって分離された各波長帯の光をそれぞれ受光する複 数の受光素子とを有し、各受光素子からの出力信号に基づいて前記フォーカス信号 を生成する
ことを特徴とする結像装置。
[9] 請求項 7に記載の結像装置において、 前記信号生成手段は、前記基板からの光のうち前記複数の波長帯の光のそれぞ れを時系列で取り出す分光素子と、前記分光素子によって分離された各波長帯の光 を時系列で受光出する受光素子とを有し、前記受光素子からの出力信号に基づい て前記フォーカス信号を生成する
ことを特徴とする結像装置。
[10] 請求項 7から請求項 9の何れ力 1項に記載の結像装置において、
前記信号生成手段は、前記波長帯ごとの光を受光して各々の光の強度を検出する 強度検出手段を備え、前記調整手段は前記波長帯ごとのフォーカス信号と、前記波 長帯ごとの前記オフセット情報と、前記波長帯ごとに受光された光の相対強度に基 づいて前記基板と前記結像手段との相対位置を調整する
ことを特徴とする結像装置。
[11] 2つのパターンの位置ずれ検出に用いられるマークであって、
前記 2つのパターンのうち一方の基準位置を示す第 1マークと、前記 2つのパター ンのうち他方の基準位置を示す第 2マークとを含み、
前記第 1マークは、第 1の線状パターンと該線状パターンに垂直な第 2の線状パタ ーンとが十字形状に配置され、
前記第 2マークは、第 3の線状パターンと前記第 3の線状パターンに垂直な第 4の 線状パターンとが十字形状に配置され、
前記第 1マークと前記第 2マークは、前記 2つのパターンの位置ずれが無いときに、 前記第 1の線状パターンと前記第 3の線状パターンの直線方向が一致し、かつ、前 記第 2の線状パターンと前記第 4の線状パターンの直線方向が一致し、
前記第 1の線状パターンと前記第 3の線状パターンは、長手方向の両端間の長さ が互いに異なり、
前記第 1の線状パターンと前記第 3の線状パターンのうち、前記長さの長い方の線 状パターンは、前記長さの短い方の線状パターンと重ならないように、直線方向の一 端側と他端側とに分割された 2つの部分パターン力 なり、
前記第 2の線状パターンと前記第 4の線状パターンは、長手方向の両端間の長さ が互いに異なり、 前記第 2の線状パターンと前記第 4の線状パターンのうち、前記長さの長い方の線 状パターンは、前記長さの短い方の線状パターンと重ならないように、直線方向の一 端側と他端側とに分割された 2つの部分パターン力 なる
ことを特徴とする位置ずれ検出用マーク。
[12] 請求項 11に記載の位置ずれ検出用マークにおいて、
前記第 1の線状パターンと前記第 3の線状パターンのうち前記長さの短い方の線状 パターンと、前記第 2の線状パターンと前記第 4の線状パターンのうち前記長さの短 い方の線状パターンは、互いに交差しないように、それぞれ直線方向の一端側と他 端側とに分割された 2つの部分パターンからなる
ことを特徴とする位置ずれ検出用マーク。
[13] 請求項 11または請求項 12に記載の位置ずれ検出用マークにおいて、
前記第 1の線状パターンと前記第 2の線状パターンと前記第 3の線状パターンと前 記第 4の線状パターンのうち、少なくとも 1つの線状パターンは、幅方向に分割された 複数本の微細な線状パターンからなる
ことを特徴とする位置ずれ検出用マーク。
[14] 請求項 11から請求項 13の何れか 1項に記載の位置ずれ検出用マークにおいて、 前記第 1の線状パターンと前記第 3の線状パターンのうち前記長さの長い方の線状 パターンに外接すると共に、前記第 2の線状パターンと前記第 4の線状パターンのう ち前記長さの長い方の線状パターンに外接する矩形領域の内側で、前記第 1マーク と前記第 2マークにより仕切られた 4つの領域のうち、少なくとも 1つの領域には、前記 2つのパターンのうち少なくとも一方の他の基準位置を示す第 3マークが含まれる ことを特徴とする位置ずれ検出用マーク。
[15] 請求項 11から請求項 13の何れ力 1項に記載の位置ずれ検出用マークにおいて、 前記第 1の線状パターンと前記第 3の線状パターンのうち前記長さの長い方の線状 パターンに外接すると共に、前記第 2の線状パターンと前記第 4の線状パターンのう ち前記長さの長い方の線状パターンに外接する矩形領域の内側で、前記第 1マーク と前記第 2マークにより仕切られた 4つの領域のうち、少なくとも 1つの領域には、前記 2つのパターンのうち少なくとも一方の形成に関わるプロセス情報が含まれる ことを特徴とする位置ずれ検出用マーク。
[16] 請求項 11から請求項 13の何れ力 1項に記載の位置ずれ検出用マークにおいて、 前記第 1の線状パターンと前記第 3の線状パターンのうち前記長さの長い方の線状 パターンに外接すると共に、前記第 2の線状パターンと前記第 4の線状パターンのう ち前記長さの長い方の線状パターンに外接する矩形領域の内側で、前記第 1マーク と前記第 2マークにより仕切られた 4つの領域のうち、少なくとも 1つの領域には、前記 2つのパターンのうち少なくとも一方の形成に関わる露光条件の検查用マークが含ま れる
ことを特徴とする位置ずれ検出用マーク。
[17] 請求項 11から請求項 16の何れ力 1項に記載の位置ずれ検出用マークを用いて、 前記 2つのパターンの位置ずれ検出を行う方法であって、
前記第 1マークと前記第 2マークの画像を取り込む第 1工程と、
取り込まれた前記画像から前記第 1マークの前記第 1の線状パターンと前記第 2の 線状パターンに関わる部分画像を切り出すと共に、前記第 2マークの前記第 3の線状 ノ ターンと前記第 4の線状パターンに関わる部分画像を切り出す第 2工程と、 切り出された前記部分画像に基づいて、前記第 1の線状パターンと前記第 3の線状 ノ ターンの直線方向の位置ずれ量を算出すると共に、前記第 2の線状パターンと前 記第 4の線状パターンの直線方向の位置ずれ量を算出する第 3工程とを備え、 前記第 2工程では、前記第 1の線状パターンと前記第 3の線状パターンのうち前記 長さの長い方の線状パターンに関わる部分画像を切り出す際、および、前記第 2の 線状パターンと前記第 4の線状パターンのうち前記長さの長い方の線状パターンに 関わる部分画像を切り出す際、それぞれの前記部分パターンごとに個別に前記部分 画像を切り出す
ことを特徴とする位置ずれ検出方法。
[18] 検出対象のパターンを含む下地層とレジスト層との間に 1つ以上の中間層が形成さ れた基板を照明光によって照明する照明工程と、
前記照明光によって照明されたときに前記基板の各層力 発生する光に基づいて 、前記パターンの画像を取り込む取込工程と、 前記画像に基づいて、前記パターンの位置を算出する算出工程とを備え、 前記照明工程では、前記基板の各層から発生する光のうち「前記中間層からの光」 に対する「前記下地層からの光」の強度比が大きくなるように、前記照明光の分光特 性を調整し、調整後の分光特性の照明光によって前記基板を照明する
ことを特徴とする位置検出方法。
[19] 請求項 18に記載の位置検出方法において、
前記照明工程では、前記照明光が有する「前記中間層での吸収が小さい波長域 の成分」に対する「前記中間層での吸収が大きい波長域の成分」の強度比が大きくな るように、前記分光特性を調整する
ことを特徴とする位置検出方法。
[20] 請求項 18または請求項 19に記載の位置検出方法において、
前記照明工程では、前記照明光が有する「前記下地層での吸収が大きい波長域 の成分」に対する「前記下地層での吸収が小さレ、波長域の成分」の強度比が大きくな るように、前記分光特性を調整する
ことを特徴とする位置検出方法。
[21] 請求項 18に記載の位置検出方法において、
前記照明工程では、前記中間層の数が 2つ以上である場合、前記照明光が有する 「前記中間層それぞれの上面で反射する光どうしが干渉によって互いに強め合う波 長域の成分」に対する「前記光どうしが干渉によって互いに弱め合う波長域の成分」 の強度比が大きくなるように、前記分光特性を調整する
ことを特徴とする位置検出方法。
[22] 照明光の分光特性を変更可能であり、検出対象のパターンを含む下地層とレジスト 層との間に 1つ以上の中間層が形成された基板を前記照明光によって照明する照明 手段と、
前記照明光によって照明されたときに前記基板の各層力 発生する光に基づいて 、前記パターンの画像を取り込む取込手段と、
前記画像に基づいて、前記パターンの位置を算出する算出手段とを備え、 前記照明手段は、前記基板の各層から発生する光のうち「前記中間層からの光」に 対する「前記下地層からの光」の強度比が大きくなるように、前記分光特性を変更す る
ことを特徴とする位置検出装置。
[23] 請求項 22に記載の位置検出装置において、
前記照明手段は、前記照明光が有する「前記中間層での吸収が小さい波長域の 成分」に対する「前記中間層での吸収が大きい波長域の成分」の強度比が大きくなる ように、前記分光特性を変更する
ことを特徴とする位置検出装置。
[24] 請求項 22または請求項 23に記載の位置検出装置において、
前記照明手段は、前記照明光が有する「前記下地層での吸収が大きい波長域の 成分」に対する「前記下地層での吸収が小さい波長域の成分」の強度比が大きくなる ように、前記分光特性を変更する
ことを特徴とする位置検出装置。
[25] 請求項 22に記載の位置検出装置において、
前記照明手段は、前記中間層の数が 2つ以上である場合、前記照明光が有する「 前記中間層それぞれの上面で反射する光どうしが干渉によって互いに強め合う波長 域の成分」に対する「前記光どうしが干渉によって互いに弱め合う波長域の成分」の 強度比が大きくなるように、前記分光特性を変更する
ことを特徴とする位置検出装置。
[26] 円形状の既知のテンプレート画像の濃度のヒストグラムを作成する第 1の作成手段 と、
入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽 出手段と、
前記抽出手段により抽出された前記部分画像の濃度のヒストグラムを作成する第 2 の作成手段と、
前記テンプレート画像の前記ヒストグラムと前記部分画像の前記ヒストグラムとに基 づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と、 前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記 入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えた ことを特徴とするテンプレートマッチング装置。
[27] 円形状の既知のテンプレート画像の濃度の慣性モーメントを算出する第 1の算出手 段と、
入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽 出手段と、
前記抽出手段により抽出された前記部分画像の濃度の慣性モーメントを算出する 第 2の算出手段と、
前記テンプレート画像の前記慣性モーメントと前記部分画像の前記慣性モーメント とに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と 前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記 入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えた ことを特徴とするテンプレートマッチング装置。
[28] 円形状の既知のテンプレート画像の予め定めた第 1範囲と第 2範囲との各々におけ る平均濃度の差を算出する第 1の算出手段と、
入力画像の中の異なる複数の位置から円形状の演算用の部分画像を抽出する抽 出手段と、
前記抽出手段により抽出された前記部分画像の前記第 1範囲と前記第 2範囲との 各々における平均濃度の差を算出する第 2の算出手段と、
前記テンプレート画像の前記平均濃度の差と前記部分画像の前記平均濃度の差 とに基づいて、前記テンプレート画像と前記部分画像との類似度を求める演算手段と 前記入力画像の各位置で求められた前記類似度を大小比較することにより、前記 入力画像の中の前記テンプレート画像との合致位置を特定する特定手段とを備えた ことを特徴とするテンプレートマッチング装置。
[29] 請求項 26に記載のテンプレートマッチング装置において、
前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み 前記第 1の作成手段は、前記テンプレート画像の前記ヒストグラムを各色成分ごとに 作成し、
前記第 2の作成手段は、前記部分画像の前記ヒストグラムを各色成分ごとに作成し 前記演算手段は、前記テンプレート画像の各色成分の前記ヒストグラムと前記部分 画像の各色成分の前記ヒストグラムとに基づいて、同じ色成分どうしを比較することに より、前記類似度を求める
ことを特徴とするテンプレートマッチング装置。
[30] 請求項 27に記載のテンプレートマッチング装置において、
前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み 前記第 1の算出手段は、前記テンプレート画像の前記 1貧性モーメントを各色成分ご とに算出し、
前記第 2の算出手段は、前記部分画像の前記慣性モーメントを各色成分ごとに算 出し、
前記演算手段は、前記テンプレート画像の各色成分の前記慣性モーメントと前記 部分画像の各色成分の前記慣性モーメントとに基づいて、同じ色成分どうしを比較 することにより、前記類似度を求める
ことを特徴とするテンプレートマッチング装置。
[31] 請求項 28に記載のテンプレートマッチング装置において、
前記テンプレート画像と前記入力画像と前記部分画像とは、複数の色成分を含み 前記第 1の算出手段は、前記テンプレート画像の前記平均濃度の差を各色成分ご とに算出し、
前記第 2の算出手段は、前記部分画像の前記平均濃度の差を各色成分ごとに算 出し、
前記演算手段は、前記テンプレート画像の各色成分の前記平均濃度の差と前記 部分画像の各色成分の前記平均濃度の差とに基づいて、同じ色成分どうしを比較す ることにより、前記類似度を求める
ことを特徴とするテンプレートマッチング装置。
[32] マークの形状及び設計サイズをレシピに登録する登録手段と、
測定すべき基板を撮像し、取得した画像から、前記レシピに登録された形状及び 設計サイズと一致するマークを検出する検出手段とを備えた
ことを特徴とするマーク識別装置。
[33] 請求項 32に記載のマーク識別装置において、
前記レシピに登録されたデータにサイズ許容範囲が含まれる
ことを特徴とするマーク識別装置。
[34] 基板上に形成された少なくとも 1対以上のエッジを有するマークの光学像を撮像し 、複数のサンプル点で構成される画像信号を取得する撮像手段と、
前記画像信号に基く波形の中心位置を検出する検出手段と、
前記画像信号のうち輝度値の急変部分をエッジ信号として抽出する抽出手段と、 前記波形の中心位置に基づレ、て前記エッジ信号の中から前記エッジに対応しなレ、 エッジ信号を抽出する非エッジ検出手段と、
前記エッジ信号の中から前記エッジに対応しないエッジ信号を除去し、この除去後 のエッジ信号に基づいて前記エッジの位置を検出するエッジ位置検出手段とを備え た
ことを特徴とするエッジ位置検出装置。
[35] 請求項 34に記載のエッジ位置検出装置において、
前記非エッジ検出手段は、前記中心位置を対称軸として前記画像信号の輝度値 の急変部分の位置と対称な位置の近傍の輝度を測定する
ことを特徴とするエッジ位置検出装置。
[36] 請求項 34に記載のエッジ位置検出装置において、
前記エッジ信号の中から前記エッジに対応しなレ、エッジ信号を除去した後のエッジ 信号に基づいて閾値を決め、この閾値が前記エッジ信号の中力 抽出された前記ェ ッジに対応しなレ、エッジ信号に基づレ、て決められた閾値より大きいとき、エラー情報 を生成するエラー情報生成手段を備えた ことを特徴とするエッジ位置検出装置。
PCT/JP2005/009749 2004-05-28 2005-05-27 結像光学系の調整方法、結像装置、位置ずれ検出装置、マ-ク識別装置及びエッジ位置検出装置 WO2005116577A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/604,354 US7528954B2 (en) 2004-05-28 2006-11-27 Method of adjusting optical imaging system, positional deviation detecting mark, method of detecting positional deviation, method of detecting position, position detecting device and mark identifying device

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
JP2004-158874 2004-05-28
JP2004158874A JP4389668B2 (ja) 2004-05-28 2004-05-28 位置検出方法および位置検出装置
JP2004161611A JP4599893B2 (ja) 2004-05-31 2004-05-31 位置ずれ検出方法
JP2004-161611 2004-05-31
JP2004-169520 2004-06-08
JP2004169520A JP2005352543A (ja) 2004-06-08 2004-06-08 テンプレートマッチング装置
JP2004-206887 2004-07-14
JP2004-206888 2004-07-14
JP2004206888A JP2006032521A (ja) 2004-07-14 2004-07-14 マーク識別装置
JP2004206887A JP4484041B2 (ja) 2004-07-14 2004-07-14 エッジ位置検出装置
JP2004-222331 2004-07-29
JP2004222331A JP4691922B2 (ja) 2004-07-29 2004-07-29 結像光学系の調整方法
JP2004-232369 2004-08-09
JP2004232369A JP2006047922A (ja) 2004-08-09 2004-08-09 結像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/604,354 Continuation US7528954B2 (en) 2004-05-28 2006-11-27 Method of adjusting optical imaging system, positional deviation detecting mark, method of detecting positional deviation, method of detecting position, position detecting device and mark identifying device

Publications (1)

Publication Number Publication Date
WO2005116577A1 true WO2005116577A1 (ja) 2005-12-08

Family

ID=35450978

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/009749 WO2005116577A1 (ja) 2004-05-28 2005-05-27 結像光学系の調整方法、結像装置、位置ずれ検出装置、マ-ク識別装置及びエッジ位置検出装置

Country Status (2)

Country Link
TW (1) TW200609483A (ja)
WO (1) WO2005116577A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566337A (zh) * 2010-12-28 2012-07-11 上海微电子装备有限公司 一种标记期望位置确定方法
JP2019082611A (ja) * 2017-10-31 2019-05-30 株式会社アドテックエンジニアリング 両面露光装置
CN112540510A (zh) * 2019-09-20 2021-03-23 株式会社Orc制作所 曝光装置及其性能评价方法
KR20210074415A (ko) * 2018-11-15 2021-06-21 어플라이드 머티어리얼스, 인코포레이티드 리소그래피 시스템들을 위한 자기 정렬 시스템들 및 방법들
CN116883515A (zh) * 2023-09-06 2023-10-13 菲特(天津)检测技术有限公司 光学环境调整方法及光学标定装置
CN112540510B (zh) * 2019-09-20 2024-06-04 株式会社Orc制作所 曝光装置及其性能评价方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7351966B1 (en) * 2006-05-23 2008-04-01 International Business Machines Corporation High-resolution optical channel for non-destructive navigation and processing of integrated circuits
JP5706861B2 (ja) * 2011-10-21 2015-04-22 キヤノン株式会社 検出器、検出方法、インプリント装置及び物品製造方法
TWI489573B (zh) * 2012-09-12 2015-06-21 Motech Ind Inc 檢測裝置
JP7035933B2 (ja) * 2018-09-21 2022-03-15 東芝ライテック株式会社 検知装置
KR20210076984A (ko) * 2018-11-26 2021-06-24 에이에스엠엘 네델란즈 비.브이. 패터닝 디바이스 또는 기판에 걸친 마크 레이아웃 결정 방법
EP3842866A1 (en) * 2019-12-24 2021-06-30 ASML Netherlands B.V. Metrology method
JP2021118045A (ja) * 2020-01-22 2021-08-10 東京エレクトロン株式会社 プラズマ観測システム及びプラズマ観測方法
CN112904682B (zh) * 2021-01-22 2023-08-01 西华大学 一种测量倾角和旋转角的光刻对准标记及对准方法
CN114894712B (zh) * 2022-03-25 2023-08-25 业成科技(成都)有限公司 光学量测设备及其校正方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06267818A (ja) * 1993-03-11 1994-09-22 Nikon Corp 投影露光装置
JPH10122816A (ja) * 1997-09-08 1998-05-15 Nikon Corp 位置検出装置、露光装置及び方法
JP2002328288A (ja) * 2001-04-26 2002-11-15 Matsushita Electric Ind Co Ltd 組レンズ調整方法とその装置
JP2004134473A (ja) * 2002-10-09 2004-04-30 Nikon Corp 位置検出用マーク、位置検出装置、位置検出方法、露光装置、および露光方法
JP2004134474A (ja) * 2002-10-09 2004-04-30 Nikon Corp 位置検出装置の検査方法、位置検出装置、露光装置、および露光方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06267818A (ja) * 1993-03-11 1994-09-22 Nikon Corp 投影露光装置
JPH10122816A (ja) * 1997-09-08 1998-05-15 Nikon Corp 位置検出装置、露光装置及び方法
JP2002328288A (ja) * 2001-04-26 2002-11-15 Matsushita Electric Ind Co Ltd 組レンズ調整方法とその装置
JP2004134473A (ja) * 2002-10-09 2004-04-30 Nikon Corp 位置検出用マーク、位置検出装置、位置検出方法、露光装置、および露光方法
JP2004134474A (ja) * 2002-10-09 2004-04-30 Nikon Corp 位置検出装置の検査方法、位置検出装置、露光装置、および露光方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566337B (zh) * 2010-12-28 2014-05-21 上海微电子装备有限公司 一种标记期望位置确定方法
CN102566337A (zh) * 2010-12-28 2012-07-11 上海微电子装备有限公司 一种标记期望位置确定方法
JP2019082611A (ja) * 2017-10-31 2019-05-30 株式会社アドテックエンジニアリング 両面露光装置
TWI782124B (zh) * 2017-10-31 2022-11-01 日商亞多特克工程股份有限公司 兩面曝光裝置
JP7412872B2 (ja) 2017-10-31 2024-01-15 株式会社アドテックエンジニアリング 両面露光装置
KR102653417B1 (ko) * 2018-11-15 2024-03-29 어플라이드 머티어리얼스, 인코포레이티드 리소그래피 시스템들을 위한 자기 정렬 시스템들 및 방법들
KR20210074415A (ko) * 2018-11-15 2021-06-21 어플라이드 머티어리얼스, 인코포레이티드 리소그래피 시스템들을 위한 자기 정렬 시스템들 및 방법들
CN113168087A (zh) * 2018-11-15 2021-07-23 应用材料公司 用于光刻系统的自对准系统及方法
JP2022508105A (ja) * 2018-11-15 2022-01-19 アプライド マテリアルズ インコーポレイテッド リソグラフィシステムのための自己整合システム及び方法
JP7330273B2 (ja) 2018-11-15 2023-08-21 アプライド マテリアルズ インコーポレイテッド リソグラフィシステムのための自己整合システム及び方法
CN113168087B (zh) * 2018-11-15 2024-05-14 应用材料公司 用于光刻系统的自对准系统及方法
CN112540510A (zh) * 2019-09-20 2021-03-23 株式会社Orc制作所 曝光装置及其性能评价方法
CN112540510B (zh) * 2019-09-20 2024-06-04 株式会社Orc制作所 曝光装置及其性能评价方法
CN116883515B (zh) * 2023-09-06 2024-01-16 菲特(天津)检测技术有限公司 光学环境调整方法及光学标定装置
CN116883515A (zh) * 2023-09-06 2023-10-13 菲特(天津)检测技术有限公司 光学环境调整方法及光学标定装置

Also Published As

Publication number Publication date
TWI374248B (ja) 2012-10-11
TW200609483A (en) 2006-03-16

Similar Documents

Publication Publication Date Title
WO2005116577A1 (ja) 結像光学系の調整方法、結像装置、位置ずれ検出装置、マ-ク識別装置及びエッジ位置検出装置
US7528954B2 (en) Method of adjusting optical imaging system, positional deviation detecting mark, method of detecting positional deviation, method of detecting position, position detecting device and mark identifying device
US7456967B2 (en) Mark position detection apparatus
US9709903B2 (en) Overlay target geometry for measuring multiple pitches
US6801315B2 (en) Method and system for overlay measurement
EP1117129A2 (en) Semiconductor wafer inspection machine
US20090296075A1 (en) Imaging Diffraction Based Overlay
JPH0465603A (ja) アライメント方法,露光装置,並びに位置検出方法及び装置
US20120224176A1 (en) Parallel Acquisition Of Spectra For Diffraction Based Overlay
JP2019509477A (ja) 構造を測定する方法、検査装置、リソグラフィシステム、デバイス製造方法、およびそれらで使用する波長選択フィルタ
JP2006350078A (ja) 3次元形状測定装置及び3次元形状測定方法
JP2009239077A (ja) 位置検出装置、位置検出方法、露光装置及びデバイス製造方法
JP4792833B2 (ja) 重ね合わせ測定装置
US10969697B1 (en) Overlay metrology tool and methods of performing overlay measurements
JP3882588B2 (ja) マーク位置検出装置
WO2021210052A1 (ja) 計測装置、露光装置、および計測方法
US8456641B1 (en) Optical system
JP2006184777A (ja) 焦点検出装置
JPH035651B2 (ja)
JP4691922B2 (ja) 結像光学系の調整方法
CN109211117B (zh) 线宽测量系统和线宽测量装置
JPH04273246A (ja) 位置検出装置、露光装置および露光方法
WO2006046430A1 (ja) 焦点検出装置
JP4826326B2 (ja) 照明光学系の評価方法および調整方法
JP2004158555A (ja) マーク位置検出装置ならびにその調整用基板および調整方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11604354

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 11604354

Country of ref document: US

122 Ep: pct application non-entry in european phase