WO2006046430A1 - 焦点検出装置 - Google Patents

焦点検出装置 Download PDF

Info

Publication number
WO2006046430A1
WO2006046430A1 PCT/JP2005/019059 JP2005019059W WO2006046430A1 WO 2006046430 A1 WO2006046430 A1 WO 2006046430A1 JP 2005019059 W JP2005019059 W JP 2005019059W WO 2006046430 A1 WO2006046430 A1 WO 2006046430A1
Authority
WO
WIPO (PCT)
Prior art keywords
field stop
focus
image
plane
object plane
Prior art date
Application number
PCT/JP2005/019059
Other languages
English (en)
French (fr)
Inventor
Tatsuo Fukui
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to US11/661,399 priority Critical patent/US7580121B2/en
Publication of WO2006046430A1 publication Critical patent/WO2006046430A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70641Focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0037Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration with diffracting elements
    • G02B27/0043Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration with diffracting elements in projection exposure systems, e.g. microlithographic systems

Definitions

  • the present invention relates to a focus detection apparatus that performs focus detection on an object plane, and in particular, the position of a mark formed on a substrate (such as a semiconductor wafer or a liquid crystal substrate) in a manufacturing process of a semiconductor element, a liquid crystal display element, or the like.
  • the present invention relates to a focus detection device that is suitable for focus adjustment when detecting a lens with high accuracy.
  • a circuit pattern is transferred to a resist layer through a known lithographic process, and a predetermined material is obtained by performing processing such as etching through the resist pattern.
  • the circuit pattern is transferred to the film (pattern formation process).
  • pattern formation process By repeating this pattern formation process many times, circuit patterns of various material films are stacked on a substrate (semiconductor wafer or liquid crystal substrate), and a circuit of a semiconductor element or a liquid crystal display element is formed. .
  • the position of the alignment mark or overlay mark (generally simply referred to as "mark") is used in an apparatus that performs substrate alignment or an apparatus that performs overlay inspection of resist patterns on the substrate.
  • Built-in device to detect In the position detection device, the mark to be detected is positioned in the field of view, and after automatic focus adjustment, the image of the mark is captured by an image sensor such as a CCD camera, and the mark image is captured. The position of the mark is detected by performing predetermined image processing.
  • a device that performs focus detection of the object plane during focus adjustment is also incorporated.
  • the focus detection of the object plane corresponds to the generation of a focus signal corresponding to the positional relationship of the object plane with respect to the focal plane (that is, the in-focus plane) of the imaging means.
  • the focus signal is used as a control signal for causing the object surface to coincide with the in-focus surface, and is output to means for adjusting the relative position between the object surface and the in-focus surface (for example, a control device for a stage that supports the substrate).
  • a pupil division method has been proposed (see, for example, Patent Document 1).
  • This device illuminates the object surface through the field stop, forms the image of the field stop in two based on the light from the object surface, detects the distance between the two images, and generates a focus signal.
  • the distance between the two images increases as the object plane approaches the imaging unit and decreases as the distance from the imaging unit increases, and linearly increases or decreases in proportion to the positional relationship of the object plane with respect to the focal plane.
  • the interval when the object plane coincides with the in-focus plane is known. Then, a focus signal is generated according to the difference between the interval between the two images and the known interval.
  • Patent Document 1 Japanese Patent Laid-Open No. 10-223517
  • the distance between the two images linearly increases or decreases in proportion to the positional relationship of the object plane with respect to the focal plane. If the focusing surface force shift amount increases, the inner parts of the two images overlap each other, or the outer parts of the two images protrude from the light receiving area of the sensor. This makes it impossible to detect the interval between the two images, making it difficult to generate a focus signal.
  • the autofocus operation pull-in range is from the position of the object plane where the inner portions of the two images overlap each other, and the outer portion of the two images is the light receiving area force of the sensor. It will be up to the position of the object surface.
  • the inner part of the two images does not overlap even if the defocus amount on the object plane increases, and the outer part of the two images protrudes from the sensor. Therefore, it is necessary to increase the size of the optical system, leading to an increase in cost.
  • An object of the present invention is to provide a focus detection device that can easily expand the pull-in range of an autofocus operation.
  • the focus detection apparatus of the present invention includes a first field stop, includes illumination means for illuminating the object surface through the first field stop, and a second field stop, and detects light generated from the object surface.
  • An intermediate image of the first field stop is formed on an arrangement surface of the second field stop, and when the object surface is located within a predetermined range including a focal plane, the second field stop causes the intermediate field stop to form the intermediate field.
  • First imaging means for allowing an image to pass through without being blocked, and for blocking a part of the intermediate image by the second field stop and allowing the remaining part to pass when the object plane is located outside the predetermined range.
  • Second image forming means for dividing the final image of the first field stop based on light from the first image forming means into two parts, and the final image of the first field stop divided into two parts By detecting the interval, a focus signal corresponding to the positional relationship of the object surface with respect to the in-focus surface is obtained.
  • generating means for generating.
  • the second field stop is shared with the first field stop, and the following conditional expression regarding a direction equivalent to the two-divided direction on the arrangement surface: A ⁇ A ⁇ (1 + NA) XA "is satisfied.
  • Length, NA numerical aperture on the object plane side of the imaging means.
  • FIG. 1 is a diagram showing a configuration of a focus detection apparatus according to an embodiment incorporated in an overlay measurement apparatus 10.
  • FIG. 2 is a diagram for explaining the shapes of the intermediate image 16b of the illumination field stop 16 and the AF field stop 41.
  • FIG. 3 is a diagram for explaining the final images 16c (l) and (2) of the illumination field stop 16 on the imaging surface 47a of the AF sensor 47 and the positions of the AF field stop 41 (dotted line frames 51 and 52).
  • FIG. 4 is a diagram for explaining changes in the distance between the final images 16c (l) and (2) of the illumination field stop 16 and the degree of blurring of the contour.
  • FIG. 5 is a diagram for explaining final images 16c (l) and (2) and an intensity profile when an object plane is located within a predetermined range including a focal plane.
  • FIG. 6 is a diagram for explaining the final image 16c (l), (2) and the intensity profile in the pin state after the object plane is located outside the predetermined range and defocused to the upper side (+ side) from the focal plane. It is.
  • FIG. 7 The final image 16c (l), (2) and the intensity profile in the front pin state where the object plane is located outside the specified range and defocused below (on one side) the in-focus plane are explained.
  • FIG. 8 is a diagram for explaining a pull-in range of an autofocus operation in the focus detection apparatus of the present embodiment.
  • the overlay measurement apparatus 10 is an apparatus that performs overlay inspection of a resist pattern (not shown) on the substrate 11 in a manufacturing process of a semiconductor element, a liquid crystal display element, or the like.
  • overlay inspection the amount of misregistration of the resist pattern with respect to the circuit pattern (hereinafter referred to as “underground pattern”) formed on the underlayer of the substrate 11 is measured.
  • the overlay measurement apparatus 10 includes a stage 12 that supports a substrate 11, an illumination optical system (13 to 19), and an imaging optical system (19 to 23).
  • a CCD image pickup device 25, an image processing unit 26, a focus detection unit (40 to 48), and a stage control unit 27 are provided.
  • the optical elements (19, 20) and the focus detectors (40 to 48) of the illumination optical system (13 to 19) and the imaging optical system (19 to 23) are the focal points of the present embodiment. Functions as a detection device.
  • the stage 12 has a holder that supports the substrate 11 in a horizontal state, an XY drive unit that drives the holder in the horizontal direction (XY direction), and a holder in the vertical direction (Z direction). It is composed of a Z drive unit that is driven by The XY drive unit and the Z drive unit are connected to the stage control unit 27.
  • the substrate 11 is a semiconductor wafer, a liquid crystal substrate, or the like, and is in a state after exposure-development of the resist layer and before processing of a predetermined material film.
  • a large number of measurement points are prepared on the substrate 11 for overlay inspection. The measurement points are located at the four corners of each shot area. At each measurement point, a resist mark indicating the reference position of the resist pattern and a base mark indicating the reference position of the base pattern are formed.
  • the registration mark and the base mark are collectively referred to as “overlapping mark 11A”.
  • the stage control unit 27 controls the XY driving unit of the stage 12 and moves the holder in the XY direction so as to overlap the substrate 11 Position the alignment mark 11A within the field of view. Further, based on a focus signal (described later) output from the focus detection unit (40 to 48), the Z drive unit of the stage 12 is controlled to move the holder up and down in the Z direction. By this focus adjustment, the surface (object surface) of the substrate 11 can be focused on the imaging surface of the CCD image sensor 25.
  • the illumination optical system (13 to 19) includes a light source unit 13, an illumination aperture stop 14, a condenser lens 15, an illumination field stop 16, an illumination relay lens 17, and a beam splitter arranged in this order along the optical axis 01. 18 and a first objective lens 19 disposed on the optical axis 02.
  • the beam splitter 18 has a reflection / transmission surface inclined at about 45 ° with respect to the optical axis 01 and is also disposed on the optical axis 02.
  • the optical axis 01 of the illumination optical system (13 to 19) is perpendicular to the optical axis 02 of the imaging optical system (19 to 23).
  • the light source unit 13 includes a light source 3A, a collector lens 3B, a light source relay lens 3C, and a light guide fiber 3D.
  • the light source 3A emits light having a wide wavelength band (for example, white light).
  • the broadband wavelength light emitted from the light source 3A is guided to the illumination aperture stop 14 via the collector lens 3B, the light source relay lens 3C, and the light guide fiber 3D.
  • the illumination aperture stop 14 has a center positioned on the optical axis 01 and a wide area emitted from the light source unit 13. The diameter of the light of the band wavelength is limited to a specific diameter.
  • the condenser lens 15 condenses the light from the illumination aperture stop 14.
  • the illumination field stop 16 is an optical element that limits the field area of the overlay measurement apparatus 10, and has one slit 16a that is a rectangular opening, as shown in FIG. 1 (b).
  • the illumination relay lens 17 collimates light from the slit 16a of the illumination field stop 16.
  • the beam splitter 18 reflects light from the illumination relay lens 17 downward.
  • the broadband wavelength light emitted from the light source unit 13 is emitted from the illumination aperture stop.
  • the illumination field stop 16 is illuminated uniformly through 14 and the condenser lens 15.
  • the light that has passed through the slit 16a of the illumination field stop 16 is guided to the beam splitter 18 via the illumination relay lens 17 and reflected by the reflection / transmission surface (illumination light L1). 1 Guided to the objective lens 19.
  • the first objective lens 19 receives and collects the illumination light L1 from the beam splitter 18.
  • the substrate 11 on the stage 12 is vertically illuminated by the broadband wavelength illumination light L1 transmitted through the first objective lens 19 (epi-illumination).
  • the illumination optical systems (13 to 19) function as means for illuminating the surface (object plane) of the substrate 11 through the illumination field stop 16 (“illumination means” in claims).
  • the illumination field stop 16 corresponds to the “first field stop” in the claims.
  • the angle of the illumination light L1 when entering the substrate 11 is determined by the positional relationship between the center of the illumination aperture stop 14 and the optical axis Ol. Further, the incident angle range of the illumination light L1 at each point on the substrate 11 is determined by the aperture diameter of the illumination aperture stop 14. This is because the illumination aperture stop 14 has a conjugate positional relationship with the pupil of the first objective lens 19.
  • the illumination field stop 16 and the surface (object plane) of the in-focus substrate 11 are in a conjugate relationship, it corresponds to the slit 16a of the illumination field stop 16 on the surface (object plane) of the substrate 11
  • the area to be illuminated is illuminated by the illumination light L1.
  • the image of the slit 16a is projected on the surface (object surface) of the substrate 11 by the action of the illumination relay lens 17 and the first objective lens 19.
  • the image of the slit 16a is in the longitudinal direction (direction equivalent to direction B in Fig. 1 (b)) and in the short direction (direction A in Fig. 1 (b)). Equivalent direction) is formed to form a 45 degree angle with the street pattern existing on the object plane.
  • the street pattern of the substrate 11 is the length of the image of the slit 16a. It is transported at an angle of 45 degrees with respect to the hand direction and the short direction. By maintaining such an angular relationship, errors due to pattern effects during autofocus operations can be reduced.
  • the overlay mark 11A on the substrate 11 is positioned near the center of the area (illumination area) where the image of the slit 16a is projected.
  • the reflected light L2 is generated from the region of the substrate 11 irradiated with the illumination light L1 having the broadband wavelength.
  • the reflected light L2 from the substrate 11 is guided to the imaging optical system (19 to 23).
  • the imaging optical system (19-23) includes a first objective lens 19, a second objective lens 20, a first imaging relay lens 21, an imaging aperture stop 22, and a second objective arranged in order along the optical axis 02. And an imaging relay lens 23.
  • the optical axis 02 of the imaging optical system (19-23) is parallel to the Z direction.
  • a beam splitter 18 of the illumination optical system (13 to 19) is disposed between the first objective lens 19 and the second objective lens 20, and the second objective lens 20 and the first imaging relay lens 21 are connected to each other. Between them, the beam splitter 40 of the focus detection unit (40 to 48) is arranged.
  • the beam splitters 18 and 40 are half prisms that perform amplitude separation of light.
  • the first objective lens 19 collimates the reflected light L2 from the substrate 11.
  • the reflected light L2 collimated by the first objective lens 19 passes through the beam splitter 18 and enters the second object lens 20.
  • the second objective lens 20 condenses the reflected light L2 from the beam splitter 18 on the primary imaging plane 10a.
  • the beam splitter 40 of the focus detection unit (40 to 48) arranged in front of the primary imaging plane 10a is configured to include the optical axis 03 of the focus detection unit (40 to 48) and the light of the imaging optical system (19 to 23).
  • the reflection / transmission surface is inclined by approximately 45 ° with respect to the axis 02.
  • the beam splitter 40 transmits a part (L3) of the reflected light L2 of the second objective lens 20 and reflects the remaining part (L4).
  • a part of the light L3 transmitted through the beam splitter 40 is guided to the first imaging relay lens 21 of the imaging optical system (19-23) after passing through the primary imaging surface 10a.
  • the first imaging relay lens 21 collimates the light L3 from the beam splitter 40.
  • the imaging aperture stop 22 is disposed on a plane conjugate with the pupil of the first objective lens 19, and limits the diameter of the light from the first imaging relay lens 21 to a specific diameter.
  • the second imaging relay lens 23 re-images the light from the imaging aperture stop 22 on the imaging surface (secondary imaging surface) of the CCD image sensor 25.
  • the overlay mark 1 on the substrate 11 in the field of view 1 When 1A is positioned, an image of the mark (an image (reflected image) based on the reflected light L2 from the substrate 11) is formed on the imaging surface of the CCD imaging device 25.
  • the CCD image pickup device 25 is an area sensor in which a plurality of pixels are two-dimensionally arranged, and is arranged so that its image plane coincides with the image plane of the imaging optical system (19 to 23).
  • the upper overlay mark 11A is captured and an image signal is output to the image processing unit 26.
  • the image signal represents a distribution (luminance distribution) relating to the luminance value for each pixel on the imaging surface of the CCD imaging device 25.
  • the image processing unit 26 Based on the image signal from the CCD image sensor 25, the image processing unit 26 captures the image of the overlay mark 11A on the substrate 11, and performs image processing for overlay inspection on the image. Apply. Then, overlay inspection of the substrate 11 (inspection of the overlay state of the resist pattern with respect to the base pattern) is performed. In overlay inspection, registration mark 11A registration mark and ground mark position detection and overlay mark 11A overlay amount measurement are performed. Note that observation through a TV monitor (not shown) is also possible via the image processing unit 26.
  • the focus detection unit (40 to 48) is arranged between the second objective lens 20 of the imaging optical system (19 to 23) and the primary imaging plane 1 Oa, and is arranged in order along the optical axis 03.
  • AF light L4 A part of light L4 reflected by the beam splitter 40 (hereinafter referred to as "AF light L4") is guided to the focus detection units (40 to 48).
  • AF light L4 is a part of light (reflected light L2) generated from the object surface.
  • This focus detection unit (40 to 48) includes the illumination optical system (13 to 19) and the optical elements (19 and 20) of the imaging optical system (19 to 23) and the focus of the present embodiment. Functions as a detection device.
  • the focus detection apparatus of this embodiment detects whether or not the surface (object surface) of the substrate 11 is in focus with respect to the imaging surface of the CCD image sensor 25, that is, performs focus detection of the object surface. Is.
  • the AF light L4 from the beam splitter 40 is Incident on the field stop 41.
  • the AF field stop 41 is conjugate with the surface (object plane) of the in-focus substrate 11 and conjugate with the illumination field stop 16.
  • an intermediate image 16b (see FIG. 2) of the illumination field stop 16 is formed on the arrangement surface of the AF field stop 41 by the condensing action of the first objective lens 19 and the second objective lens 20.
  • the AF field stop 41, the first objective lens 19 and the second objective lens 20 generally correspond to the “first imaging means” in the claims.
  • the AF field stop 41 corresponds to the “second field stop” in the claims.
  • the center of the intermediate image 16b of the illumination field stop 16 is always on the optical axis 03, and the surface (object plane) of the substrate 11 with respect to the focal plane (that is, the focal plane) of the imaging optical system (19-23). It will not move even if the positional relationship changes.
  • the degree of blurring of the contour of the intermediate image 16b of the illumination field stop 16 changes.
  • FIG. 2 (a) is a view of the intermediate image 16b viewed from the direction of the optical axis 03 when the object plane coincides with the in-focus plane (in the in-focus state).
  • Fig. 2 (b) shows the intensity profile of the in-focus intermediate image 16b. In this case, it can be seen that the outline of the intermediate image 16b is not blurred (sharpened).
  • Figure 2 (c) shows the intensity profile of the intermediate image 16b when the object plane deviates from the in-focus plane (in the defocused state). In this case, the outline of the intermediate image 16b is blurred. I understand.
  • the size A of the AF field stop 41 is
  • Size A is the measurement direction of AF field stop 41 (
  • the numerical aperture NA is the numerical aperture on the object plane side of the imaging optical system (19 to 23).
  • the size A of the AF field stop 41 that satisfies conditional expression (1) is related to the measurement direction (X direction).
  • the size of the in-focus intermediate image 16b is larger than the size A of the in-focus intermediate image 16b.
  • the numerical aperture NA on the object plane side of the imaging optical system (19 to 23) is set to 0. .75 and the size A of the AF field stop 41 was 1.3 XA.
  • the non-measurement direction (y direction) In the non-measurement direction (y direction)
  • the blur (spread) of the outline of the intermediate image 16b is small, and the intermediate image 16b is allowed to pass through the AF field stop 41 without being blocked. I can do it.
  • the blur of the outline of the intermediate image 16b is large, and the AF field stop 41 blocks part of the intermediate image 16b (that is, the outline portion) and blocks the remaining one. Part can be passed.
  • the AF light L5 (FIG. 1) that has passed through the AF field stop 41 is collimated by the AF first relay lens 42, passes through the parallel plane plate 43, and enters the pupil division mirror 44.
  • An image of the illumination aperture stop 14 is formed on the pupil division mirror 44.
  • the pupil division mirror 44 is provided with a light-shielding stop 4A that shields the central portion of the AF light L5 and transmits the peripheral portion, and removes stray light such as a ghost.
  • the plane parallel plate 43 is an optical element for adjusting the position of the image of the illumination aperture stop 14 at the center of the pupil division mirror 44, and has a mechanism capable of tilt adjustment.
  • the AF light L5 incident on the pupil division mirror 44 is amplitude-separated into two directions of light (that is, two-way derangement
  • the light is condensed near the imaging surface 47a of the sensor 47.
  • the final images 16c (l) and (n) of the illumination field stop 16 as shown in FIG. 3 (a) are located at positions separated along the measurement direction (S direction). 2) is formed.
  • the final images 16c (l) and (2) have a shape compressed in the non-measurement direction (direction perpendicular to the S direction) by the refractive power of the cylindrical lens 46.
  • the AF first relay lens 42, pupil derangement ij mirror 44, AF second relay lens 45, and cylindrical force lens 46 are the final illumination field stop 16 based on the AF light L5 from the AF field stop 41. It functions as means for forming the images 16c (l) and (2) by dividing them into two parts (“second image forming means” in the claims).
  • the measurement direction (S direction) on the imaging surface 47a of the AF sensor 47 is equivalent to the two-division direction by the pupil division mirror 44 (Fig. 1) described above, and the arrangement surface of the AF field stop 41 (Fig. 2) This is equivalent to the measurement direction (X direction).
  • the non-measurement direction (direction perpendicular to the S direction) on the imaging surface 47a of the AF sensor 47 is equivalent to the non-measurement direction (y direction) on the arrangement surface of the AF field stop 41.
  • Dotted lines 51 and 52 shown in FIG. 3 (a) represent the positions of the AF field stop 41 projected onto the imaging surface 47a of the AF sensor 47. Since the imaging surface 47a and the AF field stop 41 are conjugate, the position of the AF field stop 41 projected onto the imaging surface 47a (dotted line frames 51 and 52) is changed even if the positional relationship of the object surface with respect to the focal plane changes. It doesn't move.
  • the final image 16c (l) 2) of the illumination field stop 16 changes the distance between the final images 16c (l) and (2) when the positional relationship of the object plane with respect to the focal plane changes. The blur of the outline also changes.
  • Figures 4 (a), (b), and (c) show the front pin state where the object surface is defocused below (on one side) the in-focus surface, and the in-focus state where the object surface coincides with the in-focus surface.
  • the object surface is in a pinned state after defocusing above the in-focus plane (+ side).
  • the final images 16c (l) and (2) are closer to each other in the front pin state (a) and in the rear pin state (c). Leave.
  • the final image 16c (l), (2) becomes the measurement direction of the imaging surface 47a of the AF sensor 47 ( Approach or leave along the (S direction). That is, the interval between the final images 16c (1) and (2) changes.
  • the degree of blurring of the contours of the final images 16c (l) and (2) also changes.
  • a line sensor is used as the AF sensor 47 (FIG. 1) in order to capture the final images 16c (l) and (2) as shown in FIGS. 3 (a) to 3 (c).
  • a plurality of pixels are arranged one-dimensionally on the imaging surface 47a of the AF sensor 47.
  • the arrangement direction of the pixels on the imaging surface 47a is parallel to the measurement direction (S direction).
  • the size of the imaging surface 47a in the measurement direction (S direction) is such a size as to include the projection position of the AF field stop 41 (dotted line frames 51 and 52).
  • the final images 16c (l) and (2) on the imaging plane 47a of the AF sensor 47 are as shown in Fig. 5 (a).
  • the contour is formed without blurring at the position, and the intensity profiles of the final images 16c (l) and (2) are as shown in Fig. 5 (b).
  • edge positions corresponding to the projection positions of the AF field stop 41 are indicated by S1 to S4.
  • the edge positions S1 and S2 correspond to the inside of the dotted frame 51, and the edge positions S3 and S4 correspond to the inside of the dotted frame 52.
  • the final images 16c (l) and (2) have a slight outline blurring.
  • the interval between the images 16c (l) and (2) is slightly larger or smaller than the in-focus state described above, but the final images 16c (l) and (2) are blocked by the edge positions S1 to S4. It will never be done. Therefore, the final images 16c (l) and (2) of the same size as when the AF field stop 41 is omitted are completely inside between the edge positions S1 and S2 and between the edge positions S3 and S4, respectively. It is formed. In this case, the edge positions S1 to S4 are not captured as an image.
  • the signal processing unit 48 sets a predetermined slice level (for example, 50%) for the intensity profile of the final images 16c (l) and (2) as shown in FIG. Find the positions of the four intersections K1 to K4 at, and find the distance AL between the final images 16c (l) and (2). Then, the difference (ie, [AL_ALo] or [ALo_AL]) from the preliminarily stored in-focus state A Lo is obtained, and a focus signal is generated.
  • the focus signal is a signal according to the positional relationship of the object plane with respect to the in-focus plane, and is output to the stage control unit 27 as a control signal for matching the object plane with the in-focus plane.
  • the AF sensor 47 and the signal processing unit 48 generally detect the distance between the final image 16c (l) and (2) divided into two parts according to the positional relationship between the object plane and the focal plane. It functions as a means for generating a focus signal (“generating means” in claims).
  • the generated focus signal is a control signal that represents the exact offset (defocus amount) of the object plane. It becomes.
  • the imaging plane of the AF sensor 47 When the object plane is located outside the above predetermined range and defocused to the upper side (+ side) from the in-focus plane (see FIG. 4 (c)), the imaging plane of the AF sensor 47 The final images 16c (1) and (2) in 47a are formed in a state where the outline is blurred at the position as shown in FIG. 6 (a) (see FIG. 6 (b)).
  • the intensity profile in FIG. 6 (b) corresponds to the thick dotted frames 53 and 54 in FIG. 6 (a) (that is, when the AF field stop 41 is omitted).
  • the portions other than the shaded portion in the intensity profile of Fig. 6 (b) are blocked by the edge position S1 and the edge position S4. Therefore, the actual intensity profile is as shown in Fig. 6 (c).
  • the edge position S1 and the edge position S4 are reflected as an image in the intensity profile of FIG. 6 (c).
  • Such projection of the edge positions S1 and S4 is based on the arrangement surface of the AF field stop 41 (Fig. 2), and the edge in the measurement direction (X direction) of the AF field stop 41 is blurred by the intermediate field 16b of the illumination field stop 16b. Due to the illumination by
  • the signal processing unit 48 performs a predetermined slice level (for example, 50%) on the intensity profile of the final images 16c (l) and (2) as shown in Fig. 6 (c). Is determined, the positions of the four intersections K1 to K4 at this slice level are determined, and the distance AL (+) between the final images 16c (l) and (2) is determined. Then, the difference (that is, [AL (+) _ A Lo] or [A Lo ⁇ AL (+)]) with respect to the in-focus state A Lo stored in advance is obtained, and a focus signal is generated. This focus signal is also output to the stage control unit 27.
  • a predetermined slice level for example, 50%
  • the distance AL (+) between the final images 16c (l) and (2) is always larger than the distance A Lo in the focused state.
  • the interval AL (+) increases or decreases in proportion to the change in the positional relationship of the object plane with respect to the focal plane.
  • the focus signal corresponding to the interval AL (+) is not a signal representing an accurate offset (defocus amount) of the object plane, but is a control for pulling the object plane back to the lower side (-side). It is effective as a control signal. That is, the focus signal corresponding to the interval A L (+) is effective as a control signal indicating the defocus direction of the object plane. If a force signal corresponding to the interval A L (+) is used, the object plane can be driven into the predetermined range, and the state is the same as in FIG.
  • the AF sensor 47 When the object surface is located outside the above-mentioned predetermined range and is defocused to the lower side (one side) from the focusing surface (see FIG. 4 (a)), the AF sensor 47 The final images 16c (l) and (2) on the imaging surface 47a are formed in a state where the outline is blurred at the position shown in FIG. 7 (a) (see FIG. 7 (b)).
  • the intensity profile in FIG. 7 (b) corresponds to the thick dotted frames 53 and 54 in FIG. 7 (a) (that is, when the AF field stop 41 is omitted).
  • the signal processing unit 48 performs a predetermined slice level (for example, 50%) on the intensity profile of the final images 16c (l) and (2) as shown in Fig. 7 (c). Is determined, the positions of the four intersections K1 to K4 at this slice level are determined, and the distance AL (-) between the final images 16c (l) and (2) is determined. Then, a difference (ie, [AL ( ⁇ ) ⁇ A Lo] or [A Lo ⁇ AL ( ⁇ )]) with the distance A Lo in the in-focus state stored in advance is obtained, and a focus signal is generated. This focus signal is also output to the stage control unit 27.
  • a predetermined slice level for example, 50%
  • the distance AL (-) between the final images 16c (l) and (2) is always smaller than the distance A Lo in the focused state.
  • the interval A L ( ⁇ ) increases / decreases without being proportional to the change even if the positional relationship of the object plane with respect to the focal plane changes.
  • the focus signal corresponding to the interval AL (-) is not a signal representing an accurate offset (defocus amount) of the object plane, but is a control for pulling the object plane back to the upper side (+ side). It is effective as a signal. That is, the focus signal corresponding to the interval A L ( ⁇ ) is effective as a control signal indicating the defocus direction of the object plane. If a force signal corresponding to the interval (-) is used, the object plane can be driven into the predetermined range, and the state is the same as in FIG.
  • the focus detection device of the present embodiment when the object plane is located outside the predetermined range including the focal plane, a part of the intermediate image 16b of the illumination field stop 16 is caused by the AF field stop 41.
  • the image sensor 47a (Fig. 6 or Fig. 7) of the AF sensor 47 also passes through the remaining part of the image sensor so that the final illumination field stop 16 depends on the projection position (edge positions S1 to S4) of the AF field stop 41. Images 16c (l) and (2) can be partially blocked. [0064] Therefore, even if the defocus amount on the + side of the object plane is large, the four intersections K1 with the slice level are obtained by the intensity profile including the blocking sites (Fig.
  • the object plane can be pulled back in the direction approaching the in-focus plane and driven into the predetermined range.
  • the object plane is located within a predetermined range, and the intermediate image 16b of the illumination field stop 16 passes through without being blocked by the AF field stop 41, so that the imaging surface 47a of the AF sensor 47 (see FIG. Even in 5), the final images 16c (l) and (2) of the illumination field stop 16 are not blocked by the projection positions (edge positions S1 to S4) of the AF field stop 41.
  • the distance between the final images 16c (l) and (2) in this case increases and decreases linearly in proportion to the change in the positional relationship of the object plane with respect to the focal plane.
  • the force signal corresponding to this interval is a control signal representing an accurate offset (defocus amount) of the object plane. Then, using this focus signal, the object plane can be made to coincide with the in-focus plane (autofocus operation). At this time, the object plane (the surface of the substrate 11) is positioned in focus with respect to the imaging plane of the CCD imaging device 25.
  • the pull-in range of the autofocus operation is the position force of the final images 16c (l) and (2) on the imaging surface 47a of the AF sensor 47 as shown in FIG. 8 (a). From the Z position of the object plane that is closest to the projection position of the field stop 41 (dotted line frames 51, 52), the projection position of the AF field stop 41 (dotted line frames 51, 52) as shown in Fig. 8 (b) It is up to the Z position of the object plane that is farthest away inside.
  • the above pull-in range is when the AF sensor 47 has a strength that can be detected as the strength of the final images 16c (l) and (2).
  • the AF field stop 41 shown in FIG. 2 is provided, and the inside of the projection position (dotted line frames 51, 52) of the AF field stop 41 on the imaging surface 47a of the AF sensor 47 is provided.
  • the interval ⁇ L or interval ⁇ L (+) or interval ⁇ L (-)
  • Auto focus operation bow I can easily expand the penetration range.
  • the bow I penetration range of this embodiment can be expanded to about 1.6 times the conventional range.
  • the size A of the AF field stop 41 in the measurement direction A is smaller than the size A of the AF field stop 41 in the measurement direction A
  • the size A of the AF field stop 41 in the non-measurement direction A is set so as to satisfy the above-mentioned conditional expression (1), it is possible to reliably expand the pull-in range of the autofocus operation even if there is an adjustment error of the AF field stop 41 with respect to the optical axis 03.
  • the size A of the AF field stop 41 in the non-measurement direction A is set so as to satisfy the above-mentioned conditional expression (1), it is possible to reliably expand the pull-in range of the autofocus operation even if there is an adjustment error of the AF field stop 41 with respect to the optical axis 03.
  • the focus detection device of the present embodiment can easily expand the pull-in range of the autofocus operation, it can cope with an increase in the size of the substrate 11 without increasing the accuracy of the stage 12 of the overlay measurement device 10. it can.
  • the size of the substrate 11 has been increased (for example, in the case of a semiconductor wafer, a shift from 200 mm size to 300 mm size). Further, the flatness of the substrate 11 may be reduced due to the increase in size of the substrate 11. Even in such a case, a method of increasing the accuracy of stage 12 can be considered to make the autofocus operation function normally, but this is preferable because it leads to cost increase.
  • the pull-in range of the autofocus operation can be easily expanded, so even a large substrate 11 with a reduced flatness (for example, a 300 mm semiconductor wafer) has the same accuracy as in the past. While using stage 12, auto force operation can function normally. Therefore, it is possible to avoid an increase in the manufacturing cost of the overlay measurement apparatus 10 that can cope with an increase in the size of the substrate 11.
  • the numerical aperture NA on the object plane side of the imaging optical system (19 to 23) is set to 0.75, and the size A in the measurement direction of the AF field stop 41 is set to 1.3 XA.
  • the invention is not limited to this. Satisfy the above conditional expression (1) for any numerical aperture NA
  • the present invention can be applied and the same effect as described above can be obtained.
  • the example in which the illumination field stop 16 and the AF field stop 41 are conjugate has been described.
  • the illumination field stop 16 and the AF field stop 41 are arranged in the vicinity of the conjugate position,
  • the present invention can also be applied and the same effects as described above can be obtained.
  • the slice level is used when obtaining the distance AL or the distance AL (+) or the distance ⁇ L ( ⁇ )) of the final images 16c (l) and (2).
  • the present invention is not limited to this.
  • the center of light intensity of the intensity profiles of the final images 16c (l) and (2) is obtained, and the interval ⁇ L (or the interval ⁇ L (+) or the interval ⁇ L (-) between the final images 16c (l) and (2) is calculated.
  • the focus detection apparatus incorporated in the overlay measurement apparatus 10 has been described as an example, but the present invention is not limited to this.
  • a device that measures the amount of misalignment between two marks formed on the same layer of the substrate 11, a device that detects the optical misalignment between a single mark and the camera reference position, and the position of a single mark The present invention can also be applied to a detection apparatus and a focus detection apparatus incorporated in an apparatus for aligning the substrate 11 before the exposure process for the substrate 11 (that is, the alignment system of the exposure apparatus). In the alignment system, the position of the alignment mark formed on the underlayer is detected, and the positional relationship between the detection result and the stage coordinate system (interferometer, etc.) is obtained.

Abstract

 本発明は、オートフォーカス動作の引き込み範囲を簡易に拡大できる焦点検出装置を提供することを目的とする。そのため、第1視野絞り16を介して物体面(11)を照明する手段と、物体面から発生した光L2に基づいて第1視野絞りの中間像を第2視野絞り41の配置面に形成すると共に、物体面が合焦面を含む所定範囲内に位置するときに第2視野絞りによって中間像を遮断せずに通過させ、物体面が所定範囲外に位置するときに第2視野絞りによって中間像の一部を遮断して残りの一部を通過させる第1結像手段(19,20,41)と、第1結像手段からの光L5に基づいて第1視野絞りの最終像を2分割して形成する第2結像手段(42~46)と、2分割された最終像の間隔を検知して、物体面の合焦面に対する位置関係に応じたフォーカス信号を生成する生成手段(47,48)とを備える。                                                                             

Description

明 細 書
焦点検出装置
技術分野
[0001] 本発明は、物体面の焦点検出を行う焦点検出装置に関し、特に、半導体素子や液 晶表示素子などの製造工程において基板(半導体ウェハや液晶基板など)に形成さ れたマークの位置を高精度に検出する際のフォーカス調整に好適な焦点検出装置 に関する。
背景技術
[0002] 半導体素子や液晶表示素子などの製造工程では、周知のリソグラフイエ程を経て レジスト層に回路パターンが転写され、このレジストパターンを介してエッチングなど の加工処理を行うことにより、所定の材料膜に回路パターンが転写される (パターン形 成工程)。そして、このパターン形成工程を何回も繰り返し実行することにより、様々な 材料膜の回路パターンが基板(半導体ウェハや液晶基板)の上に積層され、半導体 素子や液晶表示素子の回路が形成される。
[0003] さらに、上記の製造工程では、様々な材料膜の回路パターンを精度よく重ね合わ せるため(製品の歩留まり向上を図るため)、各々のパターン形成工程のうち、リソダラ フイエ程の前に、基板のァライメントを行レ、、リソグラフイエ程の後でかつ加工工程の 前に、基板上のレジストパターンの重ね合わせ検查を行っている。なお、基板のァラ ィメントには、 1つ前のパターン形成工程で下地層に形成されたァライメントマークが 用いられる。レジストパターンの重ね合わせ検査には、現在のパターン形成工程でレ ジスト層に形成された重ね合わせマークと、 1つ前のパターン形成工程で下地層に 形成された重ね合わせマークとが用いられる。
[0004] また、基板のァライメントを行う装置や、基板上のレジストパターンの重ね合わせ検 查を行う装置には、上記のァライメントマークや重ね合わせマーク(総じて単に「マー ク」という)の位置を検出する装置が組み込まれている。位置検出装置では、検出対 象のマークを視野領域内に位置決めし、 自動的にフォーカス調整を行った後、その マークの画像を CCDカメラなどの撮像素子によって取り込み、マークの画像に対して 所定の画像処理を施すことにより、マークの位置検出を行う。
[0005] さらに、上記の位置検出装置には、フォーカス調整の際に物体面の焦点検出を行 う装置も組み込まれている。物体面の焦点検出とは、結像手段の焦点面(つまり合焦 面)に対する物体面の位置関係に応じたフォーカス信号の生成に相当する。フォー カス信号は、物体面を合焦面に一致させるための制御信号として用いられ、物体面と 合焦面との相対位置を調整する手段 (例えば基板を支持するステージの制御装置) に出力される。
[0006] 従来の焦点検出装置としては、例えば瞳分割方式が提案されてレ、る(例えば特許 文献 1を参照)。この装置では、視野絞りを介して物体面を照明し、物体面からの光 に基づいて視野絞りの像を 2分割して形成し、 2つの像の間隔を検知してフォーカス 信号を生成する。 2つの像の間隔は、例えば、物体面が結像手段に近づくほど大きく 、結像手段から離れるほど小さくなり、合焦面に対する物体面の位置関係に比例して 線形的に増減する。また、物体面が合焦面に一致するときの間隔は既知である。そし て、 2つの像の間隔と既知の間隔との差に応じてフォーカス信号が生成される。
特許文献 1 :特開平 10— 223517号公報
発明の開示
発明が解決しょうとする課題
[0007] し力、しながら、上記の焦点検出装置では、合焦面に対する物体面の位置関係に比 例して 2つの像の間隔が線形的に増減するため、物体面のデフォーカス量 (合焦面 力 の位置ずれ量)が大きくなると、 2つの像の内側部分が互いに重なり合ったり、 2 つの像の外側部分がセンサの受光領域から食み出したりする。そのため、 2つの像の 間隔を検知できなくなり、フォーカス信号の生成が困難になってしまう。
[0008] 焦点検出装置においてフォーカス信号を生成できなければ、物体面を合焦面に一 致させるオートフォーカス動作が正常に機能しなくなり、その後の処理 (例えば上記し たマークの位置検出)を良好に行うこともできなレ、。物体面のデフォーカス量として許 容できる範囲、つまり、オートフォーカス動作が正常に機能する範囲は、焦点検出装 置にぉレ、てフォーカス信号を生成可能な範囲と一致し、以下の説明では「オートフォ 一カス動作の引き込み範囲」という。 [0009] 上記の焦点検出装置において、オートフォーカス動作の引き込み範囲は、 2つの像 の内側部分が互いに重なり合うような物体面の位置から、 2つの像の外側部分がセン サの受光領域力 食み出すような物体面の位置までとなる。そして、この引き込み範 囲を拡大するためには、物体面のデフォーカス量が大きくなつても 2つの像の内側部 分が重なり合わず、また、 2つの像の外側部分がセンサから食み出さないように、セン サゃ光学系を大型化する必要があり、コストアップにつながってしまう。
[0010] 本発明の目的は、オートフォーカス動作の引き込み範囲を簡易に拡大できる焦点 検出装置を提供することにある。
課題を解決するための手段
[0011] 本発明の焦点検出装置は、第 1視野絞りを含み、該第 1視野絞りを介して物体面を 照明する照明手段と、第 2視野絞りを含み、前記物体面から発生した光に基づいて 前記第 1視野絞りの中間像を前記第 2視野絞りの配置面に形成すると共に、前記物 体面が合焦面を含む所定範囲内に位置するときに前記第 2視野絞りによって前記中 間像を遮断せずに通過させ、前記物体面が前記所定範囲外に位置するときに前記 第 2視野絞りによって前記中間像の一部を遮断して残りの一部を通過させる第 1結像 手段と、前記第 1結像手段からの光に基づいて前記第 1視野絞りの最終像を 2分割し て形成する第 2結像手段と、前記 2分割された前記第 1視野絞りの最終像の間隔を検 知して、前記物体面の前記合焦面に対する位置関係に応じたフォーカス信号を生成 する生成手段とを備えたものである。
[0012] また、上記の焦点検出装置において、前記第 2視野絞りは、前記第 1視野絞りと共 役であり、前記配置面において前記 2分割の方向と等価な方向に関し、次の条件式" A < A < (1 + NA) X A "を満足するものである。ただし、 A:物体面が合焦面に
1 2 1 1
一致するときの第 1視野絞りの中間像の 1次元的な長さ、 A:第 2視野絞りの 1次元的
2
な長さ、 NA:結像手段の物体面側の開口数である。
発明の効果
[0013] 本発明の焦点検出装置によれば、オートフォーカス動作の引き込み範囲を簡易に 拡大すること力 Sできる。
図面の簡単な説明 [0014] [図 1]重ね合わせ測定装置 10に組み込まれた本実施形態の焦点検出装置の構成を 示す図である。
[図 2]照明視野絞り 16の中間像 16bと AF視野絞り 41の形状を説明する図である。
[図 3]AFセンサ 47の撮像面 47aにおける照明視野絞り 16の最終像 16c(l),(2)と AF 視野絞り 41の位置(点線枠 51 , 52)とを説明する図である。
[図 4]照明視野絞り 16の最終像 16c(l),(2)の間隔と輪郭のボケ具合の変化について 説明する図である。
[図 5]物体面が合焦面を含む所定範囲内に位置するときの最終像 16c(l),(2)と、強度 プロファイルを説明する図である。
[図 6]物体面が所定範囲外に位置し、合焦面より上側 (+側)にデフォーカスした後ピ ン状態において、最終像 16c(l),(2)と強度プロファイルを説明する図である。
[図 7]物体面が所定範囲外に位置し、合焦面より下側 (一側)にデフォーカスした前ピ ン状態において、最終像 16c(l),(2)と強度プロファイルを説明する図である。
[図 8]本実施形態の焦点検出装置におけるオートフォーカス動作の引き込み範囲を 説明する図である。
発明を実施するための最良の形態
[0015] 以下、図面を用いて本発明の実施形態を詳細に説明する。
ここでは、本実施形態の焦点検出装置について、図 1に示す重ね合わせ測定装置 10を例に説明する。重ね合わせ測定装置 10は、半導体素子や液晶表示素子など の製造工程において、基板 11のレジストパターン (不図示)の重ね合わせ検查を行う 装置である。重ね合わせ検查では、基板 11の下地層に形成された回路パターン(以 下「下地パターン」という)に対するレジストパターンの位置ずれ量の測定が行われる
[0016] 重ね合わせ測定装置 10には、図 1(a)に示す通り、基板 11を支持するステージ 12と 、照明光学系 (13〜: 19)と、結像光学系 (19〜23)と、 CCD撮像素子 25と、画像処理 部 26と、焦点検出部 (40〜48)と、ステージ制御部 27とが設けられる。このうち、照明 光学系(13〜19)と結像光学系(19〜23)のー部の光学素子(19,20)と焦点検出部(4 0〜48)とが、本実施形態の焦点検出装置として機能する。 [0017] ステージ 12は、図示省略したが、基板 11を水平状態に保って支持するホルダと、こ のホルダを水平方向 (XY方向)に駆動する XY駆動部と、ホルダを鉛直方向 (Z方向) に駆動する Z駆動部とで構成されている。そして、 XY駆動部と Z駆動部は、ステージ 制御部 27に接続されている。
ここで、基板 11は、半導体ウェハや液晶基板などであり、レジスト層に対する露光- 現像後で、所定の材料膜に対する加工前の状態にある。基板 11には、重ね合わせ 検查のために多数の測定点が用意されている。測定点の位置は、各ショット領域の 四隅などである。各測定点には、レジストパターンの基準位置を示すレジストマークと 下地パターンの基準位置を示す下地マークとが形成されている。以下の説明では、 レジストマークと下地マークとを総じて「重ね合わせマーク 11A」とレ、う。
[0018] 上記の基板 11がステージ 12のホルダに支持された状態で、ステージ制御部 27は 、ステージ 12の XY駆動部を制御し、ホルダを XY方向に移動させて、基板 11上の重 ね合わせマーク 11Aを視野領域内に位置決めする。また、焦点検出部 (40〜48)か ら出力される後述のフォーカス信号に基づいて、ステージ 12の Z駆動部を制御し、ホ ルダを Z方向に上下移動させる。このフォーカス調整により、基板 11の表面(物体面) を CCD撮像素子 25の撮像面に対して合焦させることができる。
[0019] 照明光学系 (13〜19)は、光源部 13と、光軸〇1に沿って順に配置された照明開口 絞り 14とコンデンサーレンズ 15と照明視野絞り 16と照明リレーレンズ 17とビームスプ リツタ 18と、光軸〇2上に配置された第 1対物レンズ 19とで構成されている。ビームス プリッタ 18は、反射透過面が光軸〇1に対して略 45° 傾けられ、光軸 02上にも配置 されている。照明光学系 (13〜: 19)の光軸〇1は、結像光学系 (19〜23)の光軸〇2に 垂直である。
[0020] また、光源部 13は、光源 3Aとコレクタレンズ 3Bと光源リレーレンズ 3Cとライトガイド ファイバ 3Dとで構成される。光源 3Aは、波長帯域の広い光(例えば白色光)を射出 する。上記の光源部 13において、光源 3Aから射出された広帯域波長の光は、コレク タレンズ 3Bと光源リレーレンズ 3Cとライトガイドファイバ 3Dとを介して、照明開口絞り 14に導かれる。
[0021] 照明開口絞り 14は、その中心が光軸〇1上に位置し、光源部 13から射出された広 帯域波長の光の径を特定の径に制限する。コンデンサーレンズ 15は、照明開口絞り 14からの光を集光する。照明視野絞り 16は、重ね合わせ測定装置 10の視野領域を 制限する光学素子であり、図 1(b)に示すように、矩形状の開口である 1つのスリット 16 aを有する。照明リレーレンズ 17は、照明視野絞り 16のスリット 16aからの光をコリメ一 トする。ビームスプリッタ 18は、照明リレーレンズ 17からの光を下向きに反射する。
[0022] 上記の構成において、光源部 13から射出された広帯域波長の光は、照明開口絞り
14とコンデンサーレンズ 15とを介して、照明視野絞り 16を均一に照明する。そして、 照明視野絞り 16のスリット 16aを通過した光は、照明リレーレンズ 17を介してビームス プリッタ 18に導かれ、その反射透過面で反射した後(照明光 L1)、光軸〇2上の第 1 対物レンズ 19に導かれる。
[0023] 第 1対物レンズ 19は、ビームスプリッタ 18からの照明光 L1を入射して集光する。こ れにより、ステージ 12上の基板 11は、第 1対物レンズ 19を透過した広帯域波長の照 明光 L1によって垂直に照明される(落射照明)。上記の照明光学系 (13〜19)は、照 明視野絞り 16を介して基板 11の表面 (物体面)を照明する手段 (請求項の「照明手 段」)として機能する。照明視野絞り 16は、請求項の「第 1視野絞り」に対応する。
[0024] なお、基板 11に入射するときの照明光 L1の角度は、照明開口絞り 14の中心と光 軸 Olとの位置関係によって決まる。また、基板 11の各点における照明光 L1の入射 角度範囲は、照明開口絞り 14の絞り径によって決まる。照明開口絞り 14が第 1対物 レンズ 19の瞳と共役な位置関係にあるからである。
さらに、照明視野絞り 16と合焦状態の基板 11の表面 (物体面)とは共役な位置関 係にあるため、基板 11の表面(物体面)のうち、照明視野絞り 16のスリット 16aに対応 する領域が照明光 L1によって照明される。つまり、基板 11の表面 (物体面)には、照 明リレーレンズ 17と第 1対物レンズ 19の作用によって、スリット 16aの像が投影される
[0025] 基板 11の表面(物体面)において、スリット 16aの像は、その長手方向 (図 1(b)の B 方向に等価な方向)と短手方向 (図 1(b)の A方向に等価な方向)が、物体面上に存在 するストリートパターンと 45度の角度を成すように形成される。実際の処理では、基板 11をステージ 12に搬送する際、基板 11のストリートパターンがスリット 16aの像の長 手方向と短手方向に対して 45度の角度を成すように搬送される。このような角度関係 を保つことで、オートフォーカス動作時のパターンの影響による誤差を低減できる。ま た、基板 11上の重ね合わせマーク 11Aは、スリット 16aの像が投影されている領域( 照明領域)の中心付近に位置決めされる。
[0026] そして、上記した広帯域波長の照明光 L1が照射された基板 11の領域から、反射 光 L2が発生する。基板 11からの反射光 L2は、結像光学系 (19〜23)に導かれる。 結像光学系 (19〜23)は、光軸〇2に沿って順に配置された第 1対物レンズ 19と第 2 対物レンズ 20と第 1結像リレーレンズ 21と結像開口絞り 22と第 2結像リレーレンズ 23 とで構成されている。結像光学系 (19〜23)の光軸〇2は、 Z方向に平行である。なお 、第 1対物レンズ 19と第 2対物レンズ 20との間には、照明光学系 (13〜19)のビーム スプリッタ 18が配置され、第 2対物レンズ 20と第 1結像リレーレンズ 21との間には、焦 点検出部 (40〜48)のビームスプリッタ 40が配置されている。ビームスプリッタ 18,40 は、光の振幅分離を行うハーフプリズムである。
[0027] そして、第 1対物レンズ 19は、基板 11からの反射光 L2をコリメートする。第 1対物レ ンズ 19でコリメートされた反射光 L2は、上記のビームスプリッタ 18を透過して第 2対 物レンズ 20に入射する。第 2対物レンズ 20は、ビームスプリッタ 18からの反射光 L2 を 1次結像面 10a上に集光する。
1次結像面 10aの前段に配置された焦点検出部 (40〜48)のビームスプリッタ 40は 、焦点検出部 (40〜48)の光軸 03と結像光学系 (19〜23)の光軸 02に対して、反射 透過面が略 45° 傾けられている。そして、ビームスプリッタ 40は、第 2対物レンズ 20 力 の反射光 L2の一部(L3)を透過すると共に、残りの一部(L4)を反射する。ビー ムスプリッタ 40を透過した一部の光 L3は、 1次結像面 10aを介した後、結像光学系 (1 9〜23)の第 1結像リレーレンズ 21に導かれる。第 1結像リレーレンズ 21は、ビームス プリッタ 40からの光 L3をコリメートする。
[0028] 結像開口絞り 22は、第 1対物レンズ 19の瞳と共役な面に配置され、第 1結像リレー レンズ 21からの光の径を特定の径に制限する。第 2結像リレーレンズ 23は、結像開 口絞り 22からの光を CCD撮像素子 25の撮像面 (2次結像面)上に再結像する。
上記の結像光学系 (19〜23)では、視野領域内に基板 11上の重ね合わせマーク 1 1Aが位置決めされているとき、そのマークの像(基板 11からの反射光 L2に基づく像 (反射像) )を CCD撮像素子 25の撮像面に形成する。
[0029] CCD撮像素子 25は、複数の画素が 2次元配列されたエリアセンサであり、その撮 像面が結像光学系 (19〜23)の像面と一致するように配置され、基板 11上の重ね合 わせマーク 11Aの像を撮像して、画像信号を画像処理部 26に出力する。画像信号 は、 CCD撮像素子 25の撮像面における各画素ごとの輝度値に関する分布 (輝度分 布)を表している。
[0030] 画像処理部 26は、 CCD撮像素子 25からの画像信号に基づいて、基板 11上の重 ね合わせマーク 11Aの画像を取り込み、その画像に対して重ね合わせ検查用の画 像処理を施す。そして、基板 11の重ね合わせ検查(下地パターンに対するレジストパ ターンの重ね合わせ状態の検查)を行う。重ね合わせ検查では、重ね合わせマーク 1 1Aのレジストマークと下地マークの位置検出や、重ね合わせマーク 11Aの重ね合わ せ量の計測が行われる。なお、画像処理部 26を介して、不図示のテレビモニタよる 観察も可能である。
[0031] 次に、焦点検出部 (40〜48)の説明を行う。
焦点検出部 (40〜48)は、結像光学系 (19〜23)の第 2対物レンズ 20と 1次結像面 1 Oaとの間に配置され、光軸〇3に沿って順に配置されたビームスプリッタ 40と AF視野 絞り 41と AF第 1リレーレンズ 42と平行平面板 43と瞳分割ミラー 44と AF第 2リレーレ ンズ 45とシリンドリカルレンズ 46とからなる光学系、 AFセンサ 47、および、信号処理 部 48により構成される。
[0032] 焦点検出部 (40〜48)には、ビームスプリッタ 40で反射した一部の光 L4 (以下「AF 光 L4」という)が導かれる。 AF光 L4は、物体面から発生した光 (反射光 L2)の一部で ある。この焦点検出部 (40〜48)は、上記の照明光学系 (13〜: 19)と結像光学系 (19 〜23)の一部の光学素子 (19,20)と共に、本実施形態の焦点検出装置として機能す る。本実施形態の焦点検出装置は、基板 11の表面 (物体面)が CCD撮像素子 25の 撮像面に対して合焦状態にあるか否かを検出する、つまり、物体面の焦点検出を行 うものである。
[0033] 焦点検出部 (40〜48)において、ビームスプリッタ 40からの AF光 L4は、まず、 AF 視野絞り 41に入射する。 AF視野絞り 41は、合焦状態の基板 11の表面(物体面)と 共役であり、照明視野絞り 16と共役である。そして、 AF視野絞り 41の配置面には、 第 1対物レンズ 19と第 2対物レンズ 20の集光作用によって、照明視野絞り 16の中間 像 16b (図 2参照)が形成される。 AF視野絞り 41と第 1対物レンズ 19と第 2対物レン ズ 20は、総じて、請求項の「第 1結像手段」に対応する。 AF視野絞り 41は、請求項 の「第 2視野絞り」に対応する。
[0034] 照明視野絞り 16の中間像 16bの中心は、常に光軸 03上にあり、結像光学系 (19 〜23)の焦点面(つまり合焦面)に対する基板 11の表面(物体面)の位置関係が変化 しても動くことはなレ、。そして、合焦面に対する物体面の位置関係が変化すると、照 明視野絞り 16の中間像 16bの輪郭のボケ具合が変化する。
図 2(a)は物体面が合焦面に一致するとき (合焦状態のとき)に中間像 16bを光軸 03 の方向から見た図である。図 2(b)は合焦状態の中間像 16bの強度プロファイルを示 しており、この場合には中間像 16bの輪郭がボケていない(シャープになる)ことが分 かる。図 2(c)は物体面が合焦面から外れたとき (デフォーカス状態のとき)の中間像 16 bの強度プロファイルを示しており、この場合には中間像 16bの輪郭がボケていること が分かる。
[0035] このような照明視野絞り 16の中間像 16bに対し、 AF視野絞り 41の大きさ Aは、次
2 の条件式 (1)を満足するように設定される。大きさ Aは、 AF視野絞り 41の計測方向(
2
X方向)に関する 1次元的な長さである。また、条件式 (1)の大きさ Aは、合焦状態の
1
中間像 16bの計測方向に関する 1次元的な長さである。開口数 NAは、結像光学系( 19〜23)の物体面側の開口数である。
[0036] A < A < (1 +NA) XA …ひ)
1 2 1
条件式 (1)を満足するような AF視野絞り 41の大きさ Aとは、計測方向(X方向)に関
2
し、合焦状態の中間像 16bの大きさ Aより大きぐ合焦状態の中間像 16bの大きさ A
1 1 の (1 + NA)倍以下となるような大きさであればよレ、。 AF視野絞り 41の大きさ Aを (1
2
+ NA) XA程度とした場合でも、 AF視野絞り 41のエッジにデフォーカスした中間像
1
の一部が重なり、 AF視野絞り 41のエッジ像で検知できることがシミュレーションにより 分かっている。本実施形態では、結像光学系 (19〜23)の物体面側の開口数 NAを 0 .75とし、 AF視野絞り 41の大きさ Aを 1.3 X Aとした。なお、非計測方向(y方向)に
2 1
関しては、合焦状態の中間像 16bの大きさ Aの 1.3倍を AF視野絞り 41の大きさ Aと
3 4 した。
[0037] このため、物体面が合焦面を含む所定範囲内に位置するときには、中間像 16bの 輪郭のボケ (広がり)が小さぐ AF視野絞り 41によって中間像 16bを遮断せずに通過 させること力できる。これに対し、物体面が所定範囲外に位置するときには、中間像 1 6bの輪郭のボケが大きぐ AF視野絞り 41によって中間像 16bの一部 (つまり輪郭部 分)を遮断して残りの一部を通過させることができる。
[0038] AF視野絞り 41を通過した AF光 L5 (図 1)は、 AF第 1リレーレンズ 42によってコリメ ートされ、平行平面板 43を透過して、瞳分割ミラー 44に入射する。瞳分割ミラー 44 上には、照明開口絞り 14の像が形成される。瞳分割ミラー 44には、 AF光 L5の中央 部を遮光して周辺部を透過する遮光絞り 4Aが取り付けられ、ゴーストなどの迷光を 除去している。平行平面板 43は、照明開口絞り 14の像を瞳分割ミラー 44の中心に 位置調整するための光学素子であり、チルト調整が可能な機構になっている。
[0039] 瞳分割ミラー 44に入射した AF光 L5は、そこで 2方向の光に振幅分離 (つまり 2分 害 |J)された後、 AF第 2リレーレンズ 45とシリンドリカルレンズ 46を介して、 AFセンサ 4 7の撮像面 47aの近傍に集光される。このとき、 AFセンサ 47の撮像面 47aには、計 測方向(S方向)に沿って離れた位置に、図 3(a)に示すような照明視野絞り 16の最終 像 16c(l),(2)が形成される。最終像 16c(l),(2)は、シリンドリカルレンズ 46の屈折力に よって非計測方向 (S方向に垂直な方向)に圧縮された形状となっている。
[0040] 上記の AF第 1リレーレンズ 42と瞳分害 ijミラー 44と AF第 2リレーレンズ 45とシリンドリ 力ノレレンズ 46は、 AF視野絞り 41からの AF光 L5に基づいて照明視野絞り 16の最終 像 16c(l),(2)を 2分割して形成する手段 (請求項の「第 2結像手段」 )として機能する。 ここで、 AFセンサ 47の撮像面 47aにおける計測方向(S方向)は、上記した瞳分割 ミラー 44 (図 1)による 2分割の方向と等価であり、 AF視野絞り 41の配置面(図 2)に おける計測方向(X方向)と等価である。また、 AFセンサ 47の撮像面 47aにおける非 計測方向(S方向に垂直な方向)は、 AF視野絞り 41の配置面における非計測方向( y方向)と等価である。 [0041] 図 3(a)に示す点線枠 51 , 52は、 AFセンサ 47の撮像面 47aに投影される AF視野 絞り 41の位置を表している。撮像面 47aと AF視野絞り 41が共役なため、撮像面 47a に投影される AF視野絞り 41の位置(点線枠 51 ,52)は、合焦面に対する物体面の位 置関係が変化しても動くことはない。これに対して、照明視野絞り 16の最終像 16c(l) ズ 2)は、合焦面に対する物体面の位置関係が変化すると、最終像 16c(l),(2)の間隔 が変化すると共に、その輪郭のボケ具合も変化する。
[0042] このような最終像 16c(l),(2)の変化について、図 4(a), (b),(c)の模式図を用いて説明 する。図 4(a),(b),(c)は、各々、物体面が合焦面より下側 (一側)にデフォーカスした前 ピン状態,物体面が合焦面に一致した合焦状態,物体面が合焦面より上側 (+側)に デフォーカスした後ピン状態のときの様子である。
図 4(a),(b),(c)から分かるように、最終像 16c(l),(2)は、前ピン状態 (a)ほど互いに接 近し、後ピン状態 (c)ほど互いに離れる。つまり、ステージ 12を Z方向に上下させ、物 体面と合焦面との位置関係を変化させると、最終像 16c(l),(2)は、 AFセンサ 47の撮 像面 47aの計測方向(S方向)に沿って近づいたり離れたりする。つまり、最終像 16c( 1),(2)の間隔が変化する。さらに、 AF光 L5の集束位置が光軸 03の方向に沿って移 動するため、最終像 16c(l),(2)の輪郭のボケ具合も変化する。
[0043] ただし、 AF視野絞り 41が開口の外側の光束を遮断すると同様、 AFセンサ 47の撮 像面 47aにおいては、近似的に、図 3(a)に示す AF視野絞り 41の投影位置(点線枠 51 ,52)の外側に光束が入射しないと考えられる。
このため、図 4(c)のような後ピン状態で、最終像 16c(l),(2)の間隔が大きくなると、図 3(b)の点線枠 51 , 52から食み出す部分は遮断され、残りの部分によって最終像 16c( 1),(2)が形成されることになる。図 3(b)の太い点線枠 53,54は、 AF視野絞り 41を省略 した場合の最終像 16c(l),(2)の輪郭を表す。この点線枠 53, 54と AF視野絞り 41の投 影位置(点線枠 51 ,52)との重なり部分が、実際の最終像 16c(l),(2)となる。図 3(b)で は最終像 16c(l),(2)の輪郭のボケ具合を図示省略した。
[0044] また同様に、図 4(a)のような前ピン状態で、最終像 16c(l),(2)の間隔が小さくなると 、図 3(c)の点線枠 51 , 52から食み出す部分は遮断され、残りの部分によって最終像 1 6c(l),(2)が形成される。この場合にも、図 3(c)の太い点線枠 53, 54は、 AF視野絞り 4 1を省略した場合の最終像 16c(l),(2)の輪郭を表す。そして、太い点線枠 53,54と A F視野絞り 41の投影位置(点線枠 51,52)との重なり部分が、実際の最終像 16c(l)ズ 2)となる。図 3(c)でも輪郭のボケ具合を図示省略した。
[0045] 図 3(a)〜(c)のような最終像 16c(l),(2)を撮像するため、 AFセンサ 47 (図 1)にはライ ンセンサが用いられる。 AFセンサ 47の撮像面 47aには複数の画素が 1次元配列さ れている。撮像面 47aにおける画素の配列方向は、計測方向(S方向)に平行である 。撮像面 47aの計測方向(S方向)の大きさは、 AF視野絞り 41の投影位置(点線枠 5 1,52)を含むような大きさである。 AFセンサ 47は、撮像面 47a上の最終像 16c(l),(2) を撮像すると、最終像 16c(l),(2)の強度プロファイルに関する撮像信号を後段の信号 処理部 48に出力する。
[0046] 物体面が合焦面に一致しているとき(合焦状態)、 AFセンサ 47の撮像面 47aにお ける最終像 16c(l),(2)は図 5(a)のような位置に輪郭がボケることなく形成され、最終像 16c(l),(2)の強度プロファイルは図 5(b)のようになる。図 5(b)には、 AF視野絞り 41の 投影位置(点線枠 51,52)に対応するエッジ位置を S1〜S4で示した。エッジ位置 S1 , S 2の間は点線枠 51の内側に対応し、エッジ位置 S 3 , S4の間は点線枠 52の内側に 対応する。
[0047] また、物体面が合焦面を含む所定範囲内に位置するとき (合焦状態に近いとき)、 最終像 16c(l),(2)には多少の輪郭のボケが現れ、最終像 16c(l),(2)の間隔は上記の 合焦状態と比較して少し大きくほたは小さく)なるが、エッジ位置 S1〜S4によって最 終像 16c(l),(2)が遮断されることはない。このため、 AF視野絞り 41を省略した場合と 同じ大きさの最終像 16c(l),(2)が、それぞれ、エッジ位置 S1,S2の間とエッジ位置 S3 ,S4の間の完全に内側に形成される。この場合、エッジ位置 S1〜S4が像として写り 込むことはない。
[0048] 信号処理部 48は、図 5(b)のような最終像 16c(l),(2)の強度プロファイルに対して、 所定のスライスレベル(例えば 50%)を設定し、このスライスレベルにおける 4つの交 点 K1〜K4の位置を求め、最終像 16c(l),(2)の間隔 A Lを求める。そして、予め記憶 している合焦状態での間隔 A Loとの差(つまり [ A L_ A Lo]または [ A Lo_ A L])を 求め、フォーカス信号を生成する。 [0049] フォーカス信号は、合焦面に対する物体面の位置関係に応じた信号であり、物体 面を合焦面に一致させるための制御信号としてステージ制御部 27に出力される。な お、 AFセンサ 47と信号処理部 48とは、総じて、 2分割された最終像 16c(l),(2)の間 隔を検知して、物体面の合焦面に対する位置関係に応じたフォーカス信号を生成す る手段 (請求項の「生成手段」 )として機能する。
[0050] 物体面が合焦面を含む所定範囲内に位置するとき(つまり最終像 16c(l),(2)がエツ ジ位置 S1〜S4によって遮断されないとき)、最終像 16c(l),(2)の間隔 A Lは、合焦面 に対する物体面の位置関係が変化すると、この変化に比例して線形的に増減する。 したがって、最終像 16c(l),(2)の間隔 A Lと合焦状態での間隔 A Loとの差力 生成し たフォーカス信号は、物体面の正確なオフセット(デフォーカス量)を表す制御信号と なる。
[0051] 一方、物体面が上記の所定範囲外に位置し、合焦面より上側 (+側)にデフォーカス した後ピン状態のとき(図 4(c)参照)、 AFセンサ 47の撮像面 47aにおける最終像 16c (1),(2)は、図 6(a)のような位置に輪郭がボケた状態(図 6(b)参照)で形成される。図 6( b)の強度プロファイルは、図 6(a)の太い点線枠 53,54に対応する(つまり AF視野絞り 41を省略した場合の)ものである。
[0052] そして、実際には、図 6(b)の強度プロファイルのうち斜線部以外がエッジ位置 S1と エッジ位置 S4によって遮断される。このため、実際の強度プロファイルは、図 6(c)のよ うになる。この場合、図 6(c)の強度プロファイルには、エッジ位置 S1とエッジ位置 S4 が像として写り込んでいる。このようなエッジ位置 S1,S4の投影は、 AF視野絞り 41の 配置面において(図 2)、 AF視野絞り 41の計測方向(X方向)のエッジを、照明視野 絞り 16のボケた中間像 16bにより照明したことに起因する。
[0053] このような場合でも、信号処理部 48は、図 6(c)のような最終像 16c(l),(2)の強度プロ ファイルに対して、所定のスライスレベル(例えば 50%)を設定し、このスライスレベル における 4つの交点 K1〜K4の位置を求め、最終像 16c(l),(2)の間隔 A L(+)を求め る。そして、予め記憶している合焦状態での間隔 A Loとの差 (つまり [ A L(+)_ A Lo] または [ A Lo— A L(+)])を求め、フォーカス信号を生成する。このフォーカス信号もス テージ制御部 27に出力される。 [0054] 物体面が上記の所定範囲外に位置し、合焦面より上側 (+側)にデフォーカスした 後ピン状態のとき(つまり最終像 16c(l),(2)がエッジ位置 S1,S4によって遮断されたと き)、最終像 16c(l),(2)の間隔 A L(+)は、合焦状態での間隔 A Loよりも常に大きい値 となる。また、この間隔 A L(+)は、合焦面に対する物体面の位置関係が変化しても、 この変化に比例せずに増減する。
[0055] したがって、間隔 A L(+)に応じたフォーカス信号は、物体面の正確なオフセット(デ フォーカス量)を表す信号とはならないが、物体面を下側 (-側)に引き戻すための制 御信号としては有効である。つまり、間隔 A L(+)に応じたフォーカス信号は、物体面 のデフォーカス方向を表す制御信号として有効である。間隔 A L(+)に応じたフォー力 ス信号を用いれば、物体面を上記の所定範囲内に追い込むことができ、図 5と同様 の状態となる。
[0056] さらに、 +側のデフォーカス量が大きくなつても、 AFセンサ 47の撮像面 47aにおけ る AF視野絞り 41の投影位置(エッジ位置 S1〜S4)は動かないため、最終像 16c(l), (2)がエッジ位置 S1,S4によって遮断される状態(図 6)は同じである。したがって、 + 側のデフォーカス量が大きくなつても、上記と同様の間隔 A L(+)に応じたフォーカス 信号を生成することができる。そして、このフォーカス信号を用いて物体面を下側 (一 側)に引き戻し、上記の所定範囲内に追い込むことができる。
[0057] また逆に、物体面が上記の所定範囲外に位置し、合焦面より下側 (一側)にデフォー カスした前ピン状態のとき(図 4(a)参照)、 AFセンサ 47の撮像面 47aにおける最終像 16c(l),(2)は、図 7(a)のような位置に輪郭がボケた状態(図 7(b)参照)で形成される。 図 7(b)の強度プロファイルは、図 7(a)の太い点線枠 53,54に対応する(つまり AF視 野絞り 41を省略した場合の)ものである。
[0058] そして、実際には、図 7(b)の強度プロファイルのうち斜線部以外がエッジ位置 S2と エッジ位置 S3によって遮断される。このため、実際の強度プロファイルは、図 7(c)のよ うになる。この場合、図 7(c)の強度プロファイルには、エッジ位置 S2とエッジ位置 S3 が像として写り込んでいる。このようなエッジ位置 S2,S3の投影は、 AF視野絞り 41の 配置面において(図 2)、 AF視野絞り 41の計測方向(X方向)のエッジを、照明視野 絞り 16のボケた中間像 16bにより照明したことに起因する。 [0059] このような場合でも、信号処理部 48は、図 7(c)のような最終像 16c(l),(2)の強度プロ ファイルに対して、所定のスライスレベル(例えば 50%)を設定し、このスライスレベル における 4つの交点 K1〜K4の位置を求め、最終像 16c(l),(2)の間隔 A L (-)を求め る。そして、予め記憶している合焦状態での間隔 A Loとの差 (つまり [ A L (-)― A Lo] または [ A Lo— A L (-) ])を求め、フォーカス信号を生成する。このフォーカス信号もス テージ制御部 27に出力される。
[0060] 物体面が上記の所定範囲外に位置し、合焦面より下側 (一側)にデフォーカスした 前ピン状態のとき(つまり最終像 16c(l),(2)がエッジ位置 S2,S3によって遮断されたと き)、最終像 16c(l),(2)の間隔 A L (-)は、合焦状態での間隔 A Loよりも常に小さい値 となる。また、この間隔 A L (-)は、合焦面に対する物体面の位置関係が変化しても、 この変化に比例せずに増減する。
[0061] したがって、間隔 A L (-)に応じたフォーカス信号は、物体面の正確なオフセット(デ フォーカス量)を表す信号とはならないが、物体面を上側 (+側)に引き戻すための制 御信号としては有効である。つまり、間隔 A L (-)に応じたフォーカス信号は、物体面 のデフォーカス方向を表す制御信号として有効である。間隔 (-)に応じたフォー力 ス信号を用いれば、物体面を上記の所定範囲内に追い込むことができ、図 5と同様 の状態となる。
[0062] さらに、一側のデフォーカス量が大きくなつても、 AFセンサ 47の撮像面 47aにおけ る AF視野絞り 41の投影位置(エッジ位置 S1〜S4)は動かないため、最終像 16c(l), (2)がエッジ位置 S2,S3によって遮断される状態(図 7)は同じである。したがって、 側のデフォーカス量が大きくなつても、上記と同様の間隔 A L (-)に応じたフォーカス 信号を生成することができる。そして、このフォーカス信号を用いて物体面を上側 (+ 側)に引き戻し、上記の所定範囲内に追い込むことができる。
[0063] 上記したように、本実施形態の焦点検出装置では、物体面が合焦面を含む所定範 囲外に位置するとき、 AF視野絞り 41によって照明視野絞り 16の中間像 16bの一部 を遮断して残りの一部を通過させるため、 AFセンサ 47の撮像面 47a (図 6または図 7 )でも、 AF視野絞り 41の投影位置(エッジ位置 S1〜S4)によって照明視野絞り 16の 最終像 16c(l),(2)を部分的に遮断することができる。 [0064] したがって、物体面の +側のデフォーカス量が大きくなつても、エッジ位置 S1,S4に よる遮断部位(図 6(c))を含む強度プロファイルにより、スライスレベルとの 4つの交点 K1〜K4を求めることができ、上記と同様の間隔 A L(+)に応じたフォーカス信号を生 成できる。また、物体面の—側のデフォーカス量が大きくなつても、エッジ位置 S2,S3 による遮断部位(図 7(c))を含む強度プロファイルにより、スライスレベルとの 4つの交 点 K1〜K4を求めることができ、上記と同様の間隔 A L (-)に応じたフォーカス信号を 生成すること力 Sできる。
[0065] そして、これらのフォーカス信号 (物体面のデフォーカス方向を表す制御信号)を用 いて物体面を合焦面に近づける方向に引き戻し、上記の所定範囲内に追い込むこと ができる。このような追い込み段階の後には、物体面が所定範囲内に位置し、照明 視野絞り 16の中間像 16bが AF視野絞り 41によって遮断されずに通過するため、 AF センサ 47の撮像面 47a (図 5)でも、照明視野絞り 16の最終像 16c(l),(2)が AF視野 絞り 41の投影位置(エッジ位置 S1〜S4)によって遮断されることはない。
[0066] したがって、この場合の最終像 16c(l),(2)の間隔 は、合焦面に対する物体面の 位置関係の変化に比例して線形的に増減する。また、この間隔 に応じたフォー力 ス信号は、物体面の正確なオフセット(デフォーカス量)を表す制御信号となる。そし て、このフォーカス信号を用い、物体面を合焦面に一致させることができる(オートフ オーカス動作)。このとき、物体面(基板 11の表面)は CCD撮像素子 25の撮像面に 対して合焦状態に位置決めされたことになる。
[0067] 本実施形態の焦点検出装置において、オートフォーカス動作の引き込み範囲は、 AFセンサ 47の撮像面 47aにおける最終像 16c(l),(2)の位置力 図 8(a)のように AF 視野絞り 41の投影位置(点線枠 51, 52)の内側で最も近づくような物体面の Z位置か ら、図 8(b)のように AF視野絞り 41の投影位置(点線枠 51,52)の内側で最も離れるよ うな物体面の Z位置までとなる。ただし、上記の引き込み範囲は、最終像 16c(l),(2)の 強度として AFセンサ 47が検知可能な強度を確保している場合である。
[0068] 本実施形態の焦点検出装置によれば、図 2に示す AF視野絞り 41を設け、 AFセン サ 47の撮像面 47aにおける AF視野絞り 41の投影位置(点線枠 51,52)の内側で、 最終像 16c(l),(2)の間隔 Δ L (または間隔 Δ L(+)または間隔 Δ L(-))を検知するため 、オートフォーカス動作の弓 Iき込み範囲を簡易に拡大できる。
具体的には、結像光学系 (19〜23)の物体面側の開口数 NAを 0.75とし、 AF視野 絞り 41の計測方向の大きさ Aを 1.3 X Aとする場合、従来と同じセンサと光学系を用
2 1
いても、本実施形態の弓 Iき込み範囲を従来の 1.6倍程度に拡大できる。
[0069] さらに、本実施形態の焦点検出装置では、 AF視野絞り 41の計測方向の大きさ A
2 を、上記の条件式 (1)を満足するように設定するため、光軸〇3に対する AF視野絞り 4 1の調整誤差があっても確実にオートフォーカス動作の引き込み範囲を拡大できる。 また、本実施形態の焦点検出装置では、 AF視野絞り 41の非計測方向の大きさ A
4 を、 1.3 X Aとしたので、物体面のデフォーカス量が大きくなつて照明視野絞り 16の
3
中間像 16bがボケたときに、最終像 16c(l),(2)の光量の極端な落ち込みを回避できる
[0070] さらに、本実施形態の焦点検出装置では、オートフォーカス動作の引き込み範囲を 簡易に拡大できるため、重ね合わせ測定装置 10のステージ 12を高精度化しなくても 、基板 11の大型化に対応できる。近年では、半導体素子などの製造工程において、 歩留まりを向上させるために、基板 11の大型化が進んでいる(例えば半導体ウェハ の場合には 200mmサイズから 300mmサイズへの移行)。そして、基板 11の大型化 により、基板 11の平坦性が低下する恐れがある。このような場合でもオートフォーカス 動作を正常に機能させるには、ステージ 12を高精度化する方法も考えられるが、コス トアップにつながるため好ましくなレ、。
[0071] 本実施形態の焦点検出装置を用いれば、オートフォーカス動作の引き込み範囲を 簡易に拡大できるため、平坦性の低下した大きな基板 11 (例えば 300mmサイズの 半導体ウェハ)でも、従来と同精度のステージ 12を用いつつ、正常にオートフォー力 ス動作を機能させることができる。したがって、基板 11の大型化に対応可能な重ね合 わせ測定装置 10の製造コストの増大を回避することができる。
(変形例)
なお、上記した実施形態では、結像光学系 (19〜23)の物体面側の開口数 NAを 0. 75とし、 AF視野絞り 41の計測方向の大きさ Aを 1.3 X Aとする例に説明した力 本
2 1
発明はこれに限定されない。任意の開口数 NAに対して上記の条件式 (1)を満足する ように大きさ Aを設定する場合にも本発明を適用でき、上記と同様の効果を得ること ができる。
[0072] また、上記した実施形態では、照明視野絞り 16と AF視野絞り 41が共役である例を 説明したが、照明視野絞り 16と AF視野絞り 41を共役な位置の近傍に配置する場合 にも本発明を適用でき、上記と同様の効果を得ることができる。
さらに、上記した実施形態では、最終像 16c(l),(2)の間隔 A Lほたは間隔 A L(+)ま たは間隔 Δ L (-))を求める際にスライスレベルを用いたが、本発明はこれに限定され なレ、。最終像 16c(l),(2)の強度プロファイルの光量重心を求めて、最終像 16c(l),(2) の間隔 Δ L (または間隔 Δ L(+)または間隔 Δ L (-》を求めてもょレ、。ただし、スライスレ ベルを用いる方が高速なため好ましレ、。
[0073] また、上記した実施形態では、重ね合わせ測定装置 10に組み込まれた焦点検出 装置を例に説明したが、本発明はこれに限定されなレ、。基板 11の同じ層に形成され た 2つのマークの位置ずれ量を測定する装置や、単一のマークとカメラの基準位置と の光学的位置ずれを検出する装置や、単一のマークの位置を検出する装置や、基 板 11に対する露光工程の前に基板 11のァライメントを行う装置(つまり露光装置のァ ライメント系)に組み込まれた焦点検出装置にも、本発明を適用できる。ァライメント系 では、下地層に形成されたァライメントマークの位置を検出し、その検出結果とステー ジ座標系(干渉計など)との位置関係を求める。

Claims

請求の範囲
[1] 第 1視野絞りを含み、該第 1視野絞りを介して物体面を照明する照明手段と、 第 2視野絞りを含み、前記物体面から発生した光に基づいて前記第 1視野絞りの中 間像を前記第 2視野絞りの配置面に形成すると共に、前記物体面が合焦面を含む所 定範囲内に位置するときに前記第 2視野絞りによって前記中間像を遮断せずに通過 させ、前記物体面が前記所定範囲外に位置するときに前記第 2視野絞りによって前 記中間像の一部を遮断して残りの一部を通過させる第 1結像手段と、
前記第 1結像手段からの光に基づいて前記第 1視野絞りの最終像を 2分割して形 成する第 2結像手段と、
前記 2分割された前記第 1視野絞りの最終像の間隔を検知して、前記物体面の前 記合焦面に対する位置関係に応じたフォーカス信号を生成する生成手段とを備えた ことを特徴とする焦点検出装置。
[2] 請求項 1に記載の焦点検出装置にぉレ、て、
前記第 2視野絞りは、前記第 1視野絞りと共役であり、前記配置面において前記 2 分割の方向と等価な方向に関し、次の条件式を満足する
A < A < (1 +NA) XA
1 2 1
A:物体面が合焦面に一致するときの第 1視野絞りの中間像の 1次元的な長さ
1
A:第 2視野絞りの 1次元的な長さ
2
NA:結像手段の物体面側の開口数
ことを特徴とする焦点検出装置。
PCT/JP2005/019059 2004-10-29 2005-10-17 焦点検出装置 WO2006046430A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/661,399 US7580121B2 (en) 2004-10-29 2005-10-17 Focal point detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-315330 2004-10-29
JP2004315330A JP4604651B2 (ja) 2004-10-29 2004-10-29 焦点検出装置

Publications (1)

Publication Number Publication Date
WO2006046430A1 true WO2006046430A1 (ja) 2006-05-04

Family

ID=36227673

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/019059 WO2006046430A1 (ja) 2004-10-29 2005-10-17 焦点検出装置

Country Status (3)

Country Link
JP (1) JP4604651B2 (ja)
TW (1) TW200628869A (ja)
WO (1) WO2006046430A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117452782A (zh) * 2023-12-08 2024-01-26 魅杰光电科技(上海)有限公司 一种图像聚焦方法和图像聚焦系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011406A1 (ja) * 2010-07-23 2012-01-26 コニカミノルタオプト株式会社 絞り位置測定方法、絞り位置測定装置、絞り位置決め方法及び絞り位置決め装置
CN115066641A (zh) * 2020-02-20 2022-09-16 索尼集团公司 显微镜系统、成像方法和成像设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0980301A (ja) * 1995-09-12 1997-03-28 Nikon Corp オートフォーカス装置
JPH10223157A (ja) * 1997-02-05 1998-08-21 Funai Electric Co Ltd 偏向ヨークの首振り固定構造
JP2002164266A (ja) * 2000-11-22 2002-06-07 Nikon Corp 光学的位置ずれ測定装置の調整装置および方法
JP2003035511A (ja) * 2001-07-24 2003-02-07 Nikon Corp 位置検出装置、および該位置検出装置を備えた露光装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247758A (ja) * 1994-12-28 1996-09-27 Fuji Film Micro Device Kk 測距装置
JPH10223517A (ja) * 1997-01-31 1998-08-21 Nikon Corp 合焦装置、それを備えた観察装置及びその観察装置を備えた露光装置
JP2002190439A (ja) * 2000-12-21 2002-07-05 Nikon Corp 位置計測方法及びその装置、露光方法及びその装置、並びにデバイス製造方法
JP2004004634A (ja) * 2002-04-02 2004-01-08 Nikon Corp 焦点位置検出装置およびそれを備えた蛍光顕微鏡

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0980301A (ja) * 1995-09-12 1997-03-28 Nikon Corp オートフォーカス装置
JPH10223157A (ja) * 1997-02-05 1998-08-21 Funai Electric Co Ltd 偏向ヨークの首振り固定構造
JP2002164266A (ja) * 2000-11-22 2002-06-07 Nikon Corp 光学的位置ずれ測定装置の調整装置および方法
JP2003035511A (ja) * 2001-07-24 2003-02-07 Nikon Corp 位置検出装置、および該位置検出装置を備えた露光装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117452782A (zh) * 2023-12-08 2024-01-26 魅杰光电科技(上海)有限公司 一种图像聚焦方法和图像聚焦系统
CN117452782B (zh) * 2023-12-08 2024-04-09 魅杰光电科技(上海)有限公司 一种图像聚焦方法和图像聚焦系统

Also Published As

Publication number Publication date
JP4604651B2 (ja) 2011-01-05
TW200628869A (en) 2006-08-16
JP2006126540A (ja) 2006-05-18

Similar Documents

Publication Publication Date Title
KR100471524B1 (ko) 노광방법
JP4613357B2 (ja) 光学的位置ずれ測定装置の調整装置および方法
CN103309169A (zh) 检测装置、曝光装置和制造器件的方法
JPS63133625A (ja) 位置合わせ装置
US7580121B2 (en) Focal point detection apparatus
JP2006184777A (ja) 焦点検出装置
JP2002025879A (ja) 光学的位置ずれ検出装置
JPH10223517A (ja) 合焦装置、それを備えた観察装置及びその観察装置を備えた露光装置
WO2006046430A1 (ja) 焦点検出装置
JP4573163B2 (ja) オートフォーカス装置およびオートフォーカス調整方法
TWI358529B (en) Shape measuring apparatus, shape measuring method,
JPH06267820A (ja) 位置検出装置
JP4078953B2 (ja) マーク位置検出装置ならびにその調整用基板および調整方法
JP4826326B2 (ja) 照明光学系の評価方法および調整方法
JPH0762604B2 (ja) アライメント装置
JPH04273246A (ja) 位置検出装置、露光装置および露光方法
JP4691922B2 (ja) 結像光学系の調整方法
JP2011114209A (ja) 投影露光装置
JPS60168112A (ja) 投影装置の焦点合せ装置
JPH05312510A (ja) 位置検出装置
JPH07142346A (ja) 投影露光装置
JP2003282410A (ja) アライメント装置、露光装置及び露光方法
JPH07321030A (ja) アライメント装置
JP2003035511A (ja) 位置検出装置、および該位置検出装置を備えた露光装置
JPH0943862A (ja) 投影露光装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GM HR HU ID IL IN IS KE KG KM KP KZ LC LK LR LS LT LU LV LY MA MG MK MN MW MX MZ NA NG NI NZ OM PG PH PL PT RO RU SC SD SE SK SL SM SY TJ TM TN TR TT TZ UA US UZ VC VN YU ZA ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SZ TZ UG ZM ZW AM AZ BY KG MD RU TJ TM AT BE BG CH CY DE DK EE ES FI FR GB GR HU IE IS IT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11661399

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 11661399

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 05793600

Country of ref document: EP

Kind code of ref document: A1