WO1997001184A1 - Procede de positionnement - Google Patents

Procede de positionnement Download PDF

Info

Publication number
WO1997001184A1
WO1997001184A1 PCT/JP1996/001715 JP9601715W WO9701184A1 WO 1997001184 A1 WO1997001184 A1 WO 1997001184A1 JP 9601715 W JP9601715 W JP 9601715W WO 9701184 A1 WO9701184 A1 WO 9701184A1
Authority
WO
WIPO (PCT)
Prior art keywords
wafer
substrate
shot
shot area
stage
Prior art date
Application number
PCT/JP1996/001715
Other languages
English (en)
French (fr)
Inventor
Yosuke Shirata
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to KR1019970701087A priority Critical patent/KR970705830A/ko
Priority to US08/776,593 priority patent/US6002487A/en
Publication of WO1997001184A1 publication Critical patent/WO1997001184A1/ja

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/027Making masks on semiconductor bodies for further photolithographic processing not provided for in group H01L21/18 or H01L21/34
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70216Mask projection systems
    • G03F7/70358Scanning exposure, i.e. relative movement of patterned beam and workpiece during imaging
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70425Imaging strategies, e.g. for increasing throughput or resolution, printing product fields larger than the image field or compensating lithography- or non-lithography errors, e.g. proximity correction, mix-and-match, stitching or double patterning
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7003Alignment type or strategy, e.g. leveling, global alignment

Definitions

  • the present invention relates to an alignment method for aligning each shot area on a wafer with a mask pattern based on array coordinates predicted using, for example, a statistical method, and relates to an alignment method using a stepper type exposure apparatus.
  • the present invention can be applied to the case of performing alignment, but is particularly suitable for the case of performing alignment between a mask and each shot area on a wafer in a step-and-scan exposure apparatus. Background art
  • a reticle pattern as a mask is formed on a wafer (or glass plate, etc.) on which photoresist is applied via a projection optical system.
  • a projection exposure apparatus (stepper, etc.) for transferring to each shot area is used.
  • stepper type projection exposure apparatus recently, in order to enlarge the exposure area without increasing the burden on the projection optical system, a step of scanning the reticle and the wafer synchronously with the projection optical system is used. .And scan methods are also being used.
  • a semiconductor element is formed by laminating a large number of circuit patterns on a wafer, so when projecting and exposing the circuit patterns of the second and subsequent layers on the wafer, the circuit patterns are already formed on the wafer.
  • wafer alignment wafer alignment
  • a method of positioning a wafer with high accuracy in a conventional projection exposure apparatus for example, as disclosed in Japanese Patent Application Laid-Open No. 61-44492, a predetermined number of wafers selected from a wafer are disclosed.
  • the present invention provides a positioning method capable of positioning each shot region and the exposure pattern of the reticle with high accuracy even when there is nonlinear distortion in each shot region on the wafer or in the wafer itself.
  • the purpose is to provide.
  • the alignment method according to the present invention is an exposure apparatus for transferring a pattern formed on a mask (R) to each shot area on a substrate (W), wherein each shot area on the substrate (W) and its mask (R) are transferred.
  • a predetermined reference point (21a to 21h) belonging to a plurality of predetermined shot areas (21a to 21h) among all shot areas on the substrate (W) is used.
  • Steps 101 to 107 for measuring the array coordinates of 22 a to 22 h), the measured array coordinates measured in the first step, and the substrate (W)
  • Statistical processing is performed on the designed array coordinates of the predetermined reference points (22a to 22h) belonging to the predetermined plurality of shot areas (21a to 21h), and the predetermined reference points are obtained.
  • the second step (steps 108, 109) for calculating the linear component of the measured array coordinates of the point, and the measured array coordinates After deducting the linear component and the third step of obtaining a non-linear component (Step 1 1 0), determined in the third step A fourth step (step 111) of obtaining distortion of each shot area (21a to 2lh) on the substrate based on the obtained nonlinear component.
  • the projected image of the mask pattern on the substrate (W) is distorted in accordance with the distortion of each shot area (21a to 21h) detected in the fourth step.
  • a plurality of curves passing through the predetermined reference points (22a to 22h) are approximated based on the actually measured array coordinates measured in the first step, and a plurality of curves obtained by this approximation are obtained. It is preferable to determine the contour of each shot area (21a to 2lh) on the substrate (W) based on the curve.
  • One example of the exposure apparatus is to relatively scan the mask (R) and the substrate (W) and sequentially pattern the mask (R) in each shot area (2 Id) of the substrate (W).
  • the mask (R) and the substrate (W) are used to distort the projected image of the pattern of the mask (R) on the substrate (W). It is preferable to change at least one of the relative scanning direction, the displacement in the scanning direction, and the height of the substrate (W) during the relative scanning with the substrate.
  • the nonlinear component of the substrate (W) which cannot be detected by the conventional technique can be obtained by calculating the nonlinear component of the array coordinates of the predetermined reference point of the predetermined shot area. Can be detected.
  • the exposure apparatus is a scanning exposure type exposure apparatus that relatively scans the mask (R) and the substrate (W) and sequentially transfers the pattern of the mask (R) to each shot area of the substrate (W).
  • FIG. 1 is a flowchart showing an embodiment of the positioning method according to the present invention.
  • FIG. 2 is a perspective view showing an overall schematic configuration of the projection exposure apparatus used in the embodiment of the present invention.
  • FIG. 3 is a plan view showing a part of the shot arrangement of the wafer W in FIG. 2 in a sample coordinate system.
  • FIG. 4 is a plan view showing a deviation from the linear component of the shot arrangement in FIG.
  • FIG. 5 is a plan view showing an array curve in consideration of the nonlinear component of the shot array of FIG.
  • FIG. 6 is a plan view showing a contour curve of each shot area obtained based on the arrangement curve of FIG.
  • 7A to 7F are diagrams showing examples of the correspondence between the distortion of each shot area shown in FIG. 6 and the scanning directions of the reticle stage and the wafer stage.
  • FIGS. 8A and 8B show
  • FIG. 2 is a perspective view of the schematic configuration of the projection exposure apparatus of the present embodiment.
  • the illumination light IL emitted from the exposure light source such as an ultra-high pressure mercury lamp is used for fly-eye integrator and collimator.
  • Light consisting of lens, relay lens, field stop, etc.
  • the illuminance distribution is made uniform through the academic AL.
  • the illumination light IL having a uniform illuminance distribution is reflected by the dichroic mirror 1 and passed through the condenser lens 2 to form a slit-like surface of the reticle (pattern forming surface) on which a circuit pattern or the like is drawn.
  • the illumination area IAR is illuminated, and a projection image obtained by reducing the pattern in the illumination area IAR through the projection optical system 5 at a reduction ratio of? (For example, 1/5 or 1/4) is formed on the surface of the photoresist. (Sensitive material) is projected onto the slit-shaped exposure area IA on the wafer W coated with (photosensitive material).
  • a Z axis is taken in parallel with the optical axis IX of the projection optical system PL, and an orthogonal coordinate system in a plane perpendicular to the optical axis IX is defined as an X axis and a Y axis.
  • the exposure light source may be an emission lamp such as an ultra-high pressure mercury lamp, an excimer laser light source such as a KrF excimer laser or an ArF excimer laser, or a high-wave generator for a copper vapor laser or a YAG laser. Is used.
  • the reticle R is vacuum-adsorbed on the reticle fine movement stage 3a, and the reticle fine movement stage 3a finely moves the reticle R in a two-dimensional manner (including rotation) in a plane (XY plane) perpendicular to the optical axis IX. I do.
  • the reticle fine movement stage 3a is mounted on a reticle scanning stage 3b driven in the scanning direction by a reticle driving unit (not shown) composed of a linear motor or the like, and is moved in the Y direction (scanning direction). It can move at a predetermined scanning speed.
  • the reticle stage 3 includes a reticle fine movement stage 3a and a reticle scanning stage 3b.
  • an X-direction moving mirror 4 that reflects a laser beam from an external X-direction laser interferometer 9 is provided by two X- and Y-direction laser interferometers (not shown).
  • the moving mirror 4 in the Y direction that reflects the laser beam is fixed, and the position of the reticle stage 3 in the scanning direction (Y direction) and the X direction is the average of the measured values of the two laser interferometers and X
  • a measurement value of the laser interferometer in the direction for example, it is always detected with a resolution of about 0.0 l ⁇ m. Also, based on the difference between the measured values of the two Y-axis laser Is also detected.
  • the position and rotation information of the reticle stage 3 from these laser interferometers is sent to the stage control system 12, and the stage control system 12 based on the position and rotation information of the reticle stage 3 uses a reticle driving unit (not shown). ) To drive reticle stage 3. Since the initial position of the reticle stage 3 is determined so that the reticle R is accurately positioned at a predetermined reference position by a reticle alignment system (not shown), the positions of the movable mirrors 4X and 4Y are determined by a laser interferometer. , The position of reticle R can be measured with sufficiently high accuracy. The measured values of these laser interferometers are supplied to the alignment control system 14 and the central control system 13 via the stage control system 12, and the central control system performs measurement based on the measured values of the laser interferometer. To control the stage control system 1 2.
  • a rectangular (slit-shaped) illumination area IAR having a longitudinal direction in the direction (X direction) perpendicular to the scanning direction (Y direction) of the reticle R is used.
  • the reticle R is illuminated, and the reticle R is scanned at a speed V R in one Y direction (or + Y direction) during exposure.
  • the pattern in the illumination area IAR (the center is substantially coincident with the optical axis IX) is projected onto the wafer W via the projection optical system 5, and a slit-like exposure area IA is formed.
  • the wafer W Since the wafer W has an inverted image relationship with the reticle R, the wafer W is scanned in the + Y direction (or one Y direction) at the speed V w in synchronization with the reticle R, and the shot on the wafer W is performed. A pattern of reticle R is sequentially exposed on the entire surface of the region.
  • the scanning speed ratio (Vw / V R ) matches the reduction ratio of the projection optical system PL, and the pattern of the reticle R is accurately reduced and transferred onto the shot area on the wafer W. Is done.
  • the wafer W is vacuum-sucked on the wafer holder 6, and the wafer holder 6 is held on the wafer stage 7.
  • the wafer stage 7 can be tilted in an arbitrary direction with respect to the best imaging plane of the projection optical system PL by a driving unit (not shown), and can be finely moved in the g. Optical axis IX direction (Z direction).
  • Z stage 7 Z, Z that can rotate around optical axis IX The stage 7 comprises an X stage 7 X on which the Z stage is mounted and movable in the X direction, and a Y stage 7 Y on which the X stage is mounted and movable in the Y direction.
  • the wafer stage 7 is a step of repeating an operation of scanning exposure to each shot area on the wafer W by a wafer stage driving unit (not shown) such as a motor and an operation of moving to an exposure start position of the next shot area. Perform 'and' scan operation.
  • the moving mirror 10 in the X direction that reflect the laser beam from the external laser interferometer 15 in the X direction 10 and two in the Y direction (not shown).
  • the moving mirror 10 in the Y direction that reflects the laser beam from the laser interferometer 10 Y is fixed, and the position of the wafer stage 7 in the XY plane is the laser interferometer 15 and the laser interferometer in the Y direction. (Hereinafter, this is represented by “laser interferometer 15”), it is always detected with a resolution of about 0.01 m, for example.
  • a coordinate system determined by the X and Y coordinates of the wafer stage 7 measured by the laser interferometer 15 is called a stage coordinate system (X, Y).
  • the rotation angle of the wafer stage 7 is constantly detected, and the position information (or speed information) and the rotation information of the wafer stage 7 are sent to the stage control system 12.
  • Information) to control the wafer stage drive unit The measured values of the laser interferometer 15 are supplied to the alignment control system 14 and the central control system 13 via the stage control system 12, and the central control system 13 performs measurement of the laser interferometer 15.
  • the stage control system 12 is controlled based on the value.
  • the apparatus shown in FIG. 2 includes an irradiation optical system that irradiates an image forming light beam for forming a binhole image or a slit image toward the exposure surface of the wafer W obliquely with respect to the optical axis IX,
  • An oblique incidence type wafer position detection system (focal position detection system) consisting of a light-receiving optical system that receives the light beam reflected by the exposure surface of the wafer W via a slit through the slit supports the projection optical system 5. It is fixed to a support (not shown).
  • a more detailed configuration of the wafer position detection system is disclosed in, for example, Japanese Patent Application Laid-Open No. Sho 60-168111.
  • the wafer position detection system is the best imaging system of the projection optical system 5 on the exposure surface of the wafer. It is used to detect a positional deviation in the Z direction with respect to the surface and drive the wafer holder 6 in the Z direction so that the wafer W and the projection optical system 5 maintain a predetermined distance.
  • the wafer position information from the wafer position detection system is sent to the central control system 13 via the stage control system 12.
  • the central control system 13 drives the wafer holder 6 in the Z direction based on the wafer position information.
  • an alignment sensor 11 of an off-axis type FIA (Field Image Alignment) type (imaging type) for aligning the reticle R with the wafer W is provided by a projection optical system. It is provided near 5.
  • the FIA-type alignment sensor 11 irradiates measurement light onto a wafer mark, which will be described later, on the wafer W, and reflected light from the wafer mark forms a wafer mark image on an index plate provided in the alignment sensor 11.
  • An image is formed, and an image obtained by relaying this image is captured by an image sensor such as a two-dimensional CCD.
  • the alignment control system 14 performs image processing on the image signal to detect the position of the wafer mark based on the index mark on the index plate, and further adds the coordinates of the wafer stage 7 at that time. Then, the coordinates of the wafer mark in the stage coordinate system (X, ⁇ ) are detected.
  • the projection exposure apparatus of the present example further includes an alignment sensor of an LSA (Laser Step Alignment) method and an LIA (Laser Interferometric Alignment) method, and depends on the surface condition of the wafer W. Select and use the alignment sensor type. Detection signals from these alignment sensors are processed by an alignment control system 14, and the alignment control system 14 is controlled by a central control system 13.
  • each alignment sensor is an alignment sensor that detects a displacement in the X direction according to a wafer mark described later, and an alignment sensor that detects a displacement in the Y direction is one axis. Two axes are provided.
  • step 101 the wafer W is roughly positioned at the loading point. You. That is, the wafer W is roughly positioned by a bri-alignment device (not shown) so that the flat portion or the notch portion on the wafer W is oriented in a certain direction. Then, in step 102, the wafer W is transported onto the wafer holder 6 on the stage, and the wafer W is installed so as to maintain the previously determined direction, and the wafer W is vacuum-sucked onto the wafer holder 6.
  • step 103 precise alignment is performed by measuring the position of the wafer mark formed in each short area of the wafer W using the alignment sensor 11 shown in FIG. Do. Note that this alignment is performed for the second and subsequent layers of the wafer W, and a wafer mark is already formed for each shot area on the wafer W.
  • FIG. 3 shows a shot array on the wafer W.
  • only one row passing through the bridging portion of the wafer W is extracted from the shot array.
  • the coordinate positions of the wafer marks in the stage coordinate system (X, Y) of a predetermined number of shot areas (hereinafter referred to as “sample shots”) selected from all the shot areas on the wafer W are measured.
  • each of the short areas 21a to 21h is used as a sample shot.
  • wafer marks 48A and 48B for detecting the position in the X direction and in the Y direction.
  • Wafer marks 49 A and 49 B for position detection are formed.
  • the wafer marks in the X direction and the Y direction indicate the array coordinates of the center of each shot area, respectively, and the array coordinates of the center are regarded as the array coordinates of each shot area.
  • the array coordinates in the design on the coordinate system (sample coordinate system) (X, y) on the wafer W of each shot area on the wafer W are stored in advance.
  • each shot region is deformed from the shape at the time of design :: shape, and the center point 22a ⁇ 22h of each shot region 21a ⁇ 21h is defined by the sample coordinate system ( x, y) are not arranged in parallel but arranged in a curved line.
  • the shot array of the wafer W having such a shot array is first linearly approximated by the EGA method, and further updated based on the linear approximation. Then, by approximating a curve close to the actually measured values, array coordinates close to the actual shot array are calculated.
  • the shot area 21a is a sample shot to be measured
  • the X coordinate of the wafer mark 48A for the X axis in the stage coordinate system (X, Y) is obtained by the alignment sensor 11 in FIG.
  • the Y-axis wafer mark 49 is detected, and the Y-coordinate of the 49 A is detected by the Y-axis alignment sensor (not shown), and the detection results of those alignment sensors are compared with the alignment control system 14 and the center of FIG. It is supplied to the control system 13. More specifically, K shot areas (K is an integer of 3 or more) from all shot areas on the wafer W are selected as sample shots.
  • the center of all the shot areas on the wafer W that is, the array coordinates in the sample coordinate system (X, y) of each wafer mark in the sample coordinate system are stored in the storage unit in the central control system 13.
  • step 103 the central control system 13 initializes an integer ⁇ indicating the order of the sample shots to 1, and then proceeds to step 104 to design the center of the ⁇ th sample shot.
  • the wafer mark of the ⁇ -th sample shot is brought to the measurement position of the alignment sensor 11 by driving the wafer stage 7 through the stage control system 12 based on the array coordinates ( ⁇ ⁇ , ⁇ ⁇ ) Set to.
  • the center of the sample shot is out of the exposure position due to expansion and contraction of the wafer W, rotation error, and the like. This amount of displacement is the alignment error, and the actual array coordinates including the alignment error are measured.
  • step 105 the central control system 13 activates the two alignment sensors and the alignment control system 14 of the FI ⁇ method, and the two n-th sample shots on the wafer W The position of the wafer mark in the stage coordinate system (X, Y) is detected. The position information is supplied to the central control system 13.
  • step 106 the value of the integer n is increased by 1 and then to step 107. Then, determine whether the measurement has been completed for K sample shots. Therefore, steps 104 to 106 are repeated ⁇ times, and the coordinate values of the two wafer marks, that is, the center coordinate ( ⁇ ⁇ , ⁇ admir) are obtained and stored for each of ⁇ sample shots.
  • the operation proceeds from step 107 to step 108.
  • the central control system 13 uses the designed array coordinates (X n , YJ) of the center of each sample shot and the actually measured array coordinates ( ⁇ ⁇ , ⁇ ⁇ ) to obtain the sample coordinate system (x, Calculate the parameters of the transformation from y) to the stage coordinate system (X, Y) (hereinafter referred to as “EGA parameters”), and calculate the EGA parameters in a separate view.
  • This calculation is performed, for example, using the least squares method as disclosed in Japanese Patent Application Laid-Open No. 61-44429, and its EGA parameter is linear scaling (Rx, Rx, This is a linear parameter consisting of Ry, rotation 0, orthogonality W, and offset Ox, Oy.
  • the central control system 13 determines the array coordinates (C Xn , C Ytl) of the EGA parameter obtained in step 108 and the center point of all the shot areas on the wafer W. ), The calculated linear array coordinate values (G Xn , G Yn ) of each center point on the stage coordinate system (X, Y) are obtained.
  • FIG. 4 shows the state in the stage coordinate system (X, Y) of the respective center points 22 a to 22 h of the shot areas 21 a to 21 h shown in FIG. 3, and in FIG. Indicates a straight line connecting the array coordinate values (G Xn , G yn ) obtained by the above EGA calculation for 22a to 22h, and the?
  • Axis indicates a straight line connecting the center of each shot area in the vertical direction .
  • the angle between this axis and the X axis of the stage coordinate system (X, Y) is rotation 0.
  • the shot arrangement by the linear approximation on the wafer W is obtained by the EGA calculation, but the non-linear errors of the center points 22a to 22h with respect to the axis remain.
  • the center points 22c, 22b, etc. have large errors from the axis.
  • step 110 the linear array locus calculated in step 109 Standard (G Xn, Gy n) and measured values (XM YMn) and the sequence error ( ⁇ G XN, ⁇ G YN) calculates, based on the sequence error ( ⁇ G Xn, ⁇ G Yn), the wafer W Using the above shot array as an example, curve interpolation is performed using Lagrange's interpolation polynomial to calculate nonlinear curve array coordinate values.
  • each shot area of the wafer W is formed with p columns in the X direction and q rows in the Y direction
  • the coordinate values of the curved array are calculated over the p columns and q rows, and the entire wafer W is calculated.
  • the array coordinate value of the shot area is determined.
  • the coordinate value of the curve array of (P Xms , Pvu ,,) for the p column and (Q Xms Qy ffiS ) for the q row is obtained.
  • m is an integer from 1 to p
  • s is an integer from 1 to q.
  • the Lagrange's interpolation polynomial is used to obtain the curve arrangement of each shot area.
  • other interpolation formulas or approximation formulas may be used.
  • coordinates may be approximated by a quadratic function or a cubic function.
  • Fig. 5 shows a part of the curve array coordinate values obtained by the curve approximation.
  • the array curve 23 is an approximate curve related to the center point 22a 22h of the shot area 21a 21h.
  • the coordinate values of the curve arrangement obtained by the above method indicate an arrangement close to the actually measured value.
  • the contour curve of each shot area is obtained from the curve array coordinate values obtained in step 110 by an interpolation formula.
  • the interpolation indicating the contour of the + direction end of the shot area 21a21h is ⁇
  • the characteristic values (TH Xms , TH Yros ) are calculated by substituting (P + P yms ) / 2 into the interpolation formula representing the p columns to which the shot areas 21a to 21h belong .
  • the interpolation coordinate value (BH XNIS , BH YMS ) indicating the contour of the end in the ⁇ /? Direction is calculated by substituting (PYC ⁇ SD + P YMS ) / 2.
  • contour coordinate values (RH Xms RHv ras ) (LH Xms , LH Yms ) indicating the left and right contours in the axial direction of the shot areas 21a to 21h are calculated.
  • contour coordinate values representing the contours of all the shot areas on the wafer W are calculated and stored in the central control system 13.
  • the contour coordinate values obtained here are the positions of the sides of each shot area. It is not a coordinate value indicating the position, but a position in the middle of adjacent shot areas, that is, a position in the center of the street line.
  • the position coordinates of the sides of each shot area are required, for example, if the width of the street line is d, it can be calculated by adding only the above-mentioned interpolation coordinate value soil dZ2. Similarly, a contour curve in the /?-Axis direction of each shot area is calculated.
  • FIG. 6 shows a curve map indicating the interpolated coordinate values obtained by the above method.
  • the interpolated curve 24T indicated by a broken line is the end of the shot areas 21a to 21h in the +? Direction.
  • a curve representing the interpolation coordinate values (TH Xins , THv »s) indicating the contour of the shot area, and similarly, the interpolation curve 24B indicated by the broken line indicates the contour of the end of the shot area 2 la to 2 lh in the 1 /? Direction.
  • a curve representing the interpolated coordinate values (BH Xns , BH Yras ) is shown.
  • an interpolation curve 24R indicated by a broken line indicates a curve representing interpolation coordinate values (RH Xms , RH Yms ) indicating an outline of one end of the shot area 21g
  • an interpolation curve 24L indicates a shot area 21g.
  • a curve showing interpolation coordinate values (LH Xlus , LHyford, s ) indicating the contour of the end of g in the + h direction is shown.
  • step 112 n is initialized to 1 and exposure of each shot area is started.
  • step 113 the position of the wafer stage 7 is determined according to the coordinate values of the curve array indicating the position of the center point of each shot area obtained in step 110.
  • step 114 exposure is performed while scanning the wafer stage 7 or the reticle stage 3 from the stage position determined in step 113 so as to follow the interpolation curve between shot areas determined in step 111.
  • the scanning direction of the wafer W is the? Direction, for example, the Z stage 7Z in FIG. 2 is rotated, and the wafer W is rotated so that the five directions coincide with the Y axis of the stage coordinate system. Keep it.
  • FIGS. 7A to 7F are for explaining the scanning direction of the reticle stage 3 and the wafer stage 7 corresponding to the contour of the shot area.
  • FIGS. One shot area is shown.
  • 7B and 7E show the scanning direction of reticle stage 3 in that case, and
  • FIGS. 7C and 7F show the wafer stage.
  • 7 shows the scanning direction.
  • the left and right sides 25 R, 25 1 ⁇ from the lower side 25 B toward the upper side 25 T of the shot area 25 are aligned in the + A direction (direction perpendicular to the five axes).
  • the wafer stage 7 is bent like this, the wafer stage 7 is linearly scanned in the + Y direction (axial direction) as shown in FIGS.
  • the reticle stage 3 is scanned in one Y direction so that the above projected image has substantially the same shape as the left and right sides 25 R and 25 L of the shot area 25.
  • the distance in the Y direction from the upper side 2 5 T and right 2 5 L intersection of the shot Bok region 2 5 in FIG. 7 A to the point P 2 with the right-hand side 2 5 L and u, the point from the intersection P Assuming that the distance in the X direction to P 2 is t (u), X between the scanning start point P 3 of the reticle stage 3 in FIG. 7B and the point P 4 corresponding to the point P 2 in FIG. 7A.
  • > 5 indicates the projection magnification of the projection optical system 5
  • the center of reticle stage 3 is a curved array that passes through the center point 26a of shot area 26 in Fig. 7D. While scanning along the scanning curve 29 b corresponding to the array curve 30 indicating the target, the left and right scanning directions of the reticle stage 3 correspond to both sides 26 R and 26 L of the short area in FIG. 7D. Scan along the scanning curves 29a and 29c. Specifically, the reticle stage 3 is rotated counterclockwise to adjust the moving distance of the reticle stage 3 left and right.
  • the reticle stage 3 and the wafer stage 7 are further moved in the ⁇ direction perpendicular to the XY plane to change the projection magnification / ?.
  • the reticle stage 3 and the wafer stage 7 are moved in the Z direction so that the projection magnification /? Is smaller than in the case of the shot area 31.
  • the reticle stage 3 and the wafer stage 7 are moved in the Z direction during scanning, and the exposure is performed with the projection magnification /? Gradually reduced. .
  • step 115 the value of the integer n is incremented by 1, and then the flow shifts to step 116 to check whether the exposure of all shot areas has been completed. If not, the process returns to step 113 again to expose the next shot area.
  • the wafer W that has been exposed in step 117 is taken out (unloaded) from the wafer holder 6 to complete the exposure operation for the wafer W.
  • the positioning method of the present example errors due to non-linear distortion of the substrate to be processed, which cannot be corrected by the conventional technique, can be corrected, and more accurate positioning can be performed.
  • the wafer stage azimuth at the time of exposure scans the reticle stage in a curved manner, thereby improving the accuracy of superposition not only at the center of the shot area but also at the outer periphery. Yes, it has the advantage of increasing the yield of chips that can be obtained from one wafer.
  • by determining the contour curve of the shot area on the wafer it is also possible to know the magnification variation of each shot area, and it is possible to perform magnification correction for each shot area during scanning exposure. There is also an advantage.
  • the method of the present invention can be applied not only to a scanning type projection exposure apparatus but also to a stepper type exposure apparatus which collectively exposes a pattern on a reticle to a shot area on a wafer.
  • the present invention is not limited to the above-described embodiment, and can take various configurations without departing from the gist of the present invention.
  • the alignment method of the present invention since the non-linear components of the array coordinates of a plurality of predetermined shot areas are obtained, non-linear distortion of the substrate (wafer) which has not been detected conventionally can be detected.
  • the alignment is performed in consideration of the non-linear distortion of the substrate. Accurate superposition has the effect of becoming j-functional.
  • a plurality of curves passing through a predetermined center point are approximated based on the actually measured array coordinates measured in the first step, and each shot area on the substrate is approximated based on the plurality of curves obtained by this approximation.
  • a contour close to the actual shape of each shot area can be obtained.
  • a change in magnification of each shot area can be known. Therefore, for example, there is an advantage that magnification correction for each shot area can be performed at the time of exposure.
  • the exposure apparatus is a scanning exposure type exposure apparatus that relatively scans the mask and the substrate and sequentially transfers the pattern of the mask to each shot area of the substrate, and projects the pattern of the mask on the substrate. If at least one of the relative scanning direction, the displacement in the scanning direction, and the height of the substrate is changed during the relative scanning between the mask and the substrate to distort the image, the shot area is scanned. However, by shifting the relative scanning direction, scanning direction, or changing the height of the substrate in accordance with the distortion of the shot area, the projected image of the pattern on a certain board and the distortion of the shot area are overlapped. Can be done. Therefore, there is an effect of improving the accuracy of superimposition not only at the center of each shot region but also at the outer periphery, and there is an advantage that the yield of chips obtained from one substrate is increased.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)

Description

明細書
位置合わせ方法 技術分野
本発明は、 例えば統計的手法を用いて予測した配列座標に基づいてウェハ上の 各ショット領域とマスクのパターンとの位置合わせを行う位置合わせ (ァライメ ント) 方法に関し、 ステッパー型の露光装置で位置合わせを行う場合にも適用で きるが、 特にステップ ·アンド 'スキャン方式の露光装置において、 マスクとゥ ェハ上の各ショット領域との位置合わせを行う場合に好適なものである。 背景技術
千.導体素子又は液晶表示素子等をフォトリソグラフイエ程で製造する際に、 マ スクとしてのレチクルのパターンを投影光学系を介してフォトレジス卜が塗布さ れたウェハ (又はガラスプレート等) 上の各ショット領域に転写する投影露光装 置 (ステッパー等) が使用されている。 投影露光装置としては、 ステッパー型の 他に最近は、 投影光学系に対する負担を重くすることなく露光面積を拡大するた めに、 投影光学系に対してレチクルとウェハとを同期して走査するステップ .ァ ンド ·スキャン方式も使用されつつある。
例えば半導体素子は、 ウェハ上に多数層の回路パターンを重ねて形成されるの で、 2層目以降の回路パターンをウェハ上に投影露光する際には、 ウェハ上の既 に回路パターンが形成された各ショッ ト領域とこれから露光するレチクルのパ夕 —ンとの位置合わせ、 即ちウェハの位置合わせ (ウェハァライメント) を高精度 に行う必要がある。 従来の投影露光装置におけるウェハの高精度な位置合わせ方 法として、 例えば特閧昭 6 1— 4 4 4 2 9号公報で開示されているように、 ゥェ ハ上から選択された所定個数のショット領域 (サンプルショッ ト) に付設された ァライメントマーク (ウェハマーク) の座標位置を計測し、 この計測結果を統計 処理してウェハ上の各ショット領域の配列座標を算出するェンハンスト ·グロ一 ノヽ -ル .ァライメント (以下、 「E G A」 と略称する) 方式のァライメント方法が 知られている。 発明の開示
しかしながら、 この E G A方式によるァライメント方法では、 ウェハ上のショ ット領域の配列座標を線形的に求め、 それに基づき位置合わせをしているため、 ウェハがさまざまなプロセスを受けることにより生じるショット領域内の非線形 な歪みやウェハそのものの非線形な歪みはァライメント誤差 (重ね合わせ誤差) として残留していた。 そのため、 特に非線形な歪みが大きい場合には、 高精度な 位置合わせが困難であるという不都合があつた。
本発明は斯かる点に鑑み、 ウェハ上の各ショット領域内、 又はウェハ自体に非 線形な歪みがある場合でもそれら各ショット領域とレチクルの露光パターンとを 高精度に位置合わせできる位置合わせ方法を提供することを目的とする。
本発明による位置合わせ方法は、 マスク (R ) に形成されたパターンを基板 (W) 上の各ショッ ト領域に転写する露光装置で、 その基板 (W) の各ショット 領域とそのマスク (R ) のパターンとの位置合わせを行うための位置合わせ方法 において、 その基板 (W) 上の全部のショット領域のうち所定の複数のショット 領域 (2 1 a〜2 1 h ) に属する所定の基準点 (2 2 a〜2 2 h) の配列座標を それそれ計測する第 1工程 (ステップ 1 0 1〜1 0 7 ) と、 この第 1工程で計測 された実測配列座標、 及びその基板 (W) 上の所定の複数個のショット領域 (2 1 a〜2 1 h ) に属するその所定の基準点 ( 2 2 a〜2 2 h ) の設計上の配列座 標を統計処理して、 その所定の基準点の実測配列座標の線形成分を算出する第 2 工程 (ステップ 1 0 8, 1 0 9 ) と、 その実測配列座標からその線形成分を差し 引いて非線形成分を求める第 3工程 (ステップ 1 1 0 ) と、 この第 3工程で求め られた非線形成分に基づきその基板上の各ショッ卜領域 (21 a〜2 lh) の歪 みを求める第 4工程 (ステップ 111) と、 を有するものである。
この場合、 その第 4工程で検出された各ショット領域 (21 a〜 21 h) の歪 みに合わせてその基板 (W) 上におけるそのマスクパターンの投影像を歪ませる ことが好ましい。
また、 その第 4工程において、 その第 1工程で計測された実測配列座標に基づ きその所定の基準点 (22a〜22h) を通る複数の曲線を近似し、 この近似に より得られる複数の曲線に基づいてその基板 (W) 上の各ショット領域 (21 a 〜2 lh) の輪郭を求めることが好ましい。
また、 その露光装置の一例は、 そのマスク (R) とその基板 (W) とを相対的 に走査してそのマスク (R) のパターンを逐次その基板 (W) の各ショッ 卜領域 (2 Id) に転写する走査露光型の露光装置であり、 この場合、 その基板 (W) 上におけるそのマスク (R) のパターンの投影像を歪ませるために、 そのマスク (R) とその基板 (W) との相対走査中に、 相対走査方向、 走査方向での位置ず れ、 及びその基板 (W) の高さの少なくとも 1つを変化させることが好ましい。 斯かる本発明の位置合わせ方法によれば、 所定のショット領域の所定の基準点 の配列座標の非線形成分を求めることにより、 従来の技術では検出できなかった 基板 (W) の持つ非線形な^みを検出することができる。
また、 第 4工程で検出された各ショヅ ト領域 (21 a〜21 h) の歪みに合わ せて基板 (W) 上におけるマスクパターンの投影像を歪ませる場合には、 非線形 な誤差も補正可能になり、 より高精度な位置合わせを行うことができる。
また、 第 4工程において、 第 1工程で計測された実測配列座標に基づき所定の 基準点 (22a〜22h) を通る複数の曲線を近似し、 この近似により得られる 複数の曲線に基づいて基板 (W) 上の各ショッ ト領域 (21 a〜21 h) の輪郭 を求める場合には、 各ショッ ト領域 (21 a〜21 h) が非線形に歪んでいても それらの実際の輪郭に近い形の輪郭を求めることができる。 また、 露光装置が、 マスク (R ) と基板 (W) とを相対的に走査してマスク ( R ) のパターンを逐次基板 (W) の各ショット領域に転写する走査露光型の露 光装置であり、 基板 (W) 上におけるマスク (R ) のパターンの投影像を歪ませ るために、 マスク (R ) と基板 (W) との相対走査中に、 相対走査方向、 走査方 向での位置ずれ、 及び基板 (W) の高さの少なくとも 1つを変化させる場合には、 ショヅ ト領域を走査しながらそのショヅト領域の歪みに合わせて相対走査方向、 走査方向の位置ずれ、 又は基板 (W) の高さを変化させることにより基板上での パターンの投影像と歪んだショット領域とが重なるようにすることができる。 図面の簡単な説明
図 1は、 本発明による位置合わせ方法の一実施例を示すフローチャートである。 図 2は、 本発明の実施例で使用される投影露光装置の全体の概略構成を示す斜 視図である。
図 3は、 図 2中のウェハ Wのショット配列の一部を試料座標系で示す平面図で める。
図 4は、 図 3のショット配列の線形成分からのずれを示す平面図である。
図 5は、 図 3のショット配列の非線形成分を考慮した配列曲線を, す平面図で め 。
図 6は、 図 5の配列曲線に基づいて求めた各ショッ 卜領域の輪郭曲線を示す平 向—図である。
図 7 A〜図 7 Fは、 図 6に示す各ショット領域の歪みとレチクルステージ及び ウェハステージの走査方向との対応関係の例を示す図である。
図 8 A、 図 8 Bは、 図 6に示す各ショット領域の歪みをウェハステージの高さ を変化させることにより補正する例を説明するための |¾1である。
なお、 図面中における記号は、 以下のことを示す。
R レチクル W ウェハ
3 レチクルステージ
5 投影光学系
7 ウェハステージ
7X Xステージ
7 Y Yステージ
7 Z Zステージ
9 レーザ干渉計 (レチクル用)
15 レーザ干渉計 (ウェハ用)
11 F I A方式のァライメントセンサ
12 ステージ制御系
13 中央制御系
14 ァライメント制御系
21 a〜21h ショッ ト領域
22 a〜22 h 中心点
48 A, 48B, 49 A, 49 B ウェハマーク
23 配列曲線
24 T 3 24 B, 24R, 24 L 輪郭曲線 発明を実施するための最良の形態
以下、 本発明による投影露光装置の一実施例について図面を参照して説明する c 本例は、 走査露光型 (ステップ 'アンド 'スキャン方式等) の投影露光装置に本 発明を適用したものである。
図 2は、 本例の投影露光装置の概略構成の斜視図を示し、 この図 2において、 超高圧水銀ランプ等からなる露光光源から射出された照明光 I Lは、 フライアイ インテグレー夕、 コリメ一夕レンズ、 リレーレンズ、 及び視野絞り等からなる光 学系 A Lを絰て照度分布が均一化される。 そして、 照度分布が均一化された照明 光 I Lは、 ダイクロイヅクミラー 1により反射され、 コンデンサーレンズ 2を絰 て回路パターン等が描かれたレチクル のド面 (パターン形成面) のスリッ 卜状 の照明領域 I ARを照明し、 その照明領域 I A R内のパターンを投影光学系 5を 介して縮小倍率/? (例えば 1 / 5あるいは 1 /4 ) で縮小した投影像が、 その表 面にフォトレジスト (感光材) が塗布されたウェハ W上のスリット状の露光領域 I Aに投影される。 ここで図 2において、 投影光学系 P Lの光軸 I Xに平行に Z 蚰を取り、 その光軸 I Xに垂直な平面内の直交座標系を X軸、 Y軸とする。 なお、 露光光源としては、 超高圧水銀ランプ等の輝線ランプの他、 例えば K r Fエキシ マレ一ザや A r Fエキシマレーザ等のエキシマレーザ光源、 銅蒸気レーザや Y A Gレーザの高波波発生装置等が使用される。
レチクル Rはレチクル微動ステージ 3 a上に真空吸着され、 このレチクル微動 ステージ 3 aは光軸 I Xに垂直な平面 (X Y平面) 内で 2次元的 (回転も含む) に微動してレチクル Rを位置決めする。 また、 レチクル微動ステージ 3 aはリニ ァモータ等で構成されたレチクル駆動部 (不図示) により走査方向に駆動される レチクル走査用ステージ 3 b上に載置されており、 Y方向 (走査方向) に所定の 走査速度で移動可能となっている。 レチクルステージ 3はレチクル微動ステージ 3 a及びレチクル走査用ステージ 3 bから構成され、 レチクルべ一ス 3 c上で Y 方向に対してレチクル Rの全面が少なくとも照明光学系の光軸 I Xを横切ること ができるだけの移動ストロークを有している。 レチクル微動ステージ 3 aの端部 には外部の X方向のレーザ干渉計 9からのレーザビームを反射する X方向の移動 鏡 4 X及び Y方向の 2個のレーザ千渉計 (不図示) からのレーザビームを反射す る Y方向の移動鏡 4 Yが固定されており、 レチクルステージ 3の走査方向 (Y方 向) 及び X方向の位置は 2個のレーザ干渉計の計測値の平均値及び X方向のレー ザ干渉計の計測値として、 例えば 0 . 0 l〃m程度の分解能で常時検出されてい る。 また、 Y軸用の 2個のレーザ千涉計の計測値の差分よりレチクルステージ 3 の回転角も検出されている。
それらのレーザ干渉計からのレチクルステージ 3の位置及び回転情報はステー ジ制御系 1 2に送られ、 ステージ制御系 1 2はレチクルステージ 3の位置及び回 転情報に基づき、 レチクル駆動部 (不図示) を介して、 レチクルステージ 3を駆 動する。 不図示のレチクルァライメント系により所定の基準位置にレチクル Rが 精度良く位置決めされるように、 レチクルステージ 3の初期位置が決定されるた め、 移動鏡 4 X, 4 Yの位置をレーザ干渉計で測定するだけで、 レチクル Rの位 置が十分高精度に測定される。 また、 それらのレーザ干渉計の測定値はステージ 制御系 1 2を介してァライメント制御系 1 4及び中央制御系 1 3に供給されてお り、 中央制御系はこのレーザ干渉計の測定値に基づいてステージ制御系 1 2を制 御する。
本実施例の投影露光装置においては、 図 2に示すようにレチクル Rの走査方向 ( Y方向) に対して垂直な方向 (X方向) に長手方向を有する長方形 (スリツト 状) の照明領域 I A Rでレチクル Rが照明され、 レチクル Rは露光時に一 Y方向 (又は + Y方向) に速度 V Rでスキャンされる。 照明領域 I A R (中心は光軸 I Xとほぼ一致) 内のパターンは、 投影光学系 5を介してウェハ W上に投影され、 スリツ ト状の露光領域 I Aが形成される。
ウェハ Wはレチクル Rとは倒立結像関係にあるため、 ウェハ Wは + Y方向 (又 は一 Y方向) に、 レチクル Rに同期して、 速度 Vwでスキャンされ、 ウェハ W上 のショッ ト領域の全面にレチクル Rのパターンが逐次露光される。 走査速度の比 ( Vw/VR) は投影光学系 P Lの縮小倍率/?に--致したものになっており、 レチ クル Rのパターンがウェハ W上のショッ 卜領域上に正確に縮小転写される。 ウェハ Wはウェハホルダ 6上に真空吸着され、 ウェハホルダ 6はウェハステー ジ 7上に保持されている。 ウェハステージ 7は、 不図示の駆動部により、 投影光 学系 P Lの最良結像面に対し、 任意方向に傾斜可能で、 g.つ光軸 I X方向 (Z方 向) に微動可能で、 また光軸 I Xの回りの回転動作も可能な Zステージ 7 Z、 Z ステージ 7 Zを載置し且つ X方向に移動自在な Xステージ 7 X、 及び Xステージ を載置し Y方向に移動自在な Yステージ 7 Yから構成されている。 ウェハステ一 ジ 7はモータ等のウェハステージ駆動部 (不図示) によりウェハ W上の各ショッ ト領域へスキャン露光する動作と、 次のショッ ト領域の露光開始位置まで移動す る動作とを繰り返すステップ 'アンド 'スキャン動作を行う。
ウェハステージ 7の Zステージ 7 Zの端部には外部の X方向のレ一ザ干渉計 1 5からのレーザビームを反射する X方向の移動鏡 1 0 X及び不図示の Y方向の 2 個のレ一ザ干渉計からのレーザビームを反射する Y方向の移動鏡 1 0 Yが固定さ れ、 ウェハステージ 7の X Y平面内での位置はレーザ干渉計 1 5及び Y方向のレ —ザ干渉計 (以下、 「レーザ干渉計 1 5」 で代表させる) によって、 例えば 0 . 0 1〃m程度の分解能で常時検出されている。 レーザ干渉計 1 5で計測されるゥ ェハステージ 7の X座標及び Y座標によって定まる座標系をステージ座標系 ( X, Y) という。 また、 ウェハステージ 7の回転角も常時検出され、 ウェハステージ 7の位置情報 (又は速度情報) 及び回転情報はステージ制御系 1 2に送られ、 ス テージ制御系 1 2はこの位置情報 (又は速度情報) に基づいてウェハステージ駆 動部を制御する。 また、 レーザ干渉計 1 5の測定値はステージ制御系 1 2を介し てァライメント制御系 1 4及び中央制御系 1 3に供給されており、 中央制御系 1 3はこのレーザ干渉計 1 5の測定値に基づいてステージ制御系 1 2を制御する構 成となっている。
また、 図 2の装置にはウェハ Wの露光面に向けてビンホール像、 あるいはスリ ット像を形成するための結像光束を光軸 I Xに対して斜め方向に照射する照射光 学系と、 その結像光束のウェハ Wの露光表面での反射光束をスリツトを介して受 光する受光光学系とからなる斜入射方式のウェハ位置検出系 (焦点位置検出系) が、 投影光学系 5を支える支持部 (不図示) に固定されている。 このウェハ位置 検出系のより詳細な構成については、 例えば特開昭 6 0 - 1 6 8 1 1 2号公報に 開示されている。 ウェハ位置検出系はウェハの露光面の投影光学系 5の最良結像 面に対する Z方向の位置偏差を検出し、 ウェハ Wと投影光学系 5とが所定の間隔 を保つようにウェハホルダ 6を Z方向に駆動するために用いられる。 ウェハ位置 検出系からのウェハ位置情報は、 ステージ制御系 1 2を介して中央制御系 1 3に 送られる。 中央制御系 1 3はこのウェハ位置情報に基づいてウェハホルダ 6を Z 方向に駆動する。
また、 本例の投影露光装置にはレチクル Rとウェハ Wとの位置合わせを行うた めのオフ ·ァクシス方式で F I A (Field Image Alignment)方式 (撮像方式) の ァライメントセンサ 1 1が投影光学系 5の近傍に備えられている。 この F I A方 式のァライメントセンサ 1 1からウェハ W上の後述するウェハマークに計測光が 照射され、 ウェハマークからの反射光がァライメントセンサ 1 1内に設けた指標 板上にウェハマーク像を結像し、 この像をリレーした像が 2次元 C C D等の撮像 素子で撮像される構成となっている。 そして、 ァライメント制御系 1 4でその撮 像信号を画像処理することによりその指標板上の指標マークを基準としたウェハ マークの位置が検出され、 更にそのときのウェハステージ 7の座標を加算するこ とでウェハマークのステージ座標系 (X , γ) での座標が検出される。
また、 不図示であるが本例の投影露光装置にはその他、 L S A (Laser Step A ligiiment) 方式及び L I A (Laser Interferometric Ali nment ) 方式のァライ メントセンサが備えられており、 ウェハ Wの表面状態により、 ァライメントセン ザの種類を選択して使用する。 これらのァライメントセンサからの検出信号はァ ライメン卜制御系 1 4によって処理され、 ァライメント制御系 1 4は中央制御系 1 3により統括的に制御される構成となっている。 なお、 それそれのァライメン トセンサは後述するウェハマークに合わせてそれそれ X方向の位置ずれを検出す るァライメントセンサが 1軸及び Y方向の位置ずれを検出するァライメントセン ザが 1軸、 計 2軸備えられている。
次に、 本例の位置合わせ方法につき図 1のフローチヤ一トを参照して説明する。 先ず、 ステップ 1 0 1でウェハ Wをローディング 'ポィントで粗く位置決めす る。 即ち、 ウェハ Wを不図示のブリアライメント装置により、 ウェハ W上のフラ ット部又はノッチ部が一定の方向を向.くように粗く位置決めする。 そして、 ステ ヅプ 1 0 2においてウェハ Wをステージ上のウェハホルダ 6上に搬送し、 先に位 置決めされた方向を保つように設置してウェハ Wをウェハホルダ 6上に真空吸着 する。
次に、 ステップ 1 0 3に移行して図 2に示すァライメントセンサ 1 1を用いて、 ウェハ Wの各ショヅト領域に形成されたウェハマークの位置を計測することによ り精密な位置合わせを行う。 なお、 この位置合わせはウェハ Wの第 2層目以降に ついて行われるものであり、 ウェハ W上の各ショット領域毎にそれぞれウェハマ ークがすでに形成されている。
図 3は、 ウェハ W上のショット配列を示し、 図 3ではそのショット配列のうち ウェハ Wの屮央部を通る一列だけを取り出している。 ウェハ W上の全部のショッ ト領域から選択された所定個数のショット領域 (以下 「サンプルショット」 と呼 ぶ) のウェハマークのステージ座標系 (X , Y) での座標位置を計測する。 この 図 5において、 各ショヅト領域 2 1 a〜2 1 hをサンプルショットとする。 各シ ョヅ ト領域間のストリートライン中には例えばシヨット領域 2 1 a , 2 1 bで示 すように、 X方向の位置検出用のウェハマーク 4 8 A , 4 8 B、 及び Y方向の位 置検出用のウェハマーク 4 9 A, 4 9 Bが形成されている。 以下では、 X方向及 び Y方向のウェハマークがそれそれ各ショット領域の中心の配列座標を示すもの として、 その中心の配列座標を各ショット領域の配列座標とみなす。 ウェハ W上 の各ショッ ト領域のウェハ W上の座標系 (試料座標系) (X , y ) 上での設計上 の配列座標は予め記憶されている。
図 5に示すように、 各ショッ ト領域は設計時の::形の形から変形し、 各ショッ ト領域 2 1 a〜2 1 hの中心点 2 2 a〜2 2 hは試料座標系 (x, y ) に対して 平行に配列せず、 曲線的に配列している。 本例はこのようなショット配列を有す るウェハ Wのショッ ト配列をまず E GA法により線形近似し、 それに基づいて更 に実測値に近い曲線近似することにより実際のショッ ト配列に近い配列座標を算 出するものである。
この場合、 ショッ ト領域 2 1 aを計測対象のサンプルショットとすると、 X軸 用のウェハマーク 4 8 Aのステージ座標系 (X, Y ) での X座標が図 2のァライ メントセンサ 1 1により検出され、 Y軸用のウェハマーク 4 9 Aの Y座標が不図 示の Y軸用のァライメントセンサにより検出され、 それらのァライメントセンサ の検出結果が図 2のァライメント制御系 1 4及び中央制御系 1 3に供給される。 より詳しく説明すると、 ウェハ W上の全部のショッ ト領域から K個 (Kは 3以 ヒの整数) のショッ ト領域をサンプルショッ トとして選択する。 この際に、 ゥェ ハ W上の全部のショット領域の中心、 即ち各ウェハマークの試料座標系 (X , y) での設計上の配列座標は、 中央制御系 1 3内の記憶部に記憶されている。 以下で は n番目 (n = l〜K ) のサンプルショッ トの中心の設計上の配列座標を (Χη, Υ π ) とする。
そして、 中央制御系 1 3はステップ 1 0 3において、 サンプルショットの順序 を示す整数 ηを 1に初期化した後、 ステップ 1 0 4に移行して、 η番目のサンプ ルショットの中心の設計卜.の配列座標 (Χη, Υη) に基づきステージ制御系 1 2 を介してウェハステージ 7をステッピング駆動することにより、 η番目のサンプ ルショットのウェハマークがァライメントセンサ 1 1の計測位置にくるように設 定する。 但し、 実際にはウェハ Wの伸縮、 问転誤差等によってそのサンプルショ ットの中心は露光位置から外れている。 この位置ずれ量がァライメント誤差であ り、 このァライメント誤差を含んだ実際の配列座標が計測される。
そのため、 ステップ 1 0 5において、 中央制御系 1 3は F I Α方式の 2個のァ ライメントセンサ及びァライメント制御系 1 4を作動させて、 ウェハ W上の n番 目のサンプルショッ トの 2個のウェハマークのステージ座標系 (X , Y ) での位 置を検出させる。 その位置情報は中央制御系 1 3に供給される。
続くステップ 1 0 6で、 整数 nの値を 1だけ増加させた後、 ステップ 1 0 7に 移行して K個のサンプルショッ 卜について計測が終わったかどうかを判定する。 従って、 ステップ 104〜 106が Κ回繰り返されて、 Κ個のサンプルショット のそれぞれについて 2つのウェハマークの座標値、 即ち中心の配列座標 (ΧΜη, ΥΜ„) が求めて記憶される。 このようにして Κ個のサンプルショットについて 計測が行われると、 動作はステップ 107からステップ 108に移行する。
そして、 中央制御系 13は、 各サンプルショットの中心の設計上の配列座標 (Xn, YJ 、 及び実際に計測された配列座標 (ΧΜη, ΥΜη) を用いて、 試料 座標系 (x, y) からステージ座標系 (X, Y)への座標変換パラメ一夕 (以下、 「EGAパラメ一夕」 と呼ぶ) を算出する。 なお、 別置きのコンビユー夕でその EGAパラメ一夕を算出してもよい。 この計算は、 特開昭 61— 44429号公 報で開示されているように、 例えば最小自乗法を用いて行われる。 また、 その E G Aパラメ一タは線形伸縮 (スケーリング) Rx, Ry, ローテーション 0, 直 交度 W, 及びオフセッ ト Ox, Oyよりなる線形パラメ一夕である。
次に、 ステップ 109に移行して、 中央制御系 13はステップ 108で求めた EG Aパラメ一夕及びウェハ W上の全部のショット領域の中心点の設計上の配列 座標値 (CXn, CYtl) を用いて、 それら各中心点のステージ座標系 (X, Y)上 での計算上の線形な配列座標値 (GXn, GYn) を求める。 図 4は、 図 3に示す ショット領域 21 a〜21 hのそれそれの中心点 22 a〜22 hのステージ座標 系 (X, Y) における状態を示し、 この図 6において、 ひ軸が中心点 22a〜2 2hに関して以上の EGA計算により求められた配列座標値 (GXn, Gyn) を結 んだ直線を示し、 ?軸は各ショット領域の中心を縦方向に連ねた直線を示してい る。 このひ軸とステージ座標系 (X, Y) の X軸との角度がローテーション 0で ある。 この図 4に示すように E G A計算によりウェハ W上の線形近似によるショ ッ ト配列は得られるが、 ひ軸に対する各中心点 22a〜22 hの非線形な誤差が 残留している。 例えば中心点 22 c, 22 b等は 軸からの誤差が大きい。
そこで、 ステップ 110において、 ステップ 109で算出された線形な配列座 標 (GXn, Gyn) と実測値 (XM YMn) との配列誤差 (厶 GXN, 厶 GYN) を 算出し、 その配列誤差 (厶 GXn, 厶 GYn) に基づいて、 ウェハ W上のショッ ト配 列を一例としてラグランジュの補間多項式により曲線補間し、 非線形な曲線配列 座標値を算出する。 ここでウェハ Wの各ショッ ト領域が X方向に p列、 Y方向に q行形成されているものとすると、 この曲線配列座標値を p列、 q行に亘つて算 出し、 ウェハ Wの全部のショット領域の配列座標値を求める。 これにより p列に 関して (PXms, Pvu,,) q行に関して (QXms QyffiS) の曲線配列座標値が得 られる。 但し、 mは 1から pまでの整数であり、 sは 1から qまでの整数である。 なお、 本例では各ショッ ト領域の曲線配列を求めるのにラグランジュの補間多項 式を用いたが、 他の補間式や近似式を用いてもよい。 例えば座標に関して 2次関 数や 3次関数等で近似してもよい。
図 5は、 曲線近似により得られた曲線配列座標値の一部を示し、 この図 5にお いて、 配列曲線 23はショッ ト領域 21 a 21 hの中心点 22 a 22 hに関 する近似曲線を示し、 この配列曲線 23に示すように以上の方法により得られた 曲線配列座標値は実測値に近い配列を示している。 次に、 ステップ 111で、 ステップ 110で求めた曲線配列座標値より各ショット領域の輪郭曲線を補間式 により求める。 例えばショット領域 21 a 21 hの輪郭曲線を求める場合、 シ ョッ 卜領域 21 a 21 hがいま s行にあるとすると、 ショット領域 21 a 2 1 hの + 方向の端部の輪郭を示す補間^標値 (THXms, THYros) はショット 領域 21 a 21 hの属する p個の列を表す補間式に (P +Pyms) /2 を代入することで算出される。 また、 同様に—/?方向の端部の輪郭を示す補間座 標値 (BHXNIS, BHYMS) は (PYC^S-D +PYMS) /2を代入することで算出さ れる。 同様な方法によりショッ ト領域 21 a 21 hのひ軸方向の左右の輪郭を 示す輪郭座標値 (RHXms RHvras) (LHXms, LHYms) を算出する。 そし てウェハ W上の全部のショッ 卜領域の輪郭を表す輪郭座標値を算出し、 中央制御 系 13で記憶する。 なお、 ここで求めた輪郭座標値は各ショッ ト領域の辺の位置 を示す座標値ではなく、 隣り合うショッ ト領域の中間の位置、 即ちストリートラ インの中央部の位置を示している。 従って、 各ショット領域の辺の位置座標が必 要であれば、 例えばストリートラインの幅を dとした場合、 上記の補間座標値土 dZ2だけ加えれば算出することができる。 同様に各ショット領域の/?軸方向の 輪郭曲線も算出される。
図 6は、 以上の方法により求められた補間座標値を示す曲線マップを示し、 こ の図 6において、 例えば破線で示す補間曲線 24Tはショッ ト領域 21 a〜21 hの + ?方向の端部の輪郭を示す補間座標値 (THXins, THv»s) を表す曲線を 示し、 同様に破線で示す補間曲線 24 Bはショット領域 2 la〜2 lhの一/?方 向の端部の輪郭を示す補間座標値 (BHXns, BHYras) を表す曲線を示している。 また、 同じく破線で示す補間曲線 24Rはショット領域 21 gの一ひ方向の端部 の輪郭を示す補間座標値 (RHXms, RHYms) を表す曲線を示し、 補間曲線 24 Lはショッ ト領域 21 gの +ひ方向の端部の輪郭を示す補間座標値 (LHXlus, LHy„,s) を表す曲線を示している。
次に、 ステップ 112において、 nを 1に初期化して各ショット領域の露光を 開始する。 先ず、 ステップ 113において、 ステップ 110で求めた各ショット 領域の中心点の位置を示す曲線配列座標値に従ってウェハステージ 7を位置决め する。 そして、 ステップ 114において、 ステップ 113で決定されたステージ 位置から、 ステップ 111で求めたショット領域間の補間曲線に沿うようにゥェ ハステージ 7又はレチクルステージ 3を走査しながら露光を行う。 この場合、 ゥ ェハ Wの走査方向は ?方向であるため、 例えば図 2の Zステージ 7 Zを回転して、 その 5方向がステージ座標系の Y軸と一致するようにウェハ Wを回転しておく。 図 7 A〜7 Fは、 ショッ ト領域の輪郭に対応するレチクルステージ 3及びゥェ ハステージ 7の走査方向を説明するためのもので、 図 7 A及び図 7 Dはそれぞれ 歪み方の異なる 2つのショット領域を示している。 また、 図 7B, 図 7 Eはその 場合のレチクルステージ 3の走査方向を示し、 図 7C, 図 7 Fはウェハステージ 7の走査方向を示している。 この図 7 Aに示すようにショット領域 2 5の上辺 2 5 Tに向けて下辺 2 5 Bから左右の両辺 2 5 R , 2 5 1^が+乂方向 ( 5軸に直角 な方向) に一様に曲がっている場合には、 図 7 C , 図 7 Bに示すようにウェハス テージ 7を + Y方向 ( 軸方向) に直線的に走査すると共に、 レチクルステージ 3の走査線 2 7のウェハ W上での投影像がショット領域 2 5の左右の辺 2 5 R , 2 5 Lとのほぼ同形になるようにレチクルステージ 3を一 Y方向に走査する。 こ の場合、 図 7 Aのショッ 卜領域 2 5の上辺 2 5 Tと右辺 2 5 Lの交点 から右 辺 2 5 Lのある地点 P 2までの Y方向の距離を uとし、 交点 P から地点 P 2まで の X方向の距離を t ( u ) とすれば、 図 7 Bのレチクルステージ 3の走査開始地 点 P 3と図 7 Aの地点 P 2に対応する地点 P 4との間の X方向及び Y方向の距離 w 及び R (w) との間に、 t ( ii ) = /3 r (w) がほぽ成立するようにレチクルス テージ 3の走査方法を制御する。 なお、 >5は投影光学系 5の投影倍率を示し、 シ ョッ 卜領域の距離 uとレチクルステージ 3の走査距離 wとの間には、 ii == 3 wの 関係が成立している。
また、 図 7 Dのようにショッ ト領域 2 6の上辺 2 6 Tと下辺 2 6 Bとが平行な 状態になく、 左辺 2 6 Rの幅が右辺 2 6 Lの幅より大きく、 且つ左右の両辺が + X方向に膨らむように曲がっている場合には、 図 7 Eに示すように、 レチクルス テージ 3の中央部が図 7 Dのショット領域 2 6の中心点 2 6 aを通る曲線配列座 標を示す配列曲線 3 0に対応する走査曲線 2 9 bに沿うように走査しながらレチ クルステージ 3の左右の走査方向を図 7 Dのショヅト領域の両辺 2 6 R , 2 6 L に対応する走査曲線 2 9 a, 2 9 cに沿うように走査する。 具体的にはレチクル ステージ 3を反時計回りに回転させることによりレチクルステージ 3の左右の移 動距離を調節する。
また、 図 8 Aに示すショッ ト領域 3 1 , 3 2のように全体的な大きさが異なつ ている場合や図 8 Bに示すショッ ト領域 3 3の例えば上部と F部の非走査方向の 幅が極端に異なる場合は、 例えばテレセントリック性を崩した状態で図 7 A〜図 7 Fの方法に加えて更にレチクルステージ 3及びウェハステージ 7を X Y平面に 垂直な Ζ方向に移動して、 投影倍率/?を変化させることにより対応する。 例えば 図 8 Αの例では、 ショット領域 3 2を露光する場合にはショッ ト領域 3 1の場合 より投影倍率/?を小さくするようにレチクルステージ 3及びウェハステージ 7を Z方向に移動する。 また、 図 8 Bの例では、 ショッ ト領域 3 3を露光する場合は 走査中にレチクルステージ 3及びウェハステージ 7を Z方向に移動させながら投 影倍率/?を徐々に小さくして露光を行う。
次に、 ステップ 1 1 5で、 整数 nの値を 1だけ増加させた後、 ステップ 1 1 6 に移行して、 全部のショッ 卜領域の露光が終了したかどうかを確認する。 終了し ていなければ再びステップ 1 1 3に戻り、 次のショット領域を露光する。 終了し た場合は、 ステップ 1 1 7で露光が終了したウェハ Wをウェハホルダ 6から取り 出す (アンロード) ことによりウェハ Wに関する露光動作を終了する。
以上、 本例の位置合わせ方法によれば、 従来の技術では補正できなかった被処 理基板の持つ非線形な歪みによる誤差も補正可能になり、 より高精度な位置合わ せを行うことができる。 また、 ショッ ト領域各々の歪み成分も考慮して露光時に ウェハステージ乂はレチクルステージを曲線状に走査することにより、 ショット 領域の中心部だけでなく外周部での重ね合わせの精度向上の効果があり、 ウェハ 1枚当たりから取れるチップの歩留りも上がるという利点がある。 更に本例によ れば、 ウェハ上のショット領域の輪郭曲線を求めることにより、 各ショット領域 の倍率変動も知ることができ、 走査露光時にショット領域毎の倍率補正を行うこ とが可能になるという利点もある。
また、 本発明の方法は走査型の投影露光装置に限らず、 レチクル上のパターン をウェハ上のショット領域に一括露光するステツパ型の露光装置にも適用するこ とができる。 このように、 本発明は上述実施例に限定されず本発明の要旨を逸 脱しない範囲で種々の構成を取り得る。 産業上の利用可能性
木発明の位置合わせ方法によれば、 所定の複数のショッ ト領域の配列座標の非 線形成分を求めているため、 従来検出されなかった基板 (ウェハ) の非線形な歪 みを検出することができる利点がある。 また、 第 4工程で検出された各ショッ ト領域の歪みに合わせて基板上におけるマスクパターンの投影像を歪ませる場合 には、 基板の非線形な歪みまで考慮して位置合わせを行うため、 より高精度な重 ね合わせが j能になるという効果がある。
また、 第 4工程において、 第 1工程で計測された実測配列座標に基づき所定の 中心点を通る複数の曲線を近似し、 この近似により得られる複数の曲線に基づい て基板上の各ショット領域の輪郭を求める場合には、 各ショッ ト領域のほぼ実際 の形に近い輪郭を求めることができる。 更に、 基板上の各ショット領域の正確な 輪郭が求められることにより各ショット領域の倍率変動も知ることができる。 従 つて、 例えば露光時にショット領域毎の倍率補正を行うことがでぎる利点もある。 また、 露光装置が、 マスクと基板とを相対的に走査してマスクのパターンを逐 次基板の各ショット領域に転写する走査露光型の露光装置であり、 基板上におけ るマスクのパターンの投影像を歪ませるために、 マスクと基板との相対走査中に、 相対走査方向、 走査方向での位置ずれ、 及び基板の高さの少なくとも 1つを変化 させる場合には、 ショッ ト領域を走査しながらそのショット領域の歪みに合わせ て相対走査方向、 走査方向の位置ずれ、 又は基板の高さを変化させることにより 某板上でのパターンの投影像とショット領域の歪みとが重なるようにすることが できる。 従って、 各ショット領域の中心部だけでなく外周部での重ね合わせの精 度向上の効果があり、 基板 1枚当たりから取れるチップの歩留りも上がるという 利点がある。

Claims

1 . マスクに形成されたパターンを基板上の各ショット領域に転写する 露光装置で、 前記基板の各ショット領域と前記マスクのパターンとの位置合わせ を行うための位置合わせ方法において、
前記基板上の全部のショット領域のうち所定の複数のショット領域に属する所 定の基準点の配列座標をそれそれ計測する第 1工程と、
該第 1工程で計測された実測配列座標、 及び前記基板上の所定の複数個のショ ット領域に属する前記所定の基準点の設計上の配列座標を統計処理して、 前記所 定の基準点の実測配列座標の線形成分を箅出する第 2工程と、
前記実測配列座標から前記線形成分を差し引いて非線形成分を求める第 3工程 と、
該第 3工程で求められた非線形成分に基づき前記基板上の各ショット領域の歪 みを求める第 4工程と、
を有することを特徴とする位置合わせ方法。
2 . 請求項 1記載の位置合わせ方法であって、
前記第 4工程で検出された各ショット領域の歪みに合わせて前記基板上におけ る前記マスクパターンの投影像を歪ませることを特徴とする位置合わせ方法。
3 . 請求項 1、 又は 2記載の位置合わせ方法であって、
前記第 4工程において、 前記第 1工程で計測された実測配列座標に基づき前記 所定の基準点を通る複数の曲線を近似し、 該近似により得られる複数の曲線に基 づいて前記基板上の各シヨット領域の輪郭を求めることを特徴とする位置合わせ 方法。
4 . 請求項 2記載の位置合わせ方法であって、
前記露光装置は、 前記マスクと前記基板とを相対的に走査して前記マスクのパ ターンを逐次前記基板の各ショット領域に転写する走査露光型の露光装置であり、 前記基板上における前記マスクのパターンの投影像を歪ませるために、 前記マ スクと前記基板との相対走査中に、 相対走査方向、 走査方向での位置ずれ、 及び 前記基板の高さの少なくとも 1つを変化させることを特徴とする位置合わせ方法
PCT/JP1996/001715 1995-06-20 1996-06-20 Procede de positionnement WO1997001184A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1019970701087A KR970705830A (ko) 1995-06-20 1996-06-20 위치 조정 방법
US08/776,593 US6002487A (en) 1995-06-20 1996-06-20 Alignment method for performing alignment between shot areas on a wafer

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7/153145 1995-06-20
JP15314595A JP3991165B2 (ja) 1995-06-20 1995-06-20 位置合わせ方法及び露光方法

Publications (1)

Publication Number Publication Date
WO1997001184A1 true WO1997001184A1 (fr) 1997-01-09

Family

ID=15556005

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/001715 WO1997001184A1 (fr) 1995-06-20 1996-06-20 Procede de positionnement

Country Status (4)

Country Link
US (1) US6002487A (ja)
JP (1) JP3991165B2 (ja)
KR (1) KR970705830A (ja)
WO (1) WO1997001184A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6655590B1 (en) 1999-07-02 2003-12-02 3M Innovative Properties Company Smart card reader
US7174694B2 (en) 2004-05-24 2007-02-13 Uhlmann Pac-Systeme Gmbh & Co. Kg Loading objects into individual pockets of a moving web

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11260697A (ja) * 1998-03-12 1999-09-24 Fujitsu Ltd スキャン式縮小投影露光方法および装置
EP1098360A4 (en) * 1998-06-15 2004-09-15 Nikon Corp POSITION DETECTING METHOD, POSITION SENSOR, EXPOSURE METHOD, EXPOSURE DEVICE AND METHOD FOR THEIR PRODUCTION AND DEVICE MANUFACTURING METHOD
JP2000021738A (ja) * 1998-06-26 2000-01-21 Nikon Corp 位置検出装置及び該装置を用いた位置検出方法
JP3335126B2 (ja) * 1998-07-06 2002-10-15 キヤノン株式会社 面位置検出装置及びそれを用いた走査型投影露光装置
JP2001085321A (ja) 1999-07-13 2001-03-30 Nikon Corp 露光装置及び露光方法並びにマイクロデバイスの製造方法
US6580491B2 (en) 2000-12-26 2003-06-17 International Business Machines Corporation Apparatus and method for compensating for distortion of a printed circuit workpiece substrate
JP2002319533A (ja) * 2001-04-24 2002-10-31 Nikon Corp 転写露光方法、転写露光装置及びデバイス製造方法
KR100809955B1 (ko) * 2001-11-27 2008-03-06 삼성전자주식회사 포토리소그래피 공정의 얼라인 계측방법
US6842247B1 (en) * 2003-09-25 2005-01-11 Asml Netherlands B.V. Reticle independent reticle stage calibration
JP4400745B2 (ja) * 2003-11-28 2010-01-20 株式会社ニコン 露光方法及びデバイス製造方法、露光装置、並びにプログラム
JP5105135B2 (ja) * 2005-06-28 2012-12-19 株式会社ニコン 推定方法、露光方法、デバイス製造方法、検査方法、デバイス製造装置、及びプログラム
DE102005043833A1 (de) * 2005-09-13 2007-03-29 Ersa Gmbh Vorrichtung zur Ermittlung der Relativposition zwischen zwei im Wesentlichen flächigen Elementen
US7894038B2 (en) * 2007-03-14 2011-02-22 Asml Netherlands B.V. Device manufacturing method, lithographic apparatus, and a computer program
KR100859533B1 (ko) * 2007-07-30 2008-09-22 단국대학교 산학협력단 디스플레이 패널의 위치 보정 방법
US8482732B2 (en) * 2007-10-01 2013-07-09 Maskless Lithography, Inc. Alignment system for various materials and material flows
CN101614963B (zh) * 2009-08-05 2011-08-10 上海微电子装备有限公司 光刻机硅片对准信号的处理方法
JPWO2012081234A1 (ja) 2010-12-14 2014-05-22 株式会社ニコン 露光方法及び露光装置、並びにデバイス製造方法
JP6061507B2 (ja) * 2012-06-12 2017-01-18 キヤノン株式会社 露光方法及び物品の製造方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS596530A (ja) * 1982-07-05 1984-01-13 Nippon Telegr & Teleph Corp <Ntt> 荷電ビ−ム露光装置における偏向歪補正方法
JPS6292315A (ja) * 1985-10-18 1987-04-27 Nippon Telegr & Teleph Corp <Ntt> 荷電ビ−ム照射位置補正方法および補正回路
JPH0547648A (ja) * 1991-08-19 1993-02-26 Nippon Telegr & Teleph Corp <Ntt> 電子ビーム露光装置における照射位置の高さ設定方法
JPH07191416A (ja) * 1993-12-24 1995-07-28 Dainippon Screen Mfg Co Ltd 複写カメラ

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4650983A (en) * 1983-11-07 1987-03-17 Nippon Kogaku K. K. Focusing apparatus for projection optical system
JPH0677096B2 (ja) * 1984-02-13 1994-09-28 株式会社ニコン 投影装置の焦点合せ装置
US4780617A (en) * 1984-08-09 1988-10-25 Nippon Kogaku K.K. Method for successive alignment of chip patterns on a substrate
JPS6144429A (ja) * 1984-08-09 1986-03-04 Nippon Kogaku Kk <Nikon> 位置合わせ方法、及び位置合せ装置
US5543921A (en) * 1989-05-08 1996-08-06 Canon Kabushiki Kaisha Aligning method utilizing reliability weighting coefficients
US5117255A (en) * 1990-09-19 1992-05-26 Nikon Corporation Projection exposure apparatus
US5561606A (en) * 1991-08-30 1996-10-01 Nikon Corporation Method for aligning shot areas on a substrate
US5525808A (en) * 1992-01-23 1996-06-11 Nikon Corporaton Alignment method and alignment apparatus with a statistic calculation using a plurality of weighted coordinate positions
US5596204A (en) * 1993-04-06 1997-01-21 Nikon Corporation Method for aligning processing areas on a substrate with a predetermined position in a static coordinate system
JPH06302496A (ja) * 1993-04-13 1994-10-28 Nikon Corp 位置合わせ方法
JP3448614B2 (ja) * 1993-08-12 2003-09-22 株式会社ニコン 投影露光方法、走査型投影露光装置、及び素子製造方法
US5448444A (en) * 1994-01-28 1995-09-05 United Technologies Corporation Capacitive pressure sensor having a reduced area dielectric spacer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS596530A (ja) * 1982-07-05 1984-01-13 Nippon Telegr & Teleph Corp <Ntt> 荷電ビ−ム露光装置における偏向歪補正方法
JPS6292315A (ja) * 1985-10-18 1987-04-27 Nippon Telegr & Teleph Corp <Ntt> 荷電ビ−ム照射位置補正方法および補正回路
JPH0547648A (ja) * 1991-08-19 1993-02-26 Nippon Telegr & Teleph Corp <Ntt> 電子ビーム露光装置における照射位置の高さ設定方法
JPH07191416A (ja) * 1993-12-24 1995-07-28 Dainippon Screen Mfg Co Ltd 複写カメラ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6655590B1 (en) 1999-07-02 2003-12-02 3M Innovative Properties Company Smart card reader
US7174694B2 (en) 2004-05-24 2007-02-13 Uhlmann Pac-Systeme Gmbh & Co. Kg Loading objects into individual pockets of a moving web

Also Published As

Publication number Publication date
KR970705830A (ko) 1997-10-09
JPH097921A (ja) 1997-01-10
US6002487A (en) 1999-12-14
JP3991165B2 (ja) 2007-10-17

Similar Documents

Publication Publication Date Title
WO1997001184A1 (fr) Procede de positionnement
JP5002440B2 (ja) 投影システムの焦点面に対して基板のターゲット部分を位置合わせする方法
US6481003B1 (en) Alignment method and method for producing device using the alignment method
US6486955B1 (en) Shape measuring method and shape measuring device, position control method, stage device, exposure apparatus and method for producing exposure apparatus, and device and method for manufacturing device
US6587201B2 (en) Aligning apparatus and method for aligning mask patterns with regions on a substrate
JP4434372B2 (ja) 投影露光装置およびデバイス製造方法
US6483571B1 (en) Exposure apparatus and method for transferring a pattern from a plurality of masks onto at least one substrate
WO2005053007A1 (ja) 露光方法及びデバイス製造方法、露光装置、並びにプログラム
JP2002050560A (ja) ステージ装置、計測装置及び計測方法、露光装置及び露光方法
JP2610815B2 (ja) 露光方法
JPH10223528A (ja) 投影露光装置及び位置合わせ方法
JP3530692B2 (ja) 走査型露光装置及びそれを用いたデバイスの製造方法
WO1999050893A1 (fr) Procede d&#39;exposition et systeme d&#39;exposition
KR100445850B1 (ko) 노광방법및장치
JP4400214B2 (ja) マーク検出方法、露光方法、位置情報検出方法、露光装置、デバイス製造方法、マーク
JP3569962B2 (ja) 位置合わせ装置及び位置合わせ方法、それを用いた露光装置及び露光方法
JP2001274058A (ja) マーク検出方法、並びに露光方法及び露光装置
JP2000323405A (ja) 投影露光方法及び装置、並びに素子製造方法
JP3809680B2 (ja) 露光方法
JPH09306811A (ja) 露光方法
JP3344426B2 (ja) 計測方法及びデバイス製造方法
JPH0684753A (ja) 露光方法
JPH1187228A (ja) 露光装置及び露光方法
JPH08236433A (ja) 露光方法
JP2003197504A (ja) 露光方法及びデバイス製造方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

WWE Wipo information: entry into national phase

Ref document number: 08776593

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019970701087

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1019970701087

Country of ref document: KR

WWR Wipo information: refused in national office

Ref document number: 1019970701087

Country of ref document: KR