WO1999008315A1 - Procede d'exposition par balayage, graveur par projection a balayage, procede de production du graveur par projection a balayage et procede d'analyse des erreurs de synchronisation - Google Patents

Procede d'exposition par balayage, graveur par projection a balayage, procede de production du graveur par projection a balayage et procede d'analyse des erreurs de synchronisation Download PDF

Info

Publication number
WO1999008315A1
WO1999008315A1 PCT/JP1998/003558 JP9803558W WO9908315A1 WO 1999008315 A1 WO1999008315 A1 WO 1999008315A1 JP 9803558 W JP9803558 W JP 9803558W WO 9908315 A1 WO9908315 A1 WO 9908315A1
Authority
WO
WIPO (PCT)
Prior art keywords
synchronization error
mask
average value
exposure
scanning
Prior art date
Application number
PCT/JP1998/003558
Other languages
English (en)
French (fr)
Inventor
Susumu Makinouchi
Osamu Furukawa
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to AU85622/98A priority Critical patent/AU8562298A/en
Publication of WO1999008315A1 publication Critical patent/WO1999008315A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70216Mask projection systems
    • G03F7/70358Scanning exposure, i.e. relative movement of patterned beam and workpiece during imaging
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography

Definitions

  • a predetermined slit region on a mask is illuminated with illumination light, and a mask and a non-exposed object such as a sensitive substrate are formed on a mask while being relatively moved in a predetermined scanning direction in synchronization with each other.
  • a pattern formed on a mask or a reticle (hereinafter, collectively referred to as a reticle) is formed on a substrate such as a wafer or a glass plate (hereinafter, a sensitive substrate or An exposure apparatus that exposes light onto an object is used.
  • a substrate such as a wafer or a glass plate
  • An exposure apparatus that exposes light onto an object is used.
  • steppers step-and-repeat type reduction projection exposure apparatuses
  • step-and-scan projection exposure apparatuses are relatively large. It is being used.
  • the dynamic factor of the synchronization error between the reticle and the sensitive substrate during scanning exposure is caused by the displacement (or distortion) of the pattern image transferred onto the substrate and the resolution. It is urgently necessary to analyze the effect on the deterioration of the steel.
  • the analysis of the synchronization accuracy between the two objects as described above is not limited to the exposure apparatus, and may be necessary for other apparatuses.
  • a first object of the present invention is to provide a scanning exposure method capable of grasping the influence or factor of the synchronization accuracy on the exposure result by measuring the synchronization accuracy when the mask and the sensitive substrate are relatively scanned. And a scanning exposure apparatus.
  • a second object of the present invention is to measure a synchronization accuracy when a mask and a sensitive substrate are scanned relative to each other, so that an influence or a factor of the synchronization accuracy on an exposure result can be grasped. It is to provide a manufacturing method of.
  • a third object of the present invention is to provide a synchronization error analysis method capable of quantitatively analyzing synchronization accuracy between a mask and first and second objects represented by a sensitive substrate.
  • a scanning exposure method for exposing a mask to a mask includes a measurement step of measuring a physical quantity related to a position of a mask and a physical quantity related to a position of a non-exposed object during a relative movement of the mask and the non-exposed object; Based on mask and non A first calculation step of calculating a synchronization error with the exposure object; and a display step of displaying the synchronization error calculated in the first calculation step.
  • a predetermined slit region on a mask is illuminated with illumination light, and a mask and a non-exposure object are synchronously moved in a predetermined scanning direction relative to each other, while a pattern formed on the mask is projected on the non-exposure object
  • a scanning type exposure apparatus for exposing a mask, a first measuring apparatus for measuring a physical quantity related to a position of a mask; a second measuring apparatus for measuring a physical quantity related to a position of a non-exposed object; a mask and a non-exposed object
  • a monitoring device for monitoring the measured values of the first and second measuring devices during relative movement of the first and second measuring devices; and a first calculating device for calculating a synchronization error between the mask and the non-exposure object based on a monitoring result by the monitoring device.
  • a display device for displaying the synchronization error calculated by the first calculation device.
  • the physical quantity related to the position means not only the position information but also a physical quantity whose position can be obtained by a simple calculation such as a speed obtained by differentiating the information or an acceleration obtained by further differentiating the speed.
  • the physical quantities related to the respective positions of the mask and the non-exposure object are measured, and the synchronization error between the mask and the non-exposure object is calculated based on the measurement result. Output. Based on this synchronization error, it is possible to know the degree to which the synchronization accuracy at the time of scanning between the mask and the non-exposed object affects the exposure result.
  • the synchronization error between the point at which an arbitrary point on the non-exposure object enters the slit area and the point at which it exits average value this c displaying the synchronization error by calculating case of, based on the synchronization error in a single scan, which is calculated, for each of each of a plurality of arbitrary points on the unexposed object points, each Calculate the synchronization error for each factor by calculating the average value of the synchronization error from when the point enters the slit area until it exits, and at least one of the scattering levels around the average value of the synchronization error. Is preferred.
  • the synchronization error By using at least one of the average value of the synchronization error (hereinafter referred to as “moving average” as appropriate) and the degree of dispersion around the average value of the synchronization error (hereinafter referred to as “moving standard deviation” as appropriate), It is possible to analyze the synchronization accuracy when scanning with an unexposed object for each factor that gives an exposure result. That is, if the above moving average is used, the synchronization error It is possible to quantitatively evaluate to some extent the displacement of the pattern transferred onto the non-exposed object, that is, the effect on the pattern image distortion.
  • the average value of the synchronization error and the degree of dispersion around the average value of the synchronization error may be displayed simultaneously or separately.
  • the moving average and the moving standard deviation are displayed simultaneously or separately, by looking at the display, the above-described analysis of the synchronization accuracy by factor can be easily performed.
  • the calculation of the synchronization error and the calculation of the average value of the synchronization error and the degree of dispersion around the average value of the synchronization error are preferably performed separately in the scanning direction, the non-scanning direction orthogonal to the scanning direction, and the rotation direction.
  • the average value of the synchronization error or the degree of dispersion around the average value of the synchronization error may be compared with a predetermined reference value, and a warning may be issued according to the comparison result. In this way, the warning can be used to assure that the operator can recognize the faulty state of the apparatus in which an exposure failure is evident.
  • the above physical quantities are detected to determine the synchronization error, and data such as the moving average and the moving standard deviation calculated based on the synchronization error are used to analyze the synchronization accuracy by factor after the exposure is completed.
  • the synchronization error may be calculated by measuring the physical quantity while relatively moving the mask and the non-exposed object while the irradiation of the illumination light is stopped. In the latter case, prior to exposure, the mask and the non-exposed object are moved relative to each other in exactly the same way as during exposure, while the illumination light is stopped, and during this relative movement, the physical quantities related to the positions of the mask and the non-exposed object are calculated.
  • the measurement is used to determine the synchronization error, and the moving average and moving standard deviation are calculated based on the synchronization error. Therefore, it is possible to perform a factor analysis of synchronization accuracy in advance before the actual exposure starts. As a result, it is possible to avoid a useless exposure operation in which an exposure failure occurs due to a synchronization error.
  • the characteristic of the synchronization error between the mask and the non-exposed object is detected based on the average value of the synchronization error or the degree of dispersion around the average value of the synchronization error, and the movement between the mask and the non-exposed object is corrected so as to correct the characteristic. You may make it control.
  • the term has almost the same meaning as the type of influence that the synchronization error, such as whether the synchronization error causes distortion of the image of the mask pattern or deterioration of the resolution of the image, on the exposure result.
  • the control unit uses the data such as the moving average and moving standard deviation obtained during exposure of the non-exposed object (or the shot on the substrate) to calculate the characteristics of the synchronization error between the mask and the non-exposed object. Is detected, and the movement between the mask and the non-exposed object is controlled so as to correct the characteristic.
  • the relative movement control between the mask and the non-exposure object is performed at the time of a shot after the shot based on the characteristics of the synchronization error calculated based on the measurement result at the time of the predetermined shot, When exposing an unexposed object (or the next shot on the substrate), exposure defects due to synchronization errors are less likely to occur.
  • the scanning type exposure apparatus also calculates the average value of the synchronization error or the degree of dispersion around the average value of the synchronization error for all shot regions on the non-exposed object.
  • Each shot may be stored, and the relative movement control between the mask and the non-exposed object may be performed at the time of exposure of each shot based on the stored data of each shot.
  • the synchronous error analysis method includes: a first step of synchronously moving a first object and a second object relative to each other along a predetermined moving direction; and a physical quantity related to the position of the first object during the relative movement. And a second step of detecting a physical quantity related to the position of the second object, respectively; and a third step of detecting an average value of a synchronization error between the first object and the second object based on a result of the second step. including.
  • the average value of the synchronization error the average value of the synchronization error between the first object and the second object during the time when an arbitrary point of the second object passes through the predetermined section is calculated based on the above physical quantity. Can be used.
  • the first object and the first object within a time when each point passes through a predetermined section are determined based on the physical quantity.
  • the method includes calculating at least one of the average value of the synchronization error with the second object and the degree of dispersion around the average value of the synchronization error. According to this, on the basis of at least one of the average value of the synchronization error between the first object and the second object and the degree of dispersion around the average value of the synchronization error during the time when the second object passes through the predetermined section, This makes it possible to quantitatively analyze the synchronization accuracy between the first object and the second object.
  • a method of assembling a scanning type exposure apparatus includes: placing a first measuring device for measuring a physical quantity related to a position of a mask with respect to a mask stage on which a mask is placed; measuring a physical quantity related to a position of a sensitive substrate; A second measuring device is arranged in relation to a substrate stage on which the sensitive substrate is placed; and a mask and a measuring device based on measurement results of the first and second measuring devices obtained during the relative movement of the mask and the sensitive substrate.
  • An arithmetic device for calculating the synchronization error with the sensitive substrate is connected to the first and second measuring devices; a display device for displaying the synchronization error calculated by the arithmetic device is connected to the arithmetic device.
  • FIG. 1 is a diagram showing a schematic configuration of the scanning exposure apparatus according to the first embodiment.
  • FIG. 2A is a schematic plan view of a wafer stage constituting the apparatus of FIG.
  • FIG. 2B is a schematic plan view of a reticle stage included in the apparatus of FIG.
  • FIG. 3 is a block diagram showing a configuration of a stage control system of the apparatus shown in FIG.
  • FIG. 4 is a flowchart showing a main control algorithm of the microprocessor of FIG. 3 for explaining a check operation of a synchronization error between a reticle and a wafer.
  • FIG. 5 is a diagram schematically showing changes in the respective positions of the reticle and the wafer when exposing a certain shot area on the wafer.
  • FIG. 6 is a graph showing an example of a change in the synchronization error.
  • FIG. 7A is a graph showing an example of a change in the moving average.
  • FIG. 7B is a graph showing an example of the moving standard deviation.
  • FIG. 8 is a block diagram illustrating a configuration of a stage control system according to the second embodiment.
  • FIG. 9 is a flowchart showing a main control algorithm of the microphone port processor according to the second embodiment.
  • FIG. 1 shows a schematic configuration of a scanning exposure apparatus 10 according to the first embodiment.
  • This scanning exposure apparatus 10 uses an energy beam, that is, an exposure light IL to form a mask (first object),
  • An illumination system 12 that illuminates the reticle R, a mask stage or reticle stage 14 that scans the reticle R in the Y-axis direction (horizontal direction in FIG. 1) and minutely drives in the XY plane, and this reticle stage 14
  • It has a wafer stage 16 and a main control system 18 composed of a microphone computer or minicomputer for controlling the entire apparatus.
  • the illumination system 12 includes a light source unit 20, a mirror 22, a reticle blind 24, a relay lens 26, a mirror 28, and a condenser lens 30.
  • the light source section 20 is configured to include a light source such as an ultra-high pressure mercury lamp or a laser light source, and an optical integration device.
  • reticle blind 24 is arranged at a position conjugate with the pattern forming surface on the lower surface of reticle R.
  • Exposure light IL emitted from the light source section 20 passes through the mirror 22, the reticle blind 24, the relay lens 26, the mirror 28, and the condenser lens 30 and has uniform illuminance.
  • 24 Illuminate the slit-shaped illumination area (slit area) RA (see Fig. 2B) set by 4.
  • the longitudinal direction of the slit-shaped illumination area RA is set in the X direction (perpendicular to the paper surface in FIG. 1), and the relative scanning direction between the reticle R and the slit-shaped illumination area RA is the Y direction. I do.
  • the reticle stage 14 holds a reticle R mounted on a reticle coarse movement stage 34 that moves along a scanning direction (Y direction) on a reticle base (not shown). And a reticle fine movement stage 36 that performs fine movement (including rotation) in the XY plane.
  • the movable mirror 32 is provided on the reticle coarse movement stage 34.
  • a laser reticle coarse interferometer 42 that projects a laser beam onto the movable mirror 32 and receives the reflected light to detect the position of the reticle coarse movement stage 34 in the Y direction is a movable mirror. It is provided facing 32.
  • the output of the reticle coarse movement laser interferometer 42 is supplied to the main control system 18.
  • Main control system 18 measures the position of reticle coarse movement stage 34 in the Y direction based on the output of reticle coarse movement laser interferometer 42.
  • On the reticle fine movement stage 36 a movable mirror 38 is provided on the reticle fine movement stage 36. This moving mirror
  • the first measuring device that detects the position of the reticle fine movement stage 36 by projecting a laser beam on 38 and receiving the reflected light, that is, the reticle fine movement laser interferometer
  • an X-axis movable mirror 38X extending in the Y direction is fixed to the end of the reticle fine movement stage 36 in the + X direction.
  • the former movable mirror 38 X is irradiated with a laser beam LRX parallel to the X axis.
  • the latter movable mirror 38 y 38 y 2 is irradiated with laser beams LR L and L RR in parallel with the Y axis, respectively.
  • the laser beams LR X , LR L , and L RR are supplied from the reticle fine motion laser interferometer 40 shown in FIG.
  • the moving mirror (corner cube) in the Y direction which is the scanning direction 3 8 3 8
  • the laser beams LR L and LR r reflected by y 2 are reflected by the reflecting mirrors 39 A and 39 B, respectively, and returned.
  • the Y-axis interferometer for the reticle is a double-pass interferometer, whereby the reflected laser beam becomes parallel to the incident laser beam even when the reticle fine movement stage 36 rotates.
  • reference symbol RA denotes a slit-shaped illumination area on reticle R.
  • the interferometer 40 is composed of a three-axis laser interferometer. In FIG. 1, these moving mirrors are represented by reference numeral 38, and the reticle fine movement laser interferometer is represented by reference numeral 40.
  • the output of the three-axis reticle fine movement laser interferometer 40 is supplied to the main control system 18.
  • the main control system 18 measures the X position of the reticle fine movement stage 36 based on the output (R x ) of the interferometer using the laser beam LR x as the length measuring axis.
  • the main control system 18 adjusts the Y position of the reticle fine movement stage 36 based on the average value of the outputs ( RL , RR) of the two Y-axis interferometers whose measurement axes are the laser beams LR L and LR R.
  • Calculate two Y-axis interferometers The rotation angle of the reticle fine movement stage 36 in the XY plane is calculated based on the difference between the outputs of the laser beams LR L and L RR.
  • the projection optical system PL is supported on a surface plate (not shown) via a first column (not shown) so that its optical axis direction is the Z-axis direction orthogonal to the XY plane.
  • a second column (not shown) is provided on the first column, and a reticle base is provided on the second column.
  • the wafer stage 16 is an XY stage that moves in an XY two-dimensional direction on a wafer base (not shown), a leveling stage provided on the XY stage, and placed on the leveling stage. And a Z ⁇ 0 stage for holding the wafer. In FIG. 1, the wafer stage 16 is indicated by a representative symbol 16.
  • a movable mirror 46 is provided on the wafer stage 16.
  • a second measuring device that projects a laser beam onto the movable mirror 46 and detects the position of the wafer stage 16 by receiving the reflected light faces the movable mirror 46.
  • a wafer laser interferometer 48 faces the movable mirror 46.
  • an X-axis movable mirror 46X extending in the Y direction is fixed to one end of the wafer stage 16 in the X direction
  • a movable mirror 46Y of the Y-axis extending in the X direction is fixed to an end in the direction.
  • the movable mirror 46 X has laser beams LW X1 and LW at an interval D along the optical path parallel to the X axis and passing through the optical axis AX of the projection optical system PL and the detection center of the alignment sensor (not shown).
  • X2 is irradiated.
  • the movable mirror 46Y is irradiated with two laser beams LW Y1 and LW Y2 at an interval D along an optical path parallel to the Y axis.
  • the laser beams LW X1 , LWx2, L WYI and LW Y2 are supplied from the wafer laser interferometer 46 in FIG. 1, respectively.
  • the wafer laser interferometer 46 has four-axis laser interference. It consists of a total. In FIG. 1, these moving mirrors are represented by reference numeral 46, and the wafer laser interferometer is represented by reference numeral 48.
  • the output of the 4-axis wafer laser interferometer 48 is supplied to the main control system 18.
  • the main control system 18 measures the X position of the wafer stage 16 based on the output (W X1 ) of the interferometer using the laser beam LW X1 as the measurement axis, and measures the laser beams LW Y1 and LW Y2 as the measurement axes.
  • the Y position of the wafer stage 16 is measured based on the average value of the outputs (W yi , Wy 2 ) of the two Y-axis interferometers.
  • the main control system 1 8 the difference between the output of the X-axis interferometer that the laser beam LW X1 and measurement axis (W X1) and the output of the interferometer laser beam LW X2 and measurement axes (W X2)
  • the rotation angle of the wafer stage 16 in the XY plane is calculated based on the distance D.
  • the position of the X-direction when using ⁇ Lai placement sensor (not shown), as so-called Abbe error does not occur, interferometer and the interferometer laser beam and the detection point of Araimento is that Itasu over, i.e. the laser beam LW Y2 Is controlled based on the output of the interferometer (W Y2 ).
  • the main control system 18 synchronously scans the reticle coarse movement stage 34 in the + Y direction at a predetermined scanning speed V R via a reticle driving device (not shown).
  • the relative speed error between the reticle coarse movement stage 34 and the wafer stage 16 is absorbed, and the relative speed and position between the reticle R and the wafer W are set to 4: 1 for fine movement control (not shown).
  • the operation of the reticle fine movement stage 36 is controlled via the driving device.
  • the wafer W is moved relative to the exposure area SA conjugate with the illumination area. Is scanned in the one Y direction at a speed corresponding to the reduction magnification of the projection optical system PL, and the pattern formed on the pattern formation surface of the reticle R is sequentially transferred to the shot area on the wafer W.
  • the main control system 18 is provided with a memory 88 and a display device 90.
  • a display device 90 for example, a CRT display or a liquid crystal display device used for a personal computer is used.
  • FIG. 3 is a block diagram of the stage control system 92 of the scanning exposure apparatus 10 according to the present embodiment.
  • Fig. 3 shows the microcontroller that constitutes the main control system 18 in Fig. 1. It shows various functions realized by various control programs (software) together with the processor 68 in block form. Each component may be constituted by corresponding individual hardware.
  • the stage control system 92 includes a scan speed generator 51 that outputs the speed command values V and v of the wafer stage 16 according to an instruction from a main computer (not shown), and a scan speed generator 51 based on the velocity command value V w from the wafer stage speed control system 5 2 for controlling the speed of the wafer stage 1 6, the velocity command value V w 1/3 times (4 times in this case) the velocity command value V R
  • the reticle coarse movement stage speed control system 54 that controls the speed of the reticle coarse movement stage 34 based on the position of the reticle, and the synchronous position that calculates the reticle synchronous position using the determinant described later based on the position of the wafer stage 44
  • a reticle fine movement stage control system 56 for controlling the position (and speed) of the reticle fine movement stage 36 based on the position information which is the calculation result of the synchronous position calculation section 62; Measurement of laser interferometer 4 8 And a microprocessor 6 8 to monitor evening the measurement values of the reticle micro-moving
  • the wafer stage speed control system 52 includes, for example, a subtractor that calculates a speed deviation which is a difference between the speed command value Vw and the speed of the wafer stage 16, and a speed deviation from this subtractor.
  • a subtractor that calculates a speed deviation which is a difference between the speed command value Vw and the speed of the wafer stage 16, and a speed deviation from this subtractor.
  • the speed of the wafer stage 16 is obtained from the differential value of the measurement value of the wafer laser interferometer 48.
  • a type 1 closed loop control system including a subtractor that performs the control operation (proportional + integral) using a speed deviation from the subtractor as an operation signal (neither is shown).
  • the speed of reticle coarse movement stage 34 can be obtained from the differential value of the measured value of reticle coarse movement laser interferometer 42.
  • the synchronous position calculator 62 includes information on the position of the wafer stage (W X 1 , W x 2, W Y 1 , WY) obtained by integrating the output of the wafer stage speed control system 52 with the first integration circuit 64. 2), a matrix operation represented by the following equation (1) is performed, and the reticle fine movement Di 3 6, i.e. the reticle micro-moving laser interferometer 4 measured values of the three axes of 0 to measure the position of the reticle R (R x, R L, R R) target value (Rx ', RL', R R ') a Calculate.
  • Information of the position of the (W X 1, WX2, WY !, WY 2) is actually wafer laser interferometer
  • Equation (1) the matrix of 3 rows and 4 columns of the first term on the right side is a transform coefficient matrix, and the matrix of 3 rows and 1 column of the second term on the right side is offset.
  • the reticle fine movement stage control system 56 inputs the position information calculated by the synchronous position calculation section 62 as a target position, and outputs the target position and a reticle fine movement stage 36 which is an output of a second integration circuit 76 described later.
  • a subtractor 74 for calculating a position deviation, which is a difference from the position information of the reticle fine movement laser interferometer 40, and a position loop for converting the position deviation of the subtracter 74 to a target speed. Includes gain setting device 58.
  • the gain setting device 58 includes a PI controller which performs a control operation (proportional + integral) using the position deviation as an operation signal, and converts a control amount calculated by the PI controller into a speed and outputs the speed.
  • the reticle fine movement stage control system 56 integrates the output of the reticle fine movement stage speed control system 60, which performs the control operation with the output from the gain setting device 58 as the target speed, and the output of the reticle fine movement stage speed control system 60. And a second integration circuit 76 for converting the position to the position of the reticle fine movement stage.
  • Each element in the matrix of 3 rows and 1 column of the third term on the right side of Equation (2) is an actual measurement value of the reticle fine motion laser interferometer 40.
  • the reticle fine movement stage speed control system 60 is a subtractor that calculates the speed deviation that is the difference between the target speed output from the gain setting unit 58 and the speed of the reticle fine movement stage, and operates the speed deviation from this subtractor.
  • the signal includes a PI controller (not shown) that performs the control operation (proportional + integral).
  • the positions of the wafer stage 16 and the reticle fine movement stage 36 are directly measured by the wafer laser interferometer 48 and the reticle fine movement laser interferometer 40, and as shown in FIG. Control system 52, Reticle fine movement stage speed This is not obtained by integrating the speed of the control system 60.
  • the control system in Fig. 3 is equivalent to the actual control system. From the viewpoint of improving the responsiveness of the position control of the reticle fine movement stage control system 56, the speed error between the wafer stage 16 and the reticle coarse movement stage 34 is fed forward to the reticle fine movement stage speed control system 60. You can enter it.
  • the operation of fine movement stage 36 is controlled.
  • the exposure area SA conjugate with the illumination area RA is The wafer W is scanned in one Y direction at a speed corresponding to the reduction magnification of the projection optical system PL, and the pattern formed on the pattern forming surface of the reticle R is sequentially exposed on the shot area on the wafer W.
  • the main control system 18 moves the wafer stage 16 by a predetermined distance in the non-scanning direction (in the X direction) to perform a stepping operation to the exposure start position of the next shot. After that, scanning exposure is performed, and exposure is performed in this manner by the step-and-scan method.
  • the microprocessor 6 8 the measurement value of Wehare one The interferometer 4 8 (W X 1, W x2, W Y 1, W Y 2) and retinyl Kurureza interferometer 4 0 measurements (R X , R L , RR) are simultaneously captured at a predetermined sampling interval and sequentially stored in the memory 88 (step 100 in FIG. 4). In this way, the microprocessor 68 monitors the position of the reticle R and the position of the wafer W.
  • the respective positions of the reticle R and the wafer W change as schematically shown in Fig. 5.
  • FIG. 5 there is a point P 1 at the center of the exposure area SA at time t 1, which is the start of exposure, and thereafter, as time t 2, t 3,..., Tn,.
  • Points P 2, P 3,..., P n,... move to the center of the area.
  • the microprocessor 68 stores the measured value of the above-mentioned laser interferometer 48 and the measured value of the reticle laser interferometer 40 from time tl.
  • the microprocessor 68 uses the data (W X1 , W X2 , W YI W Y2 , R X , R or RR) stored at the same time in the memory 88 to obtain the above equation (2).
  • synchronization error AR X, ⁇ R L calculates the AR R.
  • the calculation of the synchronization error is performed for each data at each sampling.
  • a graph showing a change in the synchronization error as shown in FIG. 6 in each direction of, for example, X, ⁇ , ⁇ is obtained by one-shot exposure.
  • the horizontal axis is the time or the ⁇ axis of the shot coordinate system, and the synchronization error is shown as the vertical axis. Note that the graph of the change in the synchronization error as described above is actually obtained for all the shots sampled.
  • the microprocessor 68 uses the following equations (4) and (5) to move an arbitrary point Pn on the wafer W into the illumination area RA as a slit area, that is, into the exposure area SA conjugate to this. And the standard deviation as the degree of dispersion around the average of the synchronization error (hereinafter referred to as “moving standard deviation” as appropriate) (Step 104 of FIG. 4).
  • the number of data acquisitions from when the point Pn enters the exposure area SA to when it leaves the exposure area SA that is, data is extracted with a slit width (width in the scanning direction of the exposure area SA) centered on the nth data
  • the number of data is m times when n + (ml) / 2 ⁇
  • (E ⁇ ) n indicates a moving average in the XY ⁇ direction.
  • ⁇ (ErrX) ⁇ > ⁇ (ErrY) n ⁇ ( ⁇ r ⁇ ) ⁇ indicates the moving standard deviation in the X ⁇ direction.
  • the microprocessor 68 stores the calculation results in the X, ⁇ , and ⁇ directions as shown in the graphs of FIGS. 7A and 7B in the memory 88.
  • Step 106 This judgment is performed by setting a predetermined threshold value for each of the moving average and the moving standard deviation in the X, Y, and S directions, and calculating the moving average and the moving standard deviation in the X, ⁇ , and ⁇ directions. This is done by comparing with
  • the abnormalities are displayed on the display screen of the display device 90 and a warning is issued (step 1 08 in FIG. 4). .
  • a warning sound may be emitted together with this warning display. It is desirable that this warning be displayed so that at least the moving average or the moving standard deviation is abnormal.
  • the information it is even more desirable that the information be such that it is possible to identify which of the X, ⁇ , and ⁇ directions. In this way, the operator can determine at a glance the type of the abnormality.
  • the microprocessor 68 calculates the above calculation result, that is, X as shown in FIGS. 7 ⁇ and 7 7.
  • a graph of the moving average and moving standard deviation in the 0, 0, and 0 directions is displayed on the display screen of the display device 90 (step 110 in FIG. 4).
  • the above six types of graphs may be displayed simultaneously by dividing the display screen or by switching the screen according to the instruction of the operation and displaying one or more types sequentially You may do it.
  • the operator can easily grasp the resolution (resolution) of the pattern image transferred onto the wafer W based on the moving standard deviation graph displayed on the display screen. As a result, it is possible to quantitatively determine, to some extent, the effect of the synchronization error between the reticle R and the wafer W on the degradation of the image resolution. In this sense, the above-mentioned warning display need not always be performed.
  • a graph of a change in synchronization error as shown in FIG. 6 may be displayed on the display screen.
  • the range in which the synchronization error is monitored is divided into a plurality of, for example, 10, and the frequency distribution of the synchronization error of the X, ⁇ , and ⁇ components calculated in each section is displayed on the display screen. Is also good.
  • Such a display makes it possible to simultaneously and quantitatively discriminate between the positional deviation, that is, the distortion of the pattern image transferred onto the wafer W, and the degradation of the image resolution.
  • the monitoring of the interferometer measurement value in step 100 in FIG. 4 is performed during the actual step-and-scan exposure as described above. However, before the exposure, the irradiation of the reticle R with the exposure light on the reticle R is stopped, and the movement of the reticle R and the wafer W is performed in the same manner as in the above-described exposure. Monitoring of the total measured value may be performed. In this way, it is possible to evaluate the state of the apparatus relating to stage control before an exposure failure actually occurs. As a result, the exposure can be stopped when there is a possibility that the image distortion and the resolution may be unacceptable due to the specifications of the exposure device at that time.
  • the scanning exposure apparatus 10 After or before the exposure, the synchronization accuracy at the time of scanning between the reticle R and the wafer W can be analyzed for each factor giving the exposure result.
  • the overall configuration of the scanning exposure apparatus according to the second embodiment is substantially the same as that of the above-described first embodiment, and the configuration of the stage control system is slightly different.
  • the control algorithm of the microprocessor in the stage control system differs accordingly.
  • the description will be made focusing on such differences, and the same reference numerals will be used for the same or equivalent components as those in the first embodiment described above, and the description thereof will be omitted or simplified.
  • FIG. 8 shows the configuration of a stage control system 192 according to the second embodiment.
  • the stage control system 192 has a correction table 94 composed of random access memory (RAM) attached to the microprocessor 68.
  • the microprocessor 68 has an update function of the correction table 94 and a correction function. A function of inputting the data of the table 94 to the reticle fine movement stage control system 56 via the subtractor 96. Only this point is different from the first embodiment.
  • FIG. 9 is a flowchart illustrating a main control algorithm of the microprocessor 68 in the main control system 18 according to the second embodiment. The operation during scanning exposure will be described below along this flowchart.
  • the reticle stage 14 and the wafer stage 16 Prior to exposure, the reticle stage 14 and the wafer stage 16 have been moved to the first shot scanning start position.
  • step 200 scanning exposure for a shot to be exposed, that is, a first shot is started. That is, as described above, the relative scan between the reticle R and the wafer W is started, and a command is given to an exposure controller (not shown) to start the irradiation of the illumination light from the exposure light source.
  • step 202 the measurement values of the reticle fine movement laser interferometer 40 and the wafer laser interferometer 48 are monitored, that is, read and stored in the memory 88 as in step 100 of FIG. 4 described above. .
  • step 204 similarly to step 102 in FIG. 4 described above, the data fetched into the memory 88 is used to determine the X, ⁇ , and ⁇ directions. The synchronization error is calculated, and the result is stored in the memory 88.
  • step 206 a moving average is calculated in the X, ⁇ , and ⁇ directions using the calculated synchronization error data. Then, in the next step 208, it is determined whether or not the exposure of the shot has been completed.
  • steps 202 to 206 are repeated.
  • a command is given to an exposure controller (not shown) to stop the irradiation of the illumination light from the exposure light source. .
  • the shutter in the light source unit 20 is closed.
  • step 212 the contents of the correction table 94 are updated, and the updated data is input as a correction value to the reticle fine movement stage 56 via the subtractor 96 (see FIG. 8).
  • the internal data of the correction table 94 is based on the moving average data in the X, ⁇ , and 0 directions during the first shot exposure (see FIG. 7 ⁇ ). This data is calculated in the above step 206 and stored in the memory 88.
  • next step 214 it is determined whether or not all shots have been exposed. If this determination is denied, the flow shifts to step 216 to move the scanning start position of the next shot, the reticle stage 14 and the wafer stage 16. In the case of so-called alternate scanning, the reticle stage does not need to be moved. Thereafter, the process returns to step 200 to start scanning exposure for the next shot. After that, the processing and judgment of the above step 202 and thereafter are repeated.
  • the second shot the contents of the correction table 9 4, i.e. X upon exposure of the first shot Bok, Y, 0-direction moving average of de Isseki of, Sapo error (AR x, ⁇ R L, ⁇ RR) to correct Added as a value.
  • the reticle fine movement stage control system 56 controls the X and 6 of the reticle fine movement stage 36.
  • the position is accurately controlled to the target position calculated by the synchronous position calculator 62. That is, it is a harm that the moving average calculated in step 208 becomes zero.
  • the difference in the position of the first shot and the second shot on the wafer causes a different behavior of the wafer stage 16, that is, a different movement. Also retic When the moving directions of the stage 14 are opposite, the movement of the stage is often different, so that the moving average is not actually zero.
  • the update of the correction table 94 in the step 212 at the time when the exposure of the second shot and subsequent shots is completed is calculated in the step 206 of the exposure of the shot. That is, the moving average data in the X, Y and 0 directions stored in the memory 88 is added to the data in the correction table 94. As a result, the synchronization error (residual error) is gradually corrected during the exposure after the next shot.
  • step 2 14 If the second shot exposure is completed and the determination in step 2 14 is denied, the process moves to step 2 16, and then the third shot, fourth shot, fifth shot, « ⁇ Exposure is performed by the scanning method. Then, the synchronization error is sequentially corrected using the data of the correction table 94 updated for each exposure of each shot. As a result, good exposure is performed on all shot areas while suppressing the displacement of the pattern image and the deterioration of the resolution.
  • the stage control system 1992 detects the characteristic of the synchronization error between the reticle R and the wafer W based on the operation result of the microprocessor 68.
  • a control system is configured to control the movement between the reticle R and the wafer W so as to correct this characteristic.
  • the synchronization error during the scanning exposure in the next shot can be corrected using the moving average data obtained during the scanning exposure of a certain shot.
  • the wafer W it becomes possible to expose a good reticle pattern whose displacement is mainly suppressed.
  • the case where the synchronization error during the scanning exposure of the next shot is corrected using the moving average data obtained during the scanning exposure of a certain shot.
  • the present invention is not limited thereto, and the synchronization error during the scanning exposure of the next shot may be corrected using the data of the moving standard deviation obtained during the scanning exposure of a certain shot. In such a case, it is possible to expose a good reticle pattern in which all of the shots on the wafer are mainly prevented from deteriorating in resolution. Or moving average and The synchronization error during the scanning exposure of the next shot may be corrected using the data of the moving standard deviation.
  • the case where the synchronization error during the scanning exposure of the next shot is corrected using the moving average data obtained during the scanning exposure of a certain shot.
  • the data area in the correction table has a data area corresponding to each shot, after the exposure of all shots is completed, the data in the correction table obtained at that time is used to expose the next wafer.
  • a synchronization error between the reticle R and the wafer W at the time of exposure of each shot area may be corrected.
  • the moving average is calculated using the data of the synchronization error.
  • the synchronization error and the moving average may be collectively obtained after the exposure of one shot. That is, the processing of step 204 and step 206 may be collectively executed between step 208 and step 210 of the flowchart of FIG.
  • the present invention is applied to the step-and-scan type projection exposure apparatus.
  • the scope of the present invention is not limited to this.
  • the present invention can be widely applied to other scanning exposure apparatuses, for example, so-called aligner and liquid crystal scanning exposure apparatuses of the same size, and to exposure apparatuses for manufacturing thin-film magnetic heads.
  • the magnification of the projection optical system may be not only a reduction system but also any one of an equal magnification and an enlargement system.
  • the present invention is also applicable to a projection exposure apparatus using a charged particle beam or X-ray.
  • the synchronization error analysis method according to the present invention is not limited to an exposure apparatus, and may be any apparatus that requires a first object and a second object to be synchronized and relatively moved along a predetermined movement direction. It can be suitably applied.
  • An exposure apparatus that measures and displays a synchronization error between a mask and a wafer or an exposure apparatus that measures a synchronization error between a mask and a wafer and feeds back to a drive control circuit of a reticle moving stage is described in this embodiment. It is assembled by electrically, mechanically or chemically connecting many components. Specifically, an illumination optical system composed of multiple lenses and a projection optical system are incorporated in the exposure apparatus main body to perform optical adjustment, and a reticle stage and a wafer stage composed of many mechanical parts are exposed.
  • the exposure apparatus of the present embodiment can be manufactured by attaching wires and pipes to the main body of the apparatus and performing overall adjustment (electrical adjustment, operation check, etc.). It is desirable that the exposure apparatus be manufactured in a clean room where the temperature, cleanliness, etc. are controlled.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)

Description

明細書
走査型露光方法、 走査型露光装置、 走査型
露光装置の製造方法および同期誤差解析方法 本出願は日本国特許出願平成 9年第 2 2 8 8 3 7号を基礎とし、 その内容は引 用文としてここに組み込まれる。 技術分野
本発明は、 照明光によりマスク上の所定のスリッ ト領域を照明し、 マスクと感 応基板のような非露光物体とを同期して所定の走査方向に相対移動させつつ、 マ スクに形成されたパターンを非露光物体上に露光する走査型露光技術及び第 1物 体と第 2物体とを同期して所定の移動方向に移動させる際の第 1物体と第 2物体 との同期誤差解析方法に関する。 背景技術
従来より、 半導体素子や液晶表示素子をリソグラフイエ程で製造するに際して は、 マスク又はレチクル (以下、 レチクルと総称する) に形成されたパターンを ウェハ又はガラスプレー卜等の基板 (以下、 感応基板もしくは非露光物体とい う) 上に露光する露光装置が用いられている。 例えば、 半導体素子の製造に際し ては、 ステップ · アンド · リピート方式の縮小投影型露光装置 (いわゆるステツ パー) が主として用いられ、 さらに最近ではステップ · アンド ' スキャン方式の 投影型露光装置も比較的多く用いられるようになってきた。
かかる投影型露光装置では、 感応基板が載置された基板ステージの、 位置決め 時直後の振動特性が、 露光されたパターンの像の劣化にどの程度の影響を与える かの解析が重要である。 本願出願人は先に、 基板ステージの位置決め時直後の振 動特性をある程度定量的に評価することができる 「ステージ移動制御装置」 を提 案した (特開平 8— 1 5 3 6 6 2号公報参照) 。 発明の開示
最近における集積回路の高集積化に伴うパターンの微細化により、 露光装置の 性能、 特に要求されるパターン像の解像度はますます厳しくなつてきた。 今やス テッパーより解像度の高い露光が可能なステツプ · アンド · スキャン方式の走査 型露光装置が主流になりつつある。 このような走査型露光装置において、 上記の 特開平 8— 1 5 3 6 6 2号公報に記載されるような装置により、 基板ステージの 位置決め直後の振動特性を定量的に評価し、 これにより感応基板上に投影露光さ れるパターンの像の劣化を防止するという手法では所望の解像度が得られない。 この所望の解像度にとって、 レチクルと感応基板の位置決め直後の振動特性とい う静的な要因の解析のみでは十分ではない。 所望の解像度を実現するためには、 走査露光時のレチクルと感応基板との同期誤差という動的な要因が、 基板上に転 写されたパターンの像の位置ずれ (又はディストーショ ン) や分解能の劣化に与 える影響を解析することが急務となっている。
ところで、 上記のような 2物体間の同期精度の解析は露光装置に限らず、 他の 装置でも必要な場合がある。
本発明の第 1の目的は、 マスクと感応基板とを相対走査する時の同期精度を測 定することにより、 同期精度が露光結果に与える影響あるいは要因を把握するこ とができる走査型露光方法および走査型露光装置を提供することにある。
本発明の第 2の目的は、 マスクと感応基板とを相対走査する時の同期精度を測 定することにより、 同期精度が露光結果に与える影響あるいは要因を把握するこ とができる走査型露光装置の製造方法を提供することにある。
本発明の第 3の目的は、 マスクと感応基板に代表される第 1および第 2の物体 との同期精度を定量的に解析することができる同期誤差解析方法を提供すること にある。
本発明による、 照明光によりマスク上の所定のスリット領域を照明し、 マスク と非露光物体とを同期して所定の走査方向に相対移動させつつ、 マスクに形成さ れたパターンを非露光物体上に露光する走査型露光方法は、 マスクと非露光物体 の相対移動中に、 マスクの位置に関連する物理量と非露光物体の位置に関連する 物理量を計測する計測工程と ; 計測工程における計測結果に基づいてマスクと非 露光物体との同期誤差を演算する第 1の演算工程と ;第 1の演算工程で演算され た同期誤差を表示する表示工程とを有する。
本発明による、 照明光によりマスク上の所定のスリット領域を照明し、 マスク と非露光物体とを同期して所定の走査方向に相対移動させつつ、 マスクに形成さ れたパターンを非露光物体上に露光する走査型露光装置は、 マスクの位置に関連 する物理量を計測する第 1の計測装置と ;非露光物体の位置に関連する物理量を 計測する第 2の計測装置と ; マスクと非露光物体の相対移動中に第 1及び第 2の 計測装置の計測値をモニタするモニタ装置と ;モニタ装置によるモニタ結果に基 づいてマスクと非露光物体との同期誤差を演算する第 1の演算装置と ;第 1の演 算装置で演算された同期誤差を表示する表示装置とを有する。
位置に関連する物理量とは、 位置情報のみでなく、 これを微分した速度、 ある いはこれを更に微分した加速度等の簡単な演算により位置を求めることができる 物理量を意味する。
本発明によれば、 マスクと非露光物体の相対移動中に、 マスクと非露光物体の それぞれの位置に関する物理量が計測され、 その計測結果に基づいてマスクと非 露光物体との同期誤差が演算されて出力される。 この同期誤差に基づいて、 マス クと非露光物体との走査時の同期精度が露光結果に与える影響の程度を知ること ができる。
本発明による走査型露光方法もしくは露光装置において、 演算された 1回の走 査における同期誤差に基づいて、 非露光物体上の任意の点が上記スリット領域に 入ってから出るまでの間の同期誤差の平均的な値を演算して同期誤差を表示する c この場合、 演算された 1回の走査における同期誤差に基づいて、 非露光物体上の 任意の複数の点の各々の点ごとに、 各点が上記スリッ卜領域に入ってから出るま での間の同期誤差の平均値及び同期誤差の平均値のまわりの散らばり度合の少な くとも一方を演算して、 同期誤差を要因ごとに算出するのが好ましい。 同期誤差 の平均値 (以下、 適宜 「移動平均」 という) 及び同期誤差の平均値のまわりの散 らばり度合 (以下、 適宜 「移動標準偏差」 という) との少なくとも一方を用いる ことにより、 マスクと非露光物体との走査時の同期精度を露光結果に与える要因 別に解析することができる。 すなわち、 上記の移動平均を用いれば、 同期誤差が 非露光物体上に転写されるパターンの位置ずれ、 すなわちパターン像のディスト ーシヨンに与える影響をある程度定量的に評価することが可能になる。 また、 上 記の移動標準偏差を用いれば、 同期誤差が非露光物体上に転写されるパターンの 像の分解能 (解像度) の劣化にどの程度の影響を与えるかをある程度定量的に評 価することが可能になる。
同期誤差の平均値と同期誤差の平均値のまわりの散らばり度合とを同時又は別 々に表示するようにしてもよい。 この場合には、 移動平均と移動標準偏差とが同 時又は別々に表示されるので、 その表示を見ることにより、 上述したような同期 精度の要因別分析を容易に行なうことができる。
同期誤差の演算と同期誤差の平均値および同期誤差の平均値のまわりの散らば り度合の演算は、 走査方向、 これに直交する非走査方向及び回転方向に分離して 行うのが好ましい。
同期誤差の平均値あるいは同期誤差の平均値のまわりの散らばり度合を、 所定 の基準値と比較して、 その比較結果に応じて警告を発するようにしてもよい。 こ のようにすれば、 警告により、 明らかに露光不良が発生するような装置の不良状 態を、 オペレータは確実に認識できるようになる。
実際の走査露光中に上記物理量を検出して同期誤差を求め、 この同期誤差に基 づいて演算された移動平均、 移動標準偏差等のデータを用いて、 露光終了後に同 期精度の要因別分析を行うか、 あるいは、 照明光の照射停止中にマスクと非露光 物体を相対移動させながら上記物理量を計測して同期誤差を演算してもよい。 後 者の場合、 露光に先立って、 照明光の照射停止中にマスクと非露光物体を露光時 と全く同様に相対移動させ、 この相対移動中にマスクと非露光物体の位置に関す る物理量を計測して同期誤差を求め、 この同期誤差に基づいて移動平均、 移動標 準偏差を演算する。 したがって、 実際の露光開始前に、 事前に同期精度の要因別 分析を行なうことが可能になる。 これにより同期誤差に起因して露光不良が発生 するような無駄な露光動作を回避することができる。
同期誤差の平均値あるいは同期誤差の平均値のまわりの散らばり度合に基づい てマスクと非露光物体の同期誤差の特性を検出し、 該特性を補正するようにマス クと非露光物体との移動を制御するようにしてもよい。 ここで、 同期誤差の特性 とは、 その同期誤差がマスクパターンの像のディストーションを発生させるか、 像の分解能の劣化を招くか等の同期誤差が、 露光結果に与える、 影響の種類と殆 ど同じ意味である。 かかる場合には、 制御装置により非露光物体 (あるいはその 基板上のショッ ト) の露光中に得られた移動平均、 移動標準偏差等のデータを用 いて、 マスクと非露光物体の同期誤差の特性が検出され、 該特性を補正するよう にマスクと非露光物体との移動が制御される。 この場合、 所定のショッ ト時の計 測結果により演算された同期誤差の特性に基づいて、 そのショッ卜より後のショ ッ ト時にマスクと非露光物体との相対移動制御を行えば、 次の非露光物体 (ある いは基板上の次ショット) の露光の際に、 同期誤差に起因する露光不良が発生し 難くなる。
本発明による走査型露光方法は走査型露光装置はまた、 非露光物体上のすべて のショット領域に対して同期誤差の平均値あるいは同期誤差の平均値のまわりの 散らばり度合を演算して各ショット領域ごとに記憶し、 記憶した各ショットごと の記憶データに基づいて、 各ショットの露光時にマスクと非露光物体との相対移 動制御を行うようにしてもよい。
本発明による同期誤差解析方法は、 第 1物体と第 2物体とを同期して所定の移 動方向に沿って相対移動させる第 1工程と ;相対移動中に第 1物体の位置に関連 する物理量と第 2物体の位置に関連する物理量をそれぞれ検出する第 2工程と ; 第 2工程の結果に基づいて第 1物体と第 2物体との同期誤差の平均的な値を検出 する第 3工程とを含む。 同期誤差の平均的な値として、 上記物理量に基づいて、 第 2物体の任意の点が所定区間を通過する時間内での第 1物体と第 2物体との同 期誤差の平均的な値を使用することができる。 好ましくは、 同期誤差の平均的な 値として、 上記物理量に基づいて、 第 2物体の任意の複数の点の各々の点ごとに、 各点が所定区間を通過する時間内での第 1物体と第 2物体との同期誤差の平均値 及び同期誤差の平均値のまわりの散らばり度合との少なくとも一方を算出するェ 程を含む。 これによれば、 第 2物体が所定区間を通過する時間内での第 1物体と 第 2物体との同期誤差の平均値及び同期誤差の平均値のまわりの散らばり度合の 少なくとも一方に基づいて、 第 1物体と第 2物体との同期精度を定量的に解析す ることができるようになる。 本発明による、 照明光によりマスク上の所定のスリッ ト領域を照明し、 マスク と感応基板とを同期して所定の走査方向に相対移動させつつ、 マスクに形成され たパターンを感応基板上に露光する走査型露光装置を組み立てる方法は、 マスク の位置に関連する物理量を計測する第 1の計測装置をマスクが載置されるマスク ステージに関して配置し ;感応基板の位置に関連する物理量を計測する第 2の計 測装置を感応基板が載置される基板ステージに関連して配置し ; マスクと感応基 板の相対移動中に得られる第 1及び第 2の計測装置の計測結果に基づいてマスク と感応基板との同期誤差を演算する演算装置を第 1および第 2の計測装置に接続 し ;演算装置で演算された同期誤差を表示する表示装置を演算装置に接続する。 図面の簡単な説明
図 1は、 第 1の実施例に係る走査型露光装置の概略構成を示す図である。
図 2 Aは、 図 1の装置を構成するウェハステージの概略平面図である。
図 2 Bは、 図 1の装置を構成するレチクルステージの概略平面図である。
図 3は、 図 1に示す装置のステージ制御系の構成を示すプロック図である。 図 4は、 レチクルとウェハの同期誤差のチェック動作について説明するための、 図 3のマイクロプロセッサの主要な制御アルゴリズムを示すフローチヤ一トであ る。
図 5は、 ウェハ上のあるショット領域を露光する際のレチクルとウェハのそれ ぞれの位置の変化を模式的に示す図である。
図 6は、 同期誤差の変化の一例を示すグラフである。
図 7 Aは、 移動平均の変化の一例を示すグラフである。
図 7 Bは、 移動標準偏差の一例を示すグラフである。
図 8は、 第 2の実施例に係るステージ制御系の構成を示すブロック図である。 図 9は、 第 2の実施例に係るマイク口プロセッサの主要な制御アルゴリズムを 示すフロ一チヤ一卜である。 発明を実施するための最良の形態
《第 1の実施例》 以下、 本発明の第 1の実施例を図 1〜図 7に基づいて説明する。
図 1には、 第 1の実施例に係る走査型露光装置 1 0の概略構成が示されている, この走査型露光装置 1 0は、 エネルギービームすなわち露光光 I Lによりマスク (第 1物体) すなわちレチクル Rを照明する照明系 1 2と、 レチクル Rを Y軸方 向 (図 1における左右方向) に走査するとともに X Y面内で微少駆動するマスク ステージすなわちレチクルステージ 1 4と、 このレチクルステージ 1 4の下方に 配置された投影光学系 P Lと、 この投影光学系 P Lの下方に配置され非露光物体 である感応基板 (第 2物体) すなわちウェハ Wを X Y面内で 2次元移動させる基 板ステージすなわちウェハステージ 1 6と、 装置全体を統括的に制御するマイク 口コンピュータ又はミニコンピュー夕から成る主制御系 1 8とを備えている。
照明系 1 2は、 光源部 2 0、 ミラー 2 2、 レチクルブラインド 2 4、 リレー レンズ 2 6、 ミラ一 2 8及びコンデンサレンズ 3 0を含んで構成されている。 光 源部 2 0は、 例えば超高圧水銀ランプ又はレーザ光源等の光源とオプティカルィ ンテグレー夕とを含んで構成されている。 また、 レチクルブラインド 2 4は、 レ チクル Rの下面のパターン形成面と共役な位置に配置されている。
光源部 2 0から出射された露光光 I Lは、 ミラー 2 2、 レチクルブラインド 2 4、 リレ一レンズ 2 6、 ミラー 2 8及びコンデンサレンズ 3 0を経て均一な照度 で、 レチクル R上の、 レチクルブラインド 2 4によって設定されたスリット状の 照明領域 (スリット領域) R A (図 2 B参照) を照明する。 この場合、 スリット 状の照明領域 R Aの長手方向が X方向 (図 1における紙面直交方向) に設定され, レチクル Rとそのスリツ卜状の照明領域 R Aとの相対走査の方向は Y方向である とする。
レチクルステージ 1 4は、 不図示のレチクルべ一ス上を走査方向 (Y方向) に 沿って移動するレチクル粗動ステージ 3 4と、 このレチクル粗動ステージ 3 4上 に載置されレチクル Rを保持して X Y平面内で微動 (回転を含む) するレチクル 微動ステージ 3 6とを有している。
レチクル粗動ステージ 3 4上には、 移動鏡 3 2が設けられている。 この移動鏡 3 2にレーザビームを投射し、 その反射光を受光することによりレチクル粗動ス テ一ジ 3 4の Y方向の位置を検出するレチクル粗動レーザ干渉計 4 2が、 移動鏡 3 2に対向して設けられている。 このレチクル粗動レ一ザ干渉計 42の出力は、 主制御系 1 8に供給される。 主制御系 1 8は、 このレチクル粗動レーザ干渉計 4 2の出力に基づいて、 レチクル粗動ステージ 34の Y方向の位置を計測する。 レチクル微動ステージ 3 6上には、 移動鏡 3 8が設けられている。 この移動鏡
3 8にレーザビームを投射し、 その反射光を受光することによりレチクル微動ス テ一ジ 3 6の位置を検出する第 1の計測装置すなわちレチクル微動レーザ干渉計
4 0が、 移動鏡 3 8に対向して設けられている。
実際には、 図 2 Bの平面図に示されるように、 レチクル微動ステージ 3 6の + X方向の端部には Y方向に延びた X軸移動鏡 3 8 Xが固定されている。 +Y方向 の端部には、 コーナ一キューブよりなる 2個の Y軸移動鏡 3 8 y 3 8 y2がそ れぞれ固定されている。 前者の移動鏡 3 8 Xには X軸に平行にレーザビーム L R Xが照射される。 後者の移動鏡 3 8 y 3 8 y 2にはそれぞれ Y軸に平行にレーザ ビーム L RL, L RRが照射される。 レ一ザビーム L RX, L RL, L RRはそれぞれ 図 1のレチクル微動レーザ干渉計 40から供給される。
走査方向である Y方向の移動鏡 (コーナーキューブ) 3 8 3 8 y2でそれ ぞれ反射されたレーザビーム L RL, L Rrはそれぞれ反射ミラー 3 9 A, 3 9 B で反射されて戻される。 即ち、 そのレチクル用の Y軸干渉計はダブルパス干渉計 であり、 これによつて、 レチクル微動ステージ 3 6が回転しても反射するレーザ ビームが入射レ一ザビームに平行となる。 なお、 図 2 Bにおいて、 符号 R Aはレ チクル R上のスリッ ト状の照明領域を示す。
上記の如く、 レチクル微動ステージ 3 6上には X軸の移動鏡 3 8 X、 及び 2個 の Y軸の移動鏡 3 8 y 3 8 y2が固定され、 これに対応してレチクル微動レー ザ干渉計 4 0は 3軸のレーザ干渉計から構成されている。 図 1では、 これらの移 動鏡を符号 3 8で代表し、 レチクル微動レーザ干渉計を符号 40で代表する。 上記 3軸のレチクル微動レーザ干渉計 40の出力は、 主制御系 1 8に供給され る。 主制御系 1 8ではレーザビ一ム L Rxを測長軸とする干渉計の出力 (Rx) に 基づいてレチクル微動ステージ 3 6の X位置を計測する。 主制御系 1 8は、 レー ザビーム L RL, L RRを測長軸とする 2つの Y軸干渉計の出力 (RL, RR) の平 均値に基づいてレチクル微動ステージ 3 6の Y位置を算出し、 2つの Y軸干渉計 の出力の差分とレーザビーム L RL, L RRの間隔 Lとに基づいてレチクル微動ス テ一ジ 3 6の XY面内での回転角を算出する。
投影光学系 P Lは、 不図示の第 1コラムを介して不図示の定盤上に、 その光軸 方向が XY平面に直交する Z軸方向となるように支持されている。 この第 1コラ ム上に不図示の第 2コラムが設けられており、 この第 2コラム上にレチクルべ一 スが設けられている。 投影光学系 P Lとしては、 例えば両側テレセントリックで 所定の縮小倍率 0 (ここでは、 /3 = 1 Z4とする) を有する屈折光学系が用いら れている。 このため、 露光時には、 レチクル Rのパターン領域内のスリッ ト状の 照明領域 (図 2 Bの符号 R A参照) のパターンが、 投影光学系 P Lを介して照明 領域 R Aに共役な、 ウェハ W上の露光領域 (図 2 Aの符号 S A参照) に、 縮小投 影され、 ウェハ W表面のフォ トレジスト層にレチクルパターンの像が転写される。 ウェハステージ 1 6は、 不図示のウェハべ一ス上を XY 2次元方向に移動する XYステージと、 この X Yステージ上に設けられたレベリング用のステージと、 このレべリング用のステージ上に配置され、 ウェハを保持する Z · 0ステージを 含んで構成される。 図 1では代表符号 1 6でウェハステージ 1 6を示す。
ウェハステージ 1 6上には、 移動鏡 4 6が設けられている。 この移動鏡 4 6に レーザビームを投射し、 その反射光を受光することによりウェハステージ 1 6の 位置を検出する第 2の計測装置すなわちウェハレーザ干渉計 4 8が、 移動鏡 4 6 に対向して設けられている。 実際には、 図 2 Aの平面図に示されるように、 ゥェ ハステージ 1 6の一 X方向の端部には Y方向に延びた X軸の移動鏡 4 6 Xが固定 され、 + Y方向の端部には X方向に延びた Y軸の移動鏡 4 6 Yがそれぞれ固定さ れている。 移動鏡 4 6 Xには、 X軸に平行で且つそれぞれ投影光学系 P Lの光軸 AX、 及び不図示のァライメントセンサの検出中心を通る光路に沿って、 間隔 D でレーザビーム LWX1及び LWX2が照射される。 移動鏡 4 6 Yには、 Y軸に平行 な光路に沿って間隔 Dで 2本のレーザビーム LWY1及び LWY2が照射される。 レ 一ザビーム LWX1 , LWx2, L WYI, LWY2はそれぞれ図 1のウェハレーザ干渉 計 4 6から供給される。
上記の如く、 ウェハステージ 1 6上には X軸の移動鏡 4 6 X及び Y軸の移動鏡 4 6 Yが固定され、 これに対応してウェハレーザ干渉計 4 6は 4軸のレーザ干渉 計から構成されている。 図 1では、 これらの移動鏡を符号 4 6で代表し、 ウェハ レーザ干渉計を符号 48で代表する。
上記 4軸のウェハレーザ干渉計 4 8の出力は、 主制御系 1 8に供給される。 主 制御系 1 8ではレーザビーム LWX1を測長軸とする干渉計の出力 (WX1) に基づ いてウェハステージ 1 6の X位置を計測し、 レーザビーム LWY1, LWY2を測長 軸とする 2つの Y軸干渉計の出力 (Wy i, Wy2) の平均値に基づいてウェハス テ一ジ 1 6の Y位置を計測する。 主制御系 1 8は、 レーザビーム LWX1を測長軸 とする X軸干渉計の出力 (WX1) とレーザビーム LWX2を測長軸とする干渉計の 出力 (WX2) との差と、 間隔 Dとに基づいてウェハステージ 1 6の XY面内での 回転角を算出する。 また、 不図示のァライメントセンサを使用する場合の X方向 の位置は、 いわゆるアッベ誤差が生じないように、 ァライメントの検出点と干渉 計レーザビームとがー致する干渉計、 すなわちレーザビーム LWY2を使用する千 渉計の出力 (WY2) に基づいて制御される。
主制御系 1 8は、 露光時に、 例えば、 不図示のレチクル駆動装置を介してレチ クル粗動ステージ 34を、 所定の走査速度 VRで +Y方向に走査するのと同期して. 不図示のウェハ駆動装置を介してウェハステージ 1 6を— Y方向に走査速度 Vw (Vw = /3 · VR ) で走査する。 この際に生ずるレチクル粗動ステージ 34とゥ ェハステージ 1 6との相対速度誤差を吸収し、 レチクル Rとウェハ Wとの相対速 度と位置が 4 : 1になるように不図示の微動制御用の駆動装置を介してレチクル 微動ステージ 3 6の動作を制御する。 これにより、 露光光 I Lで照明されたスリ ッ ト状の照明領域 RAに対してレチクル Rが +Y方向に走査されるのと同期して、 照明領域と共役な露光領域 S Aに対してウェハ Wが投影光学系 P Lの縮小倍率に 応じた速度で一 Y方向に走査され、 レチクル Rのパターン形成面に形成されたパ ターンがウェハ W上のショット領域に逐次転写される。
さらに、 本実施例では、 主制御系 1 8にメモリ 8 8及び表示装置 9 0が併設さ れている。 表示装置 9 0としては、 例えばパーソナルコンピュータに用いられる CRTディスプレイや液晶表示装置が用いられる。
図 3には、 本実施例に係る走査型露光装置 1 0のステージ制御系 9 2のブロッ ク図が示されている。 この図 3は、 図 1の主制御系 1 8を構成するマイクロプロ セッサ 6 8と共に、 種々の制御プログラム (ソフトウェア) によって実現される 種々の機能をブロック化して示したものである。 各構成要素を対応する個々のハ ―ドウエアにて構成しても良い。
ステージ制御系 9 2は、 不図示のメインコンピュータからの指示に応じ、 ゥェ ハステージ 1 6の速度指令値 V、vを出力するスキャン速度発生器 5 1と、 このスキ ヤン速度発生器 5 1からの速度指令値 V wに基づいてウェハステージ 1 6の速度を 制御するウェハステージ速度制御系 5 2と、 速度指令値 V wを 1 /3倍 (ここでは 4倍) した速度指令値 V Rに基づいてレチクル粗動ステージ 3 4の速度を制御する レチクル粗動ステージ速度制御系 5 4と、 ウェハステージ 4 4の位置に基づき後 述する行列式を用いてレチクルの同期位置を演算する同期位置演算部 6 2と、 こ の同期位置演算部 6 2の演算結果である位置情報に基づいてレチクル微動ステ一 ジ 3 6の位置 (及び速度) を制御するレチクル微動ステージ制御系 5 6と、 ゥェ ハレ一ザ干渉計 4 8の計測値及びレチクル微動レーザ干渉計 4 0の計測値をモニ 夕するマイクロプロセッサ 6 8とを備えている。
これを更に詳述すると、 ウェハステージ速度制御系 5 2は、 例えば、 速度指令 値 V wとウェハステージ 1 6の速度との差である速度偏差を演算する減算器、 この 減算器からの速度偏差を動作信号として (比例 +積分) 制御動作を行なう P I コ ントロ一ラ等 (いずれも図示せず) を含む 1型の閉ループ制御系によって構成す ることができる。 ウェハステージ 1 6の速度は、 ウェハレーザ干渉計 4 8の計測 値の微分値から得られる。
レチクル粗動ステージ速度制御系 5 4は、 例えば、 レチクル粗動ステージ 3 4 の速度指令値 V R ( = 4 V w) とレチクル粗動ステージ 3 4の速度との差である速 度偏差を演算する減算器、 この減算器からの速度偏差を動作信号として (比例 + 積分) 制御動作を行なう P I コントローラ等 (いずれも図示せず) を含む 1型の 閉ループ制御系によって構成することができる。 レチクル粗動ステージ 3 4の速 度は、 レチクル粗動レーザ干渉計 4 2の計測値の微分値から得られる。
同期位置演算部 6 2は、 ウェハステージ速度制御系 5 2の出力を第 1積分回路 6 4で積分して得られるウェハステージの位置の情報 (W X 1 , W x 2 , W Y 1 , W Y 2 ) に基づいて、 次式 ( 1 ) で示される行列の演算を行って、 レチクル微動ステ一 ジ 3 6、 すなわちレチクル Rの位置を計測するレチクル微動レーザ干渉計 4 0の 3軸の計測値 (Rx、 RL、 RR) の目標値 (Rx' 、 RL' 、 RR' ) を演算する。 上記の位置の情報 (WX 1, WX2, WY!, WY2) は実際には、 ウェハレーザ干渉計
4 8の計測値を用いる。
•(1)
Figure imgf000014_0001
式 ( 1 ) において、 右辺第 1項の 3行 4列の行列は変換係数行列であり、 右辺 第 2項の 3行 1列の行列はオフセッ トである。
レチクル微動ステージ制御系 5 6は、 同期位置演算部 6 2で演算された位置情 報を目標位置として入力し、 この目標位置と後述する第 2積分回路 7 6の出力で あるレチクル微動ステージ 3 6の位置情報 (レチクル微動レーザ干渉計 4 0の出 力に相当) との差である位置偏差を算出する減算器 7 4、 およびこの減算器 7 4 の位置偏差を目標速度に変換する位置ループのゲイン設定器 5 8を含む。 このゲ イン設定器 5 8は、 位置偏差を動作信号として (比例 +積分) 制御動作を行なう P Iコントローラを含み、 この P I コントロ一ラによって演算される制御量を速 度に変換して出力する制御系と実質的に等価である。 またレチクル微動ステージ 制御系 5 6は、 ゲイン設定器 5 8からの出力を目標速度として制御動作を行うレ チクル微動ステージ速度制御系 6 0、 及びこのレチクル微動ステージ速度制御系 6 0の出力を積分してレチクル微動ステージの位置に変換する第 2積分回路 7 6 等から構成することができる。
ここで、 減算器 7 4では、 次式 (2 ) で示される位置偏差 Δ Rx、 Δ RL, Δ R Rが求められる。 an Sl2 an &14
a.21 Sin a23 a2
, ARR , ¾2 a33 a34
Figure imgf000015_0001
式 (2 ) の右辺第 3項の 3行 1列の行列中の各要素はレチクル微動レーザ干渉 計 4 0の実際の計測値である。
レチクル微動ステージ速度制御系 6 0は、 ゲイン設定器 5 8からの出力である 目標速度とレチクル微動ステージの速度との差である速度偏差を演算する減算器、 この減算器からの速度偏差を動作信号として (比例 +積分) 制御動作を行なう P I コントローラ (いずれも図示せず) を含んで構成される。
なお、 実際には、 ウェハステージ 1 6、 レチクル微動ステージ 3 6の位置は、 ウェハレーザ干渉計 4 8、 レチクル微動レ一ザ干渉計 4 0により直接計測され、 図 3に示すように、 ウェハステージ速度制御系 5 2、 レチクル微動ステージ速度 制御系 6 0の速度を積分して得られるものではない。 説明の便宜上及び制御プロ ック図の書き方の慣習に従って、 図 3の制御系は実際の制御系と等価である。 レチクル微動ステージ制御系 5 6の位置制御応答性を向上させようとの観点か ら、 ウェハステージ 1 6とレチクル粗動ステージ 3 4との速度誤差をレチクル微 動ステージ速度制御系 6 0にフィードフォワード入力しても良い。
上述のようにして構成された走査型露光装置 1 0によるレチクル Rとウェハ W の同期誤差のチェック動作について、 図 4を中心に、 図 5〜図 7を参照しつつ説 明する。
同期誤差チェックに先立って行われる走査露光について説明する。 不図示のレ チクルァライメント顕微鏡、 オファクシス · ァライメントセンサを用いて、 レチ クルァライメント、 ベースライン計測、 ウェハァライメントの準備作業は終了し ている。
この状態で、 上記の如く不図示のメインコンピュータからの指示に応じて、 ス キャン速度発生器 5 1からウェハステージ 1 6の速度指令値 V wが出力されると、 主制御系 1 8により前述した走査露光が開始され、 図 3のステージ制御系 9 2に よって、 例えば、 レチクル粗動ステージ 3 4が所定の走査速度 V Rで + Y方向に走 査されるのと同期してウェハステージ 1 6がー Υ方向に走査速度 V w ( V w= β · V R) で走査される。 また、 この際に生ずるレチクル粗動ステージ 3 4とウェハス テ一ジ 1 6との相対速度誤差を吸収し、 レチクル Rとウェハ Wとの相対速度と位 置が 4 : 1になるように、 レチクル微動ステージ 3 6の動作が制御される。 これ により、 露光光 I Lで照明されたスリッ ト状の照明領域 R Aに対してレチクル R が + Y方向に走査されるのと同期して、 照明領域 R Aと共役な露光領域 S Aに対 して、 ウェハ Wが投影光学系 P Lの縮小倍率に応じた速度で一 Y方向に走査され、 レチクル Rのパターン形成面に形成されたパターンがウェハ W上のショット領域 に逐次露光される。
また、 1つのショット領域の露光が終了すると、 主制御系 1 8ではウェハステ ージ 1 6を非走査方向 (X方向に) 所定距離移動して、 次のショットの露光開始 位置へのステッピング動作を行った後、 走査露光を行い、 このようにしてステツ プ · アンド ·スキヤン方式で露光を行なう。
次に同期誤差計測について説明する。 上記の走査露光中に、 マイクロプロセッ サ 6 8は、 ウェハレ一ザ干渉計 4 8の計測値 (W X 1、 W x2 , W Y 1、 WY 2) とレチ クルレーザ干渉計 4 0の計測値 (R X、 R L、 R R) とを所定のサンプリング間隔で, 同時に取り込み、 メモリ 8 8内に順次記憶する (図 4のステップ 1 0 0 ) 。 この ようにして、 マイクロプロセッサ 6 8ではレチクル Rの位置とウェハ Wの位置を モニタしている。
これを更に詳述すると、 ウェハ W上のあるショッ ト領域を露光、 すなわちレチ クルパターンを転写する際に、 レチクル Rとウェハ Wのそれぞれの位置は、 図 5 に模式的に示されるように変化する。 この図 5には、 露光開始時点である時刻 t 1 に露光領域 S Aの中心に点 P 1 があり、 以後時刻 t 2、 t 3、 ……、 t n、 …と時 間が経過するにつれてショッ ト領域の中心に点 P 2、 P 3、 ……、 P n、 ……が移動 する様子が示されている。 マイクロプロセッサ 6 8は、 時刻 t lから、 上記のゥェ ハレ一ザ干渉計 4 8の計測値及びレチクルレーザ干渉計 4 0の計測値のメモリ 8
8への取り込みを開始する。 以後所定のサンプリング間隔で時刻 t 2、 t 3、 ……、 t n、 ……ごとに計測値がメモリ 8 8へ取り込まれる。 走査露光が終了すると、 次のようにして同期誤差の演算を行う。 マイクロプロ セッサ 6 8は、 メモリ 8 8内に同時刻に記憶されているデータ (WX1、 WX2、 W YI WY2、 RX、 Rい RR) を用いて、 前述した式 (2 ) により、 同期誤差 A RX, △ RL、 A RRを演算する。 ついで、 この演算結果を用いて、 次式 (3) により、 X、 Υ、 θ (Ζ軸回りの回転方向) の各方向について、 レチクル Rとウェハ Wの 同期誤差 E R r r X、 E r r Y、 E r r 0を求める (図 4のステップ 1 0 2 ) 。
…, (3)
Figure imgf000017_0001
上記の同期誤差の演算は、 各サンプリング時のデータ毎にそれぞれ行われる。 この結果、 1 ショ ッ トの露光により、 例えば、 X、 Υ、 Θのそれぞれの方向に ついて、 図 6に示されるような同期誤差の変化を示すグラフがそれぞれ得られる。 この図 6は横軸に時間又はショット座標系の Υ軸を取り、 同期誤差を縦軸として 示したものである。 なお、 上記のような同期誤差の変化のグラフは実際にはサン プリングされた全てのショットについて求められる。
次に、 マイクロプロセッサ 6 8は、 次式 (4) 、 (5 ) を用いてウェハ W上の 任意の点 Pnが、 スリット領域としての照明領域 RA、 すなわちこれと共役な露光 領域 S Aに入ってから出るまでの間の上記誤差の平均値 (以下、 適宜 「移動平 均」 という) 及び上記同期誤差の平均値のまわりの散らばり度合としての標準偏 差 (以下、 適宜 「移動標準偏差」 という) を求める (図 4のステップ 1 0 4) 。 ここでは、 点 Pnが露光領域 S Aに入ってから出るまでの間のデータの取り込み回 数、 すなわち n番目のデータを中心に、 スリッ ト幅 (露光領域 S Aの走査方向の 幅) でデータを取り出したときのデータ数を m回とする。 n+(m-l)/2 ヽ
∑ (ErrXi)
i=n-(m-l)/2
Av(ErrX)n=
m
n+(m-l)/2
∑ (ErrYi)
i=n-(m-l)/2 (4)
Av(ErrY)n=
m
Figure imgf000018_0001
ノ 式 (4) において、 A v (E r r X) n A v (E r r Y) n A V
(E Θ ) n は、 それぞれ X Y Θ方向の移動平均を示す。
Figure imgf000018_0002
式 (5 ) において、 σ (E r r X) η > σ (E r r Y) n σ (Ε r τ θ ) π は、 それぞれ X Υ θ方向の移動標準偏差を示す。
上記の移動平均、 移動標準偏差の演算は、 各サンプリング点について行われる この結果、 1ショットの露光により、 例えば、 X Υ 0のそれぞれの方向に ついて、 図 7 Aに示されるような移動平均の変化を示すグラフ及び図 7 Bに示さ れるような移動標準偏差の変化を示すグラフがそれぞれ得られる。 これらの図は 横軸にショット座標系の Y軸を取り、 同期誤差を縦軸として示したものである。 なお、 上記のような移動平均、 移動標準偏差のグラフは実際にはサンプリングさ れた全てのショットについて求められる。 図 7 Aの横軸 P n の点に対応する点 Q は、 前述した図 6の同期誤差のグラフ中の点 P n- <m- D / 2から点 P n + (m- 1 ) / 2の区 間の平均値に相当する。
マイクロプロセッサ 6 8は、 上記のようにして得た図 7 A、 図 7 Bのグラフの ような X、 Υ、 Θ方向の演算結果をメモリ 8 8に記憶する。
次に、 上で求めた X、 Υ、 0方向の移動平均、 移動標準偏差の各デ一夕中に、 許容範囲外となるものがあるか否かを次のようにして判断する (図 4のステップ 1 0 6 ) 。 この判断は、 X、 Y、 S方向の移動平均、 移動標準偏差のそれぞれに ついて予め定められたしきい値を、 X、 Υ、 Θ方向の移動平均、 および移動標準 偏差の各々のデ一夕と比較することにより行われる。
許容範囲外となる X、 Υ、 Θ方向の移動平均、 移動標準偏差があれば、 その異 常を表示装置 9 0の表示画面上に表示して警告を発する (図 4のステップ 1 0 8 ) 。 この際、 この警告表示とともに警告音を発するようにしても良い。 この警 告表示は、 少なくとも移動平均、 移動標準偏差のいずれに異常があるかが判るよ うな表示内容であることが望ましい。 この表示内容に加え、 X、 Υ、 Θ方向のい ずれであるかが判るような情報であることがより一層望ましい。 このようにすれ ば、 オペレータは、 その異常の種類まで一目で判別できる。
一方、 許容範囲外となる X、 Υ、 0方向の移動平均、 移動標準偏差がなければ、 マイクロプロセッサ 6 8は、 上記の演算結果、 すなわち図 7 Α , 図 7 Βに示され るような X、 Υ、 0方向の移動平均、 移動標準偏差のグラフを表示装置 9 0の表 示画面上に表示する (図 4のステップ 1 1 0 ) 。 この場合の表示は、 上記の 6種 類のグラフを表示画面を分割して同時に表示するようにしても良く、 あるいはォ ペレ一夕の指示に応じて画面を切り換えて 1又は複数種類を順次表示するように しても良い。
これにより、 オペレータは、 表示画面に表示された移動平均のグラフに基づい て、 レチクル上のパターンの任意の点が本来ウェハ上に投影されるべき位置から の位置ずれ、 すなわちウェハ W上に転写されるパターン像の同期誤差に基づくデ イスト一シヨンがどの程度になるかを容易に把握できる。 その結果、 ある程度定 量的に、 レチクル Rとウェハ Wの同期誤差が像のディスト一シヨンに与える影響 を、 判別することが可能になる。
また、 オペレータは、 表示画面に表示された移動標準偏差のグラフに基づいて、 ウェハ W上に転写されるパターン像の解像度 (分解能) がどの程度になるかを容 易に把握できる。 その結果、 ある程度定量的に、 レチクル Rとウェハ Wの同期誤 差が像の分解能の劣化に与える影響を判別することが可能になる。 かかる意味か らすれば、 前述した警告表示は必ずしも行わなくても良い。
前述した X、 Y、 0のそれぞれの方向について、 図 6に示されるような同期誤 差の変化のグラフを表示画面上にそれぞれ表示するようにしても良い。 この他、 同期誤差をモニタした範囲を複数、 例えば 1 0分割して、 その各区間において算 出した X、 Υ、 Θ方向成分の同期誤差の度数分布を表示画面上に表示するように しても良い。 このような表示により、 位置ずれすなわちウェハ W上に転写される パターン像のディストーション) と、 像の分解能の劣化と、 を同時に、 ある程度 定量的に判別できるようになる。
図 4のステップ 1 0 0の干渉計計測値のモニタは、 上述の如く実際のステップ • アンド · スキャン方式の露光中に行っている。 しかしながら、 露光に先立って、 露光用照明光のレチクル R上への照射を停止した状態で、 レチクル Rとウェハ W の移動を上記露光時と同様に行いながら、 図 4のステップ 1 0 0の干渉計計測値 のモニタを行うようにしても良い。 このようにすれば、 実際に露光不良が発生す る前に、 ステージ制御に関する装置の状態を評価できる。 その結果、 その時の露 光装置の仕様から許容できない程度の像のディスト一シヨンや分解能劣化が発生 するおそれのある場合に、 露光を中止することができる。 また、 必要があれば、 装置の調整、 修理等を行った後に、 上記方法により露光用照明光のレチクル R上 への照射を停止した状態で、 上述した同期誤差の干渉計計測値をモニタする。 そ してこの結果に基づいて上記ステップ 1 0 2以降の動作を再度行い、 ステージ制 御に関する装置の状態を再度評価した後、 問題がなければ露光を再開すれば良い。 以上説明したように、 第 1の実施例に係る走査型露光装置 1 0によると、 実際 の露光後に事後的に、 又は露光前に、 レチクル Rとウェハ Wとの走査時の同期精 度を、 露光結果に与える要因別に解析することができる。
《第 2の実施例》
次に、 本発明の第 2の実施例を図 8及び図 9に基づいて説明する。 この第 2の 実施例に係る走査型露光装置は、 全体的な構成は前述した第 1の実施例とほぼ同 様であり、 ステージ制御系の構成が多少異なる。 これに応じてステージ制御系内 のマイクロプロセッサの制御アルゴリズムも異なる。 以下においては、 かかる相 違点を中心に説明するものとし、 前述した第 1の実施例と同一若しくは同等の構 成部分については同一の符号を用いるとともに、 その説明を省略若しくは簡略化 する。
図 8には、 第 2の実施例に係るステージ制御系 1 9 2の構成が示されている。 このステージ制御系 1 9 2は、 ランダム · アクセス · メモリ (R A M ) から成る 補正テ一プル 9 4をマイクロプロセッサ 6 8に併設する、 マイクロプロセッサ 6 8は、 補正テーブル 9 4の更新機能と、 補正テーブル 9 4のデータを、 レチクル 微動ステージ制御系 5 6に減算器 9 6を介して入力する機能と、 を有している。 この点のみが、 前述した第 1の実施例と異なる。
図 9には、 第 2の実施例に係る主制御系 1 8内のマイクロプロセッサ 6 8の主 要な制御アルゴリズムを示すフローチャートが示されている。 以下、 このフロー チヤ一トに沿って走査露光時の動作について説明する。
露光に先立って、 レチクルステージ 1 4とウェハステージ 1 6はファーストシ ヨットの走査開始位置へ移動している。
ステツプ 2 0 0で露光対象のショッ卜すなわちフアーストシヨットに対する走 査露光を開始する。 すなわち、 前述したように、 レチクル Rとウェハ Wの相対走 査を開始するとともに、 不図示の露光コントローラに指令を与えて、 露光光源か らの照明光の照射を開始させる。
ステップ 2 0 2で、 前述した図 4のステップ 1 0 0と同様に、 レチクル微動レ 一ザ干渉計 4 0及びウェハレーザ干渉計 4 8の計測値をモニタ、 すなわち読みと つてメモリ 8 8に記憶する。 ステップ 2 0 4では、 前述した図 4のステップ 1 0 2と同様に、 メモリ 8 8内に取り込んだデータを用いて X、 Υ、 Θ方向について 同期誤差の計算を行い、 その結果をメモリ 8 8に記憶する。 ステップ 2 0 6では、 算出した同期誤差のデータを用いて、 X、 Υ、 Θ方向について移動平均の計算を 行う。 そして、 次のステップ 2 0 8で、 当該ショットの露光が終了したか否かを 判断する。 この判断が否定された場合には、 ステップ 2 0 2〜 2 0 6の処理を繰 り返す。 露光対象ショット、 すなわちファーストショッ トの露光が終了し、 ステ ップ 2 0 8における判断が肯定されると、 不図示の露光コントローラに指令を与 えて、 露光光源からの照明光の照射を停止させる。 例えば、 光源部 2 0内のシャ ッ夕を閉じる。
ステップ 2 1 2では、 補正テ一ブル 9 4の内容を更新し、 その更新後のデータ を、 補正値としてレチクル微動ステージ 5 6に減算器 9 6を介して入力する (図 8参照) 。 ここで、 ファーストショッ トの露光終了時点では、 補正テーブル 9 4 の内部デ一夕は、 ファーストショッ トの露光の際の X , Υ , 0方向の移動平均の データ (図 7 Αに示されたようなグラフのデータ) であり、 このデ一夕は上記ス テツプ 2 0 6で演算されてメモリ内 8 8内に記憶されている。
次のステップ 2 1 4では、 全てのショッ卜の露光が終了したか否かを判断する。 この判断が否定されるとステップ 2 1 6に移行して、 次ショッ卜の走査開始位置 ヘレチクルステージ 1 4及びウェハステージ 1 6を移動する。 なお、 いわゆる交 互スキャンの塲合は、 レチクルステージの移動は不要である。 その後、 ステップ 2 0 0に戻って、 次ショッ トの走査露光を開始する。 その後、 上記のステップ 2 0 2以降の処理 ·判断を繰り返し行う。
セカンドショットでは、 補正テーブル 9 4の内容、 すなわちファーストショッ 卜の露光の際の X、 Y、 0方向の移動平均のデ一夕が、 サーポ誤差 (A R x、 Δ R L、 Δ R R) に補正値として加えられる。 ファーストショットの露光時とセカンド ショットの露光時におけるステージ 3 4、 3 6、 1 6の挙動、 すなわち動きが同 じであれば、 レチクル微動ステージ制御系 5 6によりレチクル微動ステージ 3 6 の X、 Υ、 Θ位置が同期位置演算部 6 2で演算された目標位置に正確に制御され る。 すなわち、 ステップ 2 0 8で算出される移動平均は零になる害である。 しか し、 ファーストシヨットとセカンドショットのウェハ上での位置の相違はウェハ ステージ 1 6の異なった挙動、 すなわち異なった動きを引き起こす。 またレチク ルステージ 1 4の移動方向が反対となる場合には、 ステージ移動の挙動が異なる 場合が多いので、 実際には移動平均は零とならない。
セカンドショット及びそれ以降のショッ 卜の露光が終了した時点でのステップ 2 1 2における補正テーブル 9 4の更新は、 そのショッ 卜の露光の際のステツプ 2 0 6で演算される。 すなわち、 メモリ 8 8内に記憶された X、 Y、 0方向の移 動平均のデータを、 補正テーブル 9 4内のデ一夕に加算することにより行われる。 これにより、 次ショット以降の露光の際に、 同期誤差 (残留誤差) が徐々に修正 される。
セカンドショッ卜の露光が終了して、 ステップ 2 1 4の判断が否定されると、 ステップ 2 1 6に移行し、 その後サードショッ ト、 フォースショッ ト、 フィフス ショッ ト、 ……と、 ステップ · アンド · スキャン方式で露光が行われる。 そして、 各ショッ卜の露光の度毎に更新された補正テーブル 9 4のデ一夕を用いて、 同期 誤差が順次補正される。 その結果、 パターン像の位置ずれ及び分解能の劣化が抑 制された良好な露光が全てのショッ卜領域について行われる。
そして、 全てのショットについて露光が終了すると、 本ル一チンの一連の処理 を終了する。 これまでの説明から明らかなように、 第 2の実施例では、 ステージ 制御系 1 9 2によって、 マイクロプロセッサ 6 8の演算結果に基づいて、 レチク ル Rとウェハ Wの同期誤差の特性を検出し、 この特性を補正するようにレチクル Rとウェハ Wとの移動を制御する制御系が構成されている。
以上説明した第 2の実施例の装置によると、 あるショッ卜の走査露光中に得ら れた移動平均のデータを用いて、 次ショッ 卜の走査露光中の同期誤差を補正する ことができる。 その結果、 ウェハ W上の全てのショッ トについて、 主として位置 ずれが抑制された良好なレチクルパターンの露光が可能になる。
上記第 2の実施例では、 あるショッ 卜の走査露光中に得られた移動平均のデー 夕を用いて、 次ショッ卜の走査露光中の同期誤差を補正する場合について説明し た。 これに限らず、 あるショ ッ トの走査露光中に得られた移動標準偏差のデータ を用いて、 次ショ ッ トの走査露光中の同期誤差を補正するようにしても良い。 か かる場合には、 ウェハ上の全てのショットについて、 主として分解能の低下が抑 制された良好なレチクルパターンの露光が可能になる。 あるいは、 移動平均及び 移動標準偏差のデ一夕を用いて、 次ショットの走査露光中の同期誤差を補正する ようにしても良い。
また、 上記第 2の実施例では、 あるショ ッ トの走査露光中に得られた移動平均 のデータを用いて、 次ショッ 卜の走査露光中の同期誤差を補正する場合について 説明した。 しかしながら、 補正テーブル内のデータ領域として、 各ショットに対 応したデータ領域を有する場合には、 全てのショットの露光終了後に、 その時に 得られた補正テーブル内のデータを用いて、 次ウェハの露光時に各ショット領域 の露光の際のレチクル Rとウェハ Wの同期誤差を補正するようにしても良い。 図 9のフローチャートでは、 同期誤差のデータを用いて移動平均の計算を行うよう にしたが、 1ショッ トの露光終了後にまとめて同期誤差、 移動平均を求めるよう にしても良い。 すなわち、 図 9のフローチヤ一卜のステップ 2 0 8とステップ 2 1 0の間で、 ステップ 2 0 4とステップ 2 0 6の処理をまとめて実行するように しても良い。
上記第 1、 第 2の実施例では、 本発明がステップ · アンド · スキャン方式の投 影型露光装置に適用された場合について説明した。 しかしながら、 本発明の適用 範囲がこれに限定されることはない。 これ以外の走査型露光装置、 例えばいわゆ るァライナーや液晶用の等倍の走査型露光装置等、 あるいは、 薄膜磁気ヘッ ドを 製造するための露光装置にも広く適用できる。 また、 投影光学系の倍率は縮小系 のみならず等倍および拡大系のいずれでもよい。 荷電粒子線や X線による投影露 光装置にも本発明を適用できる。
本発明に係る同期誤差解析方法は、 露光装置に限らず、 第 1物体と第 2物体と を同期して、 所定の移動方向に沿って相対移動させる、 ことを必要とする装置で あれば、 好適に適用できるものである。
なお、 マスクとウェハの同期誤差を測定して表示する露光装置、 あるいはマス クとウェハの同期誤差を測定してレチクル移動ステージの駆動制御回路にフィー ドバックする露光装置は、 本実施の形態で説明した多数の構成要素を電気的、 機 械的または化学的に連結することで組み立てられる。 具体的には、 複数のレンズ から構成される照明光学系、 投影光学系を露光装置本体に組み込み光学調整をす るとともに、 多数の機械部品からなるレチクルステージやウェハステージを露光 装置本体に取り付けて配線や配管を接続し、 更に総合調整 (電気調整、 動作確認 等) をすることにより本実施例の露光装置を製造することができる。 なお、 露光 装置の製造は温度およびクリーン度等が管理されたクリーンルームで行うことが 望ましい。

Claims

請求の範囲
1 . エネルギービームによりマスク上の所定のスリット領域を照射し、 前記マス クと非露光物体とを同期して所定の走査方向に相対移動させつつ、 前記マスクに 形成されたパターンを前記非露光物体上に露光する走査型露光方法は、
前記マスクと前記非露光物体の前記相対移動中に、 前記マスクの位置に関連す る物理量と前記非露光物体の位置に関連する物理量を計測する計測工程と ; 前記計測工程における計測結果に基づいて前記マスクと前記非露光物体との同 期誤差を演算する演算工程と ;
前記演算工程で演算された同期誤差に関する情報を表示する表示工程とを有す る。
2 . 請求項 1の走査型露光方法において、
前記演算工程は、 前記マスクを載置するマスクステージと前記非露光物体を載 置する物体ステージとの位置ずれに関する物理量を前記同期誤差として演算する
3 . 請求項 1の走査型露光方法において、
前記演算工程は、 前記非露光物体上の任意の点が前記スリツ ト領域に入ってか ら出るまでの間の前記同期誤差の平均的な値を演算する工程を含む。
4 . 請求項 3の走査型露光方法において、
前記同期誤差の平均的な値は、 前記任意の点が前記スリット領域に入ってから 出るまでの間の前記同期誤差の平均値及び前記同期誤差の平均値のまわりの散ら ばり度合の少なくとも一方を含む。
5 . 請求項 3の走査型露光方法において、
前記演算工程は、 前記非露光物体上の任意の複数の点の各々の点ごとに、 前記 同期誤差の平均的な値を演算する。
6 . 請求項 4の走査型露光方法において、
前記表示工程は、 前記同期誤差の平均値と前記同期誤差の平均値のまわりの散 らばり度合とを同時又は別々に表示する工程を含む。
7 . 請求項 4または 6の走査型露光方法において、
前記同期誤差の平均値および前記同期誤差の平均値のまわりの散らばり度合の 演算は、 前記走査方向、 これに直交する非走査方向及び回転方向に分離して行わ れる。
8 . 請求項 4 , 6および 7のいずれかの走査型露光方法において、
前記同期誤差の平均値および前記同期誤差の平均値のまわりの散らばり度合と 所定の基準値との比較結果に応じて警告を発する警告工程を更に有する。
9 . 請求項 1 ~ 8のいずれかの走査型露光方法において、
前記計測工程は前記エネルギービームの照射停止中に行う。
1 0 . 請求項 4 , 6および 7のいずれかの走査型露光方法において、
前記同期誤差の平均値および前記同期誤差の平均値のまわりの散らばり度合に 基づいて、 前記マスクと前記非露光物体の同期誤差の特性を検出し、 該特性を補 正するように前記マスクと前記非露光物体との移動を制御する制御工程を更に有 する。
1 1 . 請求項 1 0の走査型露光方法において、
前記制御工程は、 前記非露光物体上の所定のショットの計測結果により演算さ れた同期誤差の特性に基づいて、 そのショットより後のショット露光時に前記マ スクと非露光物体との相対移動制御を行う。
1 2 . 請求項 1 0または 1 1の露光方法で作成された基板。
1 3 . 照明光によりマスク上の所定のスリット領域を照明し、 前記マスクと感応 基板とを同期して所定の走査方向に相対移動させつつ、 前記マスクに形成された パターンを前記感応基板上に露光する走査型露光方法は、
前記マスクと前記感応基板の前記相対移動中に、 前記マスクの位置に関連する 物理量と前記感応基板の位置に関連する物理量を計測する計測工程と ;
前記計測工程における計測結果に基づいて前記マスクと前記感応基板との同期 誤差を演算する第 1の演算工程と ;
前記第 1の演算工程で演算された 1回の走査における同期誤差に基づいて、 前 記感応基板上の任意の複数の点の各々の点ごとに、 各点が前記スリッ ト領域に入 つてから出るまでの間の前記同期誤差の平均値及び前記同期誤差の平均値のまわ りの散らばり度合の少なくとも一方を演算する第 2の演算工程と、
前記感応基板上のすべてのショッ 卜領域に対して前記第 2の演算工程を行い、 その結果を各ショッ ト領域ごとに記憶する記憶工程と、
前記記憶工程に記憶した各ショッ トごとの記憶データに基づいて、 各ショッ 卜 の露光時に前記マスクと前記感応基板との相対移動制御を行う制御工程とを有す る。
1 4 . エネルギービームによりマスク上の所定のスリッ ト領域を照射し、 前記マ スクと非露光物体とを同期して所定の走査方向に相対移動させつつ、 前記マスク に形成されたパターンを前記非露光物体上に露光する走査型露光装置は、 前記マスクの位置に関連する物理量を計測する第 1の計測装置と ;
前記非露光物体の位置に関連する物理量を計測する第 2の計測装置と ; 前記マスクと前記非露光物体の前記相対移動中に前記第 1及び第 2の計測装置 の計測値をモニタするモニタ装置と ;
前記モニタ装置によるモニタ結果に基づいて前記マスクと前記非露光物体との 同期誤差を演算する第 1の演算装置と ;
前記第 1の演算装置で演算された同期誤差を表示する表示装置とを有する。
1 5 . 請求項 1 4の走査型露光装置において、
前記第 1の演算装置で演算された同期誤差に基づいて、 前記非露光物体上の任 意の点が前記スリッ 卜領域に入ってから出るまでの間の前記同期誤差の平均的な 値を演算する第 2の演算装置をさらに有する。
1 6 . 請求項 1 5の走査型露光装置において、
前記同期誤差の平均的な値は、 前記任意の点が前記スリツト領域に入ってから 出るまでの間の前記同期誤差の平均値及び前記同期誤差の平均値のまわりの散ら ばり度合の少なくとも一方を含む。
1 7 . 請求項 1 5の走査型露光装置において、
前記演算装置は、 前記非露光物体上の任意の複数の点の各々の点ごとに、 前記 同期誤差の平均的な値を演算する。
1 8 . 請求項 1 6の走査型露光装置において、
前記表示装置は、 前記同期誤差の平均値と前記同期誤差の平均値のまわりの散 らばり度合とを同時又は別々に表示する。
1 9 . 請求項 1 6または 1 8の走査型露光装置において、
前記第 2の演算装置による前記同期誤差の平均値、 前記同期誤差の平均値のま わりの散らばり度合の演算は、 前記走査方向、 これに直交する非走査方向及び回 転方向に分離して行われる。
2 0 . 請求項 1 4〜: 1 9のいずれかの走査型露光装置において、
前記第 2の演算装置の演算結果と所定の基準値との比較結果に応じて警告を発 する警告装置を更に有する。
2 1 . 請求項 1 4〜 1 2のいずれかの走査型露光装置において、
モニタ装置による前記モニタが、 前記エネルギービームの照射停止中に前記マ スクと前記非露光物体の前記相対移動を行ないつつ行われる。
2 2 . 請求項 1 4〜 2 1のいずれかの走査型露光装置において、
前記第 2の演算装置の演算結果に基づいて、 前記マスクと前記非露光物体の同 期誤差の特性を検出し、 該特性を補正するように前記マスクと前記非露光物体と の移動を制御する制御装置を更に有する。
2 3 . 請求項 2 2の走査型露光装置において、
前記制御装置は、 前記非露光物体上の所定のショッ 卜の計測結果により演算さ れた同期誤差の特性に基づいて、 そのショットより後のショット露光時に前記マ スクと非露光物体との相対移動制御を行う。
2 4 . 照明光によりマスク上の所定のスリット領域を照明し、 前記マスクと感応 基板とを同期して所定の走査方向に相対移動させつつ、 前記マスクに形成された パターンを前記感応基板上に露光する走査型露光装置は、
前記マスクの位置に関連する物理量を計測する第 1の計測装置と ;
前記感応基板の位置に関連する物理量を計測する第 2の計測装置と ; 前記マスクと前記感応基板の前記相対移動中に前記第 1及ぴ第 2の計測装置の 計測値をモニタするモニタ装置と ;
前記モニタ装置によるモニタ結果に基づいて前記マスクと前記感応基板との同 期誤差を演算する第 1の演算装置と ;
前記第 1の演算装置で演算された同期誤差に基づいて、 前記感応基板上の任意 の複数の点の各々の点ごとに、 各点が前記スリッ卜領域に入ってから出るまでの 間の前記同期誤差の平均値及び前記同期誤差の平均値のまわりの散らばり度合の 少なくとも一方を演算する第 2の演算装置と、
前記感応基板上のすべてのショット領域に対して前記第 2の演算装置で演算を 行い、 その結果を各ショット領域ごとに記憶する記憶装置と、
前記記憶装置に記憶した各ショッ卜ごとの前記記憶データに基づいて、 各ショ ットの露光時に前記マスクと前記感応基板との相対移動制御を行う制御装置とを 有する。
2 5 . 第 1物体と第 2物体とを同期して所定の移動方向に沿って相対移動させる 第 1工程と ;
前記相対移動中に前記第 1物体の位置に関連する物理量と前記第 2物体の位置 に関連する物理量をそれぞれ検出する第 2工程と ;
前記第 2工程の検出結果に基づいて前記第 1物体と前記第 2物体との平均的な 同期誤差に関する情報を検出する第 3工程とを含む同期誤差解析方法。
2 6 . 請求項 2 5の同期誤差解析方法において、
前記第 3工程は、 前記物理量に基づいて、 前記第 2物体の任意の点が所定区間 を通過する時間内での前記第 1物体と第 2物体との同期誤差の平均的な値を算出 する工程を含む。
2 7 . 請求項 2 6の同期誤差解析方法において、
前記平均的な値は、 前記任意の点が所定区間を通過する時間内での前記第 1物 体と第 2物体との同期誤差の平均値及び前記同期誤差の平均値のまわりの散らば り度合との少なくとも一方を含む。
2 8 . 請求項 2 6の同期誤差解析方法において、
前記第 3工程は、 前記非露光物体上の任意の複数の点の各々の点ごとに、 前記 同期誤差の平均的な値を演算する。
2 9 . エネルギービームによりマスク上の所定のスリット領域を照射し、 前記マ スクと非露光物体とを同期して所定の走査方向に相対移動させつつ、 前記マスク に形成されたパターンを前記非露光物体上に露光する走査型露光装置を組み立て る方法は、
前記マスクの位置に関連する物理量を計測する第 1の計測装置を前記マスクが 載置されるマスクステージに関して配置し ; 前記非露光物体の位置に関連する物理量を計測する第 2の計測装置を前記非露 光物体が載置される物体ステージに関連して配置し ;
前記マスクと前記非露光物体の前記相対移動中に得られる前記第 1及び第 2の 計測装置の計測結果に基づいて前記マスクと前記非露光物体との同期誤差を演算 する演算装置を前記第 1および第 2の計測装置に接続し ;
前記演算装置で演算された同期誤差を表示する表示装置を前記演算装置に接続 する。
PCT/JP1998/003558 1997-08-11 1998-08-11 Procede d'exposition par balayage, graveur par projection a balayage, procede de production du graveur par projection a balayage et procede d'analyse des erreurs de synchronisation WO1999008315A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU85622/98A AU8562298A (en) 1997-08-11 1998-08-11 Scanning exposure method, scanning aligner, method of manufacturing the scanningaligner, and synchronization error analysing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9/228837 1997-08-11
JP9228837A JPH1167655A (ja) 1997-08-11 1997-08-11 走査型露光装置及び同期誤差解析方法

Publications (1)

Publication Number Publication Date
WO1999008315A1 true WO1999008315A1 (fr) 1999-02-18

Family

ID=16882644

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/003558 WO1999008315A1 (fr) 1997-08-11 1998-08-11 Procede d'exposition par balayage, graveur par projection a balayage, procede de production du graveur par projection a balayage et procede d'analyse des erreurs de synchronisation

Country Status (3)

Country Link
JP (1) JPH1167655A (ja)
AU (1) AU8562298A (ja)
WO (1) WO1999008315A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1879217A1 (en) * 2005-03-18 2008-01-16 Nikon Corporation Exposure method, exposure apparatus, device manufacturing method and exposure apparatus evaluating method
US7692764B2 (en) 2004-08-30 2010-04-06 Nikon Corporation Exposure apparatus, operation decision method, substrate processing system, maintenance management method, and device manufacturing method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5002704B2 (ja) * 1999-11-30 2012-08-15 キヤノン株式会社 投影露光装置、投影露光方法、及び半導体装置の製造方法
JP2001223157A (ja) * 1999-11-30 2001-08-17 Canon Inc 投影露光装置、投影露光方法、及び半導体装置の製造方法
JP2001166456A (ja) 1999-12-07 2001-06-22 Mitsubishi Electric Corp ウェハパターン誤差の要因解析方法および写真製版用マスクの製造装置
WO2005008752A1 (ja) * 2003-07-23 2005-01-27 Nikon Corporation 露光装置、露光方法及びデバイス製造方法
NL2005719A (en) 2009-12-18 2011-06-21 Asml Netherlands Bv Method of measuring properties of dynamic positioning errors in a lithographic apparatus, data processing apparatus, and computer program product.

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0969481A (ja) * 1995-08-31 1997-03-11 Canon Inc 同期スキャン制御装置
JPH0974059A (ja) * 1995-09-04 1997-03-18 Canon Inc 精密制御装置
JPH09115799A (ja) * 1995-10-16 1997-05-02 Nikon Corp 走査型露光装置
JPH09186075A (ja) * 1996-01-05 1997-07-15 Canon Inc 走査型露光装置
JPH09199399A (ja) * 1996-01-12 1997-07-31 Canon Inc 同期制御装置および方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0969481A (ja) * 1995-08-31 1997-03-11 Canon Inc 同期スキャン制御装置
JPH0974059A (ja) * 1995-09-04 1997-03-18 Canon Inc 精密制御装置
JPH09115799A (ja) * 1995-10-16 1997-05-02 Nikon Corp 走査型露光装置
JPH09186075A (ja) * 1996-01-05 1997-07-15 Canon Inc 走査型露光装置
JPH09199399A (ja) * 1996-01-12 1997-07-31 Canon Inc 同期制御装置および方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7692764B2 (en) 2004-08-30 2010-04-06 Nikon Corporation Exposure apparatus, operation decision method, substrate processing system, maintenance management method, and device manufacturing method
EP1879217A1 (en) * 2005-03-18 2008-01-16 Nikon Corporation Exposure method, exposure apparatus, device manufacturing method and exposure apparatus evaluating method
EP1879217A4 (en) * 2005-03-18 2010-06-09 Nikon Corp EXPOSURE METHOD, EXPOSURE APPARATUS, DEVICE MANUFACTURING METHOD, AND EXPOSURE APPARATUS EVALUATION METHOD
US8638422B2 (en) 2005-03-18 2014-01-28 Nikon Corporation Exposure method, exposure apparatus, method for producing device, and method for evaluating exposure apparatus

Also Published As

Publication number Publication date
AU8562298A (en) 1999-03-01
JPH1167655A (ja) 1999-03-09

Similar Documents

Publication Publication Date Title
US5811211A (en) Peripheral edge exposure method
EP0843221B1 (en) Projection exposure apparatus
US6992751B2 (en) Scanning exposure apparatus
US7518717B2 (en) Exposure apparatus and a device manufacturing method using the same
JPH0548614B2 (ja)
JP2646412B2 (ja) 露光装置
JPH10223528A (ja) 投影露光装置及び位置合わせ方法
JP5147865B2 (ja) デバイス製造方法、リソグラフィ装置およびコンピュータプログラム
JP2007096069A (ja) 位置合わせ方法、重ね合わせ精度計測方法、露光方法、位置合わせ装置、露光装置、及び重ね合わせ精度計測装置
WO1999008315A1 (fr) Procede d&#39;exposition par balayage, graveur par projection a balayage, procede de production du graveur par projection a balayage et procede d&#39;analyse des erreurs de synchronisation
US20050219532A1 (en) System and method for verifying and controlling the performance of a maskless lithography tool
JPH10284396A (ja) アライメント方法及び重ね合わせ精度計測方法
JPH1050600A (ja) 投影露光方法及び投影露光装置
JPH1083954A (ja) 露光装置
JP2003197509A (ja) 異常検出方法、露光方法及び露光装置、並びにデバイス製造方法
JP2006030021A (ja) 位置検出装置及び位置検出方法
US6798516B1 (en) Projection exposure apparatus having compact substrate stage
JPH11274027A (ja) ステージ装置の特性計測方法及び該方法を使用する露光装置
US20020021433A1 (en) scanning exposure apparatus
JP2873748B2 (ja) 半導体製造装置
JP2003142365A (ja) 露光装置及び露光方法
JP2002015992A (ja) リソグラフィ・プロセス及びリソグラフィ・システムの評価方法、基板処理装置の調整方法、リソグラフィ・システム、露光方法及び装置、並びに感光材料の状態の測定方法
JP4332891B2 (ja) 位置検出装置、位置検出方法、及び露光方法、並びにデバイス製造方法
JPH10335234A (ja) 投影露光装置
JP2004087562A (ja) 位置検出方法及びその装置、露光方法及びその装置、並びにデバイス製造方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AL AM AT AU AZ BA BB BG BR BY CA CH CN CU CZ DE DK EE ES FI GB GE GH GM HR HU ID IL IS KE KG KR KZ LC LK LR LS LT LU LV MD MG MK MN MW MX NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT UA UG US UZ VN YU ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW SD SZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09501661

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: KR

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: CA