WO2024070047A1 - 露光装置および露光装置におけるビーム間隔計測方法 - Google Patents

露光装置および露光装置におけるビーム間隔計測方法 Download PDF

Info

Publication number
WO2024070047A1
WO2024070047A1 PCT/JP2023/019357 JP2023019357W WO2024070047A1 WO 2024070047 A1 WO2024070047 A1 WO 2024070047A1 JP 2023019357 W JP2023019357 W JP 2023019357W WO 2024070047 A1 WO2024070047 A1 WO 2024070047A1
Authority
WO
WIPO (PCT)
Prior art keywords
exposure
stage
unit
exposure head
head
Prior art date
Application number
PCT/JP2023/019357
Other languages
English (en)
French (fr)
Inventor
拓也 川島
稔 水端
大介 磯
Original Assignee
株式会社Screenホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Screenホールディングス filed Critical 株式会社Screenホールディングス
Publication of WO2024070047A1 publication Critical patent/WO2024070047A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/20Exposure; Apparatus therefor

Definitions

  • This invention relates to a technique for exposing a substrate to light in order to draw a pattern on the substrate, such as a semiconductor substrate, a semiconductor package substrate, a printed wiring board, or a glass substrate.
  • Patent Document 1 describes an exposure device that draws a predetermined pattern on a substrate by irradiating the substrate with a light beam modulated according to the pattern to be drawn.
  • an observation optical system including a camera is provided to the side of the stage.
  • This observation optical system receives the light beam to be incident on the substrate and outputs information useful for determining the focus adjustment amount of the projection optical system, calibrating the optical modulator, etc.
  • this type of exposure device has come to be equipped with multiple exposure heads, each of which emits an exposure beam. This aims to shorten processing time by exposing a single substrate in parallel with multiple exposure heads. In this case, since the exposure of a single substrate is shared among multiple exposure heads, it is necessary to prevent discontinuity at the boundaries between the areas each is responsible for.
  • This invention was developed in consideration of the above problems, and aims to provide a technology that does not require a large stage movement stroke even when the number of exposure heads is increased, and can achieve this at low cost.
  • One aspect of the present invention is a beam spacing measurement method for measuring the spacing between exposure beams emitted by each of a plurality of exposure heads in an exposure device that exposes a substrate with the exposure beam.
  • the exposure device has a first exposure head, a second exposure head, and a third exposure head as the exposure heads aligned along a first direction, a stage that holds the substrate, and a scanning movement unit that moves the stage in a scanning manner.
  • the method includes the following first to fifth steps.
  • the scanning movement unit moves the photoreceiver integrally with the stage, and the photoreceiver receives the exposure beam at each of the positions where the exposure beam emitted from the first exposure head is incident and the exposure beam emitted from the second exposure head is incident.
  • the distance between the exposure beam emitted by the first exposure head and the exposure beam emitted by the second exposure head is calculated based on the position where the exposure beam from the first exposure head is incident on the photoreceiver in the first step, the position where the exposure beam from the second exposure head is incident on the photoreceiver, and the amount of movement of the photoreceiver by the scanning movement unit.
  • the photoreceiver is moved toward the third exposure head along the first direction relative to the stage.
  • the scanning movement unit moves the photoreceiver integrally with the stage, and the photoreceiver receives the exposure beam at each of the positions where the exposure beam emitted from the second exposure head is incident and the exposure beam emitted from the third exposure head is incident.
  • the distance between the exposure beam emitted by the second exposure head and the exposure beam emitted by the third exposure head is calculated based on the incident position of the exposure beam from the second exposure head on the photoreceiver, the incident position of the exposure beam from the third exposure head on the photoreceiver in the fourth step, and the movement amount of the photoreceiver by the scanning movement unit.
  • the exposure beams emitted from each of the multiple exposure heads are made to enter a photoreceiver, and the beam spacing is calculated.
  • the photoreceiver is moved integrally with the stage by a scanning movement unit that moves the stage in a scanning manner, and the exposure beams emitted from the first exposure head and the second exposure head are individually received.
  • a relatively small photoreceiver can be used.
  • the scanning movement unit used for scanning movement when exposing a substrate has high positional accuracy to ensure exposure quality. For this reason, it is expected that by moving the photoreceiver with the scanning movement unit, the amount of movement can be determined with high precision. In other words, by determining the incident position of the exposure beam on the photoreceiver when it receives the exposure beams emitted from the first exposure head and the second exposure head, respectively, and the amount by which the photoreceiver is moved when receiving these beams, the spacing between the exposure beams in real space can be determined with high precision.
  • the receiver is moved in advance relative to the stage.
  • the receiver is moved in the first direction, which is the arrangement direction of the exposure heads, toward the third exposure head.
  • the photoreceiver is again moved by the scanning movement unit.
  • the photoreceiver is moved in advance to a position close to the third exposure head relative to the stage, the amount of stage movement required to move the photoreceiver to a position corresponding to the third exposure head will not be very large.
  • the photoreceiver were installed in a fixed position relative to the stage, the amount of stage movement required to move the photoreceiver to positions corresponding to all of the exposure heads would be extremely large. This would lead to an increase in the size of the device.
  • the photoreceiver is movable relative to the stage, and can be moved to the exposure head side that is the target of receiving the exposure beam before receiving the exposure beam.
  • This allows for a small stage movement stroke.
  • the amount of movement of the photoreceiver which is a value required when calculating the spacing between exposure beams, can be calculated using a highly accurate scanning movement unit, while the movement of the photoreceiver relative to the stage simply changes the initial position in the measurement and does not affect the measurement accuracy. This means that there is no need to use a highly accurate and expensive movement mechanism, and increases in equipment costs can be suppressed. Considering that the device can be prevented from becoming larger, it can be said that this actually contributes to reducing equipment costs.
  • the required amount of stage movement stroke is approximately the same as the arrangement pitch, regardless of the number of exposure heads arranged. Therefore, even if the number of exposure heads increases, there is no need to increase the stage stroke, resulting in significant cost reduction effects.
  • an exposure apparatus comprising a stage that supports a substrate in a horizontal position, an exposure section having three or more exposure heads arranged in a horizontal first direction, each of the exposure heads emitting an exposure beam toward the stage, a scanning movement section that moves the stage in the horizontal direction to scan the exposure beam over the substrate, and a measurement section that measures the distance between the exposure beams emitted from each of the exposure heads, the measurement section having a photoreceiver that receives the exposure beam, a photoreceiver support section that is integral with the stage and supports the photoreceiver and is capable of moving the photoreceiver in the first direction relative to the stage, and a distance calculation section that calculates the distance between the exposure beams emitted by each of the multiple exposure heads.
  • the photoreceiver can be moved integrally with the stage by the scanning movement unit, and can be moved relative to the stage by the photoreceiver support unit. By combining these movements, it is possible to make the exposure beams emitted from each exposure head incident on the photoreceiver without increasing the movement stroke of the stage. Furthermore, by applying movement by the scanning movement unit to measurements that require high positional accuracy, high measurement accuracy can be ensured.
  • the movement of the photoreceiver which affects the measurement accuracy, is performed by a highly accurate scanning movement unit, and this is combined with the movement of the photoreceiver relative to the stage, so there is no need to increase the movement stroke of the stage during measurement. Therefore, even if the number of exposure heads increases, the device does not become larger in size in order to measure the spacing between the exposure beams, and device costs can be reduced.
  • FIG. 1 is a front view showing a schematic configuration of an exposure apparatus according to the present invention
  • 2 is a block diagram showing an example of an electrical configuration of the exposure apparatus in FIG. 1 .
  • This is a view of the exposure apparatus as seen in the Y direction.
  • This is a view of the exposure apparatus as seen in the Y direction.
  • FIG. 2 is a perspective view showing a stage and an observation unit.
  • 13 is a flowchart showing a beam interval calculation process.
  • FIG. 13 is a diagram showing the positional relationship of each part during this processing.
  • FIG. 13 is a diagram showing the positional relationship of each part during this processing.
  • FIG. 13 is a diagram showing the positional relationship of each part during this processing.
  • FIG. 13 is a diagram showing the positional relationship of each part during this processing.
  • FIG. 13 is a diagram showing the positional relationship of each part during this processing.
  • FIG. 13 is a diagram showing the positional relationship of each part during this processing.
  • FIG. 11 is a diagram showing a beam position correction process.
  • FIG. 11 is a diagram showing a beam position correction process.
  • FIG. 13 is a diagram showing the positional relationship of each part in a second loop process.
  • FIG. 13 is a diagram showing the positional relationship of each part in a second loop process.
  • FIG. 13 is a diagram showing the positional relationship of each part in a second loop process.
  • 4A and 4B are diagrams showing the manner in which a stage and an observation camera move.
  • FIG. 1 is a diagram illustrating the principle of a beam spacing calculation method.
  • FIG. 1 is a diagram illustrating the principle of a beam spacing calculation method.
  • 13A and 13B are diagrams showing the manner in which the stage and the observation camera move in a modified example.
  • FIG. 1 is a front view showing a schematic configuration of an exposure device according to the present invention
  • FIG. 2 is a block diagram showing an example of the electrical configuration of the exposure device of FIG. 1.
  • the X direction which is the horizontal direction
  • the Y direction which is the horizontal direction perpendicular to the X direction
  • the Z direction which is the vertical direction
  • the rotation direction ⁇ about a rotation axis parallel to the Z direction are shown as appropriate.
  • the exposure device 1 draws a pattern on a photosensitive material such as resist by irradiating a substrate S (substrate to be exposed) with a laser beam of a predetermined pattern.
  • a substrate S substrate to be exposed
  • various substrates such as semiconductor substrates, semiconductor package substrates, printed wiring substrates, and glass substrates for various display devices can be used.
  • the exposure device 1 has a main body 11, which is composed of a main body frame 111 and a cover panel (not shown) attached to the main body frame 111. Various components of the exposure device 1 are arranged both inside and outside the main body 11.
  • the inside of the main body 11 of the exposure apparatus 1 is divided into a processing area 112 and a transfer area 113.
  • the processing area 112 mainly, the stage 2, the stage driving mechanism 3, the exposure unit 4, the alignment unit 5, and the observation unit 8 are arranged on the base part 100.
  • an illumination unit 6 that supplies illumination light to the alignment unit 5 is arranged outside the main body 11.
  • a transport device 7 such as a transport robot that transports the substrate S to and from the processing area 112 is arranged.
  • a control unit 9 is arranged inside the main body 11. The control unit 9 is electrically connected to each part of the exposure apparatus 1 and controls the operation of each of these parts.
  • the transport device 7 arranged in the transfer area 113 inside the main body 11 receives unprocessed substrates S from an external transport device or substrate storage device (not shown) and transports (loads) them into the processing area 112. It also unloads processed substrates S from the processing area 112 and sends them out to the outside. The loading of unprocessed substrates S and unloading of processed substrates S are performed by the transport device 7 in response to instructions from the control unit 9.
  • the stage 2 has a flat plate-like outer shape and holds the substrate S placed on its upper surface in a horizontal position.
  • a number of suction holes are formed in the upper surface of the stage 2. By applying negative pressure (suction pressure) to these suction holes, the substrate S placed on the stage 2 is fixed to the upper surface of the stage 2.
  • the stage 2 is driven by a stage driving mechanism 3.
  • the stage driving mechanism 3 is an X-Y-Z- ⁇ driving mechanism that moves the stage 2 in the Y direction (main scanning direction), X direction (sub-scanning direction), Z direction, and rotational direction ⁇ (yaw direction).
  • the stage driving mechanism 3 has a Y-axis robot 31, which is a single-axis robot extending in the Y direction, a Y moving table 32 driven in the Y direction by the Y-axis robot 31, an X-axis robot 33, which is a single-axis robot extending in the X direction on the upper surface of the Y moving table 32, an X moving table 34 driven in the X direction by the X-axis robot 33, and a ⁇ -axis robot 35 that drives the stage 2 supported on the upper surface of the X moving table 34 in the rotational direction ⁇ relative to the X moving table 34.
  • the stage driving mechanism 3 can therefore drive the stage 2 in the Y direction by the Y-axis servo motor of the Y-axis robot 31, drive the stage 2 in the X direction by the X-axis servo motor of the X-axis robot 33, and drive the stage 2 in the rotational direction ⁇ by the ⁇ -axis servo motor of the ⁇ -axis robot 35. These servo motors are not shown.
  • the stage driving mechanism 3 can also drive the stage 2 in the Z direction by the Z-axis robot 37.
  • the stage driving mechanism 3 moves the substrate S placed on the stage 2 by operating the Y-axis robot 31, X-axis robot 33, ⁇ -axis robot 35, and Z-axis robot 37 in response to commands from the control unit 9.
  • the Y-axis robot 31 and the X-axis robot 33 are provided with position sensors 311, 331 for detecting the amount of movement of an object to be moved.
  • the position sensors 311, 331 can be, for example, a combination of a linear scale and a linear encoder, but are not limited to this.
  • the position sensor 311 detects the position in the Y direction of the Y movement table 32 that is moved in the Y direction by the Y-axis robot 31.
  • the position sensor 331 detects the position in the X direction of the X movement table 34 that is moved in the X direction by the X-axis robot 33.
  • the outputs of these position sensors 311, 331 are input to the control unit 9.
  • the exposure unit 4 has an exposure head 41 arranged above the substrate S on the stage 2, and a light irradiation unit 40 that includes a light source drive unit 42, a laser emission unit 43, and an illumination optical system 44 and irradiates the exposure head 41 with laser light.
  • a plurality of exposure units 4 are provided at different positions in the X direction.
  • the laser light emitted from the laser emission unit 43 by the operation of the light source drive unit 42 is irradiated to the exposure head 41 via the illumination optical system 44.
  • the exposure head 41 modulates the laser light irradiated from the light irradiation unit using a spatial light modulator (hereinafter sometimes simply referred to as "light modulator") 400, and irradiates it onto the substrate S moving directly below it. In this way, the substrate S is exposed to the laser light beam, and a pattern is drawn on the substrate S (exposure operation).
  • the alignment unit 5 has an alignment camera 51 that is placed above the substrate S on the stage 2.
  • This alignment camera 51 has a lens barrel, an objective lens, and a CCD image sensor, and captures an image of an alignment mark provided on the top surface of the substrate S that moves directly below it.
  • the CCD image sensor provided in the alignment camera 51 is composed of, for example, an area image sensor (two-dimensional image sensor).
  • the lighting unit 6 is connected to the lens barrel of the alignment camera 51 via an optical fiber 61, and supplies illumination light to the alignment camera 51.
  • the illumination light guided by the optical fiber 61 extending from the lighting unit 6 is guided to the top surface of the substrate S via the lens barrel of the alignment camera 51.
  • the light reflected from the substrate S is incident on the CCD image sensor via the objective lens. This results in an image of the top surface of the substrate S being captured.
  • the alignment camera 51 is electrically connected to the control unit 9, and captures the captured image in response to instructions from the control unit 9, and transmits this captured image to the control unit 9.
  • the observation unit 8 moves to a position directly below the exposure head 41 as necessary and receives the laser light beam (exposure beam) emitted from the exposure head 41.
  • the received light results are sent to the control unit 9 and used for various adjustment processes.
  • the observation unit 8 is used for focus adjustment of the exposure head 41 and for measuring the intervals between the exposure beams emitted from each of the multiple exposure heads 41.
  • the observation unit 8 includes an observation camera 81 that captures the image formed by the exposure beam, and a camera drive mechanism 82 that moves the observation camera 81 in the X direction.
  • the control unit 9 acquires the position of the alignment mark indicated by the image captured by the alignment camera 51.
  • the control unit 9 also controls the exposure unit 4 based on the position of the alignment mark, thereby adjusting the pattern of the laser light irradiated from the exposure head 41 to the substrate S during the exposure operation.
  • the control unit 9 then draws the pattern on the substrate S by irradiating the substrate S with laser light modulated according to the pattern to be drawn from the exposure head 41.
  • the control unit 9 also adjusts the focus of the exposure head 41 using a signal provided by the observation unit 8. That is, the control unit 9 adjusts the projection optical system of the exposure head 41 so that the exposure beam received by the observation camera 81 of the observation unit 8 forms the clearest image. This optimizes the focus position of the exposure head 41. Furthermore, in cases where there are multiple exposure heads 41, the control unit 9 measures the intervals between the exposure beams emitted by these exposure heads 41 and incident on the substrate S. This process will be described later.
  • the control unit 9 realizes various processes by controlling the operation of each unit described above.
  • the control unit 9 is equipped with a CPU (Central Processing Unit) 91, a memory (RAM) 92, a storage 93, an input unit 94, a display unit 95, and an interface unit 96.
  • the CPU 91 reads out and executes a control program 931 previously stored in the storage 93, and performs various operations described below.
  • the memory 92 stores data used for arithmetic processing by the CPU 91 or data generated as a result of the arithmetic processing in the short term.
  • the storage 93 stores various data and control programs in the long term.
  • the storage 93 is a non-volatile storage device such as a flash memory storage device or a hard disk drive device.
  • CAD Computer Aided Design
  • the storage 93 stores, for example, CAD (Computer Aided Design) data 932, which is design data representing the contents of the pattern to be drawn.
  • the input unit 94 accepts operational input from the user. For this purpose, it has appropriate input devices (not shown), such as a keyboard, mouse, or touch panel.
  • the display unit 95 notifies the user by displaying and outputting various information. For this purpose, it has an appropriate display device, such as a liquid crystal display panel.
  • the interface unit 96 is responsible for communication with an external device. For example, the interface unit 96 functions when the exposure apparatus 1 receives a control program 931 and CAD data 932 from the outside. For this purpose, the interface unit 96 may have a function for reading data from an external recording medium.
  • the CPU 91 executes the control program 931 to implement, in software, functional blocks such as an exposure data generation unit 911, an exposure control unit 912, a focus control unit 913, a stage control unit 914, and a spacing calculation unit 915. Note that each of these functional blocks may be implemented, at least in part, by dedicated hardware.
  • the exposure data generation unit 911 generates exposure data for modulating the light beam according to the pattern, based on the CAD data 932 read from the storage 93. If the substrate S is deformed, such as distorted, the exposure data generation unit 911 corrects the exposure data according to the amount of distortion of the substrate S. In this way, it becomes possible to draw according to the shape of the substrate S.
  • the exposure data is sent to the exposure head 41.
  • the exposure head 41 modulates the laser light emitted from the light irradiation unit 40 according to the exposure data.
  • the modulated light beam thus modulated according to the pattern is irradiated onto the substrate S, and the surface of the substrate S is partially exposed to draw the pattern.
  • the exposure control unit 912 controls the light irradiation unit 40 to emit a laser light beam having a predetermined power and spot size.
  • the focus control unit 913 controls the projection optical system provided in the exposure head 41 to focus the laser light beam on the surface of the substrate S.
  • the stage control unit 914 controls the stage drive mechanism 3 to realize the movement of the stage 2 for alignment adjustment and the movement of the stage 2 for scanning movement during exposure.
  • the position of the stage 2 is adjusted in the X direction, Y direction, Z direction, and ⁇ direction so that the relative positional relationship between the substrate S placed on the stage 2 and the exposure head 41 at the start of exposure is a predetermined relationship.
  • the scanning movement a main scanning movement in which the stage 2 is moved in the Y direction at a constant speed to pass the substrate S under the exposure head 41 is combined with a step feed (sub-scanning movement) in the X direction at a constant pitch.
  • the interval calculation unit 915 calculates the interval between the exposure beams emitted by each of the multiple exposure heads 41 based on the image capture results captured by the observation camera 81 of the observation unit 8.
  • Figures 3A and 3B are views of this exposure apparatus as seen in the Y direction.
  • a transport device 7 is disposed on the (+Y) side of the stage 2 and stage drive mechanism 3, but is not shown in Figures 3A and 3B.
  • Figure 3A shows the state in which the observation unit 8 has been removed from Figure 3B.
  • a gantry-shaped support frame 101 is attached to the base portion 100 so as to straddle the stage driving mechanism 3 and the stage 2 supported by it in the X direction.
  • a plurality of exposure heads 41 are attached to this support frame 101 and aligned at approximately equal intervals along the X direction.
  • five exposure heads 41 411-415 are provided, but the number of heads is not limited to this and can be any number.
  • These exposure heads 411-415 have the same structure. Furthermore, their relative positions are fixed, and they move together relative to the substrate S during scanning movement.
  • Exposure of one substrate S is performed using these five exposure heads 41 (411-415).
  • the surface of the substrate S is divided into five areas, and one exposure head 41 is responsible for exposing one of these areas. This makes it possible to shorten the time required to expose the substrate S.
  • the spacing between the exposure beams is measured using the observation unit 8.
  • the observation unit 8 is provided on the (+Y) side of the stage 2.
  • the components of the stage 2 and the stage drive mechanism 3 that are on the (-Y) side of the observation unit 8 are differentiated by dots. Specifically, dots are added to the stage 2, the X moving table 34, the ⁇ -axis robot 35, and the Z-axis robot 37. The same applies to the following figures.
  • the observation unit 8 has an observation camera 81 that is arranged with its imaging direction facing upward, and a camera drive mechanism 82 that supports the observation camera 81 while moving it in the X direction.
  • an image receiving surface made of, for example, glass is provided at the upper end of the observation camera 81's lens barrel.
  • the Z direction position of the image receiving surface is set to approximately the same height as the upper surface of the substrate S placed on the stage 2. Therefore, an image is formed on the image receiving surface that is approximately the same as the image formed on the upper surface of the substrate S by the exposure beams emitted from each exposure head 41. In other words, it can be said that the observation camera 81 indirectly observes the image formed on the substrate S.
  • the camera drive mechanism 82 can be an appropriate linear motion mechanism, such as a linear motor, a ball screw mechanism, a rack and pinion mechanism, a belt drive mechanism, or a chain drive mechanism. As described below, high positioning precision is not required when moving the observation camera 81 by the camera drive mechanism 82.
  • Figure 4 is a perspective view showing the stage and observation unit attached to the X-movement table.
  • the camera drive mechanism 82 is attached to the X-movement table 34 of the stage drive mechanism 3 via an appropriate support member 83, and is extended in the X direction. Therefore, when the X-movement table 34 is moved in the X direction by the stage drive mechanism 3, the camera drive mechanism 82 moves in the X direction integrally with the stage 2.
  • the X-movement table 34 is also placed on the Y-movement table 32. Therefore, when the Y-movement table 32 moves in the Y direction, the X-movement table 34, stage 2, and camera drive mechanism 82 move integrally in the Y direction.
  • the observation camera 81 also moves together with the camera drive mechanism 82.
  • the observation camera 81 moves in the X direction relative to the X movement table 34. Therefore, the observation camera 81 can move in the X direction independently of the stage 2.
  • the movement modes of the observation camera 81 include a mode in which it moves in the X and Y directions integrally with the stage 2 by operation of the stage drive mechanism 3, and a mode in which it moves in the X direction independently of the stage 2 by operation of the camera drive mechanism 82.
  • the range of movement in the X direction of the observation camera 81 achieved by the camera drive mechanism 82 covers the range in which the exposure beam can be received for all of the exposure heads 511 to 514.
  • this is not an essential requirement. This is because, by combining this with the movement of the X movement table 34, the observation camera 81 can be moved beyond the range of movement of the camera drive mechanism 82 alone.
  • FIG. 5 is a flow chart showing the beam spacing calculation process. Also, FIGS. 6 to 8B are diagrams showing the positional relationships of the various parts during this process.
  • the stage driving mechanism 3 moves the stage 2 in the Y direction, and positions it at a position that has been determined in advance as the measurement position in the Y direction (step S101).
  • FIG. 6 shows the measurement position of the stage 2 in the Y direction.
  • This measurement position is determined so that the optical path of the exposure beam L emitted from each exposure head 41 and the optical axis of the observation camera 81 roughly coincide in the Y direction. Note that it is not essential that the optical path of the exposure beam L and the optical axis of the observation camera 81 coincide. It is sufficient that a positional relationship is ensured in which the exposure beam L is incident on the observation camera 81 when the X-direction position of the observation camera 81 is appropriately adjusted.
  • the position in the X direction is not particularly limited as long as it is possible to realize the stage movement in the X direction described below. For example, it can be positioned in the center of the movable range.
  • an internal parameter N for processing is set to 1 (step S102).
  • This internal parameter N is a parameter for distinguishing between the exposure heads 411 to 415. That is, in the following, in order to distinguish between the exposure heads 411, 412, ..., they will be referred to as the "first exposure head”, “second exposure head”, ..., respectively. These can be expressed as the "Nth exposure head” using the parameter N.
  • the camera drive mechanism 82 is operated to move and position the observation camera 81 to the predetermined Nth measurement position (step S103). Since the parameter N is 1 in this case, the observation camera 81 is positioned at the first measurement position.
  • FIG. 7A shows an example of the first measurement position.
  • the first measurement position is a position of the observation camera 81 where the optical axis of the observation camera 81, indicated by a dashed line, is located between the optical path of the exposure beam L1 emitted by the first exposure head 411 of the multiple exposure heads 41 and the optical path of the exposure beam L2 emitted by the adjacent second exposure head 412.
  • the first measurement position can be the midpoint between the optical paths of the exposure beam L1 and the exposure beam L2, but this is not a required requirement.
  • the X-axis robot 33 of the stage driving mechanism 3 moves the X-moving table 34 in the (+X) direction.
  • the camera driving mechanism 82 is not activated, and therefore the observation camera 81 moves integrally with the stage 2.
  • Figure 7B shows this state.
  • the observation camera 81 is located directly below the first exposure head 411, and when an exposure beam is emitted from the first exposure head 411, the exposure beam L1 should be incident on the observation camera 81.
  • an exposure beam L1 corresponding to a predetermined test pattern is emitted from the first exposure head 411.
  • An image corresponding to the test pattern is projected onto the image receiving surface of the observation camera 81, and this image is captured by the observation camera 81 (step S105). In this manner, the first test pattern formed by the first exposure head 411 is captured.
  • the X-axis robot 33 of the stage drive mechanism 3 moves the X-movement table 34 in the (-X) direction to move and position the observation camera 81 from the position directly below the Nth, i.e., first exposure head 411, to the position directly below the (N+1)th, i.e., second exposure head 412 (step S106). Then, as in step S105, the second exposure head 412 emits an exposure beam L2 for forming a test pattern, and an image of the test pattern projected onto the image receiving surface of the observation camera 81 is captured (step S107).
  • the spacing calculation unit 915 calculates the spacing between the exposure beams L1 and L2 between the first exposure head 411 and the second exposure head 412 (step S108). Specifically, the beam spacing Dx in the X direction and the beam spacing Dy in the Y direction are found. The calculation method will be described later.
  • the determined beam spacing Dx, Dy is compared with a predetermined set value to determine whether correction is required (step S109). If the deviation between the determined beam spacing Dx, Dy and the set value is within the allowable range, it is determined that correction is not required (NO in step S109). On the other hand, if there is a deviation that exceeds the allowable range, it is determined that correction is required (YES in step S109). If necessary, the beam position is corrected (step S110).
  • FIGS. 8A and 8B are diagrams illustrating the beam position correction process.
  • FIG. 8A shows an example of an optical system capable of beam position correction.
  • an optical element for shifting the optical path for example, a wedge prism 401
  • the outgoing light travels an optical path that is parallel to but not identical to the incident light. This shifts the optical path.
  • the beam position can be corrected. Specifically, for example, it can be done as follows.
  • FIG. 8B is a flowchart showing the beam position correction process.
  • the amount of movement required for the wedge prism 401 is calculated based on the determined amount of deviation (step S301).
  • the wedge prism 401 is driven based on the determined amount of movement to change the inter-prism distance (step S302).
  • an image of the test pattern is formed again and captured by the observation camera 81 (step S303).
  • step S304 The position of the test pattern is detected from the image obtained by imaging, and the amount of deviation in the beam spacing after correction is re-evaluated from the result (step S304). If the amount of deviation is within the allowable range (YES in step S305), the correction process ends. On the other hand, if the amount of deviation still exceeds the allowable range (NO in step S305), the process returns to step S301, and the above process is repeated until the deviation converges.
  • a plane-parallel plate for example, can be used as an optical element for shifting the optical path.
  • the positional deviation Dy in the Y direction which is the main scanning direction, can be corrected mechanically or optically, but it is also possible to correct the positional deviation by adjusting the exposure timing.
  • step S111 of FIG. 5 it is determined whether the calculation of the intervals between all exposure beams has been completed. For example, this can be determined based on the value of parameter N. If the calculation has been completed between all exposure beams (YES in step S111), the process ends. On the other hand, if the calculation has not been completed (NO in step S111), the value of parameter N is incremented by 1 (step S121), the X-direction position of stage 2 is returned to the position at the time of step S101 (step S122), and the process from step S103 is repeated.
  • FIGS. 9A to 9C are diagrams showing the positional relationships of the various parts during the second loop process.
  • the observation camera 81 is positioned at the second measurement position.
  • FIG. 9A shows the second measurement position.
  • the observation camera 81 is located between the optical path of the exposure beam L2 emitted by the second exposure head 412 and the optical path of the exposure beam L3 emitted by the adjacent third exposure head 413.
  • the observation camera 81 captures an image of the test pattern formed by the second exposure head 412 at a position directly below the second exposure head 412 (steps S104-S105), and then moves to a position directly below the third exposure head 413 (step S106) and captures an image of the test pattern formed by the third exposure head 413 (step S107). From these imaging results, the distance between the exposure beams L2 and L3 is calculated (step S108).
  • the interval between the exposure beam L3 emitted by the third exposure head 413 and the exposure beam L4 emitted by the fourth exposure head 414, and the interval between the exposure beam L4 emitted by the fourth exposure head 414 and the exposure beam L5 emitted by the fifth exposure head 415 are calculated in sequence. In this manner, the intervals between all beams are calculated, and the beam interval calculation process is completed.
  • Figure 10 shows how the stage and observation camera move during the beam spacing calculation process. This figure omits all descriptions of components that are not necessary for the explanation, and shows only the schematic changes in position of the stage 2 and observation camera 81 over time.
  • the solid arrows indicate the movement of the observation camera 81 by the camera drive mechanism 82
  • the dashed arrows indicate the movement of the stage 2 by the stage drive mechanism 3.
  • the movement mode of the X movement table 34 in the X direction is approximately the same each time. Therefore, if the initial position is approximately the same, the X movement table 34 will repeatedly move back and forth within the same range. During this time, the camera drive mechanism 82 changes the X direction position of the observation camera 81, so that the exposure head to be measured is switched sequentially. In contrast, the movement range of the X movement table 34 is approximately the same.
  • the X-direction movement table 34 would need to be moved a large distance in the X-direction in order to position the observation camera 81 directly below each exposure head. This would require a large movement stroke for the X-direction movement table 34, leading to an increase in the size of the device. This problem becomes more pronounced as the number of exposure heads 41 increases.
  • the distance between the legs of the support frame 101 must be increased to increase the movement stroke of the X-movement table 34.
  • This increases the size of the entire device and significantly increases its weight.
  • the span of the beam portion is long, this is disadvantageous in terms of the mechanical strength required to support the exposure head 41.
  • the observation camera 81 is movable in the X direction relative to the stage 2, and is moved to switch the measurement target.
  • the movement stroke required for the X movement table 34 is approximately the arrangement pitch, regardless of the number of exposure heads. Therefore, even if the number of exposure heads is increased, the size of the device can be kept to a minimum. This is also advantageous from the perspective of saving resources.
  • the movement stroke of the X movement table 34 required here is approximately the same as the movement stroke amount required to perform sub-scanning movement in the exposure operation.
  • the beam spacing calculation process of this embodiment can be realized by moving the X movement table 34 within the movable range prepared for sub-scanning movement. Therefore, there is no need to change the movement stroke of the X movement table 34 to perform the beam spacing calculation process.
  • FIGS. 11A and 11B are diagrams explaining the principle of the beam spacing calculation method.
  • the value to be calculated here is the spacing Dx between the exposure beams L1, L2 emitted from each of the two adjacent exposure heads 411, 412, as shown in FIG. 11A. Note that, although the explanation here takes as an example the case of calculating the beam spacing between the first exposure head 411 and the second exposure head 412, the same can be done between other exposure heads.
  • the image captured in step S105 is represented by the symbol Im1
  • the image captured in step S107 is represented by the symbol Im2.
  • image Im1 is represented on the xy image plane
  • position of the center of gravity of test pattern image TP1 is represented by (x1, y1).
  • image Im2 is represented on the xy image plane
  • position of the center of gravity of test pattern image TP2 is represented by (x2, y2).
  • the values x1 and x2 here are coordinate values in the xy image plane, and when applying the above (Equation 1), it is necessary to convert these coordinate values into distances in real space. Due to the relationship between the pixel size in the image and the size in real space, it is easy to align the coordinate values with the size in real space. In this way, the beam spacing Dx can be calculated.
  • the beam spacing can be calculated between the second exposure head 412 and the third exposure head 413, between the third exposure head 413 and the fourth exposure head 414, ... and between the (N)th exposure head and the (N+1)th exposure head. This ultimately determines the spacing between all of the exposure beams.
  • the movement of the observation camera 81 in the X direction by the camera drive mechanism 82 has the effect of keeping the amount of movement (stroke) of the X movement table 34 (stage 2) in the X direction small, but does not affect the calculation accuracy of the beam spacing described above.
  • the position of the test pattern in the captured image simply shifts within the image, and the amount of shift is the same between the two images. Therefore, in the above calculation, the shift amount is canceled out and does not affect the calculation accuracy.
  • the camera drive mechanism 82 does not require a high-precision positioning mechanism, but simply needs to have enough precision to fit the test patterns formed by each exposure head within the imaging field of view. For this reason, providing the camera drive mechanism 82 does not result in a significant increase in costs. Rather, it can be said that it contributes to reducing the cost of the device by avoiding the increase in size of the entire device that would be caused by fixing the observation camera.
  • test patterns TP1 and TP2 are patterns in which a central round dot is sandwiched between elliptical dots on either side in the X direction in the X direction. With such a pattern, even if any of the dots are partially missing, this is unlikely to have an effect on the purpose of detecting the center of gravity position.
  • the light modulator 400 is a one-dimensional spatial light modulator, it is effective to use a one-dimensional pattern extending in the X direction, since the test pattern can be formed without main scanning movement.
  • the test pattern of this embodiment can be composed of a one-dimensional pixel row, as shown in FIG. 11B, and is suitable for formation using a one-dimensional spatial light modulator.
  • the observation camera 81 is positioned between the two target exposure heads, for example, exposure head 411 and exposure head 412.
  • the X movement table 34 is then moved to move the observation camera 81 to a position for capturing an image.
  • Figure 12 shows the movement of the stage and observation camera in a modified example of the beam spacing calculation process.
  • the camera drive mechanism 82 first positions the observation camera 81 directly below the first exposure head 411 ( Figure 12(a)). In this case, it is sufficient that the exposure beam L1 emitted from the first exposure head 411 is received by the observation camera 81 and the test pattern can be imaged; no more precise positioning is required. In this state, the first test pattern formed by the first exposure head 411 is imaged.
  • the X-movement table 34 moves in the (-X) direction, and the observation camera 81 moves to a position directly below the second exposure head 412 ( Figure 12 (b)).
  • the second test pattern formed by the second exposure head 412 is imaged.
  • the first and second test patterns are imaged.
  • the beam spacing between the first exposure head 411 and the second exposure head 412 can be calculated.
  • the observation camera 81 is moved by the camera drive mechanism 82 to a position directly below the third exposure head 413 ( Figure 12 (c)).
  • the third test pattern formed by the third exposure head 413 is imaged by the observation camera 81.
  • the X movement table 34 moves in the (+X) direction, and the observation camera 81 is again positioned directly below the second exposure head 412 ( Figure 12 (d)), and the second test pattern is imaged.
  • the beam spacing between the second exposure head 412 and the third exposure head 413 can be calculated.
  • the observation camera 81 is moved by the camera drive mechanism 82 and positioned directly below the third exposure head 413 (FIG. 12(e)). At this time, an image including the third test pattern is captured.
  • the X movement table 34 then moves in the (-X) direction (FIG. 12(f)), and an image including the fourth test pattern is captured with the observation camera 81 positioned directly below the fourth exposure head 414. Using these images, the beam spacing between the third exposure head 413 and the fourth exposure head 414 can be calculated. The same applies to the beam spacing between the fourth exposure head 414 and the fifth exposure head 415 (FIGS. 12(g)-(h)).
  • the movement of the stage 2 by the stage driving mechanism 3 and the movement of the observation camera 81 by the camera driving mechanism 82 are alternately performed, and the beam spacing is calculated using images captured before and after the movement of the stage 2.
  • the movement stroke of the stage 2 in the X direction remains approximately the same as the spacing between adjacent exposure heads, and the same effect as in the above embodiment can be expected. In other words, it is possible to prevent the device from becoming larger and reduce costs. Also, compared to the operations shown in Figures 9A to 9C, the number of steps involving stage movement is reduced, making it possible to shorten the time required for processing.
  • the stage drive mechanism 3 acts as the “scanning movement section” and “stage drive mechanism” of the present invention
  • the exposure unit 4 functions as the "exposure section” of the present invention.
  • the observation camera 81 functions as the “photoreceiver” and “camera” of the present invention
  • the camera drive mechanism 82 functions as the "photoreceiver support section” of the present invention.
  • the distance calculation section 915 functions as the “distance calculation section” of the present invention.
  • the observation camera 81, the camera drive mechanism 82, and the distance calculation section 915 function as the "measurement section” of the present invention.
  • the spatial light modulator 400 functions as the "light modulator” of the present invention.
  • the X direction which is the sub-scanning direction, corresponds to the "first direction” of the present invention.
  • the X-axis robot 33 functions as the “stage moving mechanism” and “drive mechanism” of the present invention
  • the position sensor 331 functions as the "position detection unit” of the present invention.
  • the X movement table 34 functions as the "support member” of the present invention.
  • the present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention.
  • the observation camera 81 is used as the "receiver" of the present invention, but the configuration of the receiver is not limited to this.
  • a linear image sensor can be used as the "receiver" of the present invention.
  • the beam spacing measurement process determines that there is a large misalignment between the exposure heads, a process is executed to correct this.
  • the "measurement” that is one of the objectives of the present invention is effective in itself, and it is not always necessary to combine it with correction based on the measurement results.
  • the beam spacing measurement method of the present invention can be configured such that, for example, the photoreceiver is a camera that captures an image of the exposure beam, and in the second and fifth steps, the incident position is determined from the position of the image of the exposure beam in the captured image.
  • the exposure beam can be fixed as an image within the image.
  • known image processing techniques can be applied to detect the image within the image and identify its position. In this way, it is possible to measure the spacing between beams with high precision.
  • the spacing can be found based on the difference in incident position between multiple images acquired by imaging with different exposure heads and the sum of the movement amount of the photoreceiver by the scanning movement unit.
  • the movement amount of the photoreceiver which is a camera, represents the movement amount of the imaging field of view of the camera, i.e., the spacing in real space of the imaging fields of view of multiple images. Therefore, by adding this spacing and the difference in position within each image, the spacing of the exposure beam in real space can be found.
  • each of the exposure heads may be configured to emit an exposure beam that corresponds to a predetermined test pattern.
  • the exposure beam can be easily and reliably detected.
  • the exposure apparatus can be configured such that, for example, the scanning movement section has a support member that supports the stage and a drive mechanism that moves the support member back and forth in a first direction, and the photoreceiver support section is attached to the support member and moves the photoreceiver relative to the support member.
  • the drive mechanism operates to move the stage
  • the photoreceiver support section and the photoreceiver supported thereby can be moved integrally with the stage.
  • the photoreceiver support section supported integrally with the stage can be operated to move the photoreceiver relative to the stage.
  • the scanning movement unit can be configured to have a stage movement mechanism that moves the stage in a first direction, and a position detection unit that detects the position of the stage in the first direction.
  • a stage movement mechanism that moves the stage in a first direction
  • a position detection unit that detects the position of the stage in the first direction.
  • the scanning movement section can be configured to be capable of main scanning movement in a direction perpendicular to the first direction, and sub-scanning movement in the first direction.
  • the first direction can be the sub-scanning direction.
  • This invention is suitable for technical fields in which substrates are exposed to light to form patterns on substrates such as semiconductor substrates, semiconductor package substrates, printed wiring boards, or glass substrates.
  • Exposure device 2 Stage 3 Stage driving mechanism (scanning movement part) 4 Exposure unit (exposure section) 9 Control unit 33 X-axis robot (drive mechanism, stage movement mechanism) 34 X-moving table (support member) 41 Exposure head 81 Observation camera (receiver, camera) 82 Camera drive mechanism (receiver support part) 331 Position sensor (position detection unit) 400 Spatial Light Modulator (Light Modulator) 430 Light source unit L Laser light beam Le Exposure beam S Substrate

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)

Abstract

本発明は露光装置におよびそのビーム間隔計測方法に関するものであり、露光ヘッドの数が多くなった場合でもステージの移動ストロークを大きくする必要がなく、またそれを低コストで実現する。本発明の露光装置は、基板を水平姿勢で支持するステージと、水平な第1方向に配列された3以上の露光ヘッドの各々がステージに向けて露光ビームを落射する露光部と、ステージを水平方向に移動させて、基板に対して露光ビームを走査させる走査移動部と、露光ヘッドの各々から出射される露光ビーム間の間隔を計測する計測部とを備える。計測部は、露光ビームを受光する受光器と、ステージと一体的に設けられて受光器を支持するとともに、ステージに対して受光器を前記第1方向に移動可能な受光器支持部と、複数の露光ヘッドの各々が出射する露光ビーム間の間隔を算出する間隔算出部とを有する。

Description

露光装置および露光装置におけるビーム間隔計測方法
 この発明は、例えば半導体基板、半導体パッケージ基板、プリント配線基板、ガラス基板等の基板にパターンを描画するために基板を露光する技術に関する。
 基板に配線パターン等のパターンを形成する技術として、表面に感光層が形成された基板を被露光物として、露光データに応じて変調された光ビームを入射し、感光層を露光させるものがある。基板としては、半導体基板、半導体パッケージ基板、プリント配線基板、ガラス基板等、各種のものを適用可能である。例えば特許文献1には、描画すべきパターンに応じて変調した光ビームを基板に照射することで、基板に所定のパターンを描画する露光装置が記載されている。
 また、この従来技術では、ステージの側方にカメラを含む観察光学系が設けられている。この観察光学系は、基板に入射させるべき光ビームを受光し、投影光学系のフォーカス調整量の決定や光変調器の較正などに有用な情報を出力するものである。
特開2015-068869号公報
 この種の露光装置では、処理のスループットを向上させるために、各々が露光ビームを出射する露光ヘッドを、複数設けることが行われるようになってきている。これは、1枚の基板に対して、複数の露光ヘッドで並列的に露光を行うことで処理時間の短縮を図るものである。この場合、1枚の基板への露光を複数の露光ヘッドで分担することとなるため、個々が受け持つ領域の境界で不連続が生じないようにする必要がある。
 このことから、複数の露光ヘッドが所定の間隔を保って配置されていることが求められる。露光ヘッドから出射される光ビームを受光する上記従来技術の観察光学系は、このような間隔を計測する目的にも適用可能であると期待される。しかしながら、次のような問題がある。
 観察光学系で光ビームを観察する場合、露光ヘッドから出射される光ビームが入射する位置(一般的には露光ヘッドの直下位置)に、観察光学系を移動させる必要がある。ここで、複数の露光ヘッドが一列に配置されている場合、それらに対応する位置に観察光学系を移動させるためには、ステージを大きく移動させる必要が生じる。そうすると、ステージを保持する機構に大きな移動ストロークが必要となり、また移動のためのスペースを確保する必要性から、装置が非常に大型化し高コストになるという問題がある。露光ヘッドの数が多くなるほど、この問題は顕著である。
 そのため、露光ヘッドの数が多くなった場合にも対応可能であり、しかもコスト上昇を抑えることのできる計測技術が求められる。
 この発明は上記課題に鑑みなされたものであり、露光ヘッドの数が多くなった場合でもステージの移動ストロークを大きくする必要がなく、またそれを低コストで実現することのできる技術を提供することを目的とする。
 この発明の一の態様は、露光ビームにより基板を露光する露光装置における、複数の露光ヘッドの各々が出射する前記露光ビーム間の間隔を計測するビーム間隔計測方法である。ここで前記露光装置は、第1方向に沿って並ぶ前記露光ヘッドとしての第1の露光ヘッド、第2の露光ヘッドおよび第3の露光ヘッドと、基板を保持するステージと、前記ステージを走査移動させる走査移動部とを有している。そして、この方法は、以下の第1ないし第5工程を備えている。
 第1工程では、前記走査移動部が前記ステージと一体的に受光器を移動させて、前記第1の露光ヘッドから出射される前記露光ビームが入射する位置と、前記第2の露光ヘッドから出射される前記露光ビームが入射する位置とのそれぞれで、前記受光器が前記露光ビームを受光する。第2工程では、前記第1工程における、前記第1の露光ヘッドからの前記露光ビームの前記受光器への入射位置、前記第2の露光ヘッドからの前記露光ビームの前記受光器への入射位置、および、前記走査移動部による前記受光器の移動量に基づき、前記第1の露光ヘッドが出射する前記露光ビームと前記第2の露光ヘッドが出射する前記露光ビームとの間の間隔を求める。第3工程では、前記受光器を、前記ステージに対して、前記第1方向に沿って前記第3の露光ヘッド側へ移動させる。第4工程では、前記走査移動部が前記ステージと一体的に前記受光器を移動させて、前記第2の露光ヘッドから出射される前記露光ビームが入射する位置と、前記第3の露光ヘッドから出射される前記露光ビームが入射する位置とのそれぞれで、前記受光器が前記露光ビームを受光する。第5工程では、前記第4工程における、前記第2の露光ヘッドからの前記露光ビームの前記受光器への入射位置、前記第3の露光ヘッドからの前記露光ビームの前記受光器への入射位置、および、前記走査移動部による前記受光器の移動量に基づき、前記第2の露光ヘッドが出射する前記露光ビームと前記第3の露光ヘッドが出射する前記露光ビームとの間の間隔を求める。
 このように構成された発明では、複数の露光ヘッドの各々から出射される露光ビームを受光器に入射させてビーム間隔を算出する。具体的には、ステージを走査移動させる走査移動部により、受光器をステージと一体的に移動させて、第1の露光ヘッドおよび第2の露光ヘッドからそれぞれ出射される露光ビームを個別に受光する。このように受光器を移動させて各露光ヘッドからの露光ビームを受光することで、受光器としては比較的小型のものを用いることができる。
 基板を露光する際の走査移動に用いられる走査移動部は、露光品質を確保するために高い位置精度を有している。このことから、受光器を走査移動部により移動させることで、その移動量を精度よく求めることができると期待される。すなわち、第1の露光ヘッドおよび第2の露光ヘッドからそれぞれ出射された露光ビームを受光したときの露光ビームの受光器への入射位置と、それらの受光に際して受光器を移動させた量とがそれぞれ求められることにより、実空間における露光ビーム間の間隔を精度よく求めることができる。
 引き続き、第2の露光ヘッドと第3の露光ヘッドとの間で露光ビーム間の間隔を求めるのに際しては、予めステージに対して受光器を移動させる。このときの受光器の移動は、露光ヘッドの配列方向である第1方向に沿って、しかも第3の露光ヘッド側に向かう移動である。
 そして、第2の露光ヘッドと第3の露光ヘッドとのそれぞれから出射される露光ビームを受光するときには、再び走査移動部によって受光器が移動される。このとき、予め受光器をステージに対し第3の露光ヘッドに近い位置に移動させておけば、第3の露光ヘッドに対応する位置へ受光器を移動させる際のステージ移動量はさほど大きくならない。
 仮に、受光器がステージに対し固定された位置に設けられていたとすれば、全ての露光ヘッドに対応する位置に受光器を移動させるために必要なステージ移動量は非常に大きなものとなる。このことは装置の大型化を招く原因となる。
 一方、本発明では、ステージに対して受光器が移動可能であり、露光ビームを受光するのに先立って、その対象となる露光ヘッド側へ受光器を移動させておくことができる。そのため、ステージの移動ストロークは小さくて済む。また、露光ビーム間の間隔を求める際に必要な値である受光器の移動量については、高精度な走査移動部を用いて求めることができる一方で、ステージに対する受光器の移動は、単に計測における初期位置を変更するものであり、計測精度に影響しない。このため、高精度で高価な移動機構を用いる必要はなく、装置コストの増加を抑えることができる。装置の大型化を回避できる点を考慮すれば、むしろ装置コストの低減に資するものであるといえる。
 最も好ましい状態では、ステージの移動ストロークの必要量は、露光ヘッドの配設数に関わらずその配列ピッチと同程度となる。このため、露光ヘッドの数が増えた場合でもステージのストロークを増やす必要はなく、コスト抑制効果は大きい。
 また、この発明の他の態様は、基板を水平姿勢で支持するステージと、水平な第1方向に配列された3以上の露光ヘッドを有し、前記露光ヘッドの各々が前記ステージに向けて露光ビームを落射する露光部と、前記ステージを水平方向に移動させて、前記基板に対して前記露光ビームを走査させる走査移動部と、前記露光ヘッドの各々から出射される前記露光ビーム間の間隔を計測する計測部とを備え、前記計測部は、前記露光ビームを受光する受光器と、前記ステージと一体的に設けられて前記受光器を支持するとともに、前記ステージに対して前記受光器を前記第1方向に移動可能な受光器支持部と、前記複数の露光ヘッドの各々が出射する前記露光ビーム間の間隔を算出する間隔算出部とを有する、露光装置である。
 このように構成された発明では、受光器は、走査移動部によるステージと一体の移動と、受光器支持部によりステージに対する移動とが可能である。これらの移動を組み合わせて実行することで、ステージの移動ストロークを増やすことなく、各露光ヘッドから出射される露光ビームを受光器に入射させることが可能となる。また、高い位置精度を必要する計測には走査移動部による移動を適用することで、高い計測精度を確保することができる。
 上記のように、本発明によれば、計測精度に影響を与える受光器の移動については高精度な走査移動部により行いつつ、これにステージに対する受光器の移動を組み合わせているので、計測に際してステージの移動ストロークを大きくする必要はない。そのため、露光ヘッドの数が多くなっても、露光ビームの間隔を計測する目的のために装置が大型化することはなく、装置コストも抑えられる。
 この発明の前記ならびにその他の目的と新規な特徴は、添付図面を参照しながら次の詳細な説明を読めば、より完全に明らかとなるであろう。ただし、図面は専ら解説のためのものであって、この発明の範囲を限定するものではない。
本発明にかかる露光装置の概略構成を模式的に示す正面図である。 図1の露光装置が備える電気的構成の一例を示すブロック図である。 この露光装置をY方向に見た図である この露光装置をY方向に見た図である ステージおよび観察ユニットを示す斜視図である。 ビーム間隔算出処理を示すフローチャートである。 この処理の過程における各部の位置関係を示す図である。 この処理の過程における各部の位置関係を示す図である。 この処理の過程における各部の位置関係を示す図である。 この処理の過程における各部の位置関係を示す図である。 ビーム位置補正処理を示す図である。 ビーム位置補正処理を示す図である。 2回目のループ処理における各部の位置関係を示す図である。 2回目のループ処理における各部の位置関係を示す図である。 2回目のループ処理における各部の位置関係を示す図である。 ステージおよび観察用カメラの移動態様を示す図である。 ビーム間隔算出方法の原理を説明する図である。 ビーム間隔算出方法の原理を説明する図である。 変形例におけるステージおよび観察用カメラの移動態様を示す図である。
 図1は本発明にかかる露光装置の概略構成を模式的に示す正面図であり、図2は図1の露光装置が備える電気的構成の一例を示すブロック図である。図1および以下の図では、水平方向であるX方向、X方向に直交する水平方向であるY方向、鉛直方向であるZ方向およびZ方向に平行な回転軸を中心とする回転方向θを適宜示す。
 露光装置1は、レジストなどの感光材料の層が形成された基板S(露光対象基板)に所定のパターンのレーザー光を照射することで、感光材料にパターンを描画する。基板Sとしては、例えば半導体基板、半導体パッケージ基板、プリント配線基板、各種表示装置用のガラス基板などの各種基板を適用可能である。
 露光装置1は本体11を備え、本体11は、本体フレーム111と、本体フレーム111に取り付けられたカバーパネル(図示省略)とで構成される。そして、本体11の内部と外部とのそれぞれに、露光装置1の各種の構成要素が配置されている。
 露光装置1の本体11の内部は、処理領域112と受け渡し領域113とに区分されている。処理領域112には、主として、ステージ2、ステージ駆動機構3、露光ユニット4、アライメントユニット5および観察ユニット8が、ベース部100上に配置される。また、本体11の外部には、アライメントユニット5に照明光を供給する照明ユニット6が配置されている。受け渡し領域113には、処理領域112に対して基板Sの搬出入を行う搬送ロボット等の搬送装置7が配置される。さらに、本体11の内部には制御部9が配置されている。制御部9は、露光装置1の各部と電気的に接続されて、これら各部の動作を制御する。
 本体11の内部の受け渡し領域113に配置された搬送装置7は、図示しない外部の搬送装置または基板保管装置から未処理の基板Sを受け取って処理領域112に搬入(ローディング)する。また、処理領域112から処理済みの基板Sを搬出(アンローディング)し外部へ払い出す。未処理の基板Sのローディングおよび処理済みの基板Sのアンローディングは、制御部9からの指示に応じて搬送装置7により実行される。
 ステージ2は、平板状の外形を有し、その上面に載置された基板Sを水平姿勢に保持する。ステージ2の上面には、複数の吸引孔(図示省略)が形成されている。この吸引孔に負圧(吸引圧)が付与されることによって、ステージ2上に載置された基板Sがステージ2の上面に固定される。このステージ2はステージ駆動機構3により駆動される。
 ステージ駆動機構3は、ステージ2をY方向(主走査方向)、X方向(副走査方向)、Z方向および回転方向θ(ヨー方向)に移動させるX-Y-Z-θ駆動機構である。ステージ駆動機構3は、Y方向に延設された単軸ロボットであるY軸ロボット31と、Y軸ロボット31によってY方向に駆動されるY移動テーブル32と、Y移動テーブル32の上面においてX方向に延設された単軸ロボットであるX軸ロボット33と、X軸ロボット33によってX方向に駆動されるX移動テーブル34と、X移動テーブル34の上面に支持されたステージ2をX移動テーブル34に対して回転方向θに駆動するθ軸ロボット35とを有する。
 したがって、ステージ駆動機構3は、Y軸ロボット31が有するY軸サーボモーターによってステージ2をY方向に駆動し、X軸ロボット33が有するX軸サーボモーターによってステージ2をX方向に駆動し、θ軸ロボット35が有するθ軸サーボモーターによってステージ2を回転方向θに駆動することができる。これらのサーボモーターについては図示を省略する。また、ステージ駆動機構3は、Z軸ロボット37によってステージ2をZ方向に駆動することができる。かかるステージ駆動機構3は、制御部9からの指令に応じて、Y軸ロボット31、X軸ロボット33、θ軸ロボット35およびZ軸ロボット37を動作させることで、ステージ2に載置された基板Sを移動させる。
 これらのロボットのうち少なくともY軸ロボット31およびX軸ロボット33には、移動対象物の移動量を検出するための位置センサー311,331が設けられている。位置センサー311,331としては、例えばリニアスケールとリニアエンコーダーとを組み合わせて用いることができるが、これに限定されない。位置センサー311は、Y軸ロボット31によりY方向に移動されるY移動テーブル32のY方向における位置を検出する。また、位置センサー331は、X軸ロボット33によりX方向に移動されるX移動テーブル34のX方向における位置を検出する。これらの位置センサー311,331の出力は制御部9に入力される。
 露光ユニット4は、ステージ2上の基板Sより上方に配置された露光ヘッド41と、光源駆動部42、レーザー出射部43および照明光学系44を含み露光ヘッド41に対してレーザー光を照射する光照射部40とを有する。露光ユニット4は、X方向に位置を異ならせて複数設けられる。
 光源駆動部42の作動によりレーザー出射部43から射出されたレーザー光が、照明光学系44を介して露光ヘッド41へと照射される。露光ヘッド41は、光照射部から照射されたレーザー光を空間光変調器(以下、単に「光変調器」ということがある)400によって変調して、その直下を移動する基板Sに対して落射する。こうして基板Sをレーザー光ビームによって露光することで、パターンが基板Sに描画される(露光動作)。
 アライメントユニット5は、ステージ2上の基板Sより上方に配置されたアライメントカメラ51を有する。このアライメントカメラ51は、鏡筒、対物レンズおよびCCDイメージセンサを有し、その直下を移動する基板Sの上面に設けられたアライメントマークを撮像する。アライメントカメラ51が備えるCCDイメージセンサは、例えばエリアイメージセンサ(二次元イメージセンサ)により構成される。
 照明ユニット6は、アライメントカメラ51の鏡筒と光ファイバー61を介して接続され、アライメントカメラ51に対して照明光を供給する。照明ユニット6から延びる光ファイバー61によって導かれる照明光は、アライメントカメラ51の鏡筒を介して基板Sの上面に導かれる。基板Sでの反射光が、対物レンズを介してCCDイメージセンサに入射する。これによって、基板Sの上面が撮像されて撮像画像が取得されることになる。アライメントカメラ51は制御部9と電気的に接続されており、制御部9からの指示に応じて撮像画像を取得して、この撮像画像を制御部9に送信する。
 観察ユニット8は、必要に応じて露光ヘッド41の直下位置に移動して、露光ヘッド41から出射されるレーザー光ビーム(露光ビーム)を受光する。受光結果は制御部9に送信され、各種の調整処理に使用される。この実施形態では、露光ヘッド41のフォーカス調整と、複数の露光ヘッド41からそれぞれ出射される露光ビームの間隔を計測する処理とにおいて、観察ユニット8が使用される。観察ユニット8は、露光ビームにより形成される像を撮像する観察用カメラ81と、観察用カメラ81をX方向に移動させるカメラ駆動機構82とを備えている。
 制御部9は、アライメントカメラ51により撮像された撮像画像が示すアライメントマークの位置を取得する。また制御部9は、アライメントマークの位置に基づき露光ユニット4を制御することで、露光動作において露光ヘッド41から基板Sに照射するレーザー光のパターンを調整する。そして、制御部9は、描画すべきパターンに応じて変調されたレーザー光を露光ヘッド41から基板Sに照射させることで、基板Sにパターンを描画する。
 また制御部9は、観察ユニット8から与えられる信号を用いて、露光ヘッド41のフォーカス調整を行う。すなわち、制御部9は、観察ユニット8の観察用カメラ81により受光される露光ビームが最も鮮明な像を結ぶように、露光ヘッド41の投影光学系を調整する。これにより、露光ヘッド41のフォーカス位置が最適化される。制御部9はさらに、露光ヘッド41が複数ある場合において、それらの露光ヘッド41が出射し基板Sに入射する露光ビームの間隔を計測する。この処理については後述する。
 制御部9は、上記した各ユニットの動作を制御することで各種の処理を実現する。この目的のために、制御部9は、CPU(Central Processing Unit)91、メモリー(RAM)92、ストレージ93、入力部94、表示部95およびインターフェース部96などを備えている。CPU91は、予めストレージ93に記憶されている制御プログラム931を読み出して実行し、後述する各種の動作を実行する。メモリー92はCPU91による演算処理に用いられ、あるいは演算処理の結果として生成されるデータを短期的に記憶する。ストレージ93は各種のデータや制御プログラムを長期的に記憶する。具体的には、ストレージ93は、フラッシュメモリー記憶装置、ハードディスクドライブ装置などの不揮発性記憶装置である。CPU91が実行する制御プログラム931の他に例えば、描画すべきパターンの内容を表す設計データであるCAD(Computer Aided Design)データ932を記憶している。
 入力部94は、ユーザーからの操作入力を受け付ける。この目的のために、キーボード、マウス、タッチパネル等の適宜の入力デバイス(図示省略)を有している。表示部95は、各種の情報を表示出力することでユーザーに報知する。この目的のために適宜の表示デバイス、例えば液晶表示パネルを有している。インターフェース部96は外部装置との間の通信を司る。例えば、この露光装置1が制御プログラム931およびCADデータ932を外部から受け取る際に、インターフェース部96が機能する。この目的のために、インターフェース部96は、外部記録媒体からデータを読み出すための機能を備えていてもよい。
 CPU91は、制御プログラム931を実行することにより、露光データ生成部911、露光制御部912、フォーカス制御部913、ステージ制御部914、間隔算出部915などの機能ブロックをソフトウェア的に実現する。なお、これらの機能ブロックのそれぞれは、少なくとも一部が専用ハードウェアにより実現されてもよい。
 露光データ生成部911は、ストレージ93から読み出されたCADデータ932に基づき、光ビームをパターンに応じて変調するための露光データを生成する。基板Sに歪み等の変形がある場合には、露光データ生成部911は、基板Sの歪み量に応じて露光データを修正する。こうすることで、基板Sの形状に合わせた描画が可能となる。露光データは露光ヘッド41に送られる。該露光データに応じて露光ヘッド41が、光照射部40から出射されるレーザー光を変調する。こうしてパターンに応じて変調された変調光ビームが基板Sに照射され、基板S表面が部分的に露光されてパターンが描画される。
 露光制御部912は、光照射部40を制御して、所定のパワーおよびスポットサイズを有するレーザー光ビームを出射させる。フォーカス制御部913は、露光ヘッド41に設けられた投影光学系を制御してレーザー光ビームを基板Sの表面に収束させる。
 ステージ制御部914はステージ駆動機構3を制御して、アライメント調整のためのステージ2の移動および露光時の走査移動のためのステージ2の移動を実現する。アライメント調整においては、ステージ2に載置された基板Sと露光ヘッド41との間における露光開始時の相対的な位置関係が予め定められた関係となるように、ステージ2の位置がX方向、Y方向、Z方向およびθ方向に調整される。一方、走査移動においては、ステージ2を一定速度でY方向に移動させることで基板Sを露光ヘッド41の下方を通過させる主走査移動と、一定ピッチでのX方向へのステップ送り(副走査移動)とが組み合わせられる。間隔算出部915は、観察ユニット8の観察用カメラ81が撮像する撮像結果に基づき、複数の露光ヘッド41のそれぞれが出射する露光ビーム間の間隔を算出する。
 図3Aおよび図3Bはこの露光装置をY方向に見た図である。なお、露光装置1では、ステージ2およびステージ駆動機構3の(+Y)側に搬送装置7が配置されているが、図3Aおよび図3Bでは記載を省略している。また、図3Aは図3Bから観察ユニット8を取り除いた状態を示している。
 図3Aに示すように、ステージ駆動機構3およびこれに支持されるステージ2をX方向に跨ぐように、ガントリー状の支持フレーム101がベース部100に取り付けられている。この支持フレーム101に、複数の露光ヘッド41がX方向に沿って略等間隔で並べて取り付けられている。この例では5基の露光ヘッド41(411~415)が設けられているが、配設数はこれに限られず任意である。これらの露光ヘッド411~415は互いに同一構造を有する。また、相互の位置関係が固定されており、走査移動においてこれらは一体的に、基板Sに対し相対移動する。
 1枚の基板Sに対する露光は、これら5基の露光ヘッド41(411~415)を用いて行われる。すなわち、基板Sの表面は5つの領域に区分され、1つの露光ヘッド41がそれらの領域の1つに対する露光を受け持つ。こうすることにより、基板Sの露光に要する時間を短縮することが可能となる。
 この場合、隣り合う露光ヘッド41のそれぞれが露光する領域の境界でパターンの不連続が生じるのを回避する必要がある。このためには、各露光ヘッド41から基板Sに入射する露光ビームの間隔を的確に把握し、その結果に基づいて各露光ヘッド41が受け持つ領域の割り当てを行う必要がある。この実施形態では、観察ユニット8を用いて露光ビームの間隔を計測する。
 図3Bに示すように、観察ユニット8は、ステージ2の(+Y)側に設けられている。なお図3Bでは、観察ユニット8の構造を明瞭に示すために、ステージ2およびステージ駆動機構3のうち観察ユニット8よりも(-Y)側にある構成にドットを付して区別している。具体的には、ステージ2、X移動テーブル34、θ軸ロボット35およびZ軸ロボット37にドットが付されている。以下の各図においても同様とする。
 観察ユニット8は、上向きを撮像方向として設けられた観察用カメラ81と、観察用カメラ81を支持しつつX方向に移動させるカメラ駆動機構82とを有している。図示を省略しているが、観察用カメラ81の鏡筒の上端には、例えばガラス製の受像面が設けられている。受像面のZ方向位置は、ステージ2に載置される基板Sの上面と略同一高さに設定されている。したがって、受像面には、各露光ヘッド41から出射される露光ビームが基板Sの上面に結ぶ像とほぼ同じ像が形成されることになる。つまり、観察用カメラ81は、基板S上に形成される像を間接的に観察しているということができる。
 カメラ駆動機構82としては、適宜の直動機構、例えばリニアモーター、ボールねじ機構、ラックピニオン機構、ベルトドライブ機構、チェーン駆動機構などから適宜選択して用いることができる。後述するように、カメラ駆動機構82による観察用カメラ81の移動においては、高い位置決め精度が必要とされない。
 図4はX移動テーブルに取り付けられるステージおよび観察ユニットを示す斜視図である。図4に示すように、カメラ駆動機構82は、適宜の支持部材83を介してステージ駆動機構3のX移動テーブル34に取り付けられ、X方向に延設されている。したがって、ステージ駆動機構3によりX移動テーブル34がX方向に移動するとき、カメラ駆動機構82はステージ2と一体的にX方向へ移動する。またX移動テーブル34はY移動テーブル32に載置されている。このため、Y移動テーブル32がY方向に移動するときには、X移動テーブル34、ステージ2およびカメラ駆動機構82が一体的にY方向に移動する。観察用カメラ81もカメラ駆動機構82とともに移動する。
 一方、制御部9からの制御指令に応じてカメラ駆動機構82が作動するとき、観察用カメラ81は、X移動テーブル34に対して相対的にX方向に移動する。したがって、観察用カメラ81はステージ2とは独立してX方向への移動が可能である。つまり、観察用カメラ81の移動態様としては、ステージ駆動機構3の作動によりステージ2と一体的にX方向およびY方向に移動する態様と、カメラ駆動機構82の作動によりステージ2とは独立してX方向に移動する態様とがある。
 カメラ駆動機構82により実現される観察用カメラ81のX方向における可動範囲は、全ての露光ヘッド511~514について、露光ビームを受光できる範囲をカバーしていることが望ましい。ただし、これは必須の要件ではない。というのは、X移動テーブル34の移動と組み合わせることで、カメラ駆動機構82単体による可動範囲を超えて観察用カメラ81を移動させることができるからである。
 続いて、このように構成された観察ユニット8と、制御部9に設けられた間隔算出部915とを用いて実行される、ビーム間隔の算出処理について、図5ないし図8Bを参照して説明する。ここでは、ビーム間隔算出処理の原理の理解を容易にするために、その原理に基づく基本的な動作についてまず説明する。その後で、所要時間をより短縮することができる事例を説明する。
 図5はビーム間隔算出処理を示すフローチャートである。また、図6ないし図8Bはこの処理の過程における各部の位置関係を示す図である。最初に、ステージ駆動機構3がステージ2をY方向に移動させ、Y方向における計測位置として予め定められた位置に位置決めする(ステップS101)。
 図6はY方向におけるステージ2の計測位置を示している。この計測位置は、各露光ヘッド41から出射される露光ビームLの光路と、観察用カメラ81の光軸とがY方向において概ね一致するように定められている。なお、露光ビームLの光路と観察用カメラ81の光軸とを一致させることは必須の要件ではない。観察用カメラ81のX方向位置を適宜に調整したときに、露光ビームLが観察用カメラ81に入射するような位置関係が担保されていればよい。X方向における位置については、後述するX方向へのステージ移動を実現可能である限りにおいて特に限定されない。例えば、可動範囲における中央に位置決めしておくことができる。
 次に、処理用の内部パラメーターNが1に設定される(ステップS102)。この内部パラメーターNは、各露光ヘッド411~415を区別するためのパラメーターである。すなわち、以下では露光ヘッド411,412,…,を区別するために、これらをそれぞれ「第1の露光ヘッド」、「第2の露光ヘッド」、…、と称する。これらはパラメーターNを用いて、「第Nの露光ヘッド」と表すことができる。
 続いて、カメラ駆動機構82が作動して、観察用カメラ81を所定の第N計測位置に移動位置決めする(ステップS103)。ここではパラメーターNが1であるため、観察用カメラ81は第1計測位置に位置決めされる。
 図7Aは第1計測位置の一例を表している。第1計測位置は、一点鎖線で示される観察用カメラ81の光軸が、複数の露光ヘッド41のうちの第1の露光ヘッド411が出射する露光ビームL1の光路と、それに隣り合う第2の露光ヘッド412が出射する露光ビームL2の光路との間に来るような、観察用カメラ81の位置である。例えば露光ビームL1の光路と露光ビームL2の光路との中間点とすることができるが、このことは必須の要件ではない。
 この状態から、ステージ駆動機構3のX軸ロボット33が、X移動テーブル34を(+X)方向に移動させる。これにより、観察用カメラ81が第Nの、つまり第1の露光ヘッド411の直下位置に位置決めされる(ステップS104)。このときカメラ駆動機構82は作動せず、したがって観察用カメラ81はステージ2と一体的に移動する。
 図7Bはこのときの状態を示している。このとき、観察用カメラ81は第1の露光ヘッド411の直下位置にあり、第1の露光ヘッド411から露光ビームが出射されたとき、当該露光ビームL1は観察用カメラ81に入射するはずである。
 この状態で、第1の露光ヘッド411から、所定のテストパターンに対応する露光ビームL1が出射される。テストパターンに対応する像が観察用カメラ81の受像面に投影され、この像が観察用カメラ81により撮像される(ステップS105)。こうして第1の露光ヘッド411により形成される第1のテストパターンが撮像される。
 撮像後、ステージ駆動機構3のX軸ロボット33がX移動テーブル34を(-X)方向に移動させて、観察用カメラ81を第Nの、つまり第1の露光ヘッド411の直下位置から、第(N+1)の、つまり第2の露光ヘッド412の直下位置へ移動位置決めする(ステップS106)。そして、ステップS105と同様に、第2の露光ヘッド412がテストパターンを形成するための露光ビームL2を出射し、観察用カメラ81の受像面に投影されるテストパターンの像が撮像される(ステップS107)。
 このようにして、第1の露光ヘッド411から出射される露光ビームL1により形成されるテストパターンと、第2の露光ヘッド412から出射される露光ビームL2により形成されるテストパターンとが、それぞれ観察用カメラ81により撮像される。この間のステージ移動量と、撮像された2つの画像におけるテストパターンの像位置とに基づき、間隔算出部915が、第1の露光ヘッド411と第2の露光ヘッド412との間における露光ビームL1,L2の間隔を算出する(ステップS108)。具体的には、X方向のビーム間隔Dxと、Y方向のビーム間隔Dyとが求められる。その算出方法については後述する。
 求められたビーム間隔Dx,Dyが予め定められた規定値と比較されて、補正の要否が判断される(ステップS109)。求められたビーム間隔Dx,Dyと規定値とのずれが許容範囲内であれば、補正不要と判断される(ステップS109においてNO)。一方、許容範囲を超えるずれがあった場合には補正が必要と判断される(ステップS109においてYES)。必要であればビーム位置の補正が行われる(ステップS110)。
 図8Aおよび図8Bはビーム位置補正処理を例示する図である。図8Aはビーム位置補正が可能な光学系の例を示している。露光ヘッド41内では、空間光変調器400と投影光学系402との間に、光路をシフトさせるための光学素子、例えばウェッジプリズム401を設けることで、ビーム位置を補正することが可能である。すなわち、ウェッジプリズム401を通過させることで、その出射光は入射光と平行かつ同一でない光路を進む。これにより、光路がシフトされる。ウェッジプリズム401を構成する1対のプリズム間の距離を変えることで、光路のシフト量を調整可能である。このことを利用して、ビーム位置の補正を行うことができる。具体的には、例えば次のようにすることができる。
 図8Bはビーム位置補正処理を示すフローチャートである。まず、求められたずれ量に基づき、ウェッジプリズム401に必要な移動量が算出される(ステップS301)。そして、求められた移動量に基づきウェッジプリズム401が駆動されてプリズム間距離が変更される(ステップS302)。この状態で再度テストパターンの像が形成され、観察用カメラ81により撮像される(ステップS303)。
 撮像により得られた画像から、テストパターンの位置が検出され、その結果から補正後のビーム間隔のずれ量が再度評価される(ステップS304)。ずれ量が許容範囲内に収まっていれば(ステップS305においてYES)、補正処理は終了する。一方、ずれ量が依然として許容範囲を超えている場合には(ステップS305においてNO)、ステップS301に戻り、ずれが収束するまで上記処理が繰り返される。
 光路をシフトさせる光学素子としては、ウェッジプリズム以外に例えば平行平面板を用いることができる。また、主走査方向であるY方向への位置ずれDyについては、機構的にまたは光学的にこれを補正することもできるが、露光タイミングを調節することによって位置ずれ補正を図ることも可能である。
 なお、ここでは原理説明の都合上、第1の露光ヘッド411から順に撮像が行われる。このため、上記処理では、第1の露光ヘッド411に対する第2の露光ヘッド412のずれが評価され補正されることになる。しかしながら、露光ヘッド間の相対的な位置ずれを較正するという目的からは、例えば複数の露光ヘッド41のうち中央のものを基準として、これと隣り合うものから順に補正を行うようにしてもよい。
 全ての露光ビーム間で間隔が算出され必要な補正が行われるまで、上記処理が繰り返される。すなわち、図5のステップS111において、全ての露光ビーム間につき間隔の算出が終了しているか否かが判断される。例えばパラメーターNの値に基づき判断が可能である。全ての露光ビーム間で算出が終了していれば(ステップS111においてYES)、処理は終了する。一方、算出が終了していない場合には(ステップS111においてNO)、パラメーターNの値が1つ増加され(ステップS121)、ステージ2のX方向位置がステップS101の時点における位置に戻された上で(ステップS122)、ステップS103からの処理が繰り返される。
 図9Aないし図9Cは2回目のループ処理における各部の位置関係を示す図である。ステップS103では、観察用カメラ81が第2計測位置に位置決めされる。図9Aは第2計測位置を示している。このとき、観察用カメラ81は、第2の露光ヘッド412が出射する露光ビームL2の光路と、それに隣り合う第3の露光ヘッド413が出射する露光ビームL3の光路との間にある。
 そして、観察用カメラ81は、上記と同様に、第2の露光ヘッド412の直下位置で第2の露光ヘッド412が形成するテストパターンを撮像し(ステップS104~S105)、その後第3の露光ヘッド413の直下位置へ移動し(ステップS106)、第3の露光ヘッド413が形成するテストパターンを撮像する(ステップS107)。それらの撮像結果から、露光ビームL2,L3間の間隔が算出される(ステップS108)。
 同様にして、第3の露光ヘッド413が出射する露光ビームL3と第4の露光ヘッド414が出射する露光ビームL4との間隔、および、第4の露光ヘッド414が出射する露光ビームL4と第5の露光ヘッド415が出射する露光ビームL5との間隔が、順次算出される。こうして全てのビーム間での間隔が算出され、ビーム間隔算出処理は終了する。
 図10はビーム間隔算出処理におけるステージおよび観察用カメラの移動態様を示す図である。この図は、説明に必要のない構成の記載を全て省き、ステージ2および観察用カメラ81の経時的な位置変化だけを模式的に示したものである。また図において実線矢印はカメラ駆動機構82による観察用カメラ81の移動を、破線矢印はステージ駆動機構3によるステージ2の移動を示す。
 図10に示されるように、図5のビーム間隔算出処理で実行される複数回のループ処理において、X方向におけるX移動テーブル34の移動態様は毎回ほぼ同じである。したがって、初期位置がほぼ同じであれば、X移動テーブル34は同じ範囲を繰り返し往復移動することになる。この間、カメラ駆動機構82が観察用カメラ81のX方向位置を変化させることで、計測対象となる露光ヘッドは順次切り替わってゆく。これに対して、X移動テーブル34の移動範囲はほぼ同じである。
 仮に、観察用カメラ81のステージ2に対するX方向位置が固定されていた場合、観察用カメラ81を各露光ヘッドの直下位置に位置決めするためには、X移動テーブル34をX方向に大きく移動させる必要がある。このことは、X移動テーブル34について大きな移動ストロークを確保する必要を生じさせることとなり、装置の大型化を招く。露光ヘッド41の配設数が多くなると、この問題がより顕著である。
 特に、例えば図3Aに示すようにガントリー型の支持フレーム101を設けている場合、X移動テーブル34の移動ストロークを大きくするためには支持フレーム101の脚部の間隔を広げる必要がある。装置全体が大型になってその重量も大幅に増加する。また、梁部分のスパンが長くなると、露光ヘッド41を支持するための機械的強度の点でも不利である。
 これに対して、本実施形態では、観察用カメラ81をステージ2に対しX方向に移動可能とし、これを移動させて計測対象の切り替えを行うようにした。これにより、X移動テーブル34に必要とされる移動ストロークは、露光ヘッドの数に関わらずその配列ピッチ程度で済む。このため、露光ヘッドの数を増加させた場合でも装置の大型化を最小限に抑制することができる。このことは省資源の観点からも有利である。
 なお、ここで必要とされるX移動テーブル34の移動ストロークは、露光動作において副走査移動を実行するために必要とされる移動ストローク量とほぼ同じである。つまり、本実施形態のビーム間隔算出処理は、副走査移動のために用意された可動範囲内でX移動テーブル34を移動させることで実現可能である。したがって、ビーム間隔算出処理を実行するために、X移動テーブル34の移動ストロークを変更する必要は生じない。
 次に、隣り合う2つの露光ヘッド間でのビーム間隔算出方法を、図11Aおよび図11Bを参照してより具体的に説明する。
 図11Aおよび図11Bはビーム間隔算出方法の原理を説明する図である。ここで算出すべき値は、図11Aに示すように、隣り合う2つの露光ヘッド411,412の各々から出射される露光ビームL1,L2の間隔Dxである。なお、ここでは第1の露光ヘッド411と第2露光ヘッド412との間でビーム間隔を算出するケースを例に挙げて説明するが、これ以外の露光ヘッドの間についても同様にすることができる。
 図11Aに示すように、ステップS105で撮像された画像を符号Im1、ステップS107で撮像された画像を符号Im2により表すこととする。画像Im1をxy画像平面で表すとき、テストパターンの像TP1の重心位置を(x1,y1)とする。また、画像Im2をxy画像平面で表すとき、テストパターンの像TP2の重心位置を(x2,y2)とする。これらの重心位置は、公知の画像処理を適宜適用して求めることが可能である。
 これら2つの画像Im1,Im2は、X移動テーブル34をX方向に移動させた前後で撮像されたものである。このときのX移動テーブル34の移動量を符号Txで表すとすると、2つの画像は空間的にはX方向に距離Txだけ離れた位置関係を有している。X移動テーブル34の移動量Txについては、X軸ロボット31に設けられた位置センサー331の出力に基づき求めることができる。X軸ロボット31は露光動作における副走査移動を担うものであるから、その位置精度は十分に高いものと考えることができる。
 そうすると、図11Aに示される関係から次式:
  Tx-x1=Dx-x2
が得られ、さらにこれを変形して次式:
  Dx=Tx+(x2-x1) … (式1)
が得られる。このように、撮像時のX移動テーブル34(ステージ2)の移動量Txと、撮像された画像におけるテストパターンの位置検出結果x1,x2と基づき、2つの露光ヘッド411,412が出射する露光ビーム間の間隔を算出することができる。
 なお、ここで値x1,x2はxy画像平面内での座標値であり、上記(式1)の適用に当たっては、これらの座標値を実空間での距離に換算する必要がある。画像内の画素サイズと実空間におけるサイズとの関係から、座標値を実空間でのサイズと揃えたものとすることは容易である。そのようにすることで、ビーム間隔Dxを算出することができる。
 2つの画像の撮像の間で観察用カメラ81のY方向位置は変化していない。したがって、2つの画像Im1,Im2におけるテストパターンTP1,TP2におけるy方向の位置の差は、そのまま2つの露光ヘッド411,412が出射する露光ビームのY方向における位置の差を表している。したがって、Y方向における2つの露光ビームL1,L2の位置のずれDyは、次式:
  Dy=y2-y1 … (式2)
により表すことができる。こうしてX方向およびY方向におけるビーム間隔Dx,Dyが求められる。
 同様に、第2露光ヘッド412と第3露光ヘッド413との間、第3露光ヘッド413と第4露光ヘッド414との間、…、第(N)露光ヘッドと第(N+1)露光ヘッドとの間で、それぞれビーム間隔を求めることができる。これにより、最終的には全ての露光ビームについて相互の間隔を求めたことになる。
 カメラ駆動機構82による観察用カメラ81のX方向への移動は、X移動テーブル34(ステージ2)のX方向への移動量(ストローク)を小さく抑える効果がある一方で、上記したビーム間隔の算出精度には影響を与えない。すなわち、カメラ駆動機構82による観察用カメラ81の位置決め精度が高くない場合でも、撮像された画像内におけるテストパターンの位置が画像内でシフトするだけであり、そのシフト量は、2つの画像の間で同じである。そのため上記演算においては、シフト分はキャンセルされて算出精度には影響しない。
 このことから、カメラ駆動機構82には高精度な位置決め機構は必要とされず、単に各露光ヘッドが形成するテストパターンを撮像視野内に収めることができる程度の精度を有していればよい。このため、カメラ駆動機構82を設けることが大きなコスト増加とはならない。むしろ、観察用カメラを固定することによる装置全体の大型化を回避することができるという点で、装置コストの低減に資するものであるといえる。
 ここで使用されるテストパターンについて図11Bを用いて説明する。なお、テストパターンの形状は任意であり、ここに示されたものに限定されない。図11Aに示すように、テストパターンTP1,TP2は、中央の丸いドットのX方向における両側を、X方向を長手方向とする長円形のドットで挟んだ配置を有するパターンとなっている。このようなパターンは、いずれかのドットに部分的な欠落があったとしても、重心位置を検出するという目的においてはその影響を受けにくいものである。
 また、光変調器400が一次元の空間光変調器である場合には、主走査移動を伴わずにテストパターンを形成することができるという点で、X方向に延びる一次元的パターンを用いることが有効である。本実施形態のテストパターンは、図11Bに示すように、一次元の画素列で構成可能なものであり、一次元の空間光変調器を用いて形成するのに好適である。
 次に、ビーム間隔算出処理の変形例について説明する。上記実施形態のビーム間隔算出処理では、観察用カメラ81を、対象となる2つの露光ヘッド、例えば露光ヘッド411と露光ヘッド412との間に位置決めする。その後でX移動テーブル34を移動させることで、観察用カメラ81を撮像のための位置へ移動させている。
 一方、カメラ駆動機構82がある程度高い位置決め精度を有し、観察用カメラ81を各露光ヘッド411等から出射される露光ビームが入射する位置まで直接移動させることができる場合には、次のような変形例により、処理時間の短縮を図ることが可能である。なお、この変形例における処理をフローチャートで表すとかなり複雑になるので、図9と同様の位置変化を表す模式図を用いてその考え方を説明する。
 図12はビーム間隔算出処理の変形例におけるステージおよび観察用カメラの移動態様を示す図である。この変形例では、カメラ駆動機構82により、まず観察用カメラ81が第1の露光ヘッド411の直下位置に位置決めされる(図12(a))。この場合、第1の露光ヘッド411から出射される露光ビームL1が観察用カメラ81に受光されテストパターンが撮像可能であれば足り、それ以上の精密な位置決めは必要ない。この状態で、第1の露光ヘッド411が形成する第1のテストパターンが撮像される。
 次に、X移動テーブル34が(-X)方向に移動し、観察用カメラ81が第2の露光ヘッド412の直下位置に移動してくる(図12(b))。この状態で、第2の露光ヘッド412が形成する第2のテストパターンが撮像される。こうして第1および第2のテストパターンが撮像される。それらの撮像の間には、X移動テーブル34による移動があるだけである。したがって、上記実施形態と同様にして、第1の露光ヘッド411と第2の露光ヘッド412との間におけるビーム間隔を算出することができる。
 続いて、ステージ2の位置を維持したまま、観察用カメラ81がカメラ駆動機構82により第3の露光ヘッド413の直下位置に移動される(図12(c))。この状態で、第3の露光ヘッド413が形成する第3のテストパターンが、観察用カメラ81により撮像される。そして、X移動テーブル34が(+X)方向に移動し、観察用カメラ81が再び第2の露光ヘッド412の直下位置に位置決めされて(図12(d))、第2のテストパターンが撮像される。この段階で、第2の露光ヘッド412と第3の露光ヘッド413との間でビーム間隔を算出することができる。
 同様に、カメラ駆動機構82により観察用カメラ81が移動されて第3の露光ヘッド413の直下位置に位置決めされる(図12(e))。このとき第3のテストパターンを含む画像が撮像される。その後にX移動テーブル34が(-X)方向に移動し(図12(f))て、観察用カメラ81が第4の露光ヘッド414の直下位置に位置決めされた状態で第4のテストパターンを含む画像が撮像される。これらの画像を用いて、第3の露光ヘッド413と第4の露光ヘッド414との間でビーム間隔を算出することができる。第4の露光ヘッド414と第5の露光ヘッド415との間についても同様である(図12(g)~(h))。
 このように、この変形例では、ステージ駆動機構3によるステージ2の移動と、カメラ駆動機構82による観察用カメラ81の移動とを交互に実行し、ステージ2の移動の前後に撮像した画像を用いてビーム間隔を算出する。この場合においても、ステージ2のX方向への移動ストロークは隣り合う露光ヘッド間の間隔と同程度に留まっており、上記実施形態と同様の効果が期待できる。すなわち、装置の大型化を抑制しコスト低減を図ることができる。また、図9Aないし図9Cに示した動作と比べると、ステージ移動を伴う工程数が少なくなっており、処理に要する時間の短縮を図ることが可能である。
 以上説明したように、この実施形態の露光装置1では、ステージ駆動機構3が本発明の「走査移動部」および「ステージ駆動機構」として作用しており、露光ユニット4が本発明の「露光部」として機能している。また、観察用カメラ81が本発明の「受光器」および「カメラ」として機能しており、カメラ駆動機構82が本発明の「受光器支持部」として機能している。また、間隔算出部915が本発明の「間隔算出部」として機能している。そして、観察用カメラ81、カメラ駆動機構82および間隔算出部915が、本発明の「計測部」として機能している。また、空間光変調器400が本発明の「光変調器」として機能している。
 また、副走査方向であるX方向が、本発明の「第1方向」に該当している。そして、この実施形態では、X軸ロボット33が本発明の「ステージ移動機構」および「駆動機構」として機能しており、位置センサー331が本発明の「位置検出部」として機能している。また、X移動テーブル34が、本発明の「支持部材」として機能している。
 なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態では観察用カメラ81を本発明の「受光器」として使用しているが、受光器の構成はこれに限定されない。例えばX方向における間隔のみを算出する目的であれば、リニアイメージセンサを本発明の「受光器」として使用可能である。
 また、上記実施形態では、ビーム間隔計測処理の結果、露光ヘッド間の位置ずれが大きいと判断された場合にはそれを補正するための処理が実行される。しかしながら、本発明が目的の1つとする「計測」は、それ自体に効果を有するものであり、計測結果に基づく補正を常に組み合わせる必要はない。
 以上、具体的な実施形態を例示して説明してきたように、本発明のビーム間隔計測方法は、例えば受光器が露光ビームの像を撮像するカメラであり、第2工程および第5工程では、撮像された画像中における露光ビームの像の位置から入射位置が求められる構成とすることができる。このような構成によれば、露光ビームを画像中の像として固定することができる。そして、画像中からその像を検出し位置を特定するためには、公知の画像処理技術を適用することができる。このようにして、ビーム間の間隔を精度よく計測することが可能である。
 より具体的には、例えば、異なる露光ヘッドについての撮像により取得された複数の画像間での入射位置の差と、走査移動部による受光器の移動量の和とに基づき間隔を求めることができる。カメラである受光器の移動量は、当該カメラの撮像視野の移動量、つまり複数の画像の撮像視野の実空間における間隔を表している。したがって、この間隔と、それぞれの画像内での位置の差とを加算することで、実空間での露光ビームの間隔を求めることができる。
 また例えば、露光ヘッドの各々は、所定のテストパターンに対応させた露光ビームを出射するように構成されてもよい。露光ビームが予め定められた特定の形状を有するパターンを形成することで、その位置検出を容易かつ確実なものとすることができる。
 また、この発明に係る露光装置は、例えば、走査移動部がステージを支持する支持部材と、支持部材を第1方向に往復移動させる駆動機構とを有し、受光器支持部が支持部材に取り付けられ、支持部材に対して受光器を移動させる構成とすることができる。このような構成によれば、ステージを移動させるべく駆動機構が作動する際に、受光器支持部とこれに支持される受光器とをステージと一体的に移動させることができる。また、ステージと一体に支持された受光器支持部が作動することで、受光器をステージに対して移動させることができる。
 あるいは例えば、走査移動部については、第1方向にステージを移動させるステージ移動機構と、第1方向におけるステージの位置を検出する位置検出部とを有する構成とすることができる。このような構成によれば、位置検出部の出力からステージの移動量を求めることが可能である。
 また例えば、走査移動部については、第1方向に直交する方向への主走査移動と、第1方向への副走査移動とを実行可能な構成とすることができる。つまり、第1方向を副走査方向とすることができる。このような構成によれば、副走査方向における露光ビームの間隔が既知である複数の露光ヘッドを並列的に動作させて、基板に対して効率よく露光を行うことができる。
 以上、特定の実施例に沿って発明を説明したが、この説明は限定的な意味で解釈されることを意図したものではない。発明の説明を参照すれば、本発明のその他の実施形態と同様に、開示された実施形態の様々な変形例が、この技術に精通した者に明らかとなるであろう。故に、添付の特許請求の範囲は、発明の真の範囲を逸脱しない範囲内で、当該変形例または実施形態を含むものと考えられる。
 この発明は、例えば半導体基板、半導体パッケージ基板、プリント配線基板あるいはガラス基板等の基板にパターンを形成するために基板を露光する技術分野に好適である。
 1 露光装置
 2 ステージ
 3 ステージ駆動機構(走査移動部)
 4 露光ユニット(露光部)
 9 制御部
 33 X軸ロボット(駆動機構、ステージ移動機構)
 34 X移動テーブル(支持部材)
 41 露光ヘッド
 81 観察用カメラ(受光器、カメラ)
 82 カメラ駆動機構(受光器支持部)
 331 位置センサー(位置検出部)
 400 空間光変調器(光変調器)
 430 光源ユニット
 L レーザー光ビーム
 Le 露光ビーム
 S 基板

Claims (8)

  1.  露光ビームにより基板を露光する露光装置における、複数の露光ヘッドの各々が出射する前記露光ビーム間の間隔を計測するビーム間隔計測方法であって、
     前記露光装置は、第1方向に沿って並ぶ前記露光ヘッドとしての第1の露光ヘッド、第2の露光ヘッドおよび第3の露光ヘッドと、基板を保持するステージと、前記ステージを走査移動させる走査移動部とを有しており、
     前記走査移動部が前記ステージと一体的に受光器を移動させて、前記第1の露光ヘッドから出射される前記露光ビームが入射する位置と、前記第2の露光ヘッドから出射される前記露光ビームが入射する位置とのそれぞれで、前記受光器が前記露光ビームを受光する第1工程と、
     前記第1工程における、前記第1の露光ヘッドからの前記露光ビームの前記受光器への入射位置、前記第2の露光ヘッドからの前記露光ビームの前記受光器への入射位置、および、前記走査移動部による前記受光器の移動量に基づき、前記第1の露光ヘッドが出射する前記露光ビームと前記第2の露光ヘッドが出射する前記露光ビームとの間の間隔を求める第2工程と、
     前記受光器を、前記ステージに対して、前記第1方向に沿って前記第3の露光ヘッド側へ移動させる第3工程と、
     前記走査移動部が前記ステージと一体的に前記受光器を移動させて、前記第2の露光ヘッドから出射される前記露光ビームが入射する位置と、前記第3の露光ヘッドから出射される前記露光ビームが入射する位置とのそれぞれで、前記受光器が前記露光ビームを受光する第4工程と、
     前記第4工程における、前記第2の露光ヘッドからの前記露光ビームの前記受光器への入射位置、前記第3の露光ヘッドからの前記露光ビームの前記受光器への入射位置、および、前記走査移動部による前記受光器の移動量に基づき、前記第2の露光ヘッドが出射する前記露光ビームと前記第3の露光ヘッドが出射する前記露光ビームとの間の間隔を求める第5工程と
    を備える、ビーム間隔計測方法。
  2.  前記受光器が前記露光ビームの像を撮像するカメラであり、前記第2工程および前記第5工程では、撮像された画像中における前記露光ビームの像の位置から前記入射位置が求められる、請求項1に記載のビーム間隔計測方法。
  3.  前記第2工程および前記第5工程では、異なる前記露光ヘッドについての撮像により取得された複数の画像間での前記入射位置の差と、前記走査移動部による前記受光器の移動量の和とに基づき前記間隔を求める、請求項2に記載のビーム間隔計測方法。
  4.  前記露光ヘッドの各々は、所定のテストパターンに対応させた前記露光ビームを出射する、請求項1ないし3のいずれかに記載のビーム間隔計測方法。
  5.  基板を水平姿勢で支持するステージと、
     水平な第1方向に配列された3以上の露光ヘッドを有し、前記露光ヘッドの各々が前記ステージに向けて露光ビームを落射する露光部と、
     前記ステージを水平方向に移動させて、前記基板に対して前記露光ビームを走査させる走査移動部と、
     前記露光ヘッドの各々から出射される前記露光ビーム間の間隔を計測する計測部と
    を備え、
     前記計測部は、
     前記露光ビームを受光する受光器と、
     前記ステージと一体的に設けられて前記受光器を支持するとともに、前記ステージに対して前記受光器を前記第1方向に移動可能な受光器支持部と、
     前記複数の露光ヘッドの各々が出射する前記露光ビーム間の間隔を算出する間隔算出部と
    を有する、露光装置。
  6.  前記走査移動部は、前記ステージを支持する支持部材と、前記支持部材を前記第1方向に往復移動させる駆動機構とを有し、
     前記受光器支持部が、前記支持部材に取り付けられ、前記支持部材に対して前記受光器を移動させる、請求項5に記載の露光装置。
  7.  前記走査移動部は、前記第1方向に前記ステージを移動させるステージ移動機構と、前記第1方向における前記ステージの位置を検出する位置検出部とを有する、請求項5に記載の露光装置。
  8.  前記走査移動部は、前記第1方向に直交する方向への主走査移動と、前記第1方向への副走査移動とを実行可能である、請求項5ないし7のいずれかに記載の露光装置。
PCT/JP2023/019357 2022-09-26 2023-05-24 露光装置および露光装置におけるビーム間隔計測方法 WO2024070047A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-152206 2022-09-26
JP2022152206A JP2024046870A (ja) 2022-09-26 2022-09-26 露光装置および露光装置におけるビーム間隔計測方法

Publications (1)

Publication Number Publication Date
WO2024070047A1 true WO2024070047A1 (ja) 2024-04-04

Family

ID=90476811

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/019357 WO2024070047A1 (ja) 2022-09-26 2023-05-24 露光装置および露光装置におけるビーム間隔計測方法

Country Status (2)

Country Link
JP (1) JP2024046870A (ja)
WO (1) WO2024070047A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004325872A (ja) * 2003-04-25 2004-11-18 Fuji Photo Film Co Ltd 露光装置及び露光方法
JP2008129051A (ja) * 2006-11-16 2008-06-05 Dainippon Screen Mfg Co Ltd パターン描画装置
JP2011002512A (ja) * 2009-06-16 2011-01-06 Hitachi High-Technologies Corp 露光装置、露光方法、及び表示用パネル基板の製造方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004325872A (ja) * 2003-04-25 2004-11-18 Fuji Photo Film Co Ltd 露光装置及び露光方法
JP2008129051A (ja) * 2006-11-16 2008-06-05 Dainippon Screen Mfg Co Ltd パターン描画装置
JP2011002512A (ja) * 2009-06-16 2011-01-06 Hitachi High-Technologies Corp 露光装置、露光方法、及び表示用パネル基板の製造方法

Also Published As

Publication number Publication date
JP2024046870A (ja) 2024-04-05

Similar Documents

Publication Publication Date Title
EP1921506A2 (en) Position Detecting Method and Device, Patterning Device, and Subject to be detected
KR101485437B1 (ko) 기준 위치 측정 장치 및 방법, 및 패턴 형성 장치
US20090035669A1 (en) Work position information obtaining method and apparatus
KR101586577B1 (ko) 위치 계측 장치, 얼라인먼트 장치, 패턴 묘화 장치 및 위치 계측 방법
JP2005266779A (ja) 露光装置及び方法
KR101435124B1 (ko) 노광 장치의 정렬 방법, 이를 이용한 감광막의 노광 방법및 감광막의 노광 방법을 수행하기 위한 노광 장치
KR101468486B1 (ko) 묘화 장치 및 방법
JP5032821B2 (ja) 基板移動装置
WO2024070047A1 (ja) 露光装置および露光装置におけるビーム間隔計測方法
JP2008058477A (ja) 描画装置
US20090033952A1 (en) Image plotting apparatus and image plotting method
JP2006234959A (ja) 露光方法および露光装置
TW202414105A (zh) 曝光裝置及曝光裝置中之光束間隔計測方法
WO2020059256A1 (ja) 描画装置および描画方法
JP2017067888A (ja) 描画装置および位置情報取得方法
JP2012209443A (ja) パターン描画装置およびパターン描画方法
JP2006234960A (ja) 露光方法および露光装置
JP7489913B2 (ja) 描画装置および描画方法
JP2012198372A (ja) 描画装置および描画方法
JP2006058496A (ja) 基板測定装置及び基板搬送装置並びに基板測定装置を備えた画像形成装置と基板測定方法
JP2014038176A (ja) 描画装置、露光描画装置、プログラム及び描画方法
TWI797998B (zh) 曝光方法及曝光裝置
KR102212541B1 (ko) 패턴 묘화 장치 및 패턴 묘화 방법
CN117015748A (zh) 曝光方法以及曝光装置
JP2024046014A (ja) 描画位置情報取得方法および描画方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23871293

Country of ref document: EP

Kind code of ref document: A1