WO2018047650A1 - 基板角位置特定方法 - Google Patents

基板角位置特定方法 Download PDF

Info

Publication number
WO2018047650A1
WO2018047650A1 PCT/JP2017/030709 JP2017030709W WO2018047650A1 WO 2018047650 A1 WO2018047650 A1 WO 2018047650A1 JP 2017030709 W JP2017030709 W JP 2017030709W WO 2018047650 A1 WO2018047650 A1 WO 2018047650A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
position specifying
point candidates
edge point
corner
Prior art date
Application number
PCT/JP2017/030709
Other languages
English (en)
French (fr)
Inventor
中島 裕
佳幸 大矢
Original Assignee
ウシオ電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウシオ電機株式会社 filed Critical ウシオ電機株式会社
Priority to CN201780055184.3A priority Critical patent/CN109690408B/zh
Priority to KR1020197008563A priority patent/KR102227972B1/ko
Publication of WO2018047650A1 publication Critical patent/WO2018047650A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70625Dimensions, e.g. line width, critical dimension [CD], profile, sidewall angle or edge roughness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/20Exposure; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70681Metrology strategies
    • G03F7/70683Mark designs
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/706835Metrology information management or control
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70691Handling of masks or workpieces
    • G03F7/70775Position control, e.g. interferometers or encoders for determining the stage position
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7073Alignment marks and their environment
    • G03F9/7084Position of mark on substrate, i.e. position in (x, y, z) of mark, e.g. buried or resist covered mark, mark on rearside, at the substrate edge, in the circuit area, latent image mark, marks in plural levels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the invention of this application relates to a technique for specifying the corner position of a rectangular substrate such as a printed circuit board.
  • a plate-like member that serves as a base for manufacturing various products is generally referred to as a substrate, but a rectangular member is often used.
  • a typical rectangular substrate is a printed circuit board.
  • a substrate for a display such as a liquid crystal display or an organic EL display has a rectangular shape.
  • Such a substrate is subjected to various treatments to produce a target product.
  • it is often necessary to specify the position of the substrate for reasons such as processing at the correct position on the substrate. For example, in photolithography for forming a circuit pattern on a substrate, an exposure process is performed in which the surface of a resist layer formed on the substrate is exposed with light of the circuit pattern. At this time, since it is necessary to align the alignment of the circuit pattern with the light irradiation position of the circuit pattern, it is necessary to determine whether the substrate put into the exposure apparatus is in the correct position. It is necessary to specify the position of.
  • the position of the substrate is specified by photographing a mark provided on the substrate with a camera.
  • the position of the substrate is specified with respect to a certain reference position, and the camera is arranged so that the photographing area has a predetermined positional relationship with respect to this position.
  • positioned is image
  • the position of the mark is determined in advance, and the position of the substrate is specified by specifying the position of the mark. If the position of the substrate at the time of loading is specified, a deviation from the original arrangement position is obtained, and a movement amount (distance and direction) for eliminating the deviation is also obtained.
  • the mark needs to be formed with high positional accuracy, and thus is formed by photolithography including an exposure process.
  • the substrate without the mark is exposed with the light of the pattern for the mark, and therefore the alignment of the substrate without the mark is necessary.
  • first exposure performed on one substrate is called first exposure.
  • the exposure for forming the mark is also a kind of first exposure.
  • exposure for forming a circuit pattern may be performed together.
  • the mark pattern light and the circuit pattern light are irradiated together.
  • the position of the substrate is specified using the outline shape of the substrate as a clue.
  • a possible method is to specify the position of the substrate by specifying the position of the corner of the substrate. The position of any corner of the rectangular substrate is specified, and if it is known which corner is, the position of the substrate is specified. In addition, if the positions of at least two corners can be specified, the deviation (inclination) of the posture of the substrate can also be known.
  • a method of specifying the corner position of the substrate there may be a method of shooting the corner portion of the substrate including the corner with a camera and processing the obtained shooting data to specify the corner position in the shooting area.
  • the “corner portion” is a term that means a portion of a certain area of a corner of the substrate including the corner.
  • processing of image data image processing
  • the binarized blob means a lump, and the binarized blob detection is to binarize each dot by applying a threshold value to the density of image data and extract a lump pattern. .
  • FIG. 12 is a schematic plan view showing a problem in specifying a corner position by pattern matching after detecting a binarized blob.
  • FIG. 12 schematically shows an image obtained by photographing a corner portion of a certain substrate with a camera.
  • a portion I indicated by hatching is an image of a corner portion.
  • the photographing data is processed to detect a binarized blob. Then, it is determined whether or not the detected binarized blob is a blob in the corner portion. If the blob is in the corner portion, the data is further processed to obtain the coordinates of the corner portion.
  • the coordinates correspond to the reference position set in the imaging area, and the position of the coordinates is specified as the corner position of the substrate.
  • the image photographed by the camera includes not only the corner portion image I but also various noises.
  • the surface of the substrate may not be a perfectly flat surface but may have slight irregularities.
  • a dry film is used as the resist layer formed on the surface of the substrate. When this dry film is applied, the surface is intentionally provided with unevenness in order to improve the adherence. In such a case, as indicated by reference numeral N1 in FIG. 12, surface irregularities are reflected, and if the density is greater than or equal to a threshold value, it may be captured and a binarized blob may be detected.
  • the dry film may completely cover up to the edge of the substrate, but it may not cover the inner edge.
  • the image N2 of the edge of the dry film often appears, and the binarized blob may be detected from the image of the edge of the dry film.
  • an image may appear in the captured image due to the influence of ambient lighting. For example, when shooting with a camera, some kind of illumination is performed, but a shadow of a member in the apparatus may be reflected, or a pattern N3 or a shadow N4 due to reflected light may be reflected. Further, when photographing through a mask, an image N5 of an alignment mark (mask mark) provided on the mask may be reflected. If such noise has light and shade exceeding a threshold value, it may be taken in and binarized blobs may be detected.
  • an alignment mark mask mark
  • the invention according to claim 1 of the present application includes a substrate placement step of placing a rectangular substrate so that a corner is positioned in the imaging area of the camera, After the substrate placement step, a shooting step for shooting the shooting area with the camera, A determination step of determining whether or not a corner of the substrate is located in the shooting area from shooting data of the shot shooting area;
  • the substrate angle position specifying method includes an angular position specifying step of processing the shooting data and specifying the corner position
  • the angular position specifying step includes a position specifying first step for specifying edge point candidates from the imaging data, a position specifying second step for specifying two edge straight lines from the edge point candidates specified in the position specifying first step, A position specifying third step for specifying the intersection of the two edge straight lines specified in the position specifying second step as the corner position of the substrate arranged in the imaging area,
  • the first step of specifying the position is to select the outermost boundary
  • the outermost side in the X direction in the first position specifying step is the outermost side when the side where the image of the substrate exists in the X direction is the inner side, and the opposite side and the outer side, and the outermost side in the Y direction.
  • the first position specifying step specifies the X-direction edge point candidates on a number of X-direction scan lines at a predetermined interval, and the Y-direction edge on a number of Y-direction scan lines at a predetermined interval.
  • a step of identifying point candidates, One of the two edge straight lines specified in the second position specifying step is an approximate straight line passing through a number of X direction edge point candidates specified in the first position specifying step, and the other is the first position specifying step.
  • the invention according to claim 2 is the configuration according to claim 1, wherein the position specifying second step is a number of X direction edge point candidates specified in the position specifying first step.
  • One or more X-direction edge point candidates are removed in order from the first-order approximate line obtained by the above, and an approximate straight line passing through the remaining X-direction edge point candidates is obtained as the one edge straight line.
  • One or a plurality of Y direction edge point candidates are removed in order from the first order approximate line obtained by a large number of Y direction edge point candidates specified in one step, and an approximate line passing through the remaining Y direction edge point candidates is obtained.
  • the other edge straight line is the step.
  • the invention according to claim 3 is the configuration according to claim 2, wherein the number of the remaining X-direction edge point candidates is the X-direction edge obtained in the first position specifying step. 30% or more and 70% or less of the number of point candidates, and the number of remaining Y direction edge point candidates is 30% or more and 70% or less of the number of Y direction edge point candidates obtained in the first position specifying step. It has the structure of being.
  • edge point candidates are acquired in the X direction and the Y direction, and an intersection of straight lines (approximate straight lines) that approximately pass through the edge point candidates is set as an angular position.
  • an intersection of straight lines (approximate straight lines) that approximately pass through the edge point candidates is set as an angular position.
  • the outermost boundary point among the light and dark boundary points is specified as the edge point candidate, a decrease in the identification accuracy due to the influence of noise or the like is suppressed.
  • the substrate angular position specifying method is more accurate.
  • the number of remaining edge point candidates is 30% or more and 70% or less of the original number. The substrate angular position can be specified with high accuracy without minimizing the amount of the substrate.
  • FIG. 1 is a schematic view of a substrate processing apparatus in which the substrate angular position specifying method of the embodiment is implemented.
  • the method of the embodiment can be implemented in various apparatuses that process a rectangular substrate.
  • an exposure apparatus is taken as an example. That is, FIG. 1 shows a schematic configuration of the exposure apparatus.
  • the exposure apparatus shown in FIG. 1 irradiates a predetermined pattern of light onto a processing position on the stage 2, a transport system 1 that transports the substrate S to a set processing position, a stage 2 that holds the substrate S at the processing position, and the processing position on the stage 2.
  • An exposure system 3 is provided.
  • the configuration of the exposure system 3 differs depending on the exposure method, but in this embodiment, a contact method is adopted. That is, the exposure system 3 includes a light source 31, a mask 32 that is in close contact with the substrate S held at the processing position, an optical system 33 that emits light from the light source through the mask 32, and the like.
  • the configuration includes a conveyor 11 and a transfer hand 12. Conveyors 11 are provided on the carry-in side and the carry-out side with respect to the stage 2, and a transfer hand 12 is provided for moving the substrate S between each conveyor 11 and the stage 2. The transfer hand 12 moves the substrate S while being vacuum-sucked.
  • the stage 2 includes a vacuum suction mechanism (not shown) that vacuum-sucks the placed substrate S.
  • the stage 2 includes a stage drive mechanism 21.
  • the stage drive mechanism 21 moves the stage 2 in two directions orthogonal to each other in the horizontal plane and the rotation direction in order to align the substrate S with the processing position, or in close contact with the substrate S and the mask 32 at the processing position. This is a mechanism for moving the stage 2 up and down.
  • the processing position is a position where the mask and the substrate are aligned so as to have a preset positional relationship.
  • the alignment of the mask 32 and the substrate S is performed by specifying the position of the mask alignment mark (mask mark) MAM formed on the mask 32 and the corner position of the substrate S. Based on the position information. As a preparatory work for this alignment, the substrate corner position is specified.
  • the substrate S is transported by the transport system 1 so as to be positioned at the processing position, but is transported out of the processing position due to the limit of accuracy of the transport system 1.
  • the corner position is specified.
  • the exposure apparatus includes a camera 4, an image processing unit 5 that processes image data captured by the camera 4, and a main controller 6.
  • the angular position detection method of the embodiment is realized by the camera 4 and the image processing unit 5.
  • the main controller 6 is a unit that controls each part of the apparatus including the alignment of the substrate S.
  • FIG. 2 is a schematic plan view showing an imaging area by the camera 4 and an area reference point.
  • each camera 4 is arranged downward, and the optical axis of the lens of each camera 4 is vertical.
  • the shooting area 41 is set as a horizontal area.
  • Each camera 4 is a digital camera 4 such as a CCD, but each pixel is arranged in a rectangular area. Accordingly, the field of view of each camera 4 is rectangular, and the shooting area 41 is also set as a rectangular area as shown in FIG.
  • the area reference point 40 can be set at an arbitrary position in the shooting area 41, but in this embodiment, is the center position of the rectangular shooting area 41.
  • each camera 4 is provided with a camera drive mechanism 42.
  • Each camera drive mechanism 42 is a mechanism that moves each camera 4 so that the optical axis of each camera 4 is positioned on the area reference point 40 and is positioned at a predetermined distance from the area reference point 40 in the vertical direction.
  • the specification of the substrate corner position using the photographing data by the camera 4 will be described.
  • the specification of the substrate corner position is performed by a program (hereinafter referred to as a corner position specifying program) installed in the image processing unit 5.
  • the angular position specifying program is executed as a part of the alignment sequence of the substrate S put into the exposure apparatus.
  • the entire alignment sequence will be schematically described.
  • the alignment sequence is performed by an alignment sequence program installed in the main controller 6.
  • FIG. 3 is a schematic diagram showing the whole alignment sequence program including the substrate corner position specification.
  • the exposure apparatus includes a substrate carry-in confirmation sensor (not shown).
  • the alignment sequence is executed when a substrate loading confirmation signal is input to the main controller 6 from the substrate loading confirmation sensor.
  • the alignment sequence program first sends a control signal to each camera 4 so as to perform photographing. Then, when shooting data is transmitted from each camera 4, the alignment sequence program sends a signal to the image processing unit 5 to execute the angular position specifying program.
  • the execution result of the corner position specifying program is the coordinates of the corner position of the substrate S.
  • the alignment sequence program executes the alignment program.
  • the alignment program is a program that sends a signal to the stage 2 to position the substrate S at a predetermined processing position.
  • the image processing unit 5 on which the angular position specifying program is implemented is configured by a computer including a processor, a storage unit (memory), and the like.
  • the image processing unit 5 is a Neumann computer similar to a personal computer, but can also be configured by a non-Neumann computer such as a PLC.
  • FIG. 4 is a flowchart schematically showing the entire angular position specifying program.
  • the corner position specifying program includes a corner presence / absence determination module and a corner position specifying module.
  • the corner presence / absence determination module is a module for executing a determination step
  • the corner position specifying module is a module for executing a corner position specifying step.
  • Shooting data from each camera 4 is temporarily stored in a storage unit in the image processing unit 5.
  • Each shooting data is given an ID (hereinafter referred to as shooting data ID) so as to be able to identify each other.
  • the angular position specifying program is executed by receiving the shooting data ID of each shooting data from the alignment sequence program as an argument. In this embodiment, since there are four cameras 4, four photographing data IDs are passed.
  • FIG. 5 is a flowchart showing an outline of the corner presence / absence determination module.
  • the corner presence / absence determination module performs binarization processing on the first photographing data. That is, a predetermined threshold value is applied to obtain black and white two-color image data.
  • this image data is referred to as binarized data.
  • the generated binarized data is given an ID (binarized data ID) and stored in the storage unit.
  • the corner presence / absence determination module performs blob detection on the binarized data and determines the corner presence / absence by pattern matching. That is, it is determined by pattern matching whether there is any detected blob corresponding to the corner image of the substrate S.
  • FIG. 6 is a schematic diagram showing an example of blob detection by the corner presence / absence determination module.
  • 6A is an example in which it is determined that the substrate S has no corners
  • FIG. 6B is an example in which it is determined that the substrate S has corners.
  • the mask 32 is provided with a mask mark, and when the substrate S is aligned, the mask mark is also photographed to check whether the mask 32 is positioned at a predetermined position. .
  • the binarized image includes the blob Bm of the mask mark MAM.
  • the image processing for detecting the binarized blob can use general-purpose software provided with a name such as the BlobAnalysis function, and a detailed description thereof will be omitted.
  • the blob Bs of the corner portion has a rectangular shape extending from one of the four corners of the photographing area 41.
  • One corner in this case is determined according to the position of the camera 4 that has performed the photographing, and is hereinafter referred to as an area start point and is denoted by reference numeral 411 in FIG.
  • the shooting data is passed to the corner position specifying program so that it can be identified which position the camera 4 is from, and the corner presence / absence determination module specifies the area start point 411 according to which camera 4 is the image. Then, it is determined whether there is a blob Bs that includes the area start point 411 and spreads in a rectangular shape.
  • the corner position determination module determines the presence or absence of a corner as described above. Then, the determination result is stored in a memory variable, and the next image data is processed in the same manner to determine the presence or absence of a corner. Then, the determination result is stored in another memory variable. In this manner, the presence / absence of corners is determined for the data captured by the four cameras 4. As shown in FIG. 5, the corner presence / absence determination module returns the determination results for the four pieces of imaging data to the corner position specifying program and ends.
  • the corner position specifying program determines whether or not there are three or more pieces of photographing data that have been determined to have no corners regarding the execution result of the corner presence / absence determination module. Process as being. In this case, the alignment program is also aborted with an error. Three or more shooting data without corners means that the number of shooting data determined to have corners is one or zero.
  • the corner position determination module returns the binarized data ID of the binarized data generated from the shooting data to the corner position specifying program as a return value when there are two or more shooting data determined to have corners, and ends. To do.
  • the angular position specifying program executes the angular position specifying module using the returned binary data ID as an argument.
  • the corner position specifying module is executed for each of the returned binarized data ID (binarized data determined to have a substrate angle by blob pattern matching).
  • FIG. 7 is a flowchart showing an outline of the corner position specifying module.
  • the corner position specifying module includes an X direction edge line acquisition submodule and a Y direction edge line acquisition submodule.
  • the corner position specifying module executes the X direction edge line acquisition submodule to acquire the X direction edge line, and executes the Y direction edge line acquisition submodule to acquire the Y direction edge line. . Then, the intersection of the X-direction edge line and the Y-direction edge line is set as the substrate angular position specified by the imaging data, and the coordinates of the substrate angular position are returned to the angular position specifying program as the return value.
  • FIG. 8 is a flowchart showing an outline of the X-direction edge line acquisition submodule.
  • FIG. 9 is a schematic plan view showing the acquisition of the X direction edge line by the X direction edge line acquisition submodule.
  • the X direction and the Y direction here are the X direction and the Y direction at the time of specifying the substrate angular position, and are thus set based on the area reference point 40 of the imaging area 41.
  • the X direction is a direction of one side of the imaging area 41 having a rectangular shape
  • the Y direction is a direction of one side perpendicular to the X direction. Therefore, the X direction and the Y direction coincide with the arrangement direction of each pixel of the camera 4.
  • the shooting area 41 is rectangular, and for example, the long side direction is the Y direction and the short side direction is the X direction.
  • the X direction edge line acquisition module checks the value of the binarized data in the X direction and detects the coordinates of the boundary point of the blob B.
  • FIG. 9 shows a line in the X direction (hereinafter referred to as an X direction scan line) Lx when examining the value of the binarized data.
  • a large number of X-direction scan lines Lx are set at regular intervals.
  • the constant interval (hereinafter referred to as scan width) W is about 150 to 350 ⁇ m.
  • the X direction edge line acquisition module detects the coordinates of the boundary point P of the blob B in the first X direction scan line Lx.
  • the “first X-direction scan line Lx” is a scan line extending in the X direction from the area start point 411, and is the leftmost scan line in the example of FIG.
  • the X-direction edge line acquisition module specifies the outermost boundary point P as an edge point candidate. More specifically, as shown in FIG. 8, the X-direction edge line acquisition module examines the light and darkness on the first X-direction scan line Lx, and there is a boundary point P that changes from dark to bright. For example, the coordinates are stored in a memory variable.
  • the brightness is further checked, and if there is a boundary point P changing from dark to bright, the coordinates are overwritten and stored in the memory variable. This process is performed up to the last dot of the X direction scan line Lx.
  • the coordinates of the boundary point P stored in the memory variable when the processing for one X-direction scan line Lx is completed are edge point candidates.
  • the X-direction scan line Lx is traced from the inside to the outside of the substrate angle image. That is, as shown in FIG. 9, the side where the image of the substrate S exists in the X direction is the inside, and the opposite side is the outside. Then, if tracing from the inside to the outside, the coordinates of the boundary point P from dark to light are overwritten and stored in the memory variable. Therefore, when the processing for one X-direction scan line Lx is completed, the coordinates of the outermost boundary point (edge point candidate) P are stored in the memory variable.
  • the X-direction edge line acquisition module performs the same processing on adjacent X-direction scan lines Lx separated by a scan width W. That is, the coordinates of the boundary point from dark to bright are traced from the inside to the outside and stored in the memory variable. At this time, although the coordinates are stored in a memory variable different from the first X-direction scan line Lx, if there are two or more boundary points, the coordinates are stored by overwriting. Accordingly, the coordinates of the outermost boundary point are also stored in the memory variable as edge point candidates in the second X-direction scan line Lx.
  • the change from dark to bright on the X direction scan line Lx is traced from the inside to the outside for each scan width, and the coordinates of the outermost boundary point are stored in the memory variable as edge point candidates.
  • the X-direction edge line acquisition module performs the processing for each X-direction scan line Lx.
  • the coordinates of the edge point candidate are read from each memory variable, and a linear approximate straight line is calculated by, for example, the least square method.
  • the approximate straight line is represented by a linear function in a coordinate system with the area reference point 40 as the origin.
  • the distance from the primary approximate line passing through each edge point candidate is calculated, and a predetermined number of edge point candidates are removed (cancelled) in order from the approximate line. Then, the approximate straight line is calculated again from the remaining edge point candidates. If necessary, this process is repeated once or a plurality of times, and the last approximate straight line is set as an X-direction edge line.
  • the X-direction edge line acquisition module is completed.
  • FIG. 10 is a schematic plan view illustrating the acquisition of the Y-direction edge line by the Y-direction edge line acquisition module.
  • the Y-direction edge line acquisition module is the same as the X-direction edge line acquisition module, except that the direction for examining the blob boundary point is the Y direction.
  • the first Y-direction scan line Ly Y-direction scan line Ly on the area start point 4111
  • the brightness is checked from the inside to the outside. If there is a boundary point P from light to dark, the coordinates are stored in a memory variable.
  • the brightness is checked by tracing the Y-direction scan line Ly, and if there is a boundary point P, the coordinates are overwritten and stored in the memory variable. This process is performed on each Y-direction scan line Ly for each scan width W, and the coordinates of the outermost boundary point P are stored in memory variables as Y-direction edge point candidates.
  • the Y-direction edge line acquisition module After processing up to the last Y-direction scan line Ly, the Y-direction edge line acquisition module obtains a primary approximate line from each Y-direction edge point candidate. Then, the distance of each Y-direction edge point candidate with respect to the primary approximate line is obtained, a predetermined number of Y-direction edge point candidates are canceled in order of increasing distance, and the approximate line is obtained again with the remaining Y-direction edge point candidates. The obtained approximate straight line is returned to the substrate corner position specifying program as a return value, and the Y-direction edge line acquisition module ends.
  • the X-direction edge line means one edge line obtained from the X-direction edge point candidate
  • the Y-direction edge line means the other edge line obtained from the Y-direction edge point candidate. This means an edge line.
  • FIG. 11 is a schematic plan view showing a state in which the substrate angular position is specified by the X-direction edge line and the Y-direction edge line.
  • the corner position specifying program obtains the intersection C of the X direction edge line and the Y direction edge line, and specifies the coordinates of the intersection C as the corner position of the substrate S.
  • the substrate corner position is specified as described above for one piece of imaging data that is assumed to have the corner of the substrate S, and the coordinates are stored in the memory variable, and then the corner of the substrate S is present.
  • the same processing is repeated for the other imaging data determined to specify the substrate angular position and stored in another memory variable.
  • the coordinates of the corner positions are stored in the memory variables for all the imaging data that are assumed to have the corners of the substrate S, these coordinates are returned to the alignment sequence program as return values. This completes the corner position specifying program.
  • “inside” and “outside” may be in different directions.
  • the inside in the X direction is from the bottom to the top on the paper, but the lower right corner is taken.
  • the inside to the outside in the X direction is from the top to the bottom on the paper surface.
  • the alignment sequence program executes the alignment program between the mask 32 and the substrate S after executing the corner position specifying program.
  • the mask 32 and substrate S alignment program includes a proration point calculated from the positions (coordinates) of blobs (Bm in FIG. 11) of a plurality of mask marks detected by a known method, and The stage 2 is moved in two directions orthogonal to each other in the horizontal plane and in the rotational direction so that the distribution points of the plurality of corner positions (coordinates) C of the substrate detected in step 1 coincide with each other.
  • the cottage 2 is raised and the substrate and the mask are brought into close contact with each other. In this state, light from the light source is irradiated onto the substrate through the exposure system 3 and the mask, and the pattern formed on the mask is transferred to the substrate.
  • binarization data is generated to detect a blob, and pattern matching of the detected blob is performed, but the angular position is not specified only by pattern matching.
  • Edge point candidates are acquired in the X direction and the Y direction, and the intersection of straight lines (approximate straight lines) that approximately pass through the edge point candidates is specified as the angular position.
  • the outermost boundary point among the boundary points from dark to light is specified as the edge point candidate, a decrease in the identification accuracy due to the influence of noise or the like is suppressed.
  • FIGS. 9 and 10 it is assumed that a blob Bs having a bend is detected due to the influence of a shadow reflected in the corner portion of the substrate S. Also, as shown in the figure, it is assumed that a small rectangular pattern is adopted as a mask mark, and a blob Bm of this mask mark is also detected. Furthermore, it is assumed that blob Bn due to noise is detected. In this case, a boundary point P from dark to bright exists at a position on the inner side of the edge of the corner portion of the substrate S, as indicated by a dot X in FIG. In addition, there is a dark to bright boundary point P due to the mask mark and noise outside the corner portion.
  • boundary points P the boundary points inside the edge are not edge point candidates and are canceled.
  • the boundary point outside the edge is an edge point candidate, it is at a position away from the first approximate line, so it is canceled at the time of the process for obtaining the second or subsequent approximate line. The For this reason, the accuracy of specifying the substrate corner position is not degraded by these boundary points.
  • How many edge point candidates are canceled with respect to the initial total number of edge point candidates depends on the amount of noise that can be included. When a lot of noise can be included, the number of edge point candidates to be canceled increases, but it is still preferable not to fall below 30% with respect to the original number. This is because if it is less than 30%, even if they indicate the position of the original edge of the substrate S, irregular factors such as the curvature of the edge of the substrate S are likely to be included. In addition, if the number to be canceled is less than 70%, there is a problem that it is easy to be affected by noise, and special consideration is required to minimize the noise.
  • the number of edge points to be canceled is preferably 30% to 70%, more preferably 40% to 60%.
  • more than 70% of the edge point candidates may be canceled.
  • the edge point candidates to be canceled are canceled.
  • the number can be less than 30%.
  • the number of times of obtaining the approximate straight line may be one time or several times. Although it is preferable to reduce the number of edge points to be canceled at one time and increase the number of times of regression processing, the calculation becomes complicated and time is required.
  • software that performs calculation processing to obtain approximate straight lines while canceling points in order of distance is software live sold under the name Cognex Vision Library (CVL) 6.5 from Cognex Corporation, headquartered in Boston, USA. Since it is contained in the rally, it can be used suitably. In the software, since it is possible to specify the ratio of points to be finally left (remaining edge point candidates in this embodiment), it is preferable to use the function.
  • CVL Cognex Vision Library
  • the influence of noise is likely to occur inside the image of the corner portion of the substrate S, such as the unevenness of the surface of the substrate S and the edge of the dry film. Therefore, when there is no noise image reflected outside the corner portion, for example, when there is no mask mark reflection, it is sufficient to obtain an initial approximate straight line with the outermost reference point P as an edge point candidate. There is. In this case, the primary approximate straight line is used as an edge line as it is.
  • a case where the mask is large with respect to the substrate and the position of the mask mark is out of the imaging area 41 is an example.
  • the mask mark enters the imaging area 41 it is preferable that the mask mark is not rectangular in order not to affect the specific accuracy of the substrate corner position as much as possible. This is because in the case of a rectangular mask mark, one of the sides is likely to be erroneously recognized as an edge line at the corner of the substrate.
  • a mask mark having a circular shape or a triangular shape can be considered.
  • the substrate S is transported by the transport system 1 and placed on the stage 2.
  • a control signal is sent from the main controller 6 to the transport system 1 so that the substrate S is transported to the processing position, but the transport position does not sufficiently match the processing position due to the limit of accuracy of the transport system 1. .
  • the main controller 6 sends a signal to each part of the apparatus and executes an alignment sequence. That is, when the substrate S is transported, each camera 4 is retracted to a retract position where there is no hindrance to the transport, but after the substrate S is placed on the stage 2, the camera drive mechanism 42 is received by a signal from the main controller 6.
  • Each camera 4 is moved to a predetermined position. This position is a position where the optical axis of the lens of each camera 4 coincides with the area reference point 40 and becomes a predetermined shooting distance.
  • each camera 4 performs shooting, and shooting data is sent to the image processing unit 5.
  • An execution command for the angular position specifying program is sent to the image processing unit 5, and the angular position specifying program is executed.
  • the corner position specifying program specifies the board corner position from the imaging data having the board angle, and returns the result to the alignment sequence program.
  • the mask and substrate alignment sequence program calculates the proration point of the corner position from the result of specifying the substrate angular position, and calculates the movement amount for matching with the proration point of the mask mark MAM calculated in advance. It is transmitted as a control signal to the stage drive mechanism 21.
  • the stage 2 moves the transmitted movement amount, and the substrate S is located at the processing position.
  • the stage 2 rises and the substrate S comes into close contact with the mask 32. Thereafter, a signal is sent from the main controller 6 to the exposure system 3, and exposure processing is executed. After exposure for a predetermined time, the operation of the exposure system 3 is stopped, the stage 2 is lowered, the transport system 1 is operated, and the substrate S is picked up from the stage 2 and carried out.
  • the exposure apparatus since the alignment of the substrate S is performed based on the identification result in the substrate angular position identification direction of the embodiment, the alignment accuracy is increased. In particular, since it is not necessary to provide an alignment mark on the substrate S, it is suitable for the first exposure.
  • the exposure apparatus is a contact system.
  • the exposure apparatus can be implemented similarly whether it is a proximity system or a projection exposure system.
  • the camera 4 captures the corner of the substrate S through the mask 32.
  • the projection exposure method the camera 4 is positioned at a position between the mask 32 and the substrate S. Only the corners of the substrate S are photographed. For this reason, the mask mark is not included in the photographing data. This is simple in terms of image processing.
  • a double-sided exposure method in which both surfaces of the substrate S are simultaneously exposed may be employed.
  • the relationship between the pattern formation position on one surface and the pattern formation position on the other surface is particularly problematic. If the positions 32 are aligned with each other, it becomes easy to maintain the accuracy of the positional relationship between the patterns. This point is conspicuous when double-sided exposure is adopted in the first exposure, and if the accuracy of the positional relationship between the two is first secured, it is easy to ensure the accuracy even when the patterns are subsequently laminated.
  • the substrate angular position specifying method according to the embodiment can be used, whereby the substrate angular position can be specified with high accuracy, and the pattern formation accuracy on both sides can be increased.
  • a direct imaging (DI) method is known as an exposure method.
  • DI direct imaging
  • an exposure pattern is generated and exposed using a spatial light modulator such as DMD, and therefore a mask is not used.
  • the substrate angular position specifying method of the embodiment is suitably employed.
  • the substrate angle position specifying method of the embodiment can be suitably employed in processes other than the exposure process. For example, even in a substrate bonding apparatus for bonding two substrates, it is necessary to cover and bond the other substrate in a state where one substrate is positioned at a predetermined processing position. Can be suitably used.
  • the substrate angular position specifying method of the embodiment can also be suitably employed in an apparatus for observing a substrate for inspection or other purposes.
  • the substrate corner position specifying method of the embodiment can be suitably employed.
  • the boundary point is a boundary of change from dark to light.
  • the boundary point may be a boundary of change from light to dark. For example, if the stage surface is black while the substrate is a bright surface that reflects some light, the contrast may be reversed.
  • a configuration that cancels noise such as mask marks by color may be adopted.
  • the mask mark is formed in a specific color, and the corner of the substrate is photographed while illuminating with light of a similar color, so that the reflection of the mask mark pattern may be suppressed to specify the substrate corner position. obtain.
  • the noise generated by the reflection of the shape of each part in the device Select the color to illuminate as appropriate, or take the shooting data as color data and binarize it after removing the noise with the color. In some cases, a blob may be detected.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 矩形状の基板の角位置を高い精度で特定できる実用的な技術を提供する。 【解決手段】 カメラ4の撮影エリア41内に角が位置するように矩形状の基板Sを配置した後に撮影エリア41をカメラ4で撮影し、撮影データを二値化して検出されるブロブBsにより撮影エリア41内に基板Sの角が有ると判断された場合、各X方向スキャンラインLxにおいて最も外側の暗から明への境界点PをX方向エッジ点候補とするとともに、各Y方向スキャンラインLyにおいて最も外側の暗から明への境界点PをY方向エッジ点候補とする。X方向エッジ点候補を通る近似直線とY方向エッジ点候補を通る近似直線との交点を基板の角Cの位置として特定する。

Description

基板角位置特定方法
 この出願の発明は、プリント基板のような矩形状の基板の角の位置を特定する技術に関するものである。
 各種製品を製造する上で土台となる板状部材は基板と総称されるが、しばしば矩形状のものが使用される。矩形状の基板の典型的なものはプリント基板であるが、この他、液晶ディスプレイや有機ELディスプレイのようなディスプレイ用の基板も矩形状である。
 このような基板に対しては、種々の処理が施されて目的とする製品が製造される。この際、基板上の正しい位置に処理を施す等の理由から、基板の位置を特定することが必要になる場合が多い。例えば、基板上に回路パターンを形成するフォトリソグラフィでは、基板上に形成されたレジスト層の表面を回路パターンの光で露光する露光工程が行われる。この際、回路パターンの光の照射位置に対して基板を正しい位置に配置する位置合わせ(アライメント)が必要であることから、露光装置に投入された基板が正しい位置であるか判断するため、基板の位置の特定が必要になる。
 基板位置の特定は、多くの場合、基板に設けられたマークをカメラで撮影することにより行われる。基板の位置は、ある基準となる位置に対して特定されるが、この位置に対して撮影エリアが所定の位置関係となるようカメラが配置される。そして、配置された基板のマークをこのカメラで撮影し、撮影データを処理することでマークの位置が特定される。マークの位置は、予め決められており、マークの位置が特定されることで基板の位置も特定される。投入された際の基板の位置が特定されれば、本来の配置位置との間のずれも求められることになり、ずれを解消するための移動量(距離と方向)も求まることになる。
特開2001-110697号公報 特開2014-205286号公報 特開2003-17545号公報
 しかしながら、ある種のプロセスでは、マークが施されていない状態で基板の位置を特定することが必要になる場合がある。例えば、上述したフォトリソグラフィでは、マークについても高い位置精度で形成する必要があるため、露光処理を含むフォトリソグラフィによって形成される。マーク用の露光の際には、当然ながらマークのない基板に対してマーク用のパターンの光で露光を行うことになり、したがってマークのない基板の位置合わせが必要になる。
 尚、近年の製品の高機能化、複雑化に伴い、露光、現像、エッチングという一連の工程が複数回行われることが多くなってきている。この場合、一つの基板に対して最初に行われる露光はファースト露光と呼ばれる。上記マーク形成用の露光も、ファースト露光の一種である。ファースト露光では、回路パターン形成用の露光も併せて行われる場合があり、この場合は、マーク用のパターンの光と回路パターンの光とが一緒に照射されることになる。
 このようにマークのない状態の基板の位置を特定する場合、基板の輪郭形状を手掛かりとして位置を特定することになる。この方法として考えられるのは、基板の角の位置を特定することで基板の位置を特定することである。矩形状の基板のいずれかの角の位置が特定され、それがどの角であることが判れば、基板の位置が特定されることになる。また、少なくとも二つの角の位置が特定できれば、基板の姿勢のずれ(傾き)も判ることになる。
 このようなことから、本願の発明者は、基板の角の位置を特定する方法について鋭意研究を行った。基板の角の位置を特定する方法としては、角を含む基板のコーナー部をカメラで撮影し、得られた撮影データを処理して撮影エリア内での角の位置を特定する方法があり得る。「コーナー部」とは、角を含む基板の隅のある程度の領域の部分を意味する用語である。
 撮影データの処理(画像処理)としては、二値化ブロブを検出した上でのパターンマッチングによることが考えられる。二値化ブロブとは塊の意味であり、二値化ブロブの検出とは、撮影データの濃淡に対して閾値を適用して各ドットを二値化し、ある塊のパターンを抽出することである。
 しかしながら、発明者の研究によると、二値化ブロブを検出した上でのパターンマッチングにより基板の角位置の特定を行う場合、ノイズが多く存在していたり、基板上に被着しているドライフィルムの縁のような基板以外の部材の像も映り込んだりする問題があり、そのような問題を解決しなければ精度の高い基板角位置特定が行えないことが判ってきた。この点について、図12を参照して説明する。図12は、二値化ブロブを検出した上でのパターンマッチングによる角位置の特定の際の課題について示した平面概略図である。
 図12は、ある基板のコーナー部をカメラで撮影した画像を概略的に示している。図12中、ハッチングで示された部分Iがコーナー部の像である。パターンマッチングを行う場合、撮影データを処理して二値化ブロブを検出する。そして、検出された二値化ブロブについて、コーナー部のブロブであるかどうか判断し、コーナー部のブロブであれば、そのデータをさらに処理して角の部分の座標を取得する。座標は、撮影エリアに設定された基準位置に対応しており、座標の位置を基板の角位置として特定する。
 このような方法により理論的には角位置の特定は可能であるものの、撮影データに含まれる種々のノイズにより、精度良く角位置を特定することは実際には難しい。即ち、図12に示すように、カメラで撮影された画像には、コーナー部の像Iのみならず、種々のノイズが映り込んでいる。例えば、基板の表面は完全な平坦面ではなく、僅かな凹凸が存在している場合がある。基板の表面に形成するレジスト層としてドライフィルムを使用する場合があるが、このドライフィルムを被着させる際、被着性を高めるために意図的に表面に凹凸を設ける場合がこの一例である。このような場合、図12に符号N1で示すように、表面の凹凸が映り込み、その濃淡が閾値以上であるとそれを取り込んで二値化ブロブが検出されてしまうことがあり得る。
 また、ドライフィルムは、基板のエッジまで完全に覆っている場合もあるが、そうではなく、少し内側までしか覆っていない場合もある。この場合、基板のエッジのみならずドライフィルムのエッジの像N2が映り込む場合が多く、ドライフィルムのエッジの像で二値化ブロブが検出されてしまうこともあり得る。
 さらに、撮影された画像には、周囲の照明の影響で像が映り込む場合がある。例えばカメラで撮影する際には何らかの照明が行われるが、装置内の部材の影が映り込んでしまったり、反射光によるパターンN3や影N4が映り込んでしまったりする場合があり得る。また、マスク越しに撮影を行う場合、マスクに設けられた位置合わせ用のマーク(マスクマーク)の像N5が映り込んでしまう場合もある。このようなノイズが閾値以上の濃淡をもっていると、それを取り込んで二値化ブロブが検出されることがあり得る。
 このように種々のノイズN1~N5が存在しているため、それらの影響を除去(キャンセル)しなければ、本来のコーナー部の二値化ブロブが正しく検出されなかったり、コーナー部の二値化ブロブとは別に無関係な(ノイズの)二値化ブロブが検出されてしまったりすることが判ってきた。
 本願の発明は、このような研究結果を踏まえて為されたものであり、矩形状の基板の角位置を高い精度で特定できる実用的な技術を提供することを解決課題としている。
 上記課題を解決するため、本願の請求項1記載の発明は、カメラの撮影エリア内に角が位置するように矩形状の基板を配置する基板配置ステップと、
 基板配置ステップの後、撮影エリアをカメラで撮影する撮影ステップと、
 撮影された撮影エリアの撮影データから、当該撮影エリア内に基板の角が位置しているか否かを判断する判断ステップと、
 判断ステップにおいて撮影エリア内にて基板の角が位置しているとされた場合、当該撮影データを処理して角位置を特定する角位置特定ステップとを有する基板角位置特定方法であって、
 角位置特定ステップは、撮像データからエッジ点候補を特定する位置特定第一ステップと、位置特定第一ステップにおいて特定されたエッジ点候補から、二つのエッジ直線を特定する位置特定第二ステップと、位置特定第二ステップで特定された二つのエッジ直線の交点を前記撮影エリアに配置された基板の角の位置として特定する位置特定第三ステップとを備えており、
 位置特定第一ステップは、撮影エリアで直交する二つの方向のうちのX方向のスキャンラインであるX方向スキャンラインにおいて明暗が変化する境界点のうち最も外側に位置する境界点をX方向エッジ点候補として特定するとともに、Y方向のスキャンラインであるY方向スキャンラインにおいて明暗が変化する境界点のうち最も外側に位置する境界点をY方向エッジ点候補とするステップであり、
 位置特定第一ステップにおけるX方向の最も外側とは、X方向において基板の像が存在する側を内とし、これとは反対側と外とした場合の最も外側であり、Y方向の最も外側とは、Y方向において基板の像が存在する側を内とし、これとは反対側を外とした場合の最も外側であり、
 位置特定第一ステップは、所定のインターバルをおいて多数のX方向スキャンライン上で前記X方向エッジ点候補を特定するとともに、所定のインターバルをおいて多数のY方向スキャンライン上で前記Y方向エッジ点候補を特定するステップであり、
 位置特定第二ステップで特定される二つのエッジ直線のうちの一方は、位置特定第一ステップで特定された多数のX方向エッジ点候補を通る近似直線であり、他方は、位置特定第一ステップで特定された多数のY方向エッジ点候補を通る近似直線であるという構成を有する。
 また、上記課題を解決するため、請求項2記載の発明は、前記請求項1の構成において、前記位置特定第二ステップは、前記位置特定第一ステップで特定された多数のX方向エッジ点候補により得られた一次の近似直線から遠い順に1又は複数のX方向エッジ点候補を取り除き、残余のX方向エッジ点候補を通る近似直線を求めて前記一方のエッジ直線とするとともに、前記位置特定第一ステップで特定された多数のY方向エッジ点候補により得られた一次の近似直線から遠い順に1又は複数のY方向エッジ点候補を取り除き、残余のY方向エッジ点候補を通る近似直線を求めて前記他方のエッジ直線とするステップであるという構成を有する。
 また、上記課題を解決するため、請求項3記載の発明は、前記請求項2の構成において、前記残余のX方向エッジ点候補の数は、前記位置特定第一ステップで求められたX方向エッジ点候補の数の30%以上70%以下であり、前記残余のY方向エッジ点候補の数は、前記位置特定第一ステップで求められたY方向エッジ点候補の数の30%以上70%以下であるという構成を有する。
 以下に説明する通り、本願の請求項1記載の発明によれば、X方向及びY方向でエッジ点候補を取得し、エッジ点候補を近似的に通る直線(近似直線)の交点を角位置として特定するとともに、この際、明暗の境界点のうち最も外側の境界点をエッジ点候補として特定するので、ノイズ等の影響による特定精度の低下が抑制される。
 また、請求項2記載の発明によれば、X方向及びY方向について、一次の近似直線から遠い順に1又は複数のエッジ点候補を取り除き、残余のエッジ点候補を通る近似直線を求めてそれらの交点を角位置とするので、さらに精度の高い基板角位置特定方法となる。
 また、請求項3記載の発明によれば、前記残余のエッジ点候補の数は元の数の30%以上70%以下であるので、エッジの直線性が高くない基板であっても、またノイズの量を極力少なくするようにしなくても高い精度で基板角位置の特定が行える。
実施形態の基板角位置特定方法が実施される基板処理装置の概略図である。 カメラによる撮影エリアとエリア基準点を示した平面概略図である。 基板角位置特定を含む位置合わせシーケンスプログラムの全体について示した概略図である。 角位置特定プログラムの全体を概略的に示したフローチャートである。 角有無判断モジュールの概略を示したフローチャートである。 角有無判断モジュールによるブロブ検出例を示した概略図である。 角位置特定モジュールの概略を示したフローチャートである。 X方向エッジ線取得サブモジュールの概略を示したフローチャートである。 X方向エッジ線取得サブモジュールによるX方向エッジ線の取得について示した平面概略図である。 Y方向エッジ線取得モジュールによるY方向エッジ線の取得について示した平面概略図である。 X方向エッジ線及びY方向エッジ線により基板角位置を特定する様子を示した平面概略図である。 二値化ブロブを検出した上でのパターンマッチングによる角位置の特定の際の課題について示した平面概略図である。
 次に、この出願の発明を実施するための形態(実施形態)について説明する。図1は、実施形態の基板角位置特定方法が実施される基板処理装置の概略図である。実施形態の方法は、矩形状の基板を処理する種々の装置において実施できるが、以下の説明では、一例として露光装置を採り上げる。即ち、図1には、露光装置の概略構成が示されている。
 図1に示す露光装置は、設定された処理位置に基板Sを搬送する搬送系1と、処理位置において基板Sを保持するステージ2と、ステージ2上の処理位置に所定のパターンの光を照射する露光系3とを備えている。
 露光系3の構成は、露光の方式により異なるが、この実施形態ではコンタクト方式が採用されている。即ち、露光系3は、光源31、処理位置に保持された基板Sに対して密着するマスク32、マスク32を通して光源からの光を照射する光学系33等で構成される。
 搬送系1についても種々の構成が採用し得るが、図1では、コンベア11と移送ハンド12とを備えた構成とされている。ステージ2に対して搬入側と搬出側にコンベア11が設けられ、各コンベア11とステージ2との間で基板Sを移動するものとして移送ハンド12が設けられている。移送ハンド12は、基板Sを真空吸着しながら移動させるものである。
 尚、ステージ2は、載置された基板Sを真空吸着する不図示の真空吸着機構を備えている。また、ステージ2は、ステージ駆動機構21を備えている。ステージ駆動機構21は、基板Sを処理位置に位置合わせするために水平面内で直交する二つの方向および回転方向にステージ2を移動させたり、処理位置において基板Sとマスク32とを密着させるため、ステージ2を上下動させたりする機構である。
 処理位置とは、マスクと基板があらかじめ設定された位置関係になるように位置合せされた位置のことである。図1に示す装置では、マスク32と基板Sの位置合せは、マスク32に形成されているマスク・アライメントマーク(マスクマーク)MAMの位置と基板Sの角の位置とを特定し、特定した両者の位置情報に基づいて行う。この位置合せのための準備作業として、基板角位置特定が行われる。
 より具体的には、搬送系1によって基板Sは処理位置に位置するよう搬送されるが、搬送系1の精度の限界から処理位置からずれて搬送される。この際、処理位置に対してどの程度ずれているか(距離と方向)を知る必要があるため、角の位置の特定が行われる。
 図1に示すように、露光装置は、カメラ4と、カメラ4が撮影した撮影データを処理する画像処理部5と、メインコントローラ6とを備えている。このうち、実施形態の角位置検出方法は、カメラ4と画像処理部5によって実現される。メインコントローラ6は、基板Sの位置合わせを含む装置の各部の制御を行うユニットである。
 基板Sの角の位置の特定は、ある基準となる位置に対して基板Sの角がどの方向にどれだけ離れて位置しているかを求める作業である。この基準となる位置は、カメラ4による撮影エリア内に設定される(以下、この点をエリア基準点という。)。まず、この点について図2を参照して説明する。図2は、カメラ4による撮影エリアとエリア基準点を示した平面概略図である。
 マスク32と基板Sの位置合せを実施するには、最低2台のカメラ4があれば足りるが、この実施形態では4台のカメラ4が設けられている。各カメラ4は下方に向けて配置されており、各カメラ4のレンズの光軸は垂直である。撮影エリア41は、水平な領域として設定されている。各カメラ4はCCDのようなデジタルカメラ4であるが、各画素は矩形の領域に配列されている。したがって、各カメラ4の視野は矩形であり、図2に示すように撮影エリア41も矩形の領域として設定されている。
 エリア基準点40は、撮影エリア41内の任意の位置を設定することができるが、この実施形態では、矩形状の撮影エリア41の中心位置となっている。
 尚、図1に示すように、各カメラ4にはカメラ駆動機構42が設けられている。各カメラ駆動機構42は、各カメラ4の光軸がエリア基準点40上に位置し、エリア基準点40から垂直方向に所定距離離れた位置に位置するよう各カメラ4を移動させる機構である。
 次に、カメラ4による撮影データを使用した基板角位置の特定について説明する。基板角位置の特定は、画像処理部5に実装されたプログラム(以下、角位置特定プログラムという。)によって行われる。
 角位置特定プログラムは、露光装置に投入された基板Sの位置合わせシーケンスの一部として行われる。まず、位置合わせシーケンス全体について概略的に説明する。
 位置合わせシーケンスは、メインコントローラ6に実装された位置合わせシーケンスプログラムによって行われる。図3は、基板角位置特定を含む位置合わせシーケンスプログラムの全体について示した概略図である。
 露光装置は、不図示の基板搬入確認センサを備えている。位置合わせシーケンスは、基板搬入確認センサから基板搬入確認の信号がメインコントローラ6に入力された際、実行される。位置合わせシーケンスプログラムは、図3に示すように、まず、各カメラ4に対して撮影を行うよう制御信号を送る。
 そして、各カメラ4から撮影データが送信されると、位置合わせシーケンスプログラムは、角位置特定プログラムを実行するよう画像処理部5に信号を送る。角位置特定プログラムの実行結果は、基板Sの角位置の座標である。位置合わせシーケンスプログラムは、角位置特定プログラムから実行結果が戻されると、位置合わせプログラムを実行する。位置合わせプログラムは、ステージ2に信号を送って基板Sを所定の処理位置に位置させるプログラムである。
 次に、角位置特定プログラムについて説明する。角位置特定プログラムが実装された画像処理部5は、プロセッサや記憶部(メモリ)等を備えたコンピュータで構成されている。画像処理部5は、パソコンと同様のノイマン型コンピュータであるが、PLCのような非ノイマン型コンピュータで構成することも可能である。
 図4は、角位置特定プログラムの全体を概略的に示したフローチャートである。図4に示すように、角位置特定プログラムは、角有無判断モジュールと、角位置特定モジュールとから成っている。角有無判断モジュールは判断ステップを実行するモジュールであり、角位置特定モジュールは角位置特定ステップを実行するモジュールである。
 各カメラ4からの撮影データは、画像処理部5内の記憶部に一時的に記憶される。各撮影データには、互いを識別できるようにID(以下、撮影データIDという。)が付与される。角位置特定プログラムは、位置合わせシーケンスプログラムから各撮影データの撮影データIDを引数として受け取って実行される。この実施形態では、カメラ4は4台であるので四つの撮影データIDが渡される。
 図5は、角有無判断モジュールの概略を示したフローチャートである。図5に示すように、角有無判断モジュールは、最初の撮影データに対して二値化処理をする。即ち、所定の閾値を適用して白黒の二色のイメージデータとする。以下、このイメージデータを二値化データという。生成された二値化データは、ID(二値化データID)が付与され、記憶部に記憶される。次に、角有無判断モジュールは、二値化データについてブロブ検出を行い、パターンマッチングにより角有無を判断する。即ち、検出されたブロブの中に基板Sの角の像に相当するものがあるかないかをパターンマッチングにより判断する。
 この点について、図6を参照してより詳しく説明する。図6は、角有無判断モジュールによるブロブ検出例を示した概略図である。図6(1)は基板Sの角が無いと判断される例、(2)は基板Sの角が有ると判断される例である。尚、この実施形態では、マスク32にはマスクマークが設けられており、基板Sの位置合わせの際、マスクマークも併せて撮影され、マスク32が所定位置に位置しているかの確認が行われる。このため、二値化処理された画像には、マスクマークMAMのブロブBmが含まれる。尚、二値化ブロブを検出する画像処理は、BlobAnalysis関数のような名称で提供されている汎用のソフトウェアが使用できるので、詳細な説明は割愛する。
 コーナー部が撮影されている場合、当該コーナー部のブロブBsは、撮影エリア41の四隅のうちの一つから広がる矩形の形状となる。この場合の一つの隅は、当該撮影を行ったカメラ4の位置に応じて決まるものであり、以下、エリア始点といい、図6に符号411で示す。
 撮影データは、どの位置のカメラ4によるものであるかを識別できるよう角位置特定プログラムに渡されており、角有無判断モジュールは、どのカメラ4の画像であるかに従ってエリア始点411を特定する。そして、エリア始点411を含んで矩形状に広がるブロブBsがあるかどうか判断する。そのようなブロブBsがあれば基板Sの角がある(撮影されている)と判断し、無ければ基板Sの角がない(撮影されていない)と判断する。尚、基板Sの角が撮影されていないとは、搬送系1により搬送された基板Sの停止位置の精度が悪く、撮影エリア41内に基板Sの角が停止しなかったことを意味する。
 角位置判断モジュールは、上記のようにして角有無を判断する。そして、判断結果をメモリ変数に格納し、次の撮影データを同様に処理して角有無を判断する。そして、判断結果を別のメモリ変数に格納する。このようにして四つのカメラ4による撮影データについて角有無の判断が行われる。
 図5に示すように、角有無判断モジュールは、四つの撮影データについての判断結果を角位置特定プログラムに戻し、終了する。
 図4に示すように、角位置特定プログラムは、角有無判断モジュールの実行結果について、角無しの判断がされた撮影データが三つ以上あったかどうか判断し、三つ以上であれば、位置合わせ不能であるとして処理をする。この場合、位置合わせプログラムも、エラーを出力して中止される。角無しの撮影データが三つ以上とは、角有りと判断された撮影データが1個又は0個であったことを意味する。角位置判断モジュールは、角有りと判断された撮影データが二つ以上の場合、それら撮影データから生成された二値化データの二値化データIDを戻り値として角位置特定プログラムに戻し、終了する。
 図4に示すように、角位置特定プログラムは、戻された二値化データIDを引数にして角位置特定モジュールを実行する。角位置特定モジュールは、戻された二値化データID(ブロブのパターンマッチングにより基板角があるとされた二値化データ)の各々について実行される。
 図7は、角位置特定モジュールの概略を示したフローチャートである。角位置特定モジュールは、X方向エッジ線取得サブモジュールと、Y方向エッジ線取得サブモジュールとを含んでいる。
 図7に示すように、角位置特定モジュールは、X方向エッジ線取得サブモジュールを実行してX方向エッジ線を取得し、Y方向エッジ線取得サブモジュールを実行してY方向エッジ線を取得する。そして、X方向エッジ線とY方向エッジ線との交点を当該撮影データにより特定された基板角位置とし、当該基板角位置の座標を戻り値として角位置特定プログラムに戻して終了する。
 図8は、X方向エッジ線取得サブモジュールの概略を示したフローチャートである。また、図9は、X方向エッジ線取得サブモジュールによるX方向エッジ線の取得について示した平面概略図である。
 まず、角位置特定モジュールにおけるX方向及びY方向について説明する。ここでのX方向及びY方向とは、基板角位置の特定の際のX方向及びY方向であるから、撮影エリア41のエリア基準点40を基準にして設定されている。この実施形態では、X方向は、矩形状を成す撮影エリア41の一辺の方向であり、Y方向はこれと直交する一辺の方向である。従って、X方向、Y方向は、カメラ4の各画素の配列方向に一致している。撮影エリア41は長方形であり、例えば長辺の方向がY方向、短辺の方向がX方向である。
 X方向エッジ線取得モジュールは、二値化データの値をX方向に辿って調べ、ブロブBの境界点の座標を検出する。図9に、二値化データの値を調べる際のX方向のライン(以下、X方向スキャンラインという。)Lxを示す。X方向スキャンラインLxは、一定のインターバルをおいて多数設定されている。一定のインターバル(以下、スキャン幅という。)Wは、150~350μm程度である。
 図8に示すように、X方向エッジ線取得モジュールは、最初のX方向スキャンラインLxにおいてブロブBの境界点Pの座標を検出する。明暗のうちブロブBは暗となっているドットの塊であるから、暗から明に変化している境界のドットが境界点Pであり、この座標を検出する。尚、「最初のX方向スキャンラインLx」とは、エリア始点411からX方向に延びるスキャンラインであり、図9の例では最も左側のスキャンラインである。
 上記境界点の座標の検出において、ノイズの影響でブロブBが二以上存在していたり、ノイズによってブロブが複雑な輪郭を成していたりする場合があるため、一つのX方向スキャンラインLxにおいて二以上の境界点Pが存在する場合がある。この場合、X方向エッジ線取得モジュールは、最も外側の境界点Pをエッジ点候補として特定する。
 より具体的に説明すると、図8に示すように、X方向エッジ線取得モジュールは、最初のX方向スキャンラインLx上の明暗を調べていき、暗から明に変化している境界点Pがあれば、その座標をメモリ変数に格納する。そして、さらに明暗を調べていき、暗から明に変化している境界点Pがあれば、その座標をメモリ変数に上書きして格納する。この処理をX方向スキャンラインLxの最後のドットまで行う。一つのX方向スキャンラインLxについての処理が終了した際にメモリ変数に格納されている境界点Pの座標が、エッジ点候補である。
 上記暗から明への境界点の座標を調べる向きが重要であるので、以下に説明する。暗から明への境界点を調べる際には、X方向スキャンラインLxを基板角の像の内側から外側に辿って行うようになっている。即ち、図9に示すように、X方向において基板Sの像が存在する側が内側であり、これとは反対側が外側である。そして、内側から外側に辿りならが、暗から明への境界点Pの座標をメモリ変数に上書して格納する。したがって、一つのX方向スキャンラインLxについての処理が終わった際、最も外側の境界点(エッジ点候補)Pの座標がメモリ変数に格納されていることになる。
 X方向エッジ線取得モジュールは、スキャン幅W隔てた隣りのX方向スキャンラインLxについて同様の処理を行う。即ち、内側から外側に辿って暗から明の境界点の座標をメモリ変数に格納していく。この際、最初のX方向スキャンラインLxとは別のメモリ変数に座標が格納されるものの、2個以上の境界点があった場合には上書きして座標が格納される。したがって、2番目のX方向スキャンラインLxでも最も外側の境界点の座標がエッジ点候補としてメモリ変数に格納された状態となる。
 このようにして、スキャン幅毎にX方向スキャンラインLx上での暗から明の変化を内側から外側に辿って調べ、最も外側の境界点の座標をエッジ点候補としてメモリ変数に格納する。図8に示すように、最後のX方向スキャンラインLx(図9の最も右側のX方向スキャンラインLx)についての処理が終わると、X方向エッジ線取得モジュールは、各X方向スキャンラインLxでの境界点を各メモリ変数からエッジ点候補の座標を読み出し、例えば最小二乗法により一次の近似直線を算出する。近似直線は、エリア基準点40を原点とする座標系における一次関数で表される。
 次に、各エッジ点候補について、各エッジ点候補を通る一次の近似直線からの距離を算出し、近似直線から遠い順に所定数のエッジ点候補を取り除く(キャンセルする)。そして、残りのエッジ点候補により近似直線を再度算出する。必要に応じて、この処理を1回又は複数回繰り返し、最後の近似直線をX方向エッジ線とする。求められたX方向エッジ線を戻り値として、角位置特定プログラムに戻すと、X方向エッジ線取得モジュールは終了である。
 次に、角位置特定プログラムは、Y方向エッジ線取得モジュールを実行する。図10は、Y方向エッジ線取得モジュールによるY方向エッジ線の取得について示した平面概略図である。
 Y方向エッジ線取得モジュールも、ブロブの境界点を調べる方向がY方向になるだけで、X方向エッジ線取得モジュールと同様である。最初のY方向スキャンラインLy(エリア始点411上のY方向スキャンラインLy)において内側から外側に明暗を調べ、明から暗への境界点Pがあれば、その座標をメモリ変数に格納する。さらにY方向スキャンラインLyを辿って明暗を調べ、境界点Pがあればその座標をメモリ変数に上書きして格納する。この処理を、スキャン幅W毎に各Y方向スキャンラインLyに対して行い、各々最も外側の境界点Pの座標をY方向エッジ点候補としてメモリ変数に格納する。
 最後のY方向スキャンラインLyまで処理を行った後、Y方向エッジ線取得モジュールは、各Y方向エッジ点候補により一次の近似直線を求める。そして、一次の近似直線に対する各Y方向エッジ点候補の距離を求め、遠い順に所定数のY方向エッジ点候補をキャンセルし、残りのY方向エッジ点候補で近似直線を再度求める。求められた近似直線を戻り値として基板角位置特定プログラムに戻して、Y方向エッジ線取得モジュールは終了する。
 尚、上記説明から自明であるが、X方向エッジ線とは、X方向エッジ点候補で求めた一方のエッジ線という意味であり、Y方向エッジ線とはY方向エッジ点候補で求めた他方のエッジ線という意味である。
 図11は、X方向エッジ線及びY方向エッジ線により基板角位置を特定する様子を示した平面概略図である。図11に示すように、角位置特定プログラムは、X方向エッジ線とY方向エッジ線の交点Cを求め、交点Cの座標をこの基板Sの角の位置として特定する。そして、図4に示すように、基板Sの角があるとされた一つの撮影データについて上記のように基板角位置を特定してその座標をメモリ変数に格納した後、基板Sの角があるとされた別の撮影データについて同様の処理を繰り返して基板角位置を特定し、別のメモリ変数に格納する。基板Sの角があるとされた全ての撮影データについて角位置の座標が各々メモリ変数に格納されると、それらの座標を戻り値として位置合わせシーケンスプログラムに戻す。これで、角位置特定プログラムは終了である。
 尚、別の撮影データにおける基板角位置特定の際には、「内側」、「外側」は、異なる向きである場合があり得る。例えば、図9に示すように右上のコーナー部が撮影された撮影データである場合、X方向での内から外は、紙面上の下から上であるが、右下のコーナー部が撮影された撮影データでは、X方向での内から外は、紙面上の上から下となる。
 次に、角位置特定プログラムを実行した後の位置合わせシーケンスの構成について説明する。図3に示すように、位置合わせシーケンスプログラムは、角位置特定プログラムを実行した後、マスク32と基板Sの位置合わせプログラムを実行する。
 図示は省略するが、マスク32と基板Sの位置合わせプログラムは、周知の方法により検出した複数のマスクマークのブロブ(図11においてはBm)の位置(座標)から算出した案分点と、上記で検出した基板の複数の角の位置(座標)Cの案分点とが一致するように、ステージ2を水平面内で直交する二方向および回転方向に移動させることにより行われる。マスク32と基板Sの位置合せが終われば、テージ2が上昇し、基板とマスクが密着する。この状態で、光源からの光が露光系3とマスクを介して基板に照射され、マスクに形成されているパターンが基板に転写される。
 上述した実施形態の基板角位置特定方法によれば、二値化データを生成してブロブを検出し、検出されたブロブのパターンマッチングを行うものの、パターンマッチングだけで角位置を特定するのではなく、X方向及びY方向でエッジ点候補を取得し、エッジ点候補を近似的に通る直線(近似直線)の交点を角位置として特定している。そして、この際、暗から明への境界点のうち、最も外側の境界点をエッジ点候補として特定するので、ノイズ等の影響による特定精度の低下が抑制される。
 即ち、図9や図10に示すように、基板Sのコーナー部に陰影が映り込んだ影響で屈曲のあるブロブBsが検出されたとする。また、同図に示すように、小さい矩形のパターンがマスクマークとして採用されており、このマスクマークのブロブBmも検出されたとする。さらに、ノイズによるブロブBnが検出されたとする。この場合、図6中に×点で示すように、基板Sのコーナー部のエッジよりも内側の位置に暗から明の境界点Pが存在する。また、コーナー部よりも外側にもマスクマークやノイズによる暗から明の境界点Pが存在する。
 これら境界点Pのうちエッジよりも内側の境界点は、エッジ点候補にはならずキャンセルされる。また、エッジよりも外側の境界点は、エッジ点候補にはなるものの、最初の近似直線に対して離れた位置にあるため、二回目又はそれ以降の近似直線を求める処理の際にはキャンセルされる。このため、これらの境界点によって基板角位置の特定精度が低下してしまうことはない。
 当初のエッジ点候補の総数に対してどの程度の数のエッジ点候補をキャンセルするか(どの程度の数のエッジ点候補を残すか)は、含まれる得るノイズの量により異なる。多くのノイズが含まれ得る場合、キャンセルするエッジ点候補の数は多くなるが、それでも当初の数に対して30%を下回らないようにすることが好ましい。30%を下回ると、それらが本来の基板Sのエッジの位置を示しているとしても、基板Sのエッジの湾曲のようなイレギュラーな要因を含み易くなるからである。また、キャンセルする数が70%未満であると、ノイズの影響を受け易くなってしまい、ノイズが極力少なくなるような特別な配慮が必要になってしまうという問題がある。このため、キャンセルするエッジ点の数は当初の30%以上70%以下とすることが好ましく、40%以上60%以下とすることがより好ましい。
 尚、エッジの直線性の精度が高い基板Sを使用する場合には70%より多くのエッジ点候補をキャンセルする場合があり得るし、ノイズが少ない環境下であれば、キャンセルするエッジ点候補の数を30%未満とすることがあり得る。
 また、近似直線を求め直す回数(回帰処理の回数)は、1回でも良いし数回でも良い。1回にキャンセルするエッジ点の数を少なくして回帰処理の回数を多くすることが好適であるが、演算が複雑になり時間を要することになるので、これらを勘案して適宜選定する。尚、遠い順に点をキャンセルしながら近似直線を求める演算処理を行うソフトウェアは、米国のボストンに本社のあるコグネックス社(Cognex Corporation)からCognex Vision Library (CVL) 6.5の名称で販売されているソフトウェアライブラリーに含まれているので、好適に使用することができる。同ソフトウェアでは、最終的に残す点(この実施形態における残余のエッジ点候補)の割合を指定することができるので、その機能を利用することが好ましい。
 尚、基板Sの表面の凹凸やドライフィルムの縁のように、ノイズの影響は基板Sのコーナー部の像の内側に生じ易い。したがって、コーナー部の外側に特にノイズの像の映り込みがない場合、例えばマスクマークの映り込みが無い場合には、最も外側の基準点Pをエッジ点候補として初期近似直線を求めるだけで足りる場合がある。この場合には、一次の近似直線がそのままエッジ線とされる。マスクが基板に対して大きくマスクマークの位置が撮影エリア41を外れた位置になる場合が、例えば挙げられる。
 マスクマークが撮影エリア41に入ってくる場合、基板角位置の特定精度になるべく影響を与えないようにするには、マスクマークは矩形状でない方が好ましい。矩形状のマスクマークの場合、いずれかの辺が基板のコーナー部のエッジ線と誤認識され易いからである。例えば、円形状、三角形状等のマスクマークが考えられる。
 次に、上記実施形態の基板角位置特定方法が実施される露光装置の全体の動作について説明する。
 基板Sは、搬送系1によって搬送され、ステージ2に載置される。この際、基板Sが処理位置に搬送されるようメインコントローラ6から搬送系1に制御信号が送られるが、搬送系1の精度の限界から、搬送位置は処理位置には十分に一致していない。このため、メインコントローラ6は、装置の各部に信号を送り、位置合わせシーケンスを実行する。
 即ち、基板Sの搬送の際、各カメラ4は搬送に支障のない退避位置に退避しているが、基板Sがステージ2に載置された後、メインコントローラ6からの信号によりカメラ駆動機構42が動作し、各カメラ4は所定位置に移動させられる。この位置は、各カメラ4のレンズの光軸がエリア基準点40に一致し、所定の撮影距離となる位置である。
 この状態で各カメラ4は撮影を行い、撮影データが画像処理部5に送られる。画像処理部5には角位置特定プログラムの実行指令が送られ、角位置特定プログラムが実行される。角位置特定プログラムは、上述したように基板角ありとされた撮影データから基板角位置を特定し、その結果を位置合わせシーケンスプログラムに戻す。
 マスクと基板の位置合わせシーケンスプログラムは、基板角位置の特定結果から角位置の案分点を算出し、あらかじめ算出していたマスクマークMAMの案分点と一致させるための移動量を算出してステージ駆動機構21に制御信号として送信する。ステージ2は、送信された移動量の移動を行い、基板Sは処理位置に位置する。
 続いて、ステージ2が上昇して基板Sがマスク32に密着する。その後、メインコントローラ6から露光系3に信号が送られ、露光処理が実行される。所定時間の露光の後、露光系3の動作が停止され、ステージ2が下降し、搬送系1が動作して基板Sはステージ2からピックアップされて搬出される。
 この露光装置では、実施形態の基板角位置特定方向による特定結果に基づいて基板Sの位置合わせが行われるので、位置合わせ精度が高くなる。特に、基板Sにアライメントマークが設けられている必要はないので、ファースト露光の際に好適となる。
 上記説明では、露光装置はコンタクト方式であるとしたが、プロキシミティ方式であっても投影露光方式であっても同様に実施可能である。コンタクト方式やプロキシミティ方式の場合、カメラ4はマスク32越しに基板Sの角を撮影するが、投影露光方式の場合、カメラ4はマスク32と基板Sとの間の位置に位置させられるので、基板Sの角のみを撮影する。このため、撮影データにマスクマークが含まれることはない。このため、画像処理の点では簡易となる。
 また、いずれの方式においても、基板Sの両面を同時に露光する両面露光の方式が採用されることもあり得る。基板Sの両面に実装を行うプリント基板等では、一方の面に対するパターンの形成位置と他方の面に対するパターンの形成位置との関係が特に問題となるが、両面露光の場合、両側に配置したマスク32を互いに位置合わせしておけばパターンの位置関係の精度を保つのが容易になる。この点は、ファースト露光において両面露光を採用する場合に顕著で、最初に両者の位置関係の精度を確保しておけば、その後にパターンを積層した場合も精度を確保し易い。このような両面露光を行う場合も、実施形態の基板角位置特定方法を採用することで高精度の基板角位置特定が可能となり、その後の両面でのパターン形成精度も高くできる。
 尚、露光の方式については、上記の他にダイレクトイメージング(DI)方式が知られている。DI方式では、DMDのような空間光変調器を使用して照射パターンを生成して露光するので、マスクは使用しない。DI方式の露光においても、基板を所定の処理位置に配置することが必要であり、実施形態の基板角位置特定方法が好適に採用される。
 さらに、実施形態の基板角位置特定方法は、露光処理以外のプロセスにおいても好適に採用され得る。例えば、二枚の基板を貼り合わせる基板貼り合わせ装置においても、一方の基板を所定の処理位置に位置させた状態で他方の基板を被せて貼り合わせる必要があり、実施形態の基板角位置特定方法が好適に使用され得る。
 この他、検査その他の目的で基板を観察する装置においても実施形態の基板角位置特定方法は好適に採用され得る。例えば、基板の表面の傷等の欠陥を検査する装置においてその欠陥の位置を特定する必要がある場合、装置内の基準位置に基板を配置してから欠陥を検出して位置を特定する必要があり、このような場合に実施形態の基板角位置特定方法は好適に採用され得る。
 尚、上記実施形態では、境界点は暗から明への変化の境界であるとしたが、基板によっては境界点が明から暗への変化の境界である場合もある。例えばステージの表面が黒色である一方、基板がある程度の光を反射する明るい面である場合、コントラストが逆になる場合があり得る。
 また、マスクマークのようなノイズを色でキャンセルする構成が採用されることもある。即ち、マスクマークを特定の色で形成しておき、同系色の光で照明しながら基板の角を撮影することで、マスクマークのパターンの映り込みを抑えて基板角位置特定を行う場合があり得る。この点は、装置内の各部の形状が映り込むことで発生するノイズについても同様で、照明する色を適宜選んだり、撮影データをカラーデータとしておき色でノイズを除去した上で二値化してブロブを検出したりする場合もあり得る。
1 搬送系
2 ステージ
3 露光系
4 カメラ
40 エリア基準点
41 撮影エリア
42 カメラ駆動機構
5 画像処理部
6 メインコントローラ
Bs 基板のコーナー部のブロブ
Bm マスクマークの部録
Bn ノイズのブロブ
E 露光基準点
Lx X方向スキャンライン
Ly Y方向スキャンライン
W スキャン幅
P 境界点

Claims (3)

  1.  カメラの撮影エリア内に角が位置するように矩形状の基板を配置する基板配置ステップと、
     基板配置ステップの後、撮影エリアをカメラで撮影する撮影ステップと、
     撮影された撮影エリアの撮影データから、当該撮影エリア内に基板の角が位置しているか否かを判断する判断ステップと、
     判断ステップにおいて撮影エリア内にて基板の角が位置しているとされた場合、当該撮影データを処理して角位置を特定する角位置特定ステップとを有する基板角位置特定方法であって、
     角位置特定ステップは、撮像データからエッジ点候補を特定する位置特定第一ステップと、位置特定第一ステップにおいて特定されたエッジ点候補から、二つのエッジ直線を特定する位置特定第二ステップと、位置特定第二ステップで特定された二つのエッジ直線の交点を前記撮影エリアに配置された基板の角の位置として特定する位置特定第三ステップとを備えており、
     位置特定第一ステップは、撮影エリアで直交する二つの方向のうちのX方向のスキャンラインであるX方向スキャンラインにおいて明暗が変化する境界点のうち最も外側に位置する境界点をX方向エッジ点候補として特定するとともに、Y方向のスキャンラインであるY方向スキャンラインにおいて明暗が変化する境界点のうち最も外側に位置する境界点をY方向エッジ点候補とするステップであり、
     位置特定第一ステップにおけるX方向の最も外側とは、X方向において基板の像が存在する側を内とし、これとは反対側と外とした場合の最も外側であり、Y方向の最も外側とは、Y方向において基板の像が存在する側を内とし、これとは反対側を外とした場合の最も外側であり、
     位置特定第一ステップは、所定のインターバルをおいて多数のX方向スキャンライン上で前記X方向エッジ点候補を特定するとともに、所定のインターバルをおいて多数のY方向スキャンライン上で前記Y方向エッジ点候補を特定するステップであり、
     位置特定第二ステップで特定される二つのエッジ直線のうちの一方は、位置特定第一ステップで特定された多数のX方向エッジ点候補を通る近似直線であり、他方は、位置特定第一ステップで特定された多数のY方向エッジ点候補を通る近似直線であることを特徴とする基板角位置特定方法。
  2.  前記位置特定第二ステップは、前記位置特定第一ステップで特定された多数のX方向エッジ点候補により得られた一次の近似直線から遠い順に1又は複数のX方向エッジ点候補を取り除き、残余のX方向エッジ点候補を通る近似直線を求めて前記一方のエッジ直線とするとともに、前記位置特定第一ステップで特定された多数のY方向エッジ点候補により得られた一次の近似直線から遠い順に1又は複数のY方向エッジ点候補を取り除き、残余のY方向エッジ点候補を通る近似直線を求めて前記他方のエッジ直線とするステップであることを特徴とする請求項1記載の基板角位置特定方法。
  3.  前記残余のX方向エッジ点候補の数は、前記位置特定第一ステップで求められたX方向エッジ点候補の数の30%以上70%以下であり、前記残余のY方向エッジ点候補の数は、前記位置特定第一ステップで求められたY方向エッジ点候補の数の30%以上70%以下であることを特徴とする請求項2記載の基板角位置特定方法。
PCT/JP2017/030709 2016-09-09 2017-08-28 基板角位置特定方法 WO2018047650A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780055184.3A CN109690408B (zh) 2016-09-09 2017-08-28 基板角位置确定方法
KR1020197008563A KR102227972B1 (ko) 2016-09-09 2017-08-28 기판 모서리 위치 특정 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-176225 2016-09-09
JP2016176225A JP6714477B2 (ja) 2016-09-09 2016-09-09 基板角位置特定方法

Publications (1)

Publication Number Publication Date
WO2018047650A1 true WO2018047650A1 (ja) 2018-03-15

Family

ID=61562500

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/030709 WO2018047650A1 (ja) 2016-09-09 2017-08-28 基板角位置特定方法

Country Status (5)

Country Link
JP (1) JP6714477B2 (ja)
KR (1) KR102227972B1 (ja)
CN (1) CN109690408B (ja)
TW (1) TWI731147B (ja)
WO (1) WO2018047650A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4122187B2 (ja) 2002-08-08 2008-07-23 松下電器産業株式会社 照明装置、及びこれを備えた認識装置並びに部品実装装置
TWI795211B (zh) * 2022-02-15 2023-03-01 友達光電股份有限公司 控制電路裝置
CN117111422B (zh) * 2023-10-23 2023-12-29 粤芯半导体技术股份有限公司 光罩正位识别方法、系统和识别终端

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02307167A (ja) * 1989-05-23 1990-12-20 Matsushita Electric Ind Co Ltd 位置認識装置
JPH0320879A (ja) * 1989-06-16 1991-01-29 Matsushita Electric Ind Co Ltd 対象物の特徴部の検出方法
JP2002288678A (ja) * 2001-03-26 2002-10-04 Howa Mach Ltd 円形マークの中心位置測定方法及び基板露光装置における位置合わせ方法
JP2003017545A (ja) * 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd 基板の位置決め方法と装置
JP2009003964A (ja) * 2001-11-16 2009-01-08 Mitsutoyo Corp マシンビジョンシステムの操作方法
JP2014205286A (ja) * 2013-04-12 2014-10-30 信越化学工業株式会社 スクリーン印刷方法及びスクリーン印刷装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001110697A (ja) 1999-10-04 2001-04-20 Ushio Inc 露光装置におけるマスクとワークの位置合わせ方法
JP5769572B2 (ja) * 2011-03-30 2015-08-26 株式会社Screenホールディングス 基板検査装置および基板検査方法
CN102156972B (zh) * 2011-04-19 2012-07-25 清华大学 图像倾斜纠正方法及系统
CN103679638A (zh) * 2013-12-25 2014-03-26 广州广电运通金融电子股份有限公司 残缺或变形的四边形图像的校正方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02307167A (ja) * 1989-05-23 1990-12-20 Matsushita Electric Ind Co Ltd 位置認識装置
JPH0320879A (ja) * 1989-06-16 1991-01-29 Matsushita Electric Ind Co Ltd 対象物の特徴部の検出方法
JP2002288678A (ja) * 2001-03-26 2002-10-04 Howa Mach Ltd 円形マークの中心位置測定方法及び基板露光装置における位置合わせ方法
JP2003017545A (ja) * 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd 基板の位置決め方法と装置
JP2009003964A (ja) * 2001-11-16 2009-01-08 Mitsutoyo Corp マシンビジョンシステムの操作方法
JP2014205286A (ja) * 2013-04-12 2014-10-30 信越化学工業株式会社 スクリーン印刷方法及びスクリーン印刷装置

Also Published As

Publication number Publication date
TWI731147B (zh) 2021-06-21
TW201820043A (zh) 2018-06-01
KR102227972B1 (ko) 2021-03-15
JP6714477B2 (ja) 2020-06-24
KR20190046897A (ko) 2019-05-07
CN109690408B (zh) 2021-08-03
JP2018041007A (ja) 2018-03-15
CN109690408A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
KR101251372B1 (ko) 3차원형상 측정방법
JP5633021B2 (ja) アライメント方法、アライメント装置及び露光装置
KR101527525B1 (ko) 삼차원 계측 장치
WO2018047650A1 (ja) 基板角位置特定方法
JP2009016455A (ja) 基板位置検出装置及び基板位置検出方法
JP2014038045A (ja) 検査装置、照明、検査方法、プログラム及び基板の製造方法
JP2016145887A (ja) 検査装置および検査方法
TWI620039B (zh) 位置判斷裝置、位置判斷方法、微影設備及用於製造物件的方法
JP5261847B2 (ja) アライメント方法、アライメント装置及び露光装置
WO2015145864A1 (ja) 位置ずれ検出方法、位置ずれ検出装置、描画装置および基板検査装置
KR20180087090A (ko) 검사 기준 화상을 통한 자동 조명 설정 방식의 머신 비전 시스템 및 동작 방법
JP2007212939A (ja) 位置ずれ検査方法、プログラム及び位置ずれ検査装置
CN111725086B (zh) 半导体制造装置以及半导体器件的制造方法
JP6428554B2 (ja) 検査システム、検査方法
JP2012185140A (ja) 自動欠陥検査装置
JP2015040698A (ja) アライメント装置、及び検査装置
CN114253095A (zh) 基板位置检测方法、描绘方法、基板位置检测装置及描绘装置
JP6937647B2 (ja) 光学表示パネルの損傷検査方法
CN112474384A (zh) 一种印制电路板的检测设备及方法
JP2008224474A (ja) パターン欠陥検出方法および検査装置
JP2001217599A (ja) 表面実装部品装着機および表面実装部品装着機における電子部品検出方法
JP6358884B2 (ja) 検査装置
JP2009251290A (ja) 露光装置
JP2002319017A (ja) 遮光性パターンの検査方法及び装置
JP2012159399A (ja) 多面取り基板の欠陥検査方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17848591

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20197008563

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17848591

Country of ref document: EP

Kind code of ref document: A1